<p dir="ltr">9You can select best parameter by crossvalidation. There are example scripts for it somewhere. You would probably want to use nested cv to avoid double dipping.</p>
<p dir="ltr">Plr is using l2 penalization (i think) which is not producing sparse models but models without extreme weights. If you want sparse models you should use something with l1 regularization, lasso, elastic net, smlr</p>
<div class="gmail_quote">On Mar 23, 2016 8:52 AM, "Vincent Taschereau-Dumouchel" <<a href="mailto:vincenttd@ucla.edu">vincenttd@ucla.edu</a>> wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Dear All,<br>
<br>
I am trying to run a simple logistic regression in pyMVPA and I am having some difficulties finding the way to go. I think it might be possible to achieve using the penalized logistic regression (PLR) classifier but I ran a few tests with different parameters and it is not clear to me which should be used. More specifically, if I understand correctly, the penalty term lambda should affect the number of features that are selected for the classification, but using the get_sensitivity_analyzer function it seems that no weights end up with values of 0 either with very small or very high lambda values. Anyone can help with this issue?<br>
Thank you very much for your help!<br>
<br>
Vincent<br>
_______________________________________________<br>
Pkg-ExpPsy-PyMVPA mailing list<br>
<a href="mailto:Pkg-ExpPsy-PyMVPA@lists.alioth.debian.org">Pkg-ExpPsy-PyMVPA@lists.alioth.debian.org</a><br>
<a href="http://lists.alioth.debian.org/cgi-bin/mailman/listinfo/pkg-exppsy-pymvpa" rel="noreferrer" target="_blank">http://lists.alioth.debian.org/cgi-bin/mailman/listinfo/pkg-exppsy-pymvpa</a><br>
</blockquote></div>