<font face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" size="2"><div class="iNotesHistory" style="padding-left:5px;"><div style="padding-right:0px;padding-left:5px;border-left:solid black 2px;"><font face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" size="2"><div><br></div><div class="iNotesHistory" style="padding-left:5px;"><div style="padding-right:0px;padding-left:5px;border-left:solid black 2px;"><font face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" size="2"> <span>Hello pyMVPA experts,<br><br>I am currently trying to set up a surface based searchlight analyses as documented<br>in the pymvpa manual (<a href="http://www.pymvpa.org/examples/searchlight_surf.html)," target="_blank">http://www.pymvpa.org/examples/searchlight_surf.html),</a> but on<br>structural data. I am trying to classify two groups (A,B) with ten subjects each. <br>My input data contains values for "local gyrification" in voxels that lie between the white matter (%s.smoothwm.asc) and pial (%s.pial.asc) surfaces. All other voxels are zero. <br>I masked my input data with my query engines voxel selection ("qe.voxsel.get_mask()") which gives me a final datastructure of (20, 235866). Yet, I have many invariant zero-value voxels, e.g. in regions of the corpus callosum where white and pial surfaces collapse on each other and thus no values for local gyrification are assigned. I tried removing the invariant features with "remove_invariant_features", but this gives me an error when running the searchlight analyses as the new datastructure (20, 206197) does not fit the voxel selection of the queryengine.<br>When I run my searchlight (using LinearCSVMC classifier), I get the following warning for some voxels:<br><br>#    [SLC] DBG:                   +0:00:08 _______[0%]_______ -1:41:17  ROI 38 (38/27307), 100 #    featuresWARNING: Obtained degenerate data with zero norm for training of <LinearCSVMC>.  #    Scaling of C cannot be done.<br><br>I guess this comes from the invariant voxels in my dataset, yet I see no possibility to exclude them from my analyses.<br><br>Also, my final accuracies are centered around 0.1 and not as expected around the chance level of 0.5.<br><br>Are there other classifiers that deal better with invariant features or should I rather run an "old-fashioned" spherical searchlight analyses where I could use "remove_invariant_features"?<br><br>Thanks in advance for your help!<br>Christian <br><br>-- <br>Universität Zürich<br>Christian Brauchli, MSc <br>Psychologisches Institut<br>Neuropsychologie <br>Binzmühlestrasse 14, Box 25 <br>CH-8050 Zürich<br><br>+41 44 635 74 51 Telefon<br>+41 44 635 74 09 Telefax<br><br><a href="http://www.psychologie.uzh.ch">www.psychologie.uzh.ch</a><br><a href="mailto:c.brauchli@psychologie.uzh.ch">c.brauchli@psychologie.uzh.ch</a></span><div></div></font> </div></div><div></div></font> </div></div><div></div></font>