<div dir="ltr"><div>Hi Malin,</div><div><br></div>Yes, I agree with you that I also noted that sometimes exhaustive method gives worse results than partial. Just a notation point: in your chart "Averaged searchlight" line is exhaustive and "Searchlight" line is randomly picked? Those levels were somehow established separately?<div>

<br></div><div>Thanks<br><br><div class="gmail_quote">On Tue, Feb 26, 2013 at 4:48 AM, Malin Björnsdotter <span dir="ltr"><<a href="mailto:malin.bjornsdotter@neuro.gu.se" target="_blank">malin.bjornsdotter@neuro.gu.se</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Vadim!<br>
<br>
I sequentially added more and more search volumes (lights),<br>
approaching the number in the exhaustive map. At some point<br>
(surprisingly early) in this process this random average map was<br>
better (= had a larger area under the receiver operating<br>
characteristic curve) than the non-average, exhaustive (searchlight)<br>
map on simulated data. I have attached a hotted up version of a figure<br>
from the Neuroimage paper, that may make it more clear: at less than<br>
5,000 classifiers (=searchlights) the Monte Carlo approach performed<br>
at the same mapping level as the exhaustive (searchlight) algorithm<br>
(which required over 25,000 classifiers, i.e. as many voxels as there<br>
were in the brain). So, the number of search volumes you choose<br>
depends on your definition of satisfactory performance. :)<br>
<br>
Also, there is a trick - in my approach, the search volume selection<br>
is not quite random. I made sure that every voxel was included in the<br>
same number of search volumes, i.e. I partitioned the entire brain<br>
into search volumes (some much smaller than that specified by the<br>
radius parameter) such that every voxel was included in one.<br>
<span class="HOEnZb"><font color="#888888"><br>
~Malin<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
On Tue, Feb 26, 2013 at 8:09 PM, Vadim Axel <<a href="mailto:axel.vadim@gmail.com">axel.vadim@gmail.com</a>> wrote:<br>
> Indeed, very similar - I only make it not random, but rather sequentially<br>
> iterating over all brain. In such a way each voxels participates in roughly<br>
> the same amount of lights. I could not figure out from paper, Malin, in how<br>
> many lights the voxel should participate in order to achieve satisfactory<br>
> performance?<br>
><br>
> On Tue, Feb 26, 2013 at 3:47 AM, Malin Björnsdotter<br>
> <<a href="mailto:malin.bjornsdotter@neuro.gu.se">malin.bjornsdotter@neuro.gu.se</a>> wrote:<br>
>><br>
>> > In my method, the hitrate is assigned to all the<br>
>> > voxels in the light and given that each voxel participates in many<br>
>> > lights,<br>
>> > the hitrates are averaged. So, using my method a voxel hitrate reflects<br>
>> > many<br>
>> > possible environments. I try to compare the results of both and so far<br>
>> > it<br>
>> > seems that with your method the results are more patchy.<br>
>><br>
>> That sounds pretty much exactly as what I've been doing. :-) Jo has an<br>
>> excellent blog entry about this:<br>
>> <a href="http://mvpa.blogspot.sg/2012/09/random-searchlight-averaging.html" target="_blank">http://mvpa.blogspot.sg/2012/09/random-searchlight-averaging.html</a><br>
>><br>
>> _______________________________________________<br>
>> Pkg-ExpPsy-PyMVPA mailing list<br>
>> <a href="mailto:Pkg-ExpPsy-PyMVPA@lists.alioth.debian.org">Pkg-ExpPsy-PyMVPA@lists.alioth.debian.org</a><br>
>> <a href="http://lists.alioth.debian.org/cgi-bin/mailman/listinfo/pkg-exppsy-pymvpa" target="_blank">http://lists.alioth.debian.org/cgi-bin/mailman/listinfo/pkg-exppsy-pymvpa</a><br>
><br>
><br>
</div></div></blockquote></div><br></div></div>