Thank you for your prompt response.<div><br></div><div>"<span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:13px;background-color:rgb(255,255,255)">not sure why cross-validation doesn't fit your needs here.  Could you</span><br style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:13px;background-color:rgb(255,255,255)">
<span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:13px;background-color:rgb(255,255,255)">elaborate a bit more on what you are trying to achieve."</span></div><div><font color="#222222" face="arial, sans-serif"><br>
</font></div><div><font color="#222222" face="arial, sans-serif">I'll put it bluntly. I am trying to script a way for the algorithm to create a comparison pattern based on one set of training-stimuli, then disregard this set of stimuli and compare the pattern formed to a different set of test-stimuli, which will also be of different kind, but should produce similar activation patterns in the ROIs scrutinized.</font></div>
<div><font color="#222222" face="arial, sans-serif"><br></font></div><div><font color="#222222" face="arial, sans-serif">"</font><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:13px;background-color:rgb(255,255,255)">Do you mean that you want to train with all examples from one dataset,</span><br style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:13px;background-color:rgb(255,255,255)">
<span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:13px;background-color:rgb(255,255,255)">then test with all examples from a different dataset?"</span></div><div><font color="#222222" face="arial, sans-serif"><br>
</font></div><div><font color="#222222" face="arial, sans-serif">This is exactly it.</font></div><div><font color="#222222" face="arial, sans-serif"><br></font></div><div><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:13px;background-color:rgb(255,255,255)">"You could always combine the two datasets as the two cross-validation</span><br style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:13px;background-color:rgb(255,255,255)">
<span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:13px;background-color:rgb(255,255,255)">folds and get per-fold results, no?"</span><font color="#222222" face="arial, sans-serif"><br></font><div>
<br></div><div>This is an option we have considered (and will take upon if we find no better solution), to have all the stimuli fall under the same dataset to make cross-validation viable. However we believe that the predictions given on the confusion tables would not be as ideal as if the comparison could be performed as described above.</div>
<div><br></div><div>Thanks again for any help you can offer us.</div><div><br></div><div>J.</div><div><br></div><div><br><br><div class="gmail_quote">
On Wed, Oct 24, 2012 at 3:16 PM, Francisco Pereira <span dir="ltr"><<a href="mailto:francisco.pereira@gmail.com" target="_blank">francisco.pereira@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

You could always combine the two datasets as the two cross-validation<br>
folds and get per-fold results, no?<br>
<span><font color="#888888"><br>
Francisco<br>
</font></span><div><div><br>
_______________________________________________<br>
Pkg-ExpPsy-PyMVPA mailing list<br>
<a href="mailto:Pkg-ExpPsy-PyMVPA@lists.alioth.debian.org" target="_blank">Pkg-ExpPsy-PyMVPA@lists.alioth.debian.org</a><br>
<a href="http://lists.alioth.debian.org/cgi-bin/mailman/listinfo/pkg-exppsy-pymvpa" target="_blank">http://lists.alioth.debian.org/cgi-bin/mailman/listinfo/pkg-exppsy-pymvpa</a><br>
</div></div></blockquote></div><br></div>
</div>