<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div>Hi,</div><div><br></div><div>thank you for the quick response!</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="">It will be the classifier trained on the last fold.<br></div>
<div class=""><br></div></blockquote><div> </div><div>Ok!</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="">
</div>I don't think it would make much sense. "Best" is higher accuracy when<br>
predicting a particular test dataset compared to all others. I doesn;t<br>
necessarily mean that that particular model fit is really better, it<br>
could also be a "better/cleaner" test set.<br>
<br>
You could explore this with more complicated data-folding schemes and<br>
evaluate each trained classifier on multiple different test sets. But<br>
I am not sure what you would gain from doing so...<br></blockquote><div><br></div><div>Ok, I was also thinking about that, it always depends on train/test data! I mean if you always change the training set you're changing initial conditions, so you cannot state that a classifier is better than others!</div>
<div><br></div><div>Is there an easy pymvpa-based ;) way to store each cross-validation classifier or it's better to do it manually?</div><div> </div><div>Thank you,</div><div>Roberto </div></div><br></div></div>