Hi Jo -<br><br>Thanks for your response. The features are structural data, so yes, they are voxel values.<br>It just so happens that a behavioral trait is also predictive of whether or not participants are in Group A or Group B. Since the behavioral trait is not of the same "type" as the features, it seems incorrect to simply add it to the feature space. Still, though, I would like to "control" for the predictability of that trait in the MVPA.<br>
Does that make more sense?<br><br>Cheers,<br>John<br><br><div class="gmail_quote">On Tue, Jul 12, 2011 at 11:25 AM, J.A. Etzel <span dir="ltr"><<a href="mailto:jetzel@artsci.wustl.edu">jetzel@artsci.wustl.edu</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">To clarify a bit: what are your features for the classification? I take it they're not voxel values/imaging data but rather some sort of behavioral measures?<br>

<br>
As a general strategy I'd work hard to make sure the feature you don't want driving the classification is not present in the training data, rather than trying to adjust for it afterwords.<br>
<br>
Jo<div><div></div><div class="h5"><br>
<br>
<br>
On 7/11/2011 3:39 PM, John Clithero wrote:<br>
</div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div></div><div class="h5">
Hi PyMVPAers -<br>
<br>
I have a bit of a thought problem (but also hopefully an implementation<br>
one):<br>
<br>
I am performing cross-participant classification (do they belong to<br>
group A or group B?) and that classification works quite well (I've<br>
tried several different algorithms and the leave-one-out CVs are all<br>
significant). However, there is a trait X that we wish to control for<br>
(using the trait X - which is something we are not interested in and<br>
would prefer to have no effect on prediction - as a univariate<br>
predictor, it also performs significantly well for predicting group A or<br>
group B in a simple logistic regression), and I am hoping for some help<br>
in determining the best option.<br>
<br>
One option that I've thought of involves running SVM regression on the<br>
residuals from the logistic regression (so, instead of SVM on 0s and 1s,<br>
give it the continuous variable of the residuals and run SVM<br>
regression). This would (I think) effectively ask if a multivariate<br>
analysis can predict the variance that remains in individual binary<br>
classification after we have accounted for trait X. Does this sound<br>
reasonable, or can an option be thought of to adjust CV post-hoc that<br>
takes trait X into account?<br>
<br>
And, if that does sound reasonable, is there a straightforward way to<br>
implement this test in PyMVPA?<br>
<br>
Thanks for humoring me and my thought problem.<br>
<br>
Cheers,<br>
John<br>
<br>
<br>
<br></div></div>
______________________________<u></u>_________________<br>
Pkg-ExpPsy-PyMVPA mailing list<br>
<a href="mailto:Pkg-ExpPsy-PyMVPA@lists.alioth.debian.org" target="_blank">Pkg-ExpPsy-PyMVPA@lists.<u></u>alioth.debian.org</a><br>
<a href="http://lists.alioth.debian.org/cgi-bin/mailman/listinfo/pkg-exppsy-pymvpa" target="_blank">http://lists.alioth.debian.<u></u>org/cgi-bin/mailman/listinfo/<u></u>pkg-exppsy-pymvpa</a><br>
</blockquote>
<br>
______________________________<u></u>_________________<br>
Pkg-ExpPsy-PyMVPA mailing list<br>
<a href="mailto:Pkg-ExpPsy-PyMVPA@lists.alioth.debian.org" target="_blank">Pkg-ExpPsy-PyMVPA@lists.<u></u>alioth.debian.org</a><br>
<a href="http://lists.alioth.debian.org/cgi-bin/mailman/listinfo/pkg-exppsy-pymvpa" target="_blank">http://lists.alioth.debian.<u></u>org/cgi-bin/mailman/listinfo/<u></u>pkg-exppsy-pymvpa</a><br>
</blockquote></div><br>