<div dir="ltr"><div>Thanks for your quick reply.<br></div><div>Certainly that any normalization of the betas increases the classification accuracy.<br><br></div><div>My model is different, for example if I want to model a instruction event, I have a regressor for this event, another regressor for all other instruction events, and one regressor for all the execution events (+ a constant).<br></div><div>As execution directly follows the stimuli end, (with reaction time), the regressors sure overlaps and might cause wrong estimates.<br></div><div>About the model, I have more questions in fact.<br></div><div>The fact that there is a subject's response makes the duration of events unequals and instruction is a 4sec stimuli.<br></div><div>I have modelled the instruction and execution phases as blocks instead, but it might bias the samples depending on the difficulty of trials causing longer execution and thus more TR to estimate on.<br></div><div>Do you think I should consider all phases as events and perform a event-related design or use a block design?<br></div><div>I have also been using raw data instead of GLM based samples, but sure the signal to noise is a bit high.</div><div><br></div><div>Thanks.<br><br></div><div>basile<br></div><div><br><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Feb 15, 2016 at 11:07 AM, Christopher J Markiewicz <span dir="ltr"><<a href="mailto:effigies@bu.edu" target="_blank">effigies@bu.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 02/15/2016 10:20 AM, basile pinsard wrote:<br>
> Hi pymvpa users and developers.<br>
><br>
> I have multiple questions regarding the use of GLM to model events for<br>
> MVPA analysis which are not limited to PyMVPA.<br>
><br>
> First: in NiPy GLM mapper the measure extracted are beta weights from<br>
> GLM fit<br>
</span>> <<a href="https://github.com/bpinsard/PyMVPA/blob/master/mvpa2/mappers/glm/nipy_glm.py#L50" rel="noreferrer" target="_blank">https://github.com/bpinsard/PyMVPA/blob/master/mvpa2/mappers/glm/nipy_glm.py#L50</a>>,<br>
<span class="">> is that common for MVPA? StatsModelGLM mappers return t-p-z... values<br>
> from model. Does using the t-statistic is more relevant?<br>
> The following paper Decoding information in the human hippocampus<br>
</span>> <<a href="http://www.sciencedirect.com/science/article/pii/S0028393212002953" rel="noreferrer" target="_blank">http://www.sciencedirect.com/science/article/pii/S0028393212002953</a>>: A<br>
<span class="">> user's guide  says: "In summary, the pre-processing method of choice at<br>
</span>> present appears to be the use of the GLM to produce /t/-values as the<br>
<span class="">> input to MVPA analyses. However, it is important to note that this does<br>
> not invalidate the use of other approaches such as raw BOLD or betas,<br>
> rather the evidence suggests that these approaches may be sub-optimal,<br>
> reducing the power of the analysis, making it more difficult to observe<br>
> significant results."<br>
> What do you think?<br>
<br>
</span>I don't remember reading the referenced article, but I've done a little<br>
playing in this area. While I haven't done per-event t-scores, I have<br>
done one t-statistic per-condition-per-run, and found very similar<br>
spatial pattern of results to those from per-event betas, but with much<br>
higher classification accuracy. For whatever that's worth.<br>
<br>
With per-event betas (z-scored using the ZScoreMapper built on control<br>
conditions), I get distributions of CV accuracies around chance, which<br>
is fine for our analysis strategy. Personally, I don't quite know what<br>
to make of ~50% minimum classification on a problem where chance is 33%.<br>
That said, we use non-parametric significance testing, while there may<br>
be parametric methods that work better on t-score-based MVPA.<br>
<br>
Not sure if that's relevant to you, but that's what I think. :-)<br>
<span class=""><br>
> Second: I have developed another custom method to use<br>
> Least-square-separate (LS-S) model that uses 1 model for each<br>
> event/block/regressor of interest as shown to provide more stable<br>
> estimates of the patterns and improved classification in Mumford et al<br>
> 2012. However for each block I want to model 2 regressors, 1 for<br>
> instruction and 1 for execution phases which are consecutive. So the<br>
> procedure I use is 1 regressor for the block/phase that I want to model<br>
> + 1 regressor for each phase, is that correct?<br>
<br>
</span>I've used a similar strategy, also inspired by the Mumford, et al paper.<br>
I'm not sure if I'm understanding you correctly, so I'll just describe<br>
my approach:<br>
<br>
Each trial has an A event and a B event, and is described by a single<br>
stimulus type. If I have 8 trial types, then I have 16 "conditions"<br>
[(cond1, A), (cond1, B), ...]. For each condition, I perform one<br>
least-squares estimate: one column for each condition of non-interest,<br>
and the condition of interest expanded into one column per event.<br>
<br>
It sounds like you might be doing something slightly different?<br>
<span class=""><br>
> I would be interested to include these in PyMVPA in the future, as the<br>
> LS-A (stands for All) is not adequate in rapid event design with<br>
> correlated regressors.<br>
<br>
</span>Since it turns out I'm not the only one who's needed to develop this,<br>
this seems like a good idea to me. If you're interested in my input, you<br>
can ping me on Github (@effigies) when you start to add it.<br>
<span class="HOEnZb"><font color="#888888"><br>
--<br>
Christopher J Markiewicz<br>
Ph.D. Candidate, Quantitative Neuroscience Laboratory<br>
Boston University<br>
<br>
_______________________________________________<br>
Pkg-ExpPsy-PyMVPA mailing list<br>
<a href="mailto:Pkg-ExpPsy-PyMVPA@lists.alioth.debian.org">Pkg-ExpPsy-PyMVPA@lists.alioth.debian.org</a><br>
<a href="http://lists.alioth.debian.org/cgi-bin/mailman/listinfo/pkg-exppsy-pymvpa" rel="noreferrer" target="_blank">http://lists.alioth.debian.org/cgi-bin/mailman/listinfo/pkg-exppsy-pymvpa</a><br>
</font></span></blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div><font size="1">Basile Pinsard<br></font></div><i><font size="1">PhD candidate, <br></font></i></div><font size="1">Laboratoire d'Imagerie Biomédicale, UMR S 1146 / UMR 7371, Sorbonne Universités, UPMC, INSERM, CNRS</font><br><font size="1"><span><span style="color:#333333"><span style="font-family:Arial,serif"><span lang="en-GB"><i>Brain-Cognition-Behaviour Doctoral School </i></span></span></span><span style="color:#333333"><span style="font-family:Arial,serif"><span lang="en-GB"><b>, </b>ED3C<b>, </b>UPMC, Sorbonne Universités<br>Biomedical Sciences Doctoral School, Faculty of Medicine, Université de Montréal <br></span></span></span></span></font><font size="1">CRIUGM, Université de Montréal</font><br></div></div></div></div>
</div></div></div>