<div dir="ltr"><div><div><div><div>Hi pymvpa users and developers.<br><br></div>I have multiple questions regarding the use of GLM to model events for MVPA analysis which are not limited to PyMVPA.<br><br></div>First: in NiPy GLM mapper the measure extracted are <a href="https://github.com/bpinsard/PyMVPA/blob/master/mvpa2/mappers/glm/nipy_glm.py#L50">beta weights from GLM fit</a>, is that common for MVPA? StatsModelGLM mappers return t-p-z... values from model. Does using the t-statistic is more relevant?<br></div><div>The following paper <a href="http://www.sciencedirect.com/science/article/pii/S0028393212002953">Decoding information in the human hippocampus</a><a>: A user's guideĀ  </a>says: "In summary, the pre-processing method of choice at present appears to be the use of the GLM to produce <em>t</em>-values
 as the input to MVPA analyses. However, it is important to note that 
this does not invalidate the use of other approaches such as raw BOLD or
 betas, rather the evidence suggests that these approaches may be 
sub-optimal, reducing the power of the analysis, making it more 
difficult to observe significant results."<br></div><div>What do you think?<br></div><div><br></div>Second: I have developed another custom method to use Least-square-separate (LS-S) model that uses 1 model for each event/block/regressor of interest as shown to provide more stable estimates of the patterns and improved classification in Mumford et al 2012. However for each block I want to model 2 regressors, 1 for instruction and 1 for execution phases which are consecutive. So the procedure I use is 1 regressor for the block/phase that I want to model + 1 regressor for each phase, is that correct?<br></div><div>I would be interested to include these in PyMVPA in the future, as the LS-A (stands for All) is not adequate in rapid event design with correlated regressors.<br><br></div><div>Thanks.<br><br></div><div>basile<br></div></div>