<div dir="ltr"><div><div><div><div><div><div><div><div><div><div>Hello pymvpa users,<br><br>I have questions about the anti-learning phenomenon which have been discussed previously.<br><br></div>my design is the following:<br></div>2 scans, each scan has 8 samples of 4 conditions = 32 blocks<br></div></div>the pseudo-random ordering was chosen to be 2 repetitions of De Bruijn cycles (length 16 eg. 0302113312232010) which implies balancing of successive pairs of conditions.<br><br></div><div>I aim at measuring cross-validation accuracy in 2 groups of the 2 conditions among the 4, but I think the ordering allows such subset.<br></div><div><br></div>When computing cross-validated accuracy (notably with searchlight), some subject's map distributions are skewed often to the below chance side (one is skewed to above chance), and some nodes/rois are really significantly below chance.<br>When looking at the map, the significantly below and above chance level completely make sense regarding the expected network, so this is clearly localized anti-learning and not confounds.<br><br></div>My cross-validation excludes samples neighboring the test set (60sec margin) and balances the classes in training set. I used both leave-one-one (with one or all scans) and leave-one-scan-out cross-validation, and the anti-learning is more pronounced in the former.<br></div><div>For an idea of the cross-validation schema see here: <a href="http://i.imgur.com/s4rlZZd.png">http://i.imgur.com/s4rlZZd.png</a><br></div><div>with blue=train and green=test red=exclude<br></div><div><br></div>Do you have any idea of the potential cause of this? <br>The design, the randomization, the data, the preprocessing, the cross-validation schema?<br></div>Have you found similar problems with your data?<br><br></div>Thanks.<br><br></div>basile<br><div><div><br></div></div></div>