<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class=""><br>
</span>you can get perfect misclassification if you have no signal and<br>
classifier is susceptible to disbalance (e.g. stats based classifiers<br>
suchas GNB, LDA etc wouldn't care as much, SVM -- would)...  and e.g.<br>
you have perfectly balanced dataset and then do leave-one-sample-out.<br>
So this way you have in training slight disbalance toward one class<br>
which classifier chooses to be the one to assign to any testing<br>
data, in the testing a label of the opposite class - perfect<br>
misclassification<br>
<br>
but there were CS papers about what special layout of data points could<br>
lead to misclassifications. someone would need to search the history of<br>
the list here ;)<br>
<br>
what we see in reality at times (also was reported on the list) is<br>
some biases toward misclassification.  Some times they get avoided by<br>
changing partitioning or preprocessing without clearly grasping what<br>
initially lead to it ;)<br>
<span class=""><br></span></blockquote><div>fun examples of misclassification are when samples look like XOR or any tiling of that.</div><div>XOX...</div><div>OXO...</div></div></div></div>