SVM学习笔记2

凸二次规划 == 开口向下


分类靠支撑向量计算 其 a~=0


hard-margin

soft-margin 容忍一些误差
每个容忍值和希望最小


KKT帮助确定a , L函数系数 拉格朗日


K-fold 数据分成k份进行train test
获取最佳参数

调用crossval就是要找到参数C(惩罚系数)和sigma,使误分率mcr最小


one vs one
多类判定投票

one vs all
有符号距离取最大


才发现 matlab %%
%%
运行节


代码
参考 http://www.matlabsky.com/thread-11026-1-1.html

fitcsvm()
使用'OptimizeHyperparameters' - 要优化的参数 和
'HyperparameterOptimizationOptions' - 优化的选项
来找到最佳sigma 和 C 罚因子