SVM学习笔记2
凸二次规划 == 开口向下
分类靠支撑向量计算 其 a~=0
hard-margin
soft-margin 容忍一些误差
每个容忍值和希望最小
KKT帮助确定a , L函数系数 拉格朗日
K-fold 数据分成k份进行train test
获取最佳参数
调用crossval就是要找到参数C(惩罚系数)和sigma,使误分率mcr最小
one vs one
多类判定投票
one vs all
有符号距离取最大
才发现 matlab %%
%%
运行节
代码
参考 http://www.matlabsky.com/thread-11026-1-1.html
fitcsvm()
使用'OptimizeHyperparameters'
- 要优化的参数 和'HyperparameterOptimizationOptions'
- 优化的选项来找到最佳sigma 和 C 罚因子