Chapter 02 概念学习和一般到特殊序
- 从特殊的训练样例中归纳出一般函数是机器学习的中心问题
- 概念学习在预定义的假设空间中搜索假设,使其与训练样例有最佳拟合度
- 为了高效搜索,利用一般道特殊偏序结构
- 本章讨论了归纳学习的本质以及任意程序能从训练数据中泛化的理由
2.1
- 每个概念可看做一个对象或事件集合,一个较大集合中选取的子集
- 从样例中逼近布尔函数(概念学习)给定一样例集合以及每个样例是否属于某一概念的标注,怎样自动推断出该概念的一般定义
概念学习定义
从有关某个布尔函数的输入输出训练样例中推断该布尔函数
描述为:
- 实例的集合
- 元素如天气(sunny,rainy),湿度(normal,high),温度(warm,cold)等
- 实例集合上的目标函数
- 目标概念满足的性质
- 候选假设的集合
- 如将每个假设描述为实例值约束的合取
- 训练样例的集合
- 正例和反例
2.2 概念学习任务
2.2.1
- 概念定义在一个实例集合上,这个集合表示为X
- 目标概念c:待学习的概念或函数,可以是定义在实例集X上的任意布尔函数
- c(x) = 1的示例:正例或目标概念的成员
- c(x) = 0: 反例或非目标概念成员
- H:表示所有可能假设集合,H中每个假设h表示X上定义的布尔函数
- 机器学习的目的:寻找一个假设h使得对于X中所有x,h(x) = c(x)
2.2.2 归纳学习假设
任意假设如果能在足够大的训练样例集中很好地逼近目标函数,那么也能在未见实例中很好地逼近目标函数
2.3 作为搜索的概念学习
语法不同(syntactically distinct)的假设(注意包含∅的情况是1种,注意包含?的属性值)
假设的一般到特殊序
more_general_than_or_equal_to
令h_j和h_x为在X上定义的布尔函数,称h_j more_general_than_or_equal_to h_k(记做)当且仅当
对于任意x属于X,[h_k(x)=1→h_j(x)=1]
类似地,有
定义相反关系为特殊,则
2.4 FIND-S 寻找极大特殊假设
1. 将h初始化为H中最特殊假设
2. 对每个正例x
1. 对h的每个属性约束a_i
1. 如果x满足a_i则不作任何处理,否则将h中a_i替换为下一个更一般约束
3. 输出假设h
对于属性约束的合取式描述的假设空间,FIND-S保证输出为H中与正例一致的最特殊的假设
该算法存在的问题
- 学习过程是否收敛到了正确的目标概念?如果不能至少要描述其不确定性
- 为什么要用最特殊的假设?
- 训练样例是否相互一致?
- 如果有多个极大特殊假设?FIND-S必须允许其选择怎样在一般化假设的路径上回溯,以容纳目标假设位于偏序结构的另一分支的可能性
- 可能是不存在极大假设的特殊空间
2.5 变型空间
一致
一个假设h与训练样例集合D一致,当且晋档对D中每一个样例<x,c(x)>都有h(x) = c(x)
Consistent(h,D)≡(任意<x,c(x)>∈D) h(x) = c(x)
注意与满足的区别:
- 样例x在h(x)=1时被称为满足假设h
- 一致则与目标概念有关
变形空间
关于假设空间H和训练样例集合D的变型空间,标记为VS_{H,D},是H中与训练样例一致的所有假设构成的子集
VS_{H,D}={h∈H|Consistent(h,D)}
变形空间的简洁表示方法
极大一般成员集合G和极大特殊成员集合S
变型空间表示定理 令X为任意实例集合,H为X上定义的布尔假设的集合,令c:X→{0,1}为X上定义的任一目标概念,并令D为任意训练样例的集合|{<x,c(x)>}|,对于所有的X,H,c,D,以及良好定义的S和G
VS_{H,D}={h∈H|(存在s∈S)(存在g∈G)
(g more_general_or_equal_to h more_general_or_equal_to s)}
极大一般成员(maximally general)集合
G≡{g∈H|Consistent(g,D)∧(¬存在g'∈H[(g' >g g)∧Consistent(g',D)])}
极大特殊成员(maximally specific)集合
S≡{s属于H|Consistent(s,D)∧(¬存在s'∈H[(s >g s')∧Consistent(s',D)])}
2.6 候选消除算法
候选消除算法计算变型空间,包含于H中训练样例的观察序列一致的所有假设
- 将G集合初始化为H中极大一般假设(<?,?,?,...>)
- 将S集合初始化为H中极大特殊假设(<∅,∅,∅,...>)
- 对每个训练样例d,做如下操作
- 如果d是一正例
- 从G中移去所有与d不一致的假设
- 对S中每个与d不一致的假设s
- 从S中移去s
- 把s中所有的极小一般化式h加入到S中,h满足于d一致,且G中的某个成员比h更一般
- 从S中移去所有这样的假设,它比S中另一假设更一般
- 如果d是一反例
- 从S中移去所有与d不一致的假设
- 对G中每个与d不一致的假设g
- 从G中移去g
- 把g的所有极小特殊化式h加入到G中,其中h满足h与d一致且S中的某个成员比h更特殊
- 从G中移去所有这样的假设,它比G中另一假设更特殊
- 如果d是一正例
收敛到正确假设的条件
- 在训练样例中没有错误
- H中确实包含描述目标概念的正确假设
- 可以检测变型空间以判定其与真正的目标概念之间是否还有分歧,以及为确定目标概念还需多少训练样例,当VS_{H,D}收敛到单个的可确定的假设是,目标概念才真正获得
下一步需要什么样的训练杨丽
- 查询
- 学习器自己选择一个实例
- 最优查询策略是产生实例以满足当前变型空间中大约半数的假设
- 施教者学习
使用不完全学习概念判断实例
- 实例满足每个S的成员,正例
- 实例不满足每个G的成员,反例
- 假设H中所有假设有相等的先验概率,则每个假设投票
2.7 归纳偏置
无归纳偏置的变型空间
允许使用假设的任意析取\合取\否定式
概念学习算法将完全无法从训练样例中泛化,不能进行演绎派生
- 即使使用变型空间的成员投票,每个未见过的示例也会被一半划分为正例,另一半划分为反例
基本属性:学习器如果不对目标概念的形式做预先假定,它从根本上无法对未见实例进行分类
考虑一半情况下任意的学习算法L以及为任意目标概念c提供的任意训练数据Dc={<x,c(x)>}
令:L(xi,Dc)在对训练数据Dc学习后L赋予xi的分类(正例 or 反例),
-
无偏归纳推理可以如下表示
(Dc∧xi)≻L(xi,Dc)
- ≻代表归纳推理
-
定义L的归纳前置为最小断言集合B,它使任意目标概念和相应的训练样例Dc满足:
(∀xi∈X)[(B∧Dc∧xi)├L(xi,Dc)]
- ├代表演绎推理
有偏程度
- ROTE-LEARNER机械式学习器:无偏(简单地将每个训练样例存储,通过匹配来给出回答)
- 候选消除算法:目标概念c包含在给定的假设空间H中
- FIND-S:目标概念c包含在给定的假设空间H中,任何实例,除非它的逆实例可由其它实例推出,否则它为反例