Week Report (Twelfth Week)
Training Summary
- 这周由于考试,所以调整了训练时间,除去周一晚上的健身房爬坡训练,其余强度课都调整到了考试后
- 周一寒潮降温,怕身体吃不住温度感冒发烧(虽然最后还是流了鼻涕😭),改为健身房跑步机爬坡训练,配速和坡度逐渐递增,最后在4°坡进行冲刺,最终均速416,坡度4°完成训练。很久没有跑过坡了,对自己能在高坡度中配速下维持这么久还是比较满意的
- 周二慢跑1h
- 周三下午考完试,进行高强度5k*3训练,前两个都控制在340内,第三个本来已经没力气跑,但是gx刚好在一旁督促,硬生生自己提速到均速336。完美的训练
- 周四1h慢跑
- 周五体测1k后,慢跑1h
- 周六慢跑7k后当校园马拉松兔子5k
- 周日考完试,6k*2,组间2k慢跑,前6k338,后6k337,虽然有点偷距离,但是增强了一定自信心😊
Next Week Training Plan
整体上要逐渐减量,强度课减少为两次,其余都拿来慢跑调整
- 周二或周三选择一天跑2k*4,休息3-4min,速度332
- 周六12k梧桐道节奏跑,340-345
- 其余时间均为1h慢跑
key activities
这是笔者在兴庆待的第三个梧桐节哩,可惜比较忙没有好好欣赏这一年一度的赏叶🍂盛会
- 周三 CSAI2考试,纯粹的麻烦,敲计算器👋都快麻了
- 顺带着把周三的组会翘了(格林师兄还是很体谅我的😌)
- 周五体测,天冷体寒,再次强调跳远不要穿索康尼的鞋子,不然就会体验到什么是溜冰鞋(。早八体测确实冷,身体也没有热开,已经长时间没练速度,最后成绩比较拉跨😭,好在给后面几个兄弟带到满分了。唯一比较满意的是引体向上(20个已满,没有完全放直😊)
- 周六校园马拉松,其实是还是挺想冲成绩的,但是身体和心理比较疲惫,最后选择当430pacer志愿者(分段不重要,最后均速428那就说明配速没问题😎)
- 周日下午人工智能概论考试。不得不吐槽,这门课的PPT简直是漏洞百出,严重怀疑xjm上课的时候看没人听,随便乱念PPT就应付过去😡。知识量特别大,逻辑混乱,也不知道重点内容😵💫计算题也只是纯粹的背公式,私以为是很没有必要闭卷考试的一门课,作为一门选修课或许不错?(
Interesting Events
- 和yyy讨论时,突发奇想助教名字谐音是5+1,故简称其为6
- 校园马拉松遇到了许久未见的雁塔精英小分队
- 考完人工智能概论后,QQ群刷出超强要分王,把自己的疏忽归咎于全体同学,找助教改分还被允许了🤦♂️
- 参与CURA的几位,去创新港校马甚至大幅pb,俺不中了
- 索康尼给我们发来了赞助(外套,三分裤,背心,啡翼2),虽然是金主,但还是偷偷的吐槽一下(为啥同样是索康尼的运动鞋,啡速5的42.5比啡翼2的42.5大一圈🦄)。有一说一,这外套🧥不错,很修身
Next Week Plan
- 调整作息,尽量早睡早起,同时逐步减少训练量,增加赛前储备
- 结束两门考试的同时开始复变的复习,以课本和辅导书为要
- 回顾超标量处理器学习,gem5模拟器的使用,再次细读Berti的详细实现步骤,解决前两周组合提出的问题,阅读CDP并完成Paperform
- 网友(不正经的高中老师)的周末约饭
- 期待周末的电影
复习资料大致整理:
CSAI2:
引论
向量范数
满足以下三点:
- 非负性
- 齐次性
- 三角不等式
向量范数的等价性:
对某个向量来说,如果它的某种范数小(或大),那么它的另两种范数也小(或大)。
映射的不动点
巴拿赫压缩映射原理
矩阵范数
满足以下四点:
- 非负性
- 齐次性
- 三角不等式
- 矩阵乘法不等式
常见的范数:行范数, 列范数, 欧几里得范数(ATA的特征值开根)
矩阵范数的等价性:
误差
截断误差
舍入误差
绝对误差
绝对误差限
相对误差
相对误差限 —> 更能反应误差特性
误差限
适定问题:
- 存在解
- 解唯一
- 解连续的取决于初边值条件
数值计算原则
- 避免两个相近数相减
- 避免用绝对值过小的值做除数
- 放置大数吃掉小数
非线性方程的数值解
n次代数方程
超越方程
有根区间
隔离区间
二分法求解
- 求导算单调性
- 代入端点值->唯一解
- 误差计算
牛顿迭代法公式
牛顿迭代法求解
- 端点
- 一阶导
- 二阶导
- f(x)f′′(x)>0
单点截弦法
双点截弦法
收敛性基本定理
局部收敛定理
收敛阶
线性方程的数值解法
线性方程求解方法
- 直接法
- 迭代法
直接法
高斯消元法
主元素高斯消元法
高斯约旦消元法
矩阵分解法
- 三角分解法
- Cholesky分解法
- 解三对角方程组的追赶法
误差分析
- 适定问题(可能是)
- 不适定问题(一定是病态的)
- 病态问题
病态方程组 病态矩阵
良态方程组 良态矩阵
相对扰动
条件数cond(A)
条件数性质
迭代法
不动点方程 迭代方程
迭代公式的收敛性
雅可比迭代法
高斯-赛德尔迭代法
迭代法收敛的充要条件 -> 谱半径(max(lamda))<1
迭代速度-lnρ
迭代收敛法
函数插值与函数逼近
逼近
一致逼近
平方逼近
∣∣p−f∣∣22=∫ab(p(x)−f(x))2
- 作为逼近程度
limx→+∞(∣∣p−f∣∣22)=0
离散平方逼近
∣∣p−f∣∣22=i=0∑n(p(xi)−f(xi))2
拉格朗日插值
Ln(x)=i=0∑nyili(x)
li(x)=(xi−x0)⋅⋅⋅(xi−xi−1)(xi−xi+1)⋅⋅⋅(xi−xn)(x−x0)⋅⋅⋅(x−xi−1)(x−xi+1)⋅⋅⋅(x−xn)
一阶拉格朗日插值-线性插值
二阶拉格朗日插值-抛物插值
余项定理
分段线性插值函数
牛顿插值
差商
f(xi)是f(x)关于xi的零阶差商
f(x0,x1)=x1−x0f(x1)−f(x0)
f(x0,x1,x2)=x2−x0f(x1,x2)−f(x0,x1)
f(x0,x1,⋅⋅⋅,xn)=xn−x0f(x1,x2,⋅⋅⋅,xn)−f(x0,x1,⋅⋅⋅,xn−1)
- 差商的对称性
f(x,x0,x1,⋅⋅⋅,xk,xkk+1)=x−xk+1f(x,x0,⋅⋅⋅,xk)−f(x0,x1,⋅⋅⋅,xk+1)
前者比后者低一次
埃尔米特插值
H3(x)=h0(x)y0+h1(x)y1+H0(x)m0+H1(x)m1
其中 m0=f′(x0), m1=f′(x1)
h0(x)=(1+x0−x12(x−x1))(x0−x1x−x1)2
h1(x)=(1+x0−x12(x−x1))(x1−x0x−x0)2
H0(x)=(x−x0)(x0−x1x−x1)2
H1(x)=(x−x1)(x1−x0x−x0)2
余项定理:
三次样条插值
- 第一边界条件: S′(x0)=f0′, S′(xn)=fn′
- 第二边界条件: S′′(x0)=f0′′, S′′(xn)=fn′′. 当S′′(x0)=S′′(xn)=0时,称为 自然边界条件
- 第三边界条件: f(x) 是周期函数,有f(x0)=f(xn),此时S(x0)=S(xn)=f(x0),并且S′(x0+0)=S′′(xn−0),S′′(x0+0)=S′′(xn−0),成为周期样条函数
求法
hi=xi+1−xi
λimi−1+2mi+μimi+1=di
λi=(hi+hi−1)hi, μi=(hi+hi−1)hi−1
di=3(hiμi(yi+1−yi)+hi−1λi(yi−yi−1))
- 第一边界条件:
![[Pasted image 20251115103549.png]]
- 第二边界条件:
d0=h03(y1−y0)−2h0f0′′, dn=hn−13(yn−yn−1)+hn−1fn′′
函数内积与正交多项式
权函数
定义:
∫abρ(x)f(x)dx=0
时可得f(x)≡0,称ρ(x)为[a,b]内的权函数
函数内积:
(f,g)=∫abρ(x)f(x)g(x)dx
或
(f,g)=i=0∑mωif(xi)g(xi)
正交: (f,g)=0
正交函数系
正交多项式
切比雪夫多项式
Tn(x)=cos(narccosx)(n=0,1,⋯)
(Tn,Tm)=⎩⎨⎧0,m=n2π,m=n=0π,m=n=0
递推公式:
Tn+1(x)=2xTn(x)−Tn−1(x)
奇偶性
Tn(−x)=(−1)nTn(x)
极值点零点
n个零点
xk=cos2n2k−1π
n+1个极值点
yk=cosnkπ
最高次幂的系数为2n−1
最佳一致逼近
- Weierstrass定理
- Bernstein一致逼近多项式
- 贝塞尔曲线Bn(t)=∑k=0ntk(1−t)n−kPk
- 正负偏差点
- 切比雪夫交错点组(切比雪夫定理)
- 与零偏差最小的多项式
最佳平方逼近
最优化方法
凸集和凸函数
凸集定义:
对x,y∈D,有
λx+(1−λ)y∈D,∀0≤λ≤1
常见凸集
凸集的性质
- 交集
- 凸集的和
- 凸集的差
- αD1
(严格)分离超平面
投影定理
∣∣xˉ−y∣∣=x∈Dinf∣∣x−y∣∣
充要条件:
(x−xˉ)T(xˉ−y)≥0,∀x∈D
夹角≥2π
超平面严格分离点与超平面
凸函数概念:
对任意x,y,λ∈[0,1] 凸函数:
f(λx+(1−λ)y)≤λf(x)+(1−λ)f(y)
严格凸函数:
f(λx+(1−λ)y)<λf(x)+(1−λ)f(y)
凸函数性质:
- αf
- f1+f2
- f(x)=max1≤i≤mfi(x)t
- f(x)=∑i=1mαifi(x),α≥0
凸规划的局部最优解 :
凸函数充分必要条件:
- f(y)≥f(x)+∇f(x)T(y−x),∀x,y∈D
- f(y)>f(x)+∇f(x)T(y−x),∀x,y∈D,x=y
- 即切线
若二阶可微,充要条件为:
- Hesse矩阵半正定,即
yT∇2f(x)y≥0,∀y∈Rn
- 若Hesse正定,则为严格凸函数
- 反之为严格凸函数,Hesse在D上半正定
最优化问题
可行解&可行点&容许点
可行域&容许集
整体最优解
局部最优解&严格局部最优解
最优化问题,实际上就是求 可行域D上整体最优解
一阶必要条件&二阶必要/充分条件
(严格)局部/全局极小点
下降方向定义
凸最优性定理
最优化方法
最优化问题算法的基本迭代格式
局部/全局收敛的算法
(超)线性收敛
最优化方法的终止准则:
- ∣∣xk+1−xk∣∣≤ϵ 或∣∣xk∣∣xk+1−xk∣∣≤ϵ
- ∣f(xk+1)−f(xk)∣≤ϵ 或 ∣f(xk)∣∣f(xk+1)−f(xk)∣≤ϵ
- ∣∣∇f(xk)∣∣≤ϵ
- 上述四种组合
黄金分割法
二分法
无约束优化
两大类:
- 直接法: 利用目标函数值的信息构造
- 解析法/导数法: 利用梯度或者Hesse矩阵
梯度方法(最速下降法)
f(x)=f(xk)+gkT(x−xk)+o(∣∣x−xk∣∣)
记x−xk=αdk
f(xk+αdk)=f(xk)+αgkTdk+o(∣∣αdk∣∣)
若满足gkTd<0,则dk是下降方式,故问题转换为:
dmingkTd
s.t.∣∣d∣∣=1
gkTd=−∣∣gk∣∣∣∣d∣∣cosθk=−∣∣gk∣∣cosθk
d=−∣∣gk∣∣gk
迭代格式:
xk+1=xk−αkgk
步骤:
- 给定初值x0和容差ϵ
- 计算梯度gk=∇f(k)
- 取方向dk=−gk,线性搜索αk
- 计算xk+1=xk+αkdk
牛顿法
Gk≜∇2f(xk),gk≜∇f(xk)
故xk+1=xk−Gk−1gk
步骤:
- 选定初值x0,终止误差ϵ>0
- 计算梯度gk=∇f(xk)
- 构造牛顿方向Gkdk=−gk,线性搜索αk
- 计算xk+1=xk+αkdk
人工智能概论
考题总结:
人工智能元年
人工智能三次爆发两次寒潮 : 56(元年) 56-74 74-80 80-87 87-93 93-
人工智能两大分类: 符号智能 & 计算智能
人工智能三大主义: 符号主义,连接主义,行为主义
命题定义
盲目搜索: 深度优先搜索,广度优先搜索,深度有限搜索
启发式搜索: f(x)=g(x)+h(x) 贪婪搜索: f(x)=h(x) A∗搜索:f(x)=g∗(x)+h∗(x)
零和博弈: 石头剪刀布 常和博弈: 竞争遗产 变和博弈: 囚徒困境
前束范式
排斥或
推理方向: 正向、逆向、混合、双向
P→Q: 不可否定前件,也不可肯定后件
条件概率计算: 贝叶斯定理
主观贝叶斯方法: p(H∣E)=(LS−I)p(H)+ILS∗p(H) O(H∣E)=LS∗O(H),O(H)=p(¬H)p(H)
PEAS: Performance Measure, Environment, Actuators, Sensors
智能体分类: 简单反射智能体、基于模型的反射智能体、基于目标的智能体、基于效用的智能体、学习智能体
命题逻辑表示: P(P是…)
谓词逻辑表示: Friend(Zhang,Li)
产生式表示: IF Zhang and Li THEN Friend 三元组: (关系,对象一,对象二),(对象,属性,属性值)
语义网络表示: (Zhang) ↔ (friend) (Li) (节点一,弧,节点二)
极大极小值搜索
α−β剪枝
斯科伦范式: 前束范式,斯科伦函数取缔存在量词,合取母式
归结反演: 谓词逻辑表示,并化为子句集,将求解问题化为¬Q(x)∨Answer(x),扩充子句集,使用归结原理
基于证据理论的不确定性推理: Bel(A)=∑B⊆Am(B) Pl(A)=∑B∩A=∅m(B)
模糊集合的Zadeh表示: 有界和μ(x)=min(!,μA+μB) , 有界积μ(x)=max(0,μA+μB−!)