Panchant's Blog!

Home
Blog
  • Cats.
  • Tags
Mine
  • Friends
About
Search
0

Week Report (Twelfth Week)

Published on 11/23/2025
Updated on 11/23/2025
Summary
Estimated reading 14.855 minutes
7367 words

Week Report (Twelfth Week)

Training Summary

  • 这周由于考试,所以调整了训练时间,除去周一晚上的健身房爬坡训练,其余强度课都调整到了考试后
  • 周一寒潮降温,怕身体吃不住温度感冒发烧(虽然最后还是流了鼻涕😭),改为健身房跑步机爬坡训练,配速和坡度逐渐递增,最后在4°坡进行冲刺,最终均速416,坡度4°完成训练。很久没有跑过坡了,对自己能在高坡度中配速下维持这么久还是比较满意的
  • 周二慢跑1h
  • 周三下午考完试,进行高强度5k*3训练,前两个都控制在340内,第三个本来已经没力气跑,但是gx刚好在一旁督促,硬生生自己提速到均速336。完美的训练
  • 周四1h慢跑
  • 周五体测1k后,慢跑1h
  • 周六慢跑7k后当校园马拉松兔子5k
  • 周日考完试,6k*2,组间2k慢跑,前6k338,后6k337,虽然有点偷距离,但是增强了一定自信心😊

Next Week Training Plan

整体上要逐渐减量,强度课减少为两次,其余都拿来慢跑调整

  • 周二或周三选择一天跑2k*4,休息3-4min,速度332
  • 周六12k梧桐道节奏跑,340-345
  • 其余时间均为1h慢跑

key activities

这是笔者在兴庆待的第三个梧桐节哩,可惜比较忙没有好好欣赏这一年一度的赏叶🍂盛会

  • 周三 CSAI2考试,纯粹的麻烦,敲计算器👋都快麻了
  • 顺带着把周三的组会翘了(格林师兄还是很体谅我的😌)
  • 周五体测,天冷体寒,再次强调跳远不要穿索康尼的鞋子,不然就会体验到什么是溜冰鞋(。早八体测确实冷,身体也没有热开,已经长时间没练速度,最后成绩比较拉跨😭,好在给后面几个兄弟带到满分了。唯一比较满意的是引体向上(20个已满,没有完全放直😊)
  • 周六校园马拉松,其实是还是挺想冲成绩的,但是身体和心理比较疲惫,最后选择当430pacer志愿者(分段不重要,最后均速428那就说明配速没问题😎)
  • 周日下午人工智能概论考试。不得不吐槽,这门课的PPT简直是漏洞百出,严重怀疑xjm上课的时候看没人听,随便乱念PPT就应付过去😡。知识量特别大,逻辑混乱,也不知道重点内容😵‍💫计算题也只是纯粹的背公式,私以为是很没有必要闭卷考试的一门课,作为一门选修课或许不错?(

Interesting Events

  • 和yyy讨论时,突发奇想助教名字谐音是5+1,故简称其为6
  • 校园马拉松遇到了许久未见的雁塔精英小分队
  • 考完人工智能概论后,QQ群刷出超强要分王,把自己的疏忽归咎于全体同学,找助教改分还被允许了🤦‍♂️
  • 参与CURA的几位,去创新港校马甚至大幅pb,俺不中了
  • 索康尼给我们发来了赞助(外套,三分裤,背心,啡翼2),虽然是金主,但还是偷偷的吐槽一下(为啥同样是索康尼的运动鞋,啡速5的42.5比啡翼2的42.5大一圈🦄)。有一说一,这外套🧥不错,很修身

Next Week Plan

  • 调整作息,尽量早睡早起,同时逐步减少训练量,增加赛前储备
  • 结束两门考试的同时开始复变的复习,以课本和辅导书为要
  • 回顾超标量处理器学习,gem5模拟器的使用,再次细读Berti的详细实现步骤,解决前两周组合提出的问题,阅读CDP并完成Paperform
  • 网友(不正经的高中老师)的周末约饭
  • 期待周末的电影

复习资料大致整理:

CSAI2:

引论

向量范数

满足以下三点:

  1. 非负性
  2. 齐次性
  3. 三角不等式

向量范数的等价性: 对某个向量来说,如果它的某种范数小(或大),那么它的另两种范数也小(或大)。

映射的不动点

巴拿赫压缩映射原理

矩阵范数

满足以下四点:

  1. 非负性
  2. 齐次性
  3. 三角不等式
  4. 矩阵乘法不等式

常见的范数:行范数, 列范数, 欧几里得范数(ATAA^TAATA的特征值开根)

矩阵范数的等价性:

误差

截断误差

舍入误差

绝对误差

绝对误差限

相对误差

相对误差限 —> 更能反应误差特性

误差限

适定问题:

  1. 存在解
  2. 解唯一
  3. 解连续的取决于初边值条件

数值计算原则

  1. 避免两个相近数相减
  2. 避免用绝对值过小的值做除数
  3. 放置大数吃掉小数

非线性方程的数值解

n次代数方程 超越方程 有根区间 隔离区间

二分法求解

  1. 求导算单调性
  2. 代入端点值->唯一解
  3. 误差计算

牛顿迭代法公式

  • 收敛充分条件(四个)

牛顿迭代法求解

  1. 端点
  2. 一阶导
  3. 二阶导
  4. f(x)f′′(x)>0f(x)f''(x)>0f(x)f′′(x)>0

单点截弦法 双点截弦法 收敛性基本定理 局部收敛定理 收敛阶


线性方程的数值解法

线性方程求解方法

  1. 直接法
  2. 迭代法

直接法

高斯消元法 主元素高斯消元法

高斯约旦消元法

矩阵分解法

  • 三角分解法
  • Cholesky分解法
  • 解三对角方程组的追赶法

误差分析

  • 适定问题(可能是)
  • 不适定问题(一定是病态的)
  • 病态问题

病态方程组 病态矩阵 良态方程组 良态矩阵 相对扰动 条件数cond(A) 条件数性质

迭代法

不动点方程 迭代方程 迭代公式的收敛性

雅可比迭代法

高斯-赛德尔迭代法

迭代法收敛的充要条件 -> 谱半径(max(lamda))<1 迭代速度-ln⁡ρ\ln \rholnρ

迭代收敛法


函数插值与函数逼近

逼近

一致逼近

  • f(x)与p(x)的最大误差作为逼近程度

平方逼近

∣∣p−f∣∣22=∫ab(p(x)−f(x))2||p-f||^2_2 = \int_a^b (p(x)-f(x))^2∣∣p−f∣∣22​=∫ab​(p(x)−f(x))2

  • 作为逼近程度 lim⁡x→+∞(∣∣p−f∣∣22)=0\lim_{x \rightarrow + \infty}(||p-f||^{2}_{2}) = 0limx→+∞​(∣∣p−f∣∣22​)=0

离散平方逼近

∣∣p−f∣∣22=∑i=0n(p(xi)−f(xi))2||p - f ||^2_{2} = \sum_{i= 0}^n (p(x_{i})-f(x_{i}))^2∣∣p−f∣∣22​=i=0∑n​(p(xi​)−f(xi​))2

拉格朗日插值

Ln(x)=∑i=0nyili(x)L_{n}(x)=\sum_{i=0}^ny_{i}l_{i}(x)Ln​(x)=i=0∑n​yi​li​(x)
li(x)=(x−x0)⋅⋅⋅(x−xi−1)(x−xi+1)⋅⋅⋅(x−xn)(xi−x0)⋅⋅⋅(xi−xi−1)(xi−xi+1)⋅⋅⋅(xi−xn)l_{i}(x)=\frac{{{{(x-x_{0})}\cdot\cdot\cdot(x-x_{i-1})(x-x_{i+1})\cdot \cdot {\cdot(x-x_{n})}}}}{(x_{i}-x_{0})\cdot \cdot \cdot(x_{i}-x_{i-1})(x_{i}-x_{i+1})\cdot \cdot \cdot(x_{i}-x_{n})}li​(x)=(xi​−x0​)⋅⋅⋅(xi​−xi−1​)(xi​−xi+1​)⋅⋅⋅(xi​−xn​)(x−x0​)⋅⋅⋅(x−xi−1​)(x−xi+1​)⋅⋅⋅(x−xn​)​

一阶拉格朗日插值-线性插值

二阶拉格朗日插值-抛物插值

余项定理

  • 事后误差估计
  • 龙格现象

分段线性插值函数

  • 局部非零性质

牛顿插值

差商

f(xi)是f(x)关于xi的零阶差商f(x_{i})是f(x)关于x_{i}的零阶差商f(xi​)是f(x)关于xi​的零阶差商
  • 一阶差商
f(x0,x1)=f(x1)−f(x0)x1−x0f(x_{0},x_{1})=\frac{{f(x_{1})-f(x_{0})}}{x_{1}-x_{0}}f(x0​,x1​)=x1​−x0​f(x1​)−f(x0​)​
  • 二阶差商
f(x0,x1,x2)=f(x1,x2)−f(x0,x1)x2−x0f(x_{0},x_{1},x_{2})=\frac{{f(x_{1},x_{2})-f(x_{0},x_{1})}}{x_{2}-x_{0}}f(x0​,x1​,x2​)=x2​−x0​f(x1​,x2​)−f(x0​,x1​)​
  • n阶差商
f(x0,x1,⋅⋅⋅,xn)=f(x1,x2,⋅⋅⋅,xn)−f(x0,x1,⋅⋅⋅,xn−1)xn−x0f(x_{0},x_{1},\cdot \cdot \cdot,x_{n}) = \frac{{f(x_{1},x_{2},\cdot \cdot \cdot,x_{n})-f(x_{0},x_{1},\cdot \cdot \cdot,x_{n-1})}}{x_{n}-x_{0}}f(x0​,x1​,⋅⋅⋅,xn​)=xn​−x0​f(x1​,x2​,⋅⋅⋅,xn​)−f(x0​,x1​,⋅⋅⋅,xn−1​)​
  1. 差商的对称性
f(x,x0,x1,⋅⋅⋅,xk,xkk+1)=f(x,x0,⋅⋅⋅,xk)−f(x0,x1,⋅⋅⋅,xk+1)x−xk+1f(x, x_{0},x_{1},\cdot \cdot \cdot,x_{k},x_{k_{k+1}}) = \frac{{f(x,x_{0},\cdot \cdot \cdot,x_{k})-f(x_{0},x_{1},\cdot \cdot \cdot,x_{k+1})}}{x-x_{k+1}}f(x,x0​,x1​,⋅⋅⋅,xk​,xkk+1​​)=x−xk+1​f(x,x0​,⋅⋅⋅,xk​)−f(x0​,x1​,⋅⋅⋅,xk+1​)​

前者比后者低一次

埃尔米特插值

H3(x)=h0(x)y0+h1(x)y1+H0(x)m0+H1(x)m1H_{3}(x)=h_{0}(x)y_{0}+h_{1}(x)y_{1}+H_{0}(x)m_{0}+H_{1}(x)m_{1}H3​(x)=h0​(x)y0​+h1​(x)y1​+H0​(x)m0​+H1​(x)m1​

其中 m0=f′(x0)m_{0}=f'(x_{0})m0​=f′(x0​), m1=f′(x1)m_{1}=f'(x_{1})m1​=f′(x1​)

h0(x)=(1+2(x−x1)x0−x1)(x−x1x0−x1)2h_{0}(x)=\left( 1+\frac{2(x-x_{1})}{x_{0}-x_{1}} \right)(\frac{x-x_{1}}{x_{0}-x_{1}})^2h0​(x)=(1+x0​−x1​2(x−x1​)​)(x0​−x1​x−x1​​)2
h1(x)=(1+2(x−x1)x0−x1)(x−x0x1−x0)2h_{1}(x)=\left( 1+\frac{2(x-x_{1})}{x_{0}-x_{1}} \right)\left( \frac{x-x_{0}}{x_{1}-x_{0}} \right)^2h1​(x)=(1+x0​−x1​2(x−x1​)​)(x1​−x0​x−x0​​)2
H0(x)=(x−x0)(x−x1x0−x1)2H_{0}(x)=(x-x_{0})\left( \frac{x-x_{1}}{x_{0}-x_{1} } \right)^2H0​(x)=(x−x0​)(x0​−x1​x−x1​​)2
H1(x)=(x−x1)(x−x0x1−x0)2H_{1}(x)=(x-x_{1})\left( \frac{x-x_{0}}{x_{1}-x_{0}} \right)^2H1​(x)=(x−x1​)(x1​−x0​x−x0​​)2

余项定理:

三次样条插值

  • 第一边界条件: S′(x0)=f0′S'(x_{0})=f'_{0}S′(x0​)=f0′​, S′(xn)=fn′S'(x_{n})=f'_{n}S′(xn​)=fn′​
  • 第二边界条件: S′′(x0)=f0′′S''(x_{0})=f''_{0}S′′(x0​)=f0′′​, S′′(xn)=fn′′S''(x_{n})=f''_{n}S′′(xn​)=fn′′​. 当S′′(x0)=S′′(xn)=0S''(x_{0})=S''(x_{n})=0S′′(x0​)=S′′(xn​)=0时,称为 自然边界条件
  • 第三边界条件: f(x)f(x)f(x) 是周期函数,有f(x0)=f(xn)f(x_{0})=f(x_{n})f(x0​)=f(xn​),此时S(x0)=S(xn)=f(x0)S(x_{0})=S(x_{n})=f(x_{0})S(x0​)=S(xn​)=f(x0​),并且S′(x0+0)=S′′(xn−0)S'(x_{0}+0)=S''(x_{n}-0)S′(x0​+0)=S′′(xn​−0),S′′(x0+0)=S′′(xn−0)S''(x_{0}+0)=S''(x_{n}-0)S′′(x0​+0)=S′′(xn​−0),成为周期样条函数

求法

hi=xi+1−xih_{i}=x_{i+1}-x_{i}hi​=xi+1​−xi​ λimi−1+2mi+μimi+1=di\lambda_{i}m_{i-1}+2m_{i}+\mu_{i}m_{i_+1}=d_{i}λi​mi−1​+2mi​+μi​mi+​1​=di​ λi=hi(hi+hi−1)\lambda_{i}=\frac{h_{i}}{(h_{i}+h_{i-1})}λi​=(hi​+hi−1​)hi​​, μi=hi−1(hi+hi−1)\mu_{i}=\frac{h_{i-1}}{(h_{i}+h_{i-1})}μi​=(hi​+hi−1​)hi−1​​ di=3(μi(yi+1−yi)hi+λi(yi−yi−1)hi−1)d_{i}=3\left( \frac{\mu_{i}(y_{i+1}-y_{i})}{h_{i}}+\frac{\lambda_{i}(y_{i}-y_{i-1})}{h_{i-1}} \right)di​=3(hi​μi​(yi+1​−yi​)​+hi−1​λi​(yi​−yi−1​)​)

  • 第一边界条件: ![[Pasted image 20251115103549.png]]
  • 第二边界条件: d0=3(y1−y0)h0−h02f0′′d_{0}=\frac{3(y_{1}-y_{0})}{h_{0}}-\frac{h_{0}}{2}f''_{0}d0​=h0​3(y1​−y0​)​−2h0​​f0′′​, dn=3(yn−yn−1)hn−1+hn−1fn′′d_{n}=\frac{3(y_{n}-y_{n-1})}{h_{n-1}}+h_{n-1}f''_{n}dn​=hn−1​3(yn​−yn−1​)​+hn−1​fn′′​

函数内积与正交多项式

权函数

定义:

∫abρ(x)f(x)dx=0\int_{a}^b\rho(x)f(x)dx=0∫ab​ρ(x)f(x)dx=0

时可得f(x)≡0f(x)\equiv0f(x)≡0,称ρ(x)\rho(x)ρ(x)为[a,b][a,b][a,b]内的权函数

函数内积:

(f,g)=∫abρ(x)f(x)g(x)dx(f,g)=\int_{a}^b\rho(x)f(x)g(x)dx(f,g)=∫ab​ρ(x)f(x)g(x)dx

或

(f,g)=∑i=0mωif(xi)g(xi)(f,g)= \sum_{i=0}^m\omega_{i}f(x_{i})g(x_{i})(f,g)=i=0∑m​ωi​f(xi​)g(xi​)

正交: (f,g)=0(f,g)=0(f,g)=0 正交函数系 正交多项式

切比雪夫多项式

Tn(x)=cos⁡(narccos⁡x)(n=0,1,⋯ )T_{n}(x)=\cos(n \arccos x) (n=0,1,\cdots )Tn​(x)=cos(narccosx)(n=0,1,⋯)
(Tn,Tm)={0,m≠nπ2,m=n≠0π,m=n=0(T_{n},T_{m})= \begin{cases} 0,m\neq n \\ \frac{\pi}{2},m=n\neq_{0} \\ \pi,m=n=0 \end{cases}(Tn​,Tm​)=⎩⎨⎧​0,m=n2π​,m=n=0​π,m=n=0​

递推公式:

Tn+1(x)=2xTn(x)−Tn−1(x)T_{n+1}(x)=2xT_{n}(x)-T_{n-1}(x) Tn+1​(x)=2xTn​(x)−Tn−1​(x)

奇偶性

Tn(−x)=(−1)nTn(x)T_{n}(-x)=(-1)^nT_{n}(x)Tn​(−x)=(−1)nTn​(x)

极值点零点 n个零点

xk=cos⁡2k−12nπx_{k}=\cos \frac{2k-1}{2n}\pixk​=cos2n2k−1​π

n+1个极值点

yk=cos⁡knπy_{k}= \cos \frac{k}{n}\piyk​=cosnk​π

最高次幂的系数为2n−12^{n-1}2n−1

最佳一致逼近

  • Weierstrass定理
  • Bernstein一致逼近多项式
  • 贝塞尔曲线Bn(t)=∑k=0ntk(1−t)n−kPkB_{n}(t)=\sum_{k=0}^nt^k(1-t)^{n-k}P_{k}Bn​(t)=∑k=0n​tk(1−t)n−kPk​
  • 正负偏差点
  • 切比雪夫交错点组(切比雪夫定理)
  • 与零偏差最小的多项式

最佳平方逼近

  • 希尔伯特矩阵

最优化方法

凸集和凸函数

凸集定义: 对x,y∈Dx,y\in Dx,y∈D,有

λx+(1−λ)y∈D,∀0≤λ≤1\lambda x+(1-\lambda)y\in D,\forall 0\leq \lambda\leq 1λx+(1−λ)y∈D,∀0≤λ≤1

常见凸集

  • 超平面
  • 闭半空间
  • 开半空间

凸集的性质

  • 交集
  • 凸集的和
  • 凸集的差
  • αD1\alpha D_{1}αD1​

(严格)分离超平面

投影定理

∣∣xˉ−y∣∣=inf⁡x∈D∣∣x−y∣∣||\bar{x}-y||=\inf_{x \in D}||x-y||∣∣xˉ−y∣∣=x∈Dinf​∣∣x−y∣∣

充要条件:

(x−xˉ)T(xˉ−y)≥0,∀x∈D(x-\bar{x})^T(\bar{x}-y)\geq 0,\forall x \in D(x−xˉ)T(xˉ−y)≥0,∀x∈D

夹角≥π2\geq \frac{\pi}{2}≥2π​

超平面严格分离点与超平面

凸函数概念: 对任意x,y,λ∈[0,1]x,y,\lambda \in[0,1]x,y,λ∈[0,1] 凸函数:

f(λx+(1−λ)y)≤λf(x)+(1−λ)f(y)f(\lambda x+(1-\lambda)y)\leq\lambda f(x)+(1-\lambda)f(y)f(λx+(1−λ)y)≤λf(x)+(1−λ)f(y)

严格凸函数:

f(λx+(1−λ)y)<λf(x)+(1−λ)f(y)f(\lambda x+(1-\lambda)y)<\lambda f(x)+(1-\lambda)f(y)f(λx+(1−λ)y)<λf(x)+(1−λ)f(y)

凸函数性质:

  • αf\alpha fαf
  • f1+f2f_{1}+f_{2}f1​+f2​
  • f(x)=max⁡1≤i≤mfi(x)tf(x) = \max_{1 \le i \le m} f_i(x) tf(x)=max1≤i≤m​fi​(x)t
  • f(x)=∑i=1mαifi(x),α≥0f(x)=\sum_{i=1}^m\alpha_{i}f_{i}(x),\alpha\geq 0f(x)=∑i=1m​αi​fi​(x),α≥0

凸规划的局部最优解 :

  • 是全局最优解
  • 若严格凸,则为唯一最优解

凸函数充分必要条件:

  • f(y)≥f(x)+∇f(x)T(y−x),∀x,y∈Df(y)\geq f(x)+\nabla f(x)^T(y-x),\forall x,y \in Df(y)≥f(x)+∇f(x)T(y−x),∀x,y∈D
  • f(y)>f(x)+∇f(x)T(y−x),∀x,y∈D,x≠yf(y)>f(x)+\nabla f(x)^T(y-x),\forall x,y \in D,x\neq yf(y)>f(x)+∇f(x)T(y−x),∀x,y∈D,x=y
  • 即切线 若二阶可微,充要条件为:
  • Hesse矩阵半正定,即
yT∇2f(x)y≥0,∀y∈Rny^T\nabla^2f(x)y\geq0,\forall y \in R^nyT∇2f(x)y≥0,∀y∈Rn
  • 若HesseHesseHesse正定,则为严格凸函数
  • 反之为严格凸函数,HesseHesseHesse在DDD上半正定

最优化问题

可行解&可行点&容许点

可行域&容许集

整体最优解

局部最优解&严格局部最优解

最优化问题,实际上就是求 可行域D上整体最优解

一阶必要条件&二阶必要/充分条件

(严格)局部/全局极小点

下降方向定义

凸最优性定理

最优化方法

最优化问题算法的基本迭代格式

局部/全局收敛的算法

(超)线性收敛

最优化方法的终止准则:

  1. ∣∣xk+1−xk∣∣≤ϵ{||x^{k+1}-x^k||}\leq\epsilon∣∣xk+1−xk∣∣≤ϵ 或∣∣xk+1−xk∣∣∣∣xk≤ϵ\frac{{||x^{k+1}-x^k||}}{||x^k}\leq\epsilon∣∣xk∣∣xk+1−xk∣∣​≤ϵ
  2. ∣f(xk+1)−f(xk)∣≤ϵ|f(x^{k+1})-f(x^k)|\leq \epsilon∣f(xk+1)−f(xk)∣≤ϵ 或 ∣f(xk+1)−f(xk)∣∣f(xk)∣≤ϵ\frac{{|f(x^{k+1})-f(x^k)|}}{|f(x^k)|}\leq\epsilon∣f(xk)∣∣f(xk+1)−f(xk)∣​≤ϵ
  3. ∣∣∇f(xk)∣∣≤ϵ||\nabla f(x^k)||\leq\epsilon∣∣∇f(xk)∣∣≤ϵ
  4. 上述四种组合

黄金分割法

二分法

无约束优化

两大类:

  1. 直接法: 利用目标函数值的信息构造
  2. 解析法/导数法: 利用梯度或者HesseHesseHesse矩阵

梯度方法(最速下降法)

f(x)=f(xk)+gkT(x−xk)+o(∣∣x−xk∣∣)f(x)=f(x_{k})+g_{k}^T(x-x_{k})+o(||x-x_{k}||)f(x)=f(xk​)+gkT​(x−xk​)+o(∣∣x−xk​∣∣)

记x−xk=αdkx-x_{k}=\alpha d_{k}x−xk​=αdk​

f(xk+αdk)=f(xk)+αgkTdk+o(∣∣αdk∣∣)f(x_{k}+\alpha d_{k})=f(x_{k})+\alpha g_{k}^Td_{k}+o(||\alpha d_{k}||)f(xk​+αdk​)=f(xk​)+αgkT​dk​+o(∣∣αdk​∣∣)

若满足gkTd<0g_{k}^Td<0gkT​d<0,则dkd_{k}dk​是下降方式,故问题转换为:

min⁡dgkTd\min_{d}g_{k}^Tddmin​gkT​d
s.t.∣∣d∣∣=1s.t.||d||=1s.t.∣∣d∣∣=1
gkTd=−∣∣gk∣∣∣∣d∣∣cos⁡θk=−∣∣gk∣∣cos⁡θkg_{k}^Td=-||g_{k}||||d||\cos\theta_{k}=-||g_{k}||\cos\theta_{k}gkT​d=−∣∣gk​∣∣∣∣d∣∣cosθk​=−∣∣gk​∣∣cosθk​
d=−gk∣∣gk∣∣d=-\frac{g_{k}}{||g_{k}||}d=−∣∣gk​∣∣gk​​

迭代格式:

xk+1=xk−αkgkx_{k+1}=x_{k}-\alpha_{k}g_{k}xk+1​=xk​−αk​gk​

步骤:

  1. 给定初值x0x_{0}x0​和容差ϵ\epsilonϵ
  2. 计算梯度gk=∇f(k)g_{k}=\nabla f(_{k})gk​=∇f(k​)
  3. 取方向dk=−gkd_{k}=-g_{k}dk​=−gk​,线性搜索αk\alpha_{k}αk​
  4. 计算xk+1=xk+αkdkx_{k+1}= x_{k}+\alpha _{k}d_{k}xk+1​=xk​+αk​dk​

牛顿法

Gk≜∇2f(xk),gk≜∇f(xk)G_{k} \triangleq \nabla^2f(x_{k}),g_{k}\triangleq\nabla f(x_{k})Gk​≜∇2f(xk​),gk​≜∇f(xk​)

故xk+1=xk−Gk−1gkx_{k+1}=x_{k}-G_{k}^{-1}g_{k}xk+1​=xk​−Gk−1​gk​ 步骤:

  1. 选定初值x0x_{0}x0​,终止误差ϵ>0\epsilon>0ϵ>0
  2. 计算梯度gk=∇f(xk)g_{k}=\nabla f(x_{k})gk​=∇f(xk​)
  3. 构造牛顿方向Gkdk=−gkG_{k}d_{k}=-g_{k}Gk​dk​=−gk​,线性搜索αk\alpha_{k}αk​
  4. 计算xk+1=xk+αkdkx_{k+1}= x_{k}+\alpha_{k}d_{k}xk+1​=xk​+αk​dk​

人工智能概论

考题总结:

人工智能元年

人工智能三次爆发两次寒潮 : 56(元年) 56-74 74-80 80-87 87-93 93-

人工智能两大分类: 符号智能 & 计算智能

人工智能三大主义: 符号主义,连接主义,行为主义

命题定义

盲目搜索: 深度优先搜索,广度优先搜索,深度有限搜索

启发式搜索: f(x)=g(x)+h(x)f(x)=g(x)+h(x)f(x)=g(x)+h(x) 贪婪搜索: f(x)=h(x)f(x)=h(x)f(x)=h(x) A∗A^*A∗搜索:f(x)=g∗(x)+h∗(x)f(x)=g^*(x)+h^*(x)f(x)=g∗(x)+h∗(x)

零和博弈: 石头剪刀布 常和博弈: 竞争遗产 变和博弈: 囚徒困境

前束范式

排斥或

推理方向: 正向、逆向、混合、双向

P→Q:P\to Q:P→Q: 不可否定前件,也不可肯定后件

条件概率计算: 贝叶斯定理

主观贝叶斯方法: p(H∣E)=LS∗p(H)(LS−I)p(H)+Ip(H|E)=\frac{LS*p(H)}{(LS-I)p(H)+I}p(H∣E)=(LS−I)p(H)+ILS∗p(H)​ O(H∣E)=LS∗O(H),O(H)=p(H)p(¬H)O(H|E)=LS*O(H),O(H)=\frac{p(H)}{p(\neg H)}O(H∣E)=LS∗O(H),O(H)=p(¬H)p(H)​

PEAS: Performance Measure, Environment, Actuators, Sensors

智能体分类: 简单反射智能体、基于模型的反射智能体、基于目标的智能体、基于效用的智能体、学习智能体

命题逻辑表示: P(P是…)

谓词逻辑表示: Friend(Zhang,Li)Friend(Zhang,Li)Friend(Zhang,Li)

产生式表示: IF Zhang and Li THEN Friend 三元组: (关系,对象一,对象二),(对象,属性,属性值)

语义网络表示: (Zhang) ↔\leftrightarrow↔ (friend) (Li) (节点一,弧,节点二)

极大极小值搜索

α−β剪枝\alpha-\beta剪枝α−β剪枝

斯科伦范式: 前束范式,斯科伦函数取缔存在量词,合取母式

归结反演: 谓词逻辑表示,并化为子句集,将求解问题化为¬Q(x)∨Answer(x)\neg Q(x)\vee Answer(x)¬Q(x)∨Answer(x),扩充子句集,使用归结原理

基于证据理论的不确定性推理: Bel(A)=∑B⊆Am(B)Bel(A)=\sum_{B \subseteq A}m(B)Bel(A)=∑B⊆A​m(B) Pl(A)=∑B∩A≠∅m(B)Pl(A)=\sum_{B \cap A\neq \emptyset}m(B)Pl(A)=∑B∩A=∅​m(B)

模糊集合的Zadeh表示: 有界和μ(x)=min(!,μA+μB)\mu(x)=min(!,\mu_{A}+\mu_{B})μ(x)=min(!,μA​+μB​) , 有界积μ(x)=max(0,μA+μB−!)\mu(x)=max(0,\mu_{A}+\mu_{B}-!)μ(x)=max(0,μA​+μB​−!)

Related Post
Comments
author-avatar
Panchant
A student, and a runner.
26
Arts.
13
Cats.
58
Tags
Customed
This is the custom content section
Anything can be placed here
TOC
  1. Week Report (Twelfth Week)
  2. Training Summary
  3. Next Week Training Plan
  4. key activities
  5. Interesting Events
  6. Next Week Plan
  7. 向量范数
  8. 矩阵范数
  9. 误差
  10. 线性方程求解方法
  11. 直接法
  12. 误差分析
  13. 迭代法
  14. 逼近
  15. 一致逼近
  16. 平方逼近
  17. 离散平方逼近
  18. 拉格朗日插值
  19. 一阶拉格朗日插值-线性插值
  20. 二阶拉格朗日插值-抛物插值
  21. 余项定理
  22. 分段线性插值函数
  23. 牛顿插值
  24. 差商
  25. 埃尔米特插值
  26. 三次样条插值
  27. 求法
  28. 函数内积与正交多项式
  29. 权函数
  30. 切比雪夫多项式
  31. 最佳一致逼近
  32. 最佳平方逼近
  33. 凸集和凸函数
  34. 最优化问题
  35. 最优化方法
  36. 无约束优化
  37. 梯度方法(最速下降法)
  38. 牛顿法
© 2025-2026 By Panchant
由 Astro v2.8.3 构建 | 主题 HsuBlog
Build with by Panchant
Search
Extended SearchHelloWorld
You can use a unix-like format: Extended Search