山东大学机器学习期末2022

接力:山东大学机器学习期末2021

本来是不想写的,因为不想回忆起考试时啥也不会的伤痛,没想到最后给分老师海底捞,心情好了一些,还是一块写完

备考建议:多看ppt,多看ppt,多看ppt

山东大学机器学习期末考试2022

考试范围

SMO不考,PCA那一章因子分析不考,最后一章learning theory只考Bias-Variance Complexity和Decomposition 。

跟去年不太一样,比如去年不考GDA,今年我们的第二题就跟GDA的一个推论很像,考试范围最后一节课老师会说。

一、线性回归+牛顿法

考了线性回归的概率解释。

在这里插入图片描述

(1)问

p

(

y

x

;

θ

)

p(y|x;\theta)

p(y∣x;θ)(这里

θ

T

x

\theta^T x

θTx均是确定的哦)

(2)写出最大似然函数

(3)证明通过最大似然求解等价于求解最小二乘

然后,答案全在ppt上。

(4)求正则化线性回归的正规方程(作业题)

二、高斯朴素贝叶斯

(也许是叫这个名儿,可以上网搜搜)

(1)在原来贝叶斯的基础上,增加假设

Y

Y

Y符合伯努利分布,参数为

p

p

p,

X

Y

X|Y

X∣Y符合正态分布,均值为

μ

i

j

\mu_{ij}

μij​,方差为

σ

i

j

\sigma_{ij}

σij​,写出最大似然函数(其实就是贝叶斯的最大似然代入以上具体的概率分布)

(2)证明

P

(

Y

X

)

=

1

1

+

?

P(Y|X)=\frac{1}{1+?}

P(Y∣X)=1+?1​,其中

?

=

f

(

p

,

μ

,

σ

)

?=f(p,\mu,\sigma)

?=f(p,μ,σ)(证明形式是这样,,具体忘了,,求解最大似然估计参数

p

,

μ

,

σ

p,\mu,\sigma

p,μ,σ,然后用参数表示?)

三、软间隔SVM变形

在这里插入图片描述

松弛一项变为

C

i

=

1

m

ξ

i

2

C\sum_{i=1}^{m}ξ_i^2

C∑i=1m​ξi2​

(1)写出KTT条件

(2)求对偶问题

四、简答题

(跟之前的大差不差)

  1. pca算法的步骤
  2. 核方法在K-means算法上的应用
  3. Bias,Variance和模型复杂度关系
  4. K-means算法的步骤

本文来自网络,不代表协通编程立场,如若转载,请注明出处:https://net2asp.com/44f185fa6d.html