pagerank
FP-Growth
Batch Norm
L1 L2正则化
Layer Norm
pre-norm Pre-norm:\(X_t+1=X_{t}+F_{t}(Norm(X_{t}))\) \(先来看Pre-norm^{+},递归展开:\) \[X_{t+1}=X_t+F_t(Norm(X_t))\] \(=X_{0}+F_{1}(Norm(X_{1}))+\ldots+F_{t-1}(Norm(X_{t-1}))+F_{t}(Norm(X_{t}))\) 其中,展开\(^{+}\)后的每一项( \(F_{1}( Norm( X_{1}) ) , \ldots\), \(F_{t- 1}( Norm( X_{t- 1}) )\), \(F_{t}( Norm( X_{t}) )\))之间都
vscode配置latex
早就配置好了,但是之前使用的是tab打开pdf,感觉有点狭窄,于是换成了外部pdf,使用的就是经典的sumatra pdf,具体的配置过程可以
hinge loss
在机器学习中,hinge loss是一种损失函数,它通常用于”maximum-margin”的分类任务中,如支持向量机。数学表达式为: 其中 \(\hat{y}\) 表
北京百分点面经
前几天试着投了简历,没想到有两家约了面试,一个是得物一个是北京百分点,得物面试没有怎么准备,太仓促了,二面挂了,百分点拿到了offer,但决
KMP
KMP是字符串匹配问题的算法。“字符串A是否为字符串B的子串?如果是的话出现在B的哪些位置?”该问题就是字符串匹配问题,字符串A称为模式串,