操作系统(jyyOS)_L系列实验报告
L0-hello, bare metal!没有任何难度。
主要是我想说一下我的离谱实现:直接显示大色块,反正通过了(
除此之外还实现了 klib 的一些函数,包含一个简易版的 printf,支持除了浮点运算之外的一些基础功能。学到的教训是:在下手写代码之前,要先想好代码的架构,尽可能执行DRY原则,也可以防止为了达成DRY而频繁地修改主要函数的接口。
L1 - pmm个人感想
思维难度:⭐⭐⭐
代码难度:⭐⭐⭐⭐
消耗时长:⭐⭐⭐⭐⭐⭐对「一开始先使用一个简单有效的设计」这句话深有感触了,因为不然真的会「陷入Wrong Answer的泥潭」;总共改了 $3$ 版设计,累计写了三四千行代码;算法越改越简单,代码越改越少,通过的点越改越多。
这是我这辈子交过的最痛苦的OJ:
这是最好的一次:
得分情况通过了所有 Easy Test 和 3 个 Hard Test。最后一个 Hard Test 由于 Kalloc fail on low memory pressure 未通过。
基本设计在目前提交的版本中,我的设计如下:
将所有空间以页为单位进行种类的划分,分别是:slab 页、缓存页、 ...
计算方法_期末复习
插值与拟合方程求根 - 二分法
每次区间长度减半
于是 $\epsilon_n\leq \frac{b-a}{2^n}$
方程求根 - 不动点迭代法
$x_{n+1}=g(x_n)$,最终收敛到不动点 $r=g(r)$
收敛当且仅当在 $r$ 附近的一个邻域内有 $|g’(x)|<1$(泰勒展开+中值定理)
一次收敛,即 $S=\lim\frac{e_{i+1}}{e_i}<\infty$
方程求根 - 牛顿法
$x_{n+1}=x_n-\frac{f(x_n)}{f’(x_n)}$(本质是求切线的零点)
二次收敛,即 $S=\lim\frac{e_{i+1}}{e_i^2}<\infty$(先证明收敛公式局部收敛,再泰勒展开+中值定理)
插值 - Lagrange插值
思想:直接构造经过插值点的多项式
思路:对于每个插值点,找出一个多项式使得在该点位置取 $1$,在其余插值点位置取 $0$;将所有的多项式加权相加即可。该多项式至多为 $n-1$ 次的(代数基本定理)
具体:$L_k(x)=A(x-x_ ...
智障操作合集
2023-网络攻防实战-GLIBC(已发布至知乎:https://www.zhihu.com/question/410782328/answer/3492873625)
上网络攻防实战课,当时还没怎么摸过linux;
打靶的时候,靶机上没有gcc环境,所以需要在本地把payload编译好拖上去运行。然而,靶机的glibc版本很低,我本地直接编译放上去是跑不了的。
其实只需要加个 -static 静态编译就好了,当时不懂哇,于是我想着要不直接把我本机的glibc降级到目标版本编译好了
我花了一个下午pull下来一个陈年glibc编译好,然后我想:我直接把这个旧版本的glibc拖到当前glibc的目录里就好了吧
于是,为了这么操作,我先把当前的glibc目录给mv到一个备份的文件夹。然而这个操作直接导致我native没有glibc环境了,后续mv cd ls全部报找不到链接库……
太蠢了,还好是虚拟机,直接掀了重开。最后也不是静态编译过的,整半天用了指定链接库编译……如果当时有GPT,这个问题不超过10分钟就能被解决
2024-操作系统-qemujyyOS的L2实验提供了一个tty作为 ...
机器学习导论_期末复习
Chapter 0 对偶对偶问题考虑最优化目标为:$$\min\quad f_0(x)$$$$\text{s.t.}\quad f_i(x)\leq0\quad\forall i=1,\cdots,n$$$$\quad\quad g_i(x)=0\quad\forall i=1,\cdots,m$$于是写出拉格朗日函数为:$$L(x;\lambda,v)=f_0(x)+\sum_{i=1}^n\lambda_if_i(x)+\sum_{i=1}^mv_ig_i(x)$$由此得到对偶函数为:$$g(\lambda,v)=\min_{x}L(x;\lambda,v)$$于是对偶问题为:$$\min\quad g(\lambda,v)$$$$\text{s.t.}\quad \lambda_i\geq 0\quad \forall i=1,\cdots,n$$
KKT条件对于凸优化问题,有:$$f_i(x)\leq 0,\quad g_i(x)=0,\quad \lambda_i\geq 0,\quad ...
信息论基础_期末复习
熵基本概念熵:$H(X)=-\sum_{x} p(x)\log p(x)$条件熵:$H(X|Y)=H(X,Y)-H(Y)=\sum_y p(y)H(X|Y=y)=-\mathbb{E}[\log p(X|Y)]$互信息:$I(X;Y)=\sum_{x\in\mathcal{X}}\sum_{y\in\mathcal{Y}}p(x,y)\log\frac{p(x,y)}{p(x)p(y)}=H(X)+H(Y)-H(XY)=H(X)-H(X|Y)$相对熵($KL$ 散度):$D(p|q)=\sum_x p(x)\log \frac{p(x)}{q(x)}$
链式法则
$H(X_1,X_2,\cdots,X_n)=\sum_{i}H(X_1|X_1,X_2,\cdots,X_i)$
$I(X_1,X_2,…,X_n;Y)=I(X_1;Y)+I(X_2;Y|X_1)+I(X_3;Y|X_1,X_2)+…+I(X_n;Y|X_1,…,X_{n-1})$
$D(p(x,y)|q(x,y)) ...