编译jdk

本文介绍了在WSL2环境下使用Ubuntu 22.04编译OpenJDK 12的过程。首先从官方仓库和 GitHub 下载了 OpenJDK 12 源代码,然后安装了编译所需的外部依赖库和 OpenJDK 11 的引导版本。接着使用 configure 命令配置编译参数,最后通过 make images 命令进行了编译构建。文中附有相关命令示例和操作截图,对整个编译过程进行了清晰描述。

learning-memory-guided-normality代码学习笔记

Memory模块是该神经网络架构的核心部分。它包含一个存储键值对的内存,并定义了对内存的读写操作。读操作通过计算查询向量与内存中键向量之间的相似度来检索相关内容。写操作根据查询向量和相关度分数,更新内存中的键值对。该模块还包含了用于训练的损失函数,用于增强内存的区分性和紧凑性。整个模块的目标是建立一个可查询和自更新的记忆系统,支持神经网络的学习和推理。

ResNet学习笔记

本文介绍了ResNet(深度残差神经网络)的理论基础与核心思想。首先解释了深度网络容易出现梯度消失和梯度爆炸的原因,导致深层网络训练效果变差。ResNet通过引入残差学习(Residual learning)的思想,使得网络能够直接学习残差映射,从而避免梯度消失和梯度爆炸的问题,成功训练出152层的深度卷积神经网络,取得了ImageNet等视觉任务中的卓越表现。

conda基本使用方法

本文介绍了如何安装和使用 Anaconda/Miniconda 及其虚拟环境和包管理功能。首先介绍了如何配置国内清华镜像源以加速下载。然后分别介绍了通过 Anaconda Navigator 图形界面和命令行两种方式进行虚拟环境和包的创建、删除、复制、分享等操作。文中还涉及了查看版本、获取帮助等基本命令的使用方法。

邹博ml矩阵和线性代数

这篇文章主要介绍了矩阵的线性代数相关概念和应用,包括奇异值分解SVD、行列式、代数余子式、伴随矩阵、逆矩阵、范德蒙行列式、矩阵乘法等。并以状态转移概率矩阵为例,解释了矩阵在概率模型中的应用。内容系统全面,阐述清晰,很好地总结了矩阵的基本理论和实际应用。

简单写个logictic回归

本文介绍了如何使用Python和NumPy从头开始实现逻辑回归算法。首先列出了逻辑回归的数学公式,然后逐步实现了z函数、sigmoid函数、参数初始化、误差计算和梯度下降优化。可以不依赖任何第三方机器学习库,从零开始训练逻辑回归模型。

简简单单做个房价预测

本文介绍了ROC曲线和AUC的概念及计算方法。ROC曲线描绘了分类模型在不同阈值下的真阳性率和假阳性率,AUC则是ROC曲线下面积的值。AUC可用于评估模型的泛化能力,值越大表示模型性能越好。文章还给出了排序损失与AUC的关系,以及用线性回归对广告数据进行建模的示例代码。

邹博ml回归

本文介绍了线性回归模型的基本原理和求解过程。首先解释了线性回归的基本形式,对于单变量和多变量情况分别给出了表达式。接着引入了中心极限定理,说明为何误差服从高斯分布。然后利用极大似然估计方法推导出最小二乘法的原理,并给出了线性回归参数的解析解。最后讨论了引入复杂度惩罚因子的动机,即对参数的先验分布作出高斯假设。

邹博ml凸优化

本文介绍了凸集和凸函数的基本概念。凸集是指任意两点之间的线段都在该集合内的集合。凸函数是指函数图像上方区域构成的凸集。文章还介绍了仿射集、超平面、半空间、欧式球、椭球、范数球、范数锥、二阶锥和多面体等重要的几何概念,并阐述了它们与凸集的关系。这些概念为后续学习凸优化问题奠定了基础。

机器学习基石perceptron-learning-algorithm(pla)

本文介绍了感知器算法(Perceptron)的基本原理和学习算法(PLA)。首先介绍了感知器假设集(Perceptron Hypothesis Set)的概念,并用一个银行发信用卡的例子解释了如何使用加权求和的方式构建线性分类器。然后详细阐述了感知器学习算法(Perceptron Learning Algorithm,PLA)的工作原理和更新方法,并通过一系列图解说明了算法如何逐步修正分类线性达到最终目标。最后提出了两个需要进一步解决的问题:该算法是否一定会停止,以及停止时的分类线是否与真实分界线一致。