机器学习基石perceptron-learning-algorithm(pla)

本文介绍了感知器算法(Perceptron)的基本原理和学习算法(PLA)。首先介绍了感知器假设集(Perceptron Hypothesis Set)的概念,并用一个银行发信用卡的例子解释了如何使用加权求和的方式构建线性分类器。然后详细阐述了感知器学习算法(Perceptron Learning Algorithm,PLA)的工作原理和更新方法,并通过一系列图解说明了算法如何逐步修正分类线性达到最终目标。最后提出了两个需要进一步解决的问题:该算法是否一定会停止,以及停止时的分类线是否与真实分界线一致。

cv学习笔记看图说话image-captioning-2

本文介绍了如何使用Python和Keras加载VGG16模型、预处理输入图像、提取图像特征和创建文本标记器。主要包括以下几个步骤:1) 使用PIL库实现load_img_as_np_array函数加载和缩放图像;2) 使用model_from_json和load_weights实现load_vgg16_model函数加载VGG16模型;3) 实现preprocess_input函数预处理输入图像;4) 实现extract_features函数提取图像特征并保存为pkl文件;5) 使用Keras的Tokenizer实现Creat_tokenizer函数创建文本标记器。

cv学习笔记看图说话image-captioning-1

本文介绍了使用CNN和LSTM将图像和文字进行处理,并将两个神经网络结合在一起,实现多模态任务如图像搜索、安全和鉴黄等。文章还介绍了使用的Flickr8K数据集以及VGG16网络模型。最后给出了一个简单的代码示例,用于生成VGG16神经网络。

cv学习笔记梯度下降优化算法

这篇文章介绍了梯度下降法及其变体,并讲述了它们的特点。梯度下降法是训练神经网络最常用的优化算法,但传统梯度下降法存在一些挑战,如学习率设置困难、容易陷入局部最优、参数更新不合理等。文章分别介绍了批处理梯度下降法、随机梯度下降法和迷你批处理梯度下降法,比较了它们各自的优缺点。迷你批处理梯度下降法结合了前两者的优点,是当前最常用的梯度下降算法变体。

cv学习笔记attention

本文介绍了注意力机制在计算机视觉和自然语言处理任务中的应用。首先解释了不使用注意力机制的传统模型存在的问题,如缺乏泛化能力、长期依赖问题、瓶颈问题等。然后分别介绍了在图像描述任务和机器翻译任务中使用注意力机制的方法,说明了注意力机制如何解决传统模型的缺陷。最后介绍了 Transformer 模型及其中的 Self-Attention 机制,指出 Self-Attention 可以有效捕获输入序列中元素之间的相关性,从而避免了 RNN 等时序模型存在的梯度问题。

anaconda安装教程

本文介绍了 Anaconda 的概念和安装方法。Anaconda 是一个方便的 Python 包管理和环境管理软件,可以创建多个互不干扰的环境,分别运行不同版本的软件包。文中以 Windows 为例,详细讲解了 Anaconda 的下载和安装过程,包括勾选将 Anaconda 添加到系统环境和设置默认 Python 版本等选项。安装完成后,介绍了如何在命令提示符下测试 Anaconda 和 Python 的安装情况。