摘要:1、熵的定义 熵最早是一个物理学概念,由克劳修斯于1854年提出,它是描述事物无序性的参数,跟热力学第二定律的宏观方向性有关:在不加外力的情况下,总是往混乱状态改变。熵增是宇宙的基本定律,自然的有序状态会自发的逐步变为混沌状态。 1948年,香农将熵的概念引申到信道通信的过程中,从而开创了”信息论“ 阅读全文
posted @ 2019-11-20 16:55 jpld 阅读 (2) 评论 (0) 编辑
摘要:目前计算机视觉(CV)与自然语言处理(NLP)及语音识别并列为人工智能三大热点方向,而计算机视觉中的对象检测(objectdetection)应用非常广泛,比如自动驾驶、视频监控、工业质检、医疗诊断等场景。 目标检测的根本任务就是将图片或者视频中感兴趣的目标提取出来,目标的识别可以基于颜色、纹理、形 阅读全文
posted @ 2019-11-20 09:39 jpld 阅读 (325) 评论 (1) 编辑
摘要:100天搞定机器学习 大家好,100天搞定机器学习前54天是对Avik Jain开源项目100 Days Of ML Code的翻译+自己的理解 http://github.com/Avik Jain/100 Days Of ML Code 但是这个项目到54天就鸽掉了,十分可惜。 从第55天开始 阅读全文
posted @ 2019-11-20 09:18 jpld 阅读 (30) 评论 (0) 编辑
摘要:前段时间在阿里云买了一台服务器,准备部署网站,近期想玩一些深度学习项目,正好拿来用。TensorFlow官网的安装仅提及Ubuntu,但我的ECS操作系统是 CentOS 7.6 64位,搭建Python、TensorFlow、Jupyter开发环境过程中遇到很多问题。这里将具体步骤分享给大家,可以 阅读全文
posted @ 2019-11-19 22:18 jpld 阅读 (158) 评论 (0) 编辑
摘要:"几张GIF理解K 均值聚类原理" "k均值聚类数学推导与python实现" 前文说了k均值聚类,他是基于中心的聚类方法,通过迭代将样本分到k个类中,使每个样本与其所属类的中心或均值最近。 今天我们看一下无监督学习之聚类方法的另一种算法,层次聚类: 层次聚类前提假设类别直接存在层次关系,通过计算不同 阅读全文
posted @ 2019-11-19 15:30 jpld 阅读 (13) 评论 (0) 编辑
摘要:送你一把百度云盘万能钥匙,不用提取码也能开启下载 同学们知道,我们在百度网盘分享文件的时候,一般都会设置一个提取码,以保障传播范围及私密性,只有输入提取码才能下载分享的资料。很多同学在云盘搜等网站找百度网盘学习资料时,经常会遇到只有云链接,但是没有提取码的尴尬。 这里向大家推荐一款神器——百度云盘万 阅读全文
posted @ 2019-11-19 15:12 jpld 阅读 (30) 评论 (0) 编辑
摘要:[如何正确使用「K均值聚类」? "" 1、k均值聚类模型 给定样本 ,每个样本都是m为特征向量,模型目标是将n个样本分到k个不停的类或簇中,每个样本到其所属类的中心的距离最小,每个样本只能属于一个类。用C表示划分,他是一个多对一的函数,k均值聚类就是一个从样本到类的函数。 2、k均值聚类策略 k均值 阅读全文
posted @ 2019-08-25 22:51 jpld 阅读 (42) 评论 (0) 编辑
摘要:《Python数据科学手册》共五章,每章介绍一到两个Python数据科学中的重点工具包。首先从IPython和Jupyter开始,它们提供了数据科学家需要的计算环境;第2章讲解能提供ndarray对象的NumPy,它可以用Python高效地存储和操作大型数组;第3章主要涉及提供DataFrame对象 阅读全文
posted @ 2019-08-25 22:43 jpld 阅读 (59) 评论 (0) 编辑
摘要:[《统计学习方法》极简笔记P2:感知机数学推导 ](http://mp.weixin.qq.com/s?__biz=MzA4MjYwMTc5Nw==&mid=2648931510&idx=1&sn=37c84511b7393b49a8a962406e710a62&chksm=8794ee9cb0e3 阅读全文
posted @ 2019-08-19 17:35 jpld 阅读 (31) 评论 (0) 编辑
摘要:前文推荐 "如何正确使用「K均值聚类」?" KMeans算法是典型的基于距离的聚类算法,采用距离作为相似性的评价指标,即认为两个对象的距离越近,其相似度就越大。该算法认为簇是由距离靠近的对象组成的,因此把得到紧凑且独立的簇作为最终目标。 K个初始聚类中心点的选取对聚类结果具有较大的影响,因为在该算法 阅读全文
posted @ 2019-08-18 23:28 jpld 阅读 (163) 评论 (0) 编辑