Giter Club home page Giter Club logo

lihang's Introduction

统计学习方法

Hits

Gitter chatPythonpull

本书已经出第二版,2019年5月之后所有内容更新参考第二版第一次印刷。

第一版内容见Release first_edition

[TOC]

工具包

为方便学习,整理一些工具说明。

  • GitHub的markdown公式支持一般,推荐使用Chrome插件TeX All the Things来渲染TeX公式,,本地Markdown编辑器推荐Typora,注意Ctrl+, 打开Preferences,Syntax Support部分勾选inline Math。Ubuntu和Windows都正常。
  • math_markdown.pdf为math_markdown.md的导出版本, 方便查看使用, markdown版本为最新版本,基本覆盖了书中用到的数学公式的$\LaTeX$表达方式。
  • ref_downloader 是一个参考文献下载脚本,这本书一定要配合参考文献看,每章的大参考文献一定要看,对书的内容理解会很有帮助。
  • glossary_index 是一个非正式的术语索引,这个书后面是有一个的,但是不方便展开,在这个部分添加了部分扩展的内容。
  • symbol_index 是一个非正式的符号索引,第一版中有符号说明,第二版没有了,可能是无监督这部分涉及到的符号真的是太多了,总之,保留这部分,在感觉混淆的时候可以查下,看看是否有帮助。
  • errata_se 非官方的errata,供参考。如果有内容感觉不清楚,可以参考看看,希望有帮助。

前前言

  • 2019年5月,期待许久的第二版发布了,第一时间下了订单,预计母亲节这天可以发货。
  • 5月13日新书到手,第二版配了一张新照片,短发,比之前显得年轻...
  • 第二版修改了标点符号,第一版中逗号中文,句号英文。第二版将之前的英文句号更改成了中文句号。
  • 第二版取消了符号表,可能是因为同一本书前后有些地方用了不同的符号?所以在这个repo里面,我们尝试加上符号表做说明,方便查询。
  • 第二版增加了八个无监督的学习方法,至此,数据挖掘十大算法除了Apriori,全了。

如果需要引用这个Repo:

格式: SmirkCao, Lihang, (2018), GitHub repository, https://github.com/SmirkCao/Lihang

或者

@misc{SmirkCao,
  author = {SmirkCao},
  title = {Lihang},
  year = {2018},
  publisher = {GitHub},
  journal = {GitHub repository},
  howpublished = {\url{https://github.com/SmirkCao/Lihang}},
  commit = {c5624a9bd757a5cc88e78b85b89e9221deb08270}
}

前言

这部分内容并不对应《统计学习方法》中的前言,书中的前言写的也很好,引用如下:

  1. 在内容选取上,侧重介绍那些最重要,最常用的方法,特别是关于分类与标注问题的方法.
  2. 力图用统一框架来论述所有方法,使全书整体不失系统性。
  3. 适用于信息检索及自然语言处理等专业大学生,研究生

另外还有一点要注意作者的工作背景

作者一直从事利用统计学习方法对文本数据进行各种智能性处理的研究, 包括自然语言处理、信息检索、文本数据挖掘。

  • 每个人都有适合自己的理解方式,对同样的内容,会有不同的理解
  • 书如数据,学如训练,人即模型。

如果用我这个模型来实现相似度查找,和李老师这本书神似的就是《半导体光电器件》了,只可惜昔时年少,未曾反复研读。

希望在反复研读的过程中,将整个这本书看厚,变薄。这个系列的所有的文档,以及代码,没有特殊说明的情况下"书中"这个描述指代的都是李航老师的《统计学习方法》。其他参考文献中的内容如果引用会给出链接。

在Refs中列出了部分参考文献,有些参考文献对于理解书中的内容是非常有帮助的。关于这些文件的描述和解释会在参考部分对应的Refs/README.md中补充。这个文档中也添加了其他参考文献的一些说明。

方便参考文献下载, 在review02的时候,添加了ref_downloader.sh,可以用来下载书中列举的参考文献,更新过程随着review02的进行逐渐完成。

另外,李航老师的这本书,真的很薄(第二版不薄了),但是几乎每句话都会带出很多点,值得反复研读。

书中在目录之后有个符号表,解释了符号定义,所以如果有不理解的符号可以过来查表;在本书后面有个索引,可以通过索引查找对应的符号表示的含义在书中出现的位置。在本Repo中,维护了一个glossary_index.md,目的是给对应的符号补充一些说明,以及直接标注符号对应的页码,进度随review更新。

每个算法,示例结束之后会有一个◼️,表示这个算法或者例子到此结束。这个叫证明结束符,看文献多了就知道了。

关于对数底数

读书的时候经常会有关于对数底数是多少的问题,有些比较重要的,书中都有强调。 有些没有强调的,通过上下文可以理解。另外,因为有换底公式,所以,底具体是什么关系不是太大,差异在于一个常系数。但是选用不同的底会有物理意义和处理问题方面的考虑,关于这个问题的分析,可以看PRML 1.6中关于熵的讨论去体会。

另外关于公式中常系数的问题,如果用迭代求解的方式,有时对公式做一定的简化,可能会改善收敛速度。个中细节可以实践中慢慢体会。

关于篇幅

各章节篇幅占比

这里插入个图表,列举了各个章节所占篇幅,其中SVM是监督学习里面占用篇幅最大的,MCMC是无监督里面篇幅占用最大的,另外DT,HMM,CRF,SVD,PCA,LDA,PageRank也占了相对较大的篇幅。

章节之间彼此又有联系,比如NB和LR,DT和AdaBoost,Perceptron和SVM,HMM和CRF等等,如果有大章节遇到困难,可以回顾前面章节的内容,或查看具体章节的参考文献,一般都给出了对这个问题描述更详细的参考文献,可能会解释你卡住的地方。

CH01 统计学习及监督学习概论

Introduction

统计学习方法三要素:

  • 模型

  • 策略

  • 算法

    第二版对这一章的目录结构重新梳理了,更清晰。

CH02 感知机

Perceptron

  • 感知机是二类分类的线性分类模型
  • 感知机对应于特征空间中将实例划分为正负两类的分离超平面.

CH03 k近邻法

kNN

  • kNN是一种基本的分类与回归方法
  • k值的选择, 距离度量及分类决策规则是kNN的三个基本要素.

CH04 朴素贝叶斯法

NB

  • 朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法.
  1. $IID\rightarrow$输入输出的联合概率分布
  2. $Bayes\rightarrow$后验概率最大的输出
  • x的某种组合在先验中没有出现的情况, 会出现概率为0的情况, 对应平滑处理方案 $$P_\lambda(X^{(j)}=a_{jl}|Y=c_k)=\frac{\sum_{i=1}^{N}{I(x_i^{(j)}=a_{jl}, y_i=c_k)}+\lambda}{\sum_{i=1}^{N}{I(y_i=c_k)+S_j\lambda}}$$
    • $\lambda = 0$ 对应极大似然估计
    • $\lambda = 1$ 对应拉普拉斯平滑
  • 朴素贝叶斯法实际上学习到生成数据的机制, 所以属于生成模型.

CH05 决策树

DT

  • 决策树是一种基本的分类与回归方法

CH06 逻辑斯谛回归与最大熵模型

LR

  • 逻辑斯谛回归是统计学中的经典分类方法
  • 最大熵是概率模型学习的一个准则, 将其推广到分类问题得到最大熵模型

关于最大熵的学习,推荐阅读该章节的参考文献[1],Berger, 1996, 有益于书中例子的理解以及最大熵原理的把握。

那么, 为什么LR和Maxent要放在一章?

  • 都属于对数线性模型

  • 都可用于二分类和多分类

  • 两种模型的学习方法一般采用极大似然估计, 或正则化的极大似然估计. 可以形式化为无约束最优化问题, 求解方法有IIS, GD, BFGS等

  • Logistic regression中有如下描述,

    Logistic regression, despite its name, is a linear model for classification rather than regression. Logistic regression is also known in the literature as logit regression, maximum-entropy classification (MaxEnt) or the log-linear classifier. In this model, the probabilities describing the possible outcomes of a single trial are modeled using a logistic function.

  • 还有这样的描述

    Logistic regression is a special case of maximum entropy with two labels +1 and −1.

    这个章节的推导中用到了$y\in \mathcal{Y}={0,1}$的性质

  • 有时候我们会说,逻辑回归在NLP方面叫做Maxent

CH07 支持向量机

SVM

  • 支持向量机是一种二分类模型。
  • 基本模型是定义在特征空间上的间隔最大化的线性分类器, 间隔最大使他有别于感知机
  • 这一章占了很大篇幅,因为margin这个**几乎可以串起来整个分类问题。

CH08 提升方法

Boosting

  • 提升方法是一种常用的统计学习方法, 应用广泛且有效.

----分割线----

姑且在这里分一下,因为后面HMM和CRF通常会引出概率图模型的介绍,在《机器学习,周志华》里面更是用了一个单独的概率图模型章节来包含HMM,MRF,CRF等内容。另外从HMM到CRF本身也有很多相关的点。

在书中第一章有说明监督学习的三种应用:分类,标注和回归。在第十二章中有补充,本书主要考虑前两者的学习方法。据此, 在这里分割也是合适的,前面介绍分类模型, 少部分提到了回归,后面主要介绍标注问题。

CH09 EM算法及其推广

EM

  • EM算法是一种迭代算法,用于含有隐变量的概率模型参数极大似然估计,或者极大后验概率估计。(这里的极大似然估计和极大后验概率估计是学习策略)

  • 如果概率模型的变量都是观测变量,那么给定数据,可以直接用极大似然估计法,或贝叶斯估计法估计模型参数。

    注意书上这个描述如果不理解,参考CH04中朴素贝叶斯法的参数估计部分。

  • 这部分代码实现了BMM和GMM,值得看下

  • 关于EM,这个章节写的不多,EM是十大算法之一,EM和Hinton关系紧密,Hinton在2018年ICLR上发表了Capsule Network的第二篇文章《Matrix Capsules with EM Routing》

  • 在CH22中将EM算法归类于基础机器学习方法,不涉及具体的机器学习模型,可用于无监督学习也可用于监督学习,半监督学习。

CH10 隐马尔可夫模型

HMM

  • 隐马尔可夫模型是可用于标注问题的统计学习模型,描述由隐藏的马尔可夫链随机生成观测序列的过程,属于生成模型。
  • 隐马尔可夫模型是关于时序的概率模型,描述由一个隐藏的马尔可夫链随机生成不可观测的状态的序列,再由各个状态速记生成一个观测而产生观测的序列的过程。
  • 可用于标注(Tagging)问题,状态对应标记。
  • 三个基本问题:概率计算问题,学习问题,预测问题。

CH11 条件随机场

CRF

  • 条件随机场是给定一组输入随机变量条件下另一组输出随机变量的条件概率分布模型,其特点是假设输出随机变量构成马尔可夫随机场
  • 概率无向图模型,又称为马尔可夫随机场,是一个可以由无向图表示的联合概率分布
  • 三个基本问题:概率计算问题,学习问题,预测问题

CH12 监督学习方法总结

Summary

这章就简单的几页,可以考虑如下阅读套路:

  • 和第一章一起看

  • 在前面的学习中遇到不清楚的问题的时候,过一遍这个章节。

  • 将这一章看厚,从这一章展开到其他十个章节。

  • 注意这一章有个图12.2,这里面提到了逻辑斯谛损失函数,这里的$y$应该是定义在$\cal{Y}={+1,-1}$中的,在前面介绍LR的时候$y$定义在$\cal{Y}={0,1}$,这里注意下。

李老师这本书真的是每次刷都会有新的收获。

----分割线----

第二版增加了八个无监督学习方法:聚类,奇异值分解,主成分分析,潜在语义分析,概率潜在语义分析,马尔可夫链蒙特卡罗法,潜在狄利克雷分配,PageRank。

CH13 无监督学习概论

Introduction

  • 无监督学习的基本问题:聚类,降维,话题分析和图分析。
  • 横向结构和纵向结构这个问题,从存储的角度来考虑。
  • 注意不同任务的策略:类别中心距离最小化,维度转换过程中信息损失的最小化,生成数据概率的最大化。
  • 在无监督学习部分经常会提到数据中的结构, 是指数据中变量之间的关系。

CH14 聚类方法

Clustering

  • 例子14.2很好,建议画出来先自己展开思考下,再往后看
  • 聚类可以用于图像压缩

CH15 奇异值分解

  • 基本机器学习方法
  • 奇异值分解定理保证分解存在
  • 奇异值矩阵唯一,$U,V$不唯一
  • 有明确的几何解释

CH16 主成分分析

  • 利用正交变换将线性相关变量表示的观测数据转换为少数几个由线性无关变量表示的数据,线性无关的变量称为主成分
  • 主成分分析之前,需要对给定数据规范化,使得每一个变量均值为0,方差为1。
  • 主成分并不对应原始数据的某一个特征, 可以通过因子负荷量来观察主成分与原始特征之间的关系。
  • 这部分内容,还没有提到话题这个概念,后面章节开始介绍了很多话题分析相关的内容,LSA,PLSA,LDA都是和话题有关,MCMC是在LDA中使用的一个工具。
  • 提到了总体主成分和样本主成分,前者是后者的基础。主要体现在总体考虑期望,样本考虑均值。样本主成分具有和总体主成分一样的性质。

CH17 潜在语义分析

  • 在sklearn的定义中,LSA就是截断奇异值分解。
  • 注意体会LSA和PCA的区别,主要在于是不是去均值。
  • 在LSA中,话题向量空间是$U$,DOC在话题向量空间的表示是$SV^\mathrm{T}$。但是在sklaern中,xtransformed是$U\mit\Sigma$

CH18 概率潜在语义分析

CH19 马尔可夫链蒙特卡罗法

CH20 潜在狄利克雷分配

CH21 PageRank算法

CH22 无监督学习方法总结

后记

整个这本书里面各章节也不是完全独立的,这部分希望整理章节之间的联系以及适用的数据集。算法到底实现到什么程度,能跑什么数据集也是一方面。

data_algo_map

参考

lihang's People

Contributors

smirkcao avatar

Stargazers

 avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar

Watchers

 avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar

lihang's Issues

方差为1和标准差为1是一个概念么?

相关章节

CH16---主成分分析

相关主题

  • 代码
  • 文档
  • 示例

问题描述

具体问题描述
RT, 方差为1 和标准差为1是一个概念么?

在规范化这个过程里面,去均值,除以标准差。

为什么SVD拿到的结果和书中不一样

相关章节

CH17 潜在语义分析

相关主题

  • 代码
  • 文档
  • 示例

问题描述

就$P_{330}$中的结果,使用np.svd拿到的结果和书中的结果不太一样,有符号差异,为什么?

关于LSA的一些问题

相关章节

CH17

相关主题

  • [ lsa] 代码

问题描述

首先,非常感谢能无私开源自己的代码,对我们的学习真的很有帮助。
在lsa的fit()方法中,这个函数的作用是将x->x_trainsform。但是我不太理解为什么x_transform是Us,因为U本身已经是话题向量空间。svh代表文本在话题向量空间中的表示。那么这里x_transform的含义是什么?
而component返回的则是vh,这个component的意义又是什么?
还有explained_variance是计算的x_transform的方差,这个的意义又是什么

关于第二章感知机的代码

相关章节

CH02

相关主题

            yy_ = 2 * y[index] - 1
            wx = np.dot(self.w, xx_)

            if wx * yy_ > 0:
                correct_count += 1
                if correct_count > self.max_iter_:
                    break
                continue

想知道 1.yy_ 为什么不是直接取的类别的值,而是乘以2-1,2.按照算法2.1理解,终止条件应该是没有误分类点或者迭代到最大次数,这里用准确次数大于迭代次数合适吗

AdaBoost测试案例整理

相关章节

CH08

相关主题

  • 代码
  • 文档
  • 示例

问题描述

测试案例分解
代码整理
这章节笔记也要重新整理, 大bug,之前没注意, 这章笔记基本没整理过来。
后面加法模型与前向分步算法处理下。

楼主能否提供PDF?

相关章节

CH0---

相关主题

  • 代码
  • 文档
  • 示例

问题描述

具体问题描述

能否提供下pdf文件下载,现在的md 公式显示不太全。

图片无法正常显示

相关章节

CH02

问题描述

具体问题描述
如“关于感知机为什么不能处理异或问题, 可以借助下图理解。”这句话下面的图片无法正常显示。

后向与前向求解一致性问题.

相关章节

CH10 HMM

相关主题

  • 代码
  • 文档
  • 示例

问题描述

后向算法求观测序列概率和前向算法有千分位差异, 问题出在哪里

README里面图entropy有问题

相关章节

CH0---

相关主题

  • 代码
  • [*] 文档
  • 示例

问题描述

最后的图entropy写成了enntropy

这个图不是太完整,统一一下风格, 做成矢量图,补充一下数据集的说明。

感知机中的w怎么画出来的?

相关章节

CH02-感知机

相关主题

  • 代码
  • 文档
  • 示例

问题描述

具体问题描述
图2.1 或者后面支持向量机中的图7.2, 7.3, 7.5之类

解压密码是多少

相关章节

CH0---

相关主题

  • 代码
  • 文档
  • 示例

问题描述

具体问题描述

考虑是否需要改进示例10.2

相关章节

CH10 HMM

相关主题

  • 代码
  • 文档
  • 示例

问题描述

这个例子里面状态集合大小和观测序列长度一样, 实现的时候axis容易混淆.
是不是可以考虑增加T到4或5

提升方法推导过程提问

相关章节

CH08---提升方法

相关主题

  • 代码
  • 文档
  • 示例

问题描述

AdaBoost算法最终分类器的训练误差界是怎么推导出来的:
$$
\frac{1}{N}\sum\limits_{i=1}\limits^N I(G(x_i)\neq y_i)\le\frac{1}{N}\sum\limits_i\exp(-y_i f(x_i))=\prod\limits_m Z_m
$$
看第一版有详细的说明, 但是还有个地方不太明白是怎么推导出来的
$$
\frac{1}{N}\sum_i exp \left ( -\sum_{m=1}^M a_m y_i G_m(x_i)\right ) \
= \sum_i w_{1i}\prod_{m=1}^M exp \left ( -a_m y_i G_m(x_i) \right)
$$
麻烦老师讲解

库文件主函数中设置日志的意义是什么?

相关章节

CH02---感知机

相关主题

  • 代码
  • 文档
  • 示例

问题描述

perceptron.py

if __name__ == '__main__':
    logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(name)s - %(levelname)s - %(message)s')
    logger = logging.getLogger(__name__)

    ap = argparse.ArgumentParser()
    ap.add_argument("-p", "--path", required=False, help="path to input data file")
    args = vars(ap.parse_args())
else:
    logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(name)s - %(levelname)s - %(message)s')
    logger = logging.getLogger(__name__)

在单元测试中,以上设置日志的代码显然是有意义的,在库perceptron中包含这样的代码的作用是什么?

Undefined names: 'x' and 'rst'

flake8 testing of https://github.com/SmirkCao/Lihang on Python 3.7.1

$ flake8 . --count --select=E901,E999,F821,F822,F823 --show-source --statistics

./CH11/crf.py:60:59: F821 undefined name 'x'
                    self.M[i, j, :] = self.f[k](y_i, y_j, x, j)
                                                          ^
./CH10/hmm.py:153:24: F821 undefined name 'rst'
                return rst
                       ^
2     F821 undefined name 'rst'
2

E901,E999,F821,F822,F823 are the "showstopper" flake8 issues that can halt the runtime with a SyntaxError, NameError, etc. These 5 are different from most other flake8 issues which are merely "style violations" -- useful for readability but they do not effect runtime safety.

  • F821: undefined name name
  • F822: undefined name name in __all__
  • F823: local variable name referenced before assignment
  • E901: SyntaxError or IndentationError
  • E999: SyntaxError -- failed to compile a file into an Abstract Syntax Tree

CRF 相关问题

  • e111
  • e112
  • e113
  • 如何对特征函数进行抽象
  • 为什么CRF要介绍三种表达形式?
  • 应用举例

关于支持向量机有6个向量拉格朗日对偶来求怎么理解?

相关章节

CH07 支持向量机

相关主题

  • 代码
  • 文档
  • 示例

问题描述

在知乎上推了这么个问题,有空可以处理下。
原链接

关于支持向量机有6个向量拉格朗日对偶来求怎么理解?
线性支持向量机对如下两类可分数据进行分类:

+1:(1,1),(2,2),(2,0)

-1:(0,0),(1,0),(0,1)

(1)在图中做出这6个训练点,构造具有最优超平面和最优间隔的权重向量

(2)说明支持向量是哪些

(3)通过寻找拉格朗日乘子αi来构造在对偶空间中的解,并将其与(1)中的结果比较

整理前向后向部分代码

相关章节

CH10 HMM

相关主题

  • 代码
  • 文档
  • 示例

问题描述

这部分代码写的不够整洁, 重新整理一下.
递推应该可以写的比较美

全书Review-02

  • CH01
  • CH02
  • CH03
  • CH04
  • CH05
  • CH06
  • CH07
  • CH08
  • CH09
  • CH10
  • CH11
  • CH12

CH06中logistic_regression代码的问题

相关章节

CH06

相关主题

  • 代码

问题描述

logistic_regression.py中第74行代码:rst_ = (1 / m) * np.dot(x_.T, y_ * sigmoid(np.dot(x_, w_))) (g函数);
如果使用梯度下降作为更新法则,应该是y_ - sigmoid(np.dot(x_, w_))才对吧?请问作者为什么这里给的是y_ * sigmoid(np.dot(x_, w_))呢?感谢。

EM算法

  • [ ]EM算法应用到朴素贝叶斯的非监督学习
  • [X]EM算法推导BMM过程

EM例9.1

相关章节

CH09---

相关主题

  • 代码
  • 文档
  • 示例

问题描述

书中描述
独立的重复n次实验(这里n=10), 观测结果如下:
1,1,0,1,0,0,1,0,1,1

上面这个观测,
1,1,1,1,1,1,0,0,0,0有区别么?

EM部分测试案例

相关章节

CH10 HMM

相关主题

  • 代码
  • 文档
  • 示例

问题描述

  • [x]针对EM算法应该采用什么样的测试案例验证算法的正确性.

增加一维和多维的数据生成.

比较近的数据混合, 用工具包看下效果.

GMM聚类怎么确定类别的?

相关章节

CH09-EM算法及其推广

相关主题

  • 代码
  • 文档
  • 示例

问题描述

使用EM算法估计GMM的参数,做聚类的应用。怎么决定样本的类别的?

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.