- 机器学习支持:
- 迁移学习为主
- 强化学习为辅
- 知识表征宏微支持:
- 稀疏码
- 特征
- 概念
- 时序
- 价值
- 神经网络支持:动态、模糊、抽具象、组与分、感理性。
- 支持智能体自主终身动态学习。
- 无论宏观框架还是微观细节设计,都依从相对与循环转化。
- 思维控制支持:
- 出入 (行为 & 感知) //含反馈
- 认知 (识别 & 学习) //含类比
- 需求 (任务 & 计划) //含意向
- 决策 (思考 & 反思) //含分析
- 数理:
- 集合论(迁移)
- 概率论(强化)
- 计算:使用最简单的bool运算:
类比
和评价
。 - 记忆结构:长时为网、短时为树、瞬时为序。
- 编程**:DOP (面向动态编程)。
- 性能要求:可运行于单机终端(当前是iphone手机)。
手稿:https://github.com/jiaxiaogang/HELIX_THEORY
网站:http://https://jiaxiaogang.github.io
第一梯队:1950年图灵提出"可思考的机器"和"图灵测试",他说:"放眼不远的将来,我们就有很多工作要做";
第二梯队:1956达特矛斯会议后,明斯基和麦卡锡等等许多前辈穷其一生心血,虽然符号主义AI在面对不确定性环境下鲁棒性差,但却为AGI奠定了很多基础。
第三梯队:随着大数据,云计算等成熟,AI迎来DL热,但DL也并非全功能型智能体。
综上:近70年历史,人工智能研究经历跌宕起伏,但终是方兴未艾,he4o旨在以熵减机方式解决这一问题。
- 1. -------------引言-------------
- 2. -------------目录-------------
- 3. -------------(一)熵减机理论-------------
- 4. -------------(二)信息熵减机模型-------------
- 5. -------------(三)he4o系统实践-------------
- 6. -------------时间线-------------
熵减机从2017年2月正式开始研究至2018年2月成熟,历时一年。
熵减机:含三大要素:定义、相对和循环,共同呈现螺旋形。 |
---|
https://github.com/jiaxiaogang/HELIX_THEORY#%E7%86%B5%E5%87%8F%E6%9C%BA |
信息熵减机理论模型在18年3月成熟,直至今天此模型仍在不断细化中。
1. 从外到内,从内到外的双向,分别为:从动到静,从静到动(主观角度&客观图)。 |
2. 每外一个模块,与内所有模块之和相对循环 (如神经网络与思维,智能体与现实世界) |
注: 一切都是从无到有,相对与循环; |
注: he4o认为自己活着 源于循环 ; |
V1.0《初版》:
2017年2月
立项 -2018年10月21日
正式落地发布V1.0版本。
V2.0《小鸟生存演示》:
2018年11月
-至今
开发完成,测试训练中...
- 测试:
测试任务失效机制
- 调优:
任务失效机制
- 测试:
测试TCRefrection
、性能优化
- 十九测:
迭代TCRefrection反思
- 梳理TC数据流:
决策配置调整: 快慢思考部分
、学时统计 & 用时概率
、测连续飞躲
、Analyst综合排名
- 梳理TC数据流:
识别准确度优化:逐层宽入窄出
、数据流:整体观
、快思考慢思考
、TCActYes每帧O反省
- 性能优化:
优化pFo识别性能
、迭代Demand支持多pFos
、十八测回归测试
- 工具优化:
十七测
、强化训练工具优化:支持模拟重启
、思维可视化工具优化:支持手势缩放
- 梳理TC数据流:
整体兼顾
、各线竞争
- 十六测:
性能优化
、强化学习训练
- 强化训练:
开发强化学习稳定性训练器: RLTrainer
- 思维可视化工具:
TOMVisionV2迭代: 思维可视化
- 十五测:
春节结束,开工回归测试
- 十四测:
回测相近匹配
- 相近匹配:
相近匹配
- 回归十三测:
新螺旋架构测试
、反省分裂迭代测试
- 反省迭代:
hSolution从SP取解决方案
、分裂:感性反省 和 理性反省
、废弃HN
- 思维控制器架构大迭代:
完善螺旋架构
、废弃宏微决策
、反思融入识别
、工作记忆树迭代
、迭代综合评价
、末枝最优路径
- R决策模式迭代:
FRS评价器迭代
、废弃dsFo
、废弃PM
、废弃GL
- PM稳定性迭代:
VRS评价器迭代
、VRSTarget修正目标
- v2.0十二测与训练:
IRT的SP参与VRS评分
、SP定义由顺逆改为好坏
、紧急状态不反思
、主客观互卡问题
、tir_OPushM迭代:IRT的理性失效
- 网络节点类型排查:
指针集成type
、自检测试
、网络at&ds&type错误大排查
- v2.0十一测与训练:
子任务回测
、R决策模式
、防撞训练
- 子任务细节改动:
子任务的已发生截点
、同级任务协作
- 子任务细节改动:
子任务协同
、子任务不应期
- v2.0十测与训练:
子任务测试
、防撞训练
- v2.0九测与训练:
觅食训练&变向觅食训练
- HNGL嵌套迭代:
内中外类比迭代v3,v4
、迭代getInnerV3()
、RFo抽具象关联
- v2.0八测与训练:
R-模式测试
、觅食和防撞融合训练
- 决策理性迭代:
规划决策
、子任务迭代:理性反思
、来的及评价
、嵌套关联
- R-决策模式V3迭代、反向反馈外类比
- v2.0七测与训练
防撞训练
、R-模式测试
- In反省类比迭代、R-决策模式V2迭代
迭代触发机制: 生物钟触发器
- v2.0六测与训练
多向飞行正常
- AIScore评价器整理完善:
时序理性评价:FRS
、稀疏码理性评价:VRS
- v2.0五测与训练
- TIR_Alg支持多识别
- v2.0四测与训练
- Out反省类比迭代 (DiffAnalogy)、生物钟(AITime)、PM理性评价迭代v2
- 决策迭代:PM理性评价
- v2.0三测与训练
- 决策迭代:(根据
输出期短时记忆
使决策递归与外循环更好协作)
- 决策迭代:(根据
输入期短时记忆
使决策支持四模式)
- 迭代外类比: 新增反向反馈类比 (In反省类比) (构建SP正负时序、应用SP于决策的MC中、迭代反思)
- 稀疏码模糊匹配
- v2.0二测与规划性训练--回归小鸟训练
- 理性思维——反思评价
- 理性思维——TOR迭代 (行为化架构迭代、支持瞬时网络)
- 理性思维——TIR迭代 (时序识别、时序预测、价值预判)
- v2.0版本基础测试改BUG 与 训练
- v2.0一测--小鸟训练——神经网络可视化v2.0
- 优化性能——
XGWedis异步持久化
和短时内存网络
- 内类比 (与外类比相对)
- 迭代决策循环 (行为化等)
- 迭代神经网络 (区分动态时序与静态概念)
- 势 (小鸟生存演示) (v2.0开始开发)
- v1.0.0 (he4o内核发布)
- 信息熵减机 (产生智能的环境)
- MOL
- MIL & MOL (重构中层动循环)
- HELIX (定义、相对和循环呈现的螺旋型)
- 三层循环大改版 (mv循环,思维网络循环,智能体与现实世界循环)
- 相对 (he4o实现定义,横向相对,纵向相对)
- 宏微 (前身是拆分与整合,宏微一体)
- 定义 (从0到1)
- 规则 (最简)
- DOP_面向数据编程
- GNOP_动态构建网络
- 神经网络 (算法,抽具象网络)
- MindValue(价值)
- 树BrainTree(参考N3P7,N3P8)
- 三维架构(参考笔记/AI/框架)
- OOP编程**->数据语言 (OOP2DataLanguage)
- 重绘了新版架构图; (AIFoundation)
- 金字塔架构
- 分层架构
- 流程架构