- 机器学习支持:
- 迁移学习为主
- 强化学习为辅
- 知识表征宏微支持:
- 稀疏码
- 特征
- 概念
- 时序
- 价值
- 神经网络支持:动态、模糊、抽具象、组与分、感理性。
- 支持智能体自主终身动态学习。
- 无论宏观框架还是微观细节设计,都依从相对与循环转化。
- 思维控制支持:
- 出入 (行为 & 感知) //含反馈
- 认知 (识别 & 学习) //含类比
- 需求 (任务 & 计划) //含意向
- 决策 (求解 & 迁移) //含分析
- 数理:
- 集合论(迁移)
- 概率论(强化)
- 计算:使用最简单的bool运算:
类比
和评价
。 - 记忆结构:长时为网(启发式)、短时为树(递归)、瞬时为序(依次)。
- 编程思想:DOP (面向动态编程:知识由后天演化,先天仅编写控制器和存储结构)。
- 性能要求:可运行于单机终端(当前是ios设备)。
手稿:https://github.com/jiaxiaogang/HELIX_THEORY
网站:https://jiaxiaogang.github.io
文档:https://james4ever0.github.io/he4o 由James4Ever0提供,感谢❤
第一梯队:1950年图灵提出"可思考的机器"和"图灵测试",他说:"放眼不远的将来,我们就有很多工作要做";
第二梯队:1956达特矛斯会议后,明斯基和麦卡锡等等许多前辈穷其一生心血,虽然符号主义AI在面对不确定性环境下鲁棒性差,但却为AGI奠定了很多基础。
第三梯队:随着大数据,云计算等成熟,AI迎来DL、GPT热,但DL、GPT也并非全功能型智能体。
综上:近70年以来,人工智能研究跌宕起伏,但与最初设想的AI还相差甚远,he4o旨在实现螺旋熵减机式的通用人工智能系统。
螺旋论从2017年2月正式开始研究至2018年2月成熟,历时一年。
螺旋论:含三大要素:定义、相对和循环,共同呈现螺旋形。 |
---|
https://github.com/jiaxiaogang/HELIX_THEORY#%E7%86%B5%E5%87%8F%E6%9C%BA |
螺旋熵减机理论模型在18年3月成熟,直至今天此模型仍在不断细化中。
1. 此图从内外双向、动静转化、主客角度,三种方式来解读。 |
2. 每外一个模块,与内所有模块之和相对循环 (如神经网络与思维,智能体与现实世界) |
注: 一切都是从无到有,相对与循环,he4o认为自己活着 源于循环 ; |
V1.0《初版》:
2017年2月
立项 -2018年10月21日
正式落地发布V1.0版本。
V2.0《小鸟生存演示》:
2018年11月
-至今
开发完成,测试训练中...
1 | 多向飞吃 |
---|---|
说明 | 在这个DEMO中,它已通过交互学习,知道饿了吃坚果可以解决饥饿问题,也通过交互学习到飞行可以解决距离问题,在扔出坚果后,它会自行飞过去吃掉以解决饥饿问题; |
操作 | 在这个DEMO中,我投喂了两个坚果,并且点击了模拟饥饿(因为等手机掉电太慢了,很多时候我用模拟器跑,更不会掉电),别的都是它自己行为; |
2 | 安全第一 |
---|---|
说明 | 在这个DEMO中,在前面的交互中它被撞了一次,导致后面一看到飞过来的木棒,就立马躲开,并且再也不飞到下面了,即使扔坚果它也不去吃; |
操作 | 我可以用双击向下拉它,但它自己会立马躲上去,我也可以手动投喂坚果,但它依然会自己躲开不过去; |
3 | 变向觅食 |
---|---|
说明 | 在这个DEMO中,它会自动尝试飞到坚果处,并且吃掉,但它离的很近时尝试吃却没吃到,然后又思考了下,再飞近,才吃到坚果; |
操作 | 在这个DEMO中,我扔了坚果,点击了模拟饥饿,别的全是它自己的思考和行为; |
4 | 先躲再吃 |
---|---|
说明 | 在这个DEMO中,它在饥饿后,准确去吃,但此时看到木棒,立马又躲返回来,等到木棒过去安全后,又飞上去吃坚果; |
操作 | 坚果我扔的,饥饿我点的,木棒我扔的,别的全它自己; |
5 | 初用工具 |
---|---|
说明 | 在这个DEMO中,它可以通过踢行为来将带皮的坚果踢到路上,等木棍滚过压破皮后(初级使用工具功能),它再飞过去吃掉; |
操作 | 带皮坚果我扔的,饥饿我点的,木棒我扔的,别的全它自己; |
付费:本软件是付费软件,分为使用付费和商业付费两个部分:
-
使用付费的价格=需每年支付使用者平均一顿午餐的费用进行支付。
如果使用者的收入低于所在城市(地区)平均收入,则无需支付该项。 -
商业付费的价格=该软件为基础创造的商业营收的0.1%进行支付。
如未创造营收,则无需支付该项。
打赏:您也可以对我进行打赏,以帮助我有更多资金与精力投入到该系统的研发,非常感谢。
- 2024.06 感谢REmaiin(熬时间少年的你?) 10.6元
- 2024.12 感谢REmaiin 66元
- 回测:
继续试错训练
- 回测:
继续试错训练
、测得二次过滤后,多样性消失BUG
、时序识别似层化
、迭代迁移: 学时即推举 & 用时只继承
、子即父,父非子
、I/F综合稳定性计算
- 迭代细节:
迭代Canset类比算法
、整修outSPDic的BUG
、TCPlan支持反思R子任务
、启用迭代前段条件满足
、迭代时序全含算法
- 综合训练:
连续多向觅食
、打开protoFo的全局防重
、完善TCPlanV2流程细节
、试错训练
、广传染&窄计数
- 回测训练:
训练用搬运
、微调:多触发Canset类比抽象
- 迭代TCPlanV2 & 连续视觉:
训练用搬运(失败)
、迭代TCPlanV2
、训练用搬运(成功但不稳定)
、连续视觉
- 回测训练:
测试
、支持OutSPDic
、训练无皮果动机ok
、训练Canset试错训练ok
、训练学去皮ok
、训练有皮果动机ok
、微调:持续价值感的任务的失效机制调整为-负mv反馈后任务不失效
、训练学搬运
- Canset的传染机制:
Canset的传染机制: 批量判断否和批量唤醒
- 测训&修细节:
概念识别BUG导致feedbackTOR不成立
、迭代convert2RCansetModel()算法:1.优化条件满足判断 2.候选池宽入100%激活
- Canset的IndexDic:
HCanset的IndexDic收集与计算
- 训练测试:
回测实时竞争和HSolutionV3
- 迭代hSolutionV3:
迭代hSolutionV3
、迭代迁移: 综合indexDic计算 & 推举继承合并
- 解决方案实时竞争:
支持持续反馈 & 持续反馈评价
、Cansets实时竞争
、迭代TCPlanV2
- 搬运训练:
搬运动机训练
、学会搬运
、运用搬运
、Root竞争进度分加权
、hCanset迁移优化: 基于r场景树和hAlg抽具象树实现迁移
- 搬运训练:
搬运动机训练
、交层Canset训练
、规划搬运训练步骤
、迁移时连带迁移SP值
、构建Canset改为场景内防重
、同质任务执行太多次问题: 同质Root合并
、决策性能优化(15s至1s)
- 去皮训练:
整理Canset演化过程
、废弃Canset识别类比
、加重Canset预想与实际类比
、全面支持cansetAlg的共同抽象即匹配
、预想与实际类比中的实际fo: 采用pFo.realMaskFo生成
- 去皮训练:
H任务支持TCScene & TCCanset & TCTransfer
、HCanset由R场景改为单独场景
、优化去皮训练步骤
- 去皮训练:
学会去皮
、训练步骤设计与实施
- 去皮训练:
去皮动机
- 多线程思维:
思维用TI和TO两个线程
、回归测训
- 测父子任务:
迭代TCRefrection反思: 改到行为化前
、反思识别二次过滤器
- 防撞和觅食训练,等安全再吃训练:
性能优化
、防撞训练ok
、觅食训练ok
、防撞觅食联合训练ok
、持续饥饿感
- 识别准确度提升:
识别二次过滤器
- 回测Solution数据流竞争演化情况:
训练测试稳定的scene演化过程
、迭代solutionFoRank排名器
- 梳理TO数据流:
Solution竞争断层: 宽入窄出
、solutionCanset过滤器
、solutionScene过滤器
- Canset迁移性增强回测:
修复canset迁移后支持indexDic等BUG
- 提升Canset迁移性决策部分:
Canset迁移性增强的决策支持
、TCScene场景树
、TCCanset.override算法
、TCRealact可行性
、TCTransfer推举和继承算法
、相应更新SPEFF
- 提升Canset迁移性认知部分:
外类比支持匹配度共同点
、构建新Canset优先用场景alg
、迭代Canst识别&全含判断
、Canst外类比
、Canst空概念
、抽象Canset初始SPEFF
、Canset识别支持AIFilter
、回测Canset迁移性
- 训练:
觅食和防撞训练
、特征主观恒常性
、Canset惰性期
、测得Canset迁移性差问题
- 优化:
测决策循环连续飞躲
、反思子任务不求解
、BUG_行为转任务死循环
、BUG_静默任务被激活
、调整过滤器提升识别准确度
、觅食训练规划:mv进时序(未完成)
、增加迁移性与识别准确度:废除客观特征
- 优化:
使取S越来越准
、识别率低BUG
、支持AIFilter过滤器
- 回测:
测试条件满足功能
、回测项大整理
、修复R任务的Canset再类比时机与条件判断BUG
- 优化:
迭代canset前段条件满足
、使概念识别越来越准
、修复前段条件满足不完全的问题
- AIRank:
概念识别和时序识别的综合竞争: 支持强度竞争
、回测
- 二十测:
回归测试
- 优化:
抽具象多层多样性优化
、持久化与复用概念相似度
、迭代时序识别:持久化与复用indexDic
、canset演化周期
、废除TO反思识别
- 测试:
废弃isMem
、继续测试反思
- 测试:
测试任务失效机制
- 调优:
任务失效机制
- 测试:
测试TCRefrection
、性能优化
- 十九测:
迭代TCRefrection反思
- 梳理TC数据流:
决策配置调整: 快慢思考部分
、学时统计 & 用时概率
、测连续飞躲
、Analyst综合排名
- 梳理TC数据流:
识别准确度优化:逐层宽入窄出
、数据流:整体观
、快思考慢思考
、TCActYes每帧O反省
- 性能优化:
优化pFo识别性能
、迭代Demand支持多pFos
、十八测回归测试
- 工具优化:
十七测
、强化训练工具优化:支持模拟重启
、思维可视化工具优化:支持手势缩放
- 梳理TC数据流:
整体兼顾
、各线竞争
- 十六测:
性能优化
、强化学习训练
- 强化训练:
开发强化学习稳定性训练器: RLTrainer
- 思维可视化工具:
TOMVisionV2迭代: 思维可视化
- 十五测:
春节结束,开工回归测试
- 十四测:
回测相近匹配
- 相近匹配:
相近匹配
- 回归十三测:
新螺旋架构测试
、反省分裂迭代测试
- 反省迭代:
hSolution从SP取解决方案
、分裂:感性反省 和 理性反省
、废弃HN
- 思维控制器架构大迭代:
完善螺旋架构
、废弃宏微决策
、反思融入识别
、工作记忆树迭代
、迭代综合评价
、末枝最优路径
- R决策模式迭代:
FRS评价器迭代
、废弃dsFo
、废弃PM
、废弃GL
- PM稳定性迭代:
VRS评价器迭代
、VRSTarget修正目标
- v2.0十二测与训练:
IRT的SP参与VRS评分
、SP定义由顺逆改为好坏
、紧急状态不反思
、主客观互卡问题
、tir_OPushM迭代:IRT的理性失效
- 网络节点类型排查:
指针集成type
、自检测试
、网络at&ds&type错误大排查
- v2.0十一测与训练:
子任务回测
、R决策模式
、防撞训练
- 子任务细节改动:
子任务的已发生截点
、同级任务协作
- 子任务细节改动:
子任务协同
、子任务不应期
- v2.0十测与训练:
子任务测试
、防撞训练
- v2.0九测与训练:
觅食训练&变向觅食训练
- HNGL嵌套迭代:
内中外类比迭代v3,v4
、迭代getInnerV3()
、RFo抽具象关联
- v2.0八测与训练:
R-模式测试
、觅食和防撞融合训练
- 决策理性迭代:
规划决策
、子任务迭代:理性反思
、来的及评价
、嵌套关联
- R-决策模式V3迭代、反向反馈外类比
- v2.0七测与训练
防撞训练
、R-模式测试
- In反省类比迭代、R-决策模式V2迭代
迭代触发机制: 生物钟触发器
- v2.0六测与训练
多向飞行正常
- AIScore评价器整理完善:
时序理性评价:FRS
、稀疏码理性评价:VRS
- v2.0五测与训练
- TIR_Alg支持多识别
- v2.0四测与训练
- Out反省类比迭代 (DiffAnalogy)、生物钟(AITime)、PM理性评价迭代v2
- 决策迭代:PM理性评价
- v2.0三测与训练
- 决策迭代:(根据
输出期短时记忆
使决策递归与外循环更好协作)
- 决策迭代:(根据
输入期短时记忆
使决策支持四模式)
- 迭代外类比: 新增反向反馈类比 (In反省类比) (构建SP正负时序、应用SP于决策的MC中、迭代反思)
- 稀疏码模糊匹配
- v2.0二测与规划性训练--回归小鸟训练
- 理性思维——反思评价
- 理性思维——TOR迭代 (行为化架构迭代、支持瞬时网络)
- 理性思维——TIR迭代 (时序识别、时序预测、价值预判)
- v2.0版本基础测试改BUG 与 训练
- v2.0一测--小鸟训练——神经网络可视化v2.0
- 优化性能——
XGWedis异步持久化
和短时内存网络
- 内类比 (与外类比相对)
- 迭代决策循环 (行为化等)
- 迭代神经网络 (区分动态时序与静态概念)
- 势 (小鸟生存演示) (v2.0开始开发)
- v1.0.0 (he4o内核发布)
- 螺旋熵减机 (产生智能的环境)
- MOL
- MIL & MOL (重构中层动循环)
- HELIX (定义、相对和循环呈现的螺旋型)
- 三层循环大改版 (mv循环,思维网络循环,智能体与现实世界循环)
- 相对 (he4o实现定义,横向相对,纵向相对)
- 宏微 (前身是拆分与整合,宏微一体)
- 定义 (从0到1)
- 规则 (最简)
- DOP_面向数据编程
- GNOP_动态构建网络
- 神经网络 (算法,抽具象网络)
- MindValue(价值)
- 树BrainTree(参考N3P7,N3P8)
- 三维架构(参考笔记/AI/框架)
- OOP编程思想->数据语言 (OOP2DataLanguage)
- 重绘了新版架构图; (AIFoundation)
- 金字塔架构
- 分层架构
- 流程架构