Skip to content

Latest commit

 

History

History
926 lines (665 loc) · 30.8 KB

Note13.md

File metadata and controls

926 lines (665 loc) · 30.8 KB

相对宏微与循环

早在note3时,已有关于后天思维方式(三维架构)的想法,而关于思维方式的思考也未曾断过;

  1. 宏微,看似只有一层,其实没有明确界线,宏微是相对的;
  2. 并且相对宏微对构建网络,及后天思维有致关重要的作用;

那么:

  1. 相对宏微如何影响网络构建呢?
  2. 如何融入cmv模型?
  3. 如何被前额叶使用呢?
  4. 如何与mv融合呢?
  5. 如何与net融合呢?
  6. 如何形成后天思维方式呢?
  7. 思维方式完成后,对he4o进行总结与训练;

note13主要面对这些问题而展开;

注:所有的难题都在"理所当然"中;(所以当以为系统完善时,一定要付诸实践,用现实打破错觉)







n13p1 思考思维方式之相对宏微

CreateTime 2018.06.06

思维方式的重要性 >>
1. 思维方式是否只是cmv模型,在absNode间的宏观体现
2. 1种答:如果是则AGI智能体现远超人类,如果否则AGI与人类在同一量级
3. 2种答:在数据因果复杂度上,可同时分析的信息数是有限的;这个平衡点,制约着智能值;

宏微界线 >>
1. 宏微的界线没有那么明确,每个节点的微信息组,都是微。
2. 宏微是相对的,(索引与node相对)
3. 宏微是相对的,(类比单位为微,抽象区域为宏。)

组与分 >>
1. 解决集合(组)的问题,而不仅是分。(foOrders为组,absNode为分)

开发 >>
1. shortCache里加上absNode。
2. shortCache里加上思维log (thinkFeed)。

红线:宏信息中的微信息组,也作为微信息;以指针形式存在absIndex中,
再由,absReference排序其引用强度;






n13p2 cmvRule

CreateTime 2018.06.07

示图 >>
黑: foOrders 棕: cmv 灰: reference 绿: absNode

问题 >>
1 充电mv和饥饿状态mv是两个
2 饿了想吃东西,还是想变饱?
3 饿状态即urgentValue

理论 >>
1 一mv两面 (阴阳转化)
2 因果 (状态是因,变化是果)

归纳分类 >> 饿
urgentValue 痛感越高越迫切 饥饿感越高越迫切 越少越迫切
targetType 消除痛感 消除饥饿感 变多
状态 疼痛值 饥饿值
变化 舒服或平静中和痛感 充电中和饥饿感






n13p3 从节点复杂度,思考网络优化

CreateTime 2018.06.11

前言 >>
1. 集合note12所实践的四序列,思考一下网络结构上有没有可优化简化的地方:

注: i=index is=indexs abs=abstract fon=frontOrderNode
1. foNode: 多对一 多微信息 对 cmvModel
2. cmvModel: 一对一 foNode 对 cmvNode
3. cmvNode: 一对二 cmvModel 对 targetType_p和urgentValue_p






n13p4 output

CreateTime 2018.06.12

行为学习 >>
1. 反射输出
2. 尝试输出
3. 输出log入网
4. 运用output网

理论步骤 >>
1 outputAlgs算法层 定义了输出算法
2 反射输出 imv与输出的反射回路
3 omv与反射输出入网
4 尝试输出 决策,上升到后天输出阶段
5 输出入网 上升到后天输出的学习阶段
6 运用output网输出






n13p5 后天思维之thinkFeed

CreateTime 2018.06.12

问题 >>
1. thinkFeed什么时候被mv带给foNode?
2. 本文思考找到:后天思维的哪部分是规则化,代码化的,流程化的;从而找到思维方式的代码实现方式;
3. 思考是否组分(相对宏微)是形成后天思维的先决条件,或唯一条件;

正文 >>
1 thinkFeed只是后天思维的第一步;
2 思维解决问题也是构建网络,如 练题成考神,自省使抽象加抽或入cmvModel

步骤 >>
1 input
2 noMV
3 shortCache
4 assData
5 thinkFeed

问题 >>
1 thinkFeed应该存哪些指针? 如何分辨抽象知识的整体性?
答:在thinking中新参与类比的新构建的指针,抽象知识的整体性在网络中;
2 thinkFeed不应该是序列;而是网络的吗?如何存储使用?
答:元素是指针,网络还是在net中;
3 thinkFeed确定也以cmvModel的方式传输给网络吗?为什么?
答:是,因为thinkFeed所指向的absIndex也是微信息,需要与分信息混合传入,以形成自由的组分结构;
4 第3如果是,怎么传?与shortCache的区别是什么?
答:考虑:1、 shortCache(4-7不区分input和ass) 2、thinkFeed(快速优先检索区)
5 感觉缺了些什么,例如:shortCache如果不区分input和ass,那么序列呢?如何排先后;
答: shortCache的上升是不需要回头的,其存储的对象向来就是指针,指针指向什么取决于网络;这也符合思维源于网络的特性 (但有个矛盾点是目前的shortCache其实存的是微信息,并非宏信息)






n13p6 相对宏微之网络改版

CreateTime 2018.06.22

简介 >>
宏微是相对的,导致原先明确的索引层不再明确;索引必须全面铺开到网络中;
而shortCache的相对宏微,也必然要求shortCache永远只存宏信息;

正文 >>
1. 索引改版 数据即索引不变,凡网络节点的数据皆索引;无明确的索引层,每层都是其抽象层的索引;
2. shortCache改版 关于识别阶段思维阶段的shortCache存宏微信息矛盾;将识别阶段也生成宏节点,故shortCache只存宏信息;

示图 >>
注: 数据索引部分,从分向组方向升级,而升级的依据是网络节点
注: 网络节点部分,从组向分方向抽象,而抽象的依据是数据规律
注: 所有的模糊组信息,都由shortCache提供;

代码实践 >>
1 只需要把shortCache中微信息的装箱操作,再装一步,装到node中;
2 索引可还用目前这种,分界还算是特别分明的






n13p7 相对宏微之代码实践

CreateTime 2018.06.25

shortCache >>
1 shortCache的所有元素都是微指针
2 shortCache的长度是否决定智力
3 shortCache决定了cmvModel前因序列的长度,及整个网络的构建过程、结果和复杂度。

shortCache存哪些微信息 >>
1 algsArr_Index; 输入微信息
2 absIndex; 抽象微信息
所有宏信息的检索,也是构建抽象的过程,或者指向已存在抽象的过程;所以将abs后的absIndex加到shortCache是必然的,以形成螺旋组分;






n13p8 he4o总结(单流程)

CreateTime 2018.06.26


简介 >>
1. he4o目前的情况,完成相对宏微后,能够实现什么样的智能效果,如何训练及呈现?
2. 本节针对,he4o的系统现状,作些训练及智能体现方面的思考;
3. 数据替代运算,抽象数据结构。
正文 >>
1. 设想场景,进行智能训练,如充电;

进度 >> 模块 完成度(五星)
1 类比 *****
2 宏微 *****
3 相对 *****
4 规律 *****
5 抽象 *****
6 网络 *****
7 mv ***
8 循环 *
9 output *






n13p9 output代码实践

CreateTime 2018.06.27

前言 >>
1. he4o其它部分,已经基本ok;
2. 本节主要针对outputg与output入网的代码实践,而展开
3. target的解决,依赖于外界;
4. AI必须知道自己能够使用哪些手段与现实交互,例如:通过字符串调用outputStr算法 通过显示器显示图片

步骤 >>
1 因decision时,没有明确解决方式,导致的挫折感,急切感omv
2 omv触发反射输出 表情符
3 decision锁定唯一信号时,尝试输出并将输出入网,等待反馈
所有输出前,都要入网;以得到反馈与加强

output入网 >>
1. 强化只是 跑cmv流程时 导致的自然强化;不需要刻意设计强化反馈流程;
2.

问题 >>
1 Q:尝试解释,嘴上笑嘻嘻,心里mmp
A:
2 Q:决策只是思维对target找到了释放方式?
A:对
3 Q:释放(output)是否需要log到网中;
A:不仅需要,并且也以类似cmv基本模型的方式进行相对宏微的抽象构建网络;
4 Q:基础的反射输出
A:一切神化的开始
5 Q:复杂的输出行为
A:对输出行为的相对宏微;
6 Q:关于decision与output哪个入网?
A:当时怎么想的不重要,重要的是怎么做的
7 Q:除了输入时,inputIndex,是否也有outputIndex呢?哪些能输入,哪些能输出?如何输出?
A:只有一套Index,输出见收下:必然正确部分
8 Q:人类为什么1岁才学会说话呢?
A:

output入cmvModel必然正确 >>
1. 当时调用了某个输出算法
2. 传了适合输出的某信息
3. 反射,教会了ai使用某算法;

思考结果 >>
1. output存在cmvModel的时序列里
2. inputAlgs时是索引微信息,
3. 而outputAlgs时,其索引微信息存的是,反射算法标识输出的信息

明日提示 >> title desc status
1 output omv应激反应输出。






n13p10 mv循环

CreateTime 2018.06.28

简介 >>
针对系统的不断完善和变化,本节更新三层循环的代码部分;
数据替代运算,抽象数据结构。

mv >> imv cmv
描述 状态 变化
功能 产生需求 构建网络
形态
变化 静生动 动生静
思维 激活思维 平复思维

思考 >>
1 假如,因富足保食,从未饿过,那么还第一次饿的时候,知道要吃东西吗?
2 思考:imv状态值,输入如何入网?
3 明日提示:写cmvNode的抽象

问题 >>
1 写imvCache当前imv状态序列
2 思考:是否可将imvCache与shortCache合为一起?
答:目前不需要 imvCache可以合并到shortCache
3 思考:多个同类型imv,是否需要类比,absImv,然后再只存absImv_p到imvCache?
答:需要,是absCmv存cmvCache;
4 imv是否先入网,指针入imvCache序列?
答:imv只是mv的一个状态,另:将imvCache改为cmvCache;
5 是否将imv,cmv,omv进入整合,放到cmv基本模型中?
答:对,确切说,是将imv和omv整合到cmv中;
注: 所有cmv只与cacheImv中作匹配
注: 所有cmv的匹配,仅对比target和urgent

仨mv合并 >>
1 cmv基本模型需要改进
2 一般感觉(好奇心)作为netRoot时的工作方式
3 假如,在数据网络中,mv与普通节点没有区别,会怎么样?

必然正确的几个点 >>
1. cmv模型中的时序
2. imv,cmv,omv必然会入网 (imv未必)
3. imv,cmv,omv必然会抽象 (imv可能以抽象去重)
4. imv的target必然与cmv产生对应

思考结果 >>
1. 只有一个mv,没有imv和omv;(omv只是为了反射平复target),
2. mv模型为: from a->b target b->c
3. 将absMV_p存到mvCache
4. mvCache的模糊有序,如1.5和1.7同值 注:随着联想等思维活动,实时更新排序






n13p11 mv循环改版_代码实践

CreateTime 2018.07.02

步骤 >>
1. imv的from和to直接传到thinkingController里去
2. thinkingController将fromto转成tMv入网并放到mvCache
3. 再次输入imv的fromto时,与mvCache匹配(相顺或相逆);
4. 相顺时(from-to与target一致),转成changeMV,并存cmv基本模型到网络
5. 相逆时(from-to与target相反),将tMV入网,并合并到mvCache(同需求合并,以最近为主)
注: tMv即urgent和target的mv状态;
注: imv即from和to的mv状态;
注: cmv即在urgent上产生change的mv状态;


absCmvNode >>
1 问题:什么时候类比并生成delta+-的absCmvNode?
>> 与类比其它数据一致;同类数据输入类比并抽象;但没有+和-的混处理;
2 问题:如何根据一个正值,或负值,来快速的从absIndex中,找到索引地址;
>> 仍以联想为核心,其它以时序等构建关联;(参考问题6,需实现)
3 首次经历充电解决hunger问题,那么he4o明确知道delta+和delta-的关系,如何代码表达这种同异向问题?
>> 不表达,这种关系是先天的,只需要根据问题6,解决快速查索引即可;
4 还是首次充电,但he4o不明确知道充电和没电的关系,怎么解决?
>> 在cmv基本模型,仅有充电与delta+没电与delta-的时序关系;
5 解决delta+和delta-的对应关系代码表示;(添加到思维控制器同向,或异向处)
>> 问题有变,见问题6
6 最大的问题是,delta+和delta-到底是先天即知,还是后天关联;
>> 应该是先天,那么快速的从某个delta变化,来快速从index找到对应信息,成了首要代码实现;

明日计划 >> status
1. 把fromto改成value和deltaFrom(不过当前不太需要) T
2. 往checkMV中,加上change的部分,并改cmvNode; T(已加delta并改了cmvNode)






n13p12 下版本_前额叶处理能力

CreateTime 2018.07.03

时序迭代 >>
同理心,可替代其它人或物的mindValue产生cmvModel。
示例:鸠摩智抓段誉,但乔峰同在时不抓。背后逻辑源于抽象迁移网络。(武力值,六脉神剑等常识和类比)
常识边界:先建立了鸠摩智抓段誉的时序,后才知道原因。但不影响逻辑思考






n13p13 下版本_时序列和cmv基本模型的改版

CreateTime 2018.07.06

怀疑和猜想 >>
1. 猜想:情景记忆是独立的小网络的可能性。
2. 怀疑:cmv基本模型是否只是时序列;所有cmvNode也应加入到时序列中;
3. 睡眠时:GC工作;
4. 抽象时,对mv和其它微信息,采取完全不同的抽象方式;前者采用值交集,后者采用信息交集
5. mv输入时,只是状态值;而不是delta和to;






n13p14 cmv改版_deltaIndex(+-)

CreateTime 2018.07.06

前言 >>
标题 mv的索引,与微信息的索引是存在不同的
区别 微信息是为了快速找到相对应的信息与节点,而mv则是快速找到与其相关的+-等情况;
目标 本节尝试重写mv的索引,并完美与原先代码不冲突的融合;

//名词说明:
> 1. mvIndex: 与Index索引序列同级,是mv相关的索引序列 (也是`值范围`索引)
> 2. deltaIndex: 目前不想有太大改动,所以先用deltaIndex来在原先index上,再索引一层delta变化;

思考前 >>
1. absCmvIndex是+-,以delta抽象,可尝试模糊下。用(区间包含)的规律,例如:
> a. 具象方向:+10也是+9及以下。
> b. 抽象方向:+1包含+1以上所有。

思考方案1 >>
介绍 先实现+-的需求,与当前的index和reference配合使用,随后版本迭代,再简化设计
1 写个deltaIndex来解决值索引问题;
2 每次存index时,判断下是mv的话,自动加到deltaIndex序列中 (从+到-有序)
疑问 mv的delta匹配虽然重要,但附加数据的综合思考也重要;
例如 在公司想家里的厨房,是解决不了饥饿问题的;这种缩小范围的能力,非常重要
//本节作废:
> 1从情景出发找到解决mv的办法。
> 2即从网络解决一切问题而不是从索引直接找deltaMv。
> 3mv只为起点和终点负责不对过程负责

//特别注意:
> 1. 只有思维控制器自动化找delta+-才使用它其它的还是使用网络和联想

明日计划 >> status
1. 在thinking中,类比(同向替换,异向抵消)时,生成absCmvNode
2. 实现快速根据delta+或-,从index找到相对应的pointer; 废弃
3. 根据delta+或-的经历,快速实现absDeltaIndex的最小单位+-1构建; 废弃
4. 写mindValueRule,配合mvIndex工作;






n13p15 扩展规律

CreateTime 2018.07.09

前言 >>
类比信息,不仅类比是否相同,还要类比位置;非同位规律->组抽象;同位规律->相等抽象;(相等,同继承,继承)
1. 同信息 2. 同位占位 3. 同义不同信息同义

步骤 >>
1. 从饥饿与吃类?吃奶?中抽象到组抽象:;
2. 从 的输出,到解决饥饿问题,网络变为: 是请求食物
3. 再从吃奶冲奶 中抽象到组抽象:;
4. 从 的输出,到解决饥饿问题,网络变为: 是请求食物
5. 此时, 是同义规律
6. 再从 吃面吃奶 中抽象到占位规律:吃{x}
7. 此时, 为同占位:食物;

组规律
简介 指时序列中,类比到sames;并将相同微信息进行抽象的方式
组抽象 同类信息发现规律,为组抽象
例如 abc,abd抽象即:ab

占位规律 >>
简介 Ab,Ac,Ad那么bcd出现在同占位的规律,这仨应被抽象为A{x};
不同信息,发现"同占位"规律后,为"是"抽象;
例如 吃东西。吃苹果,吃桃;那么东西苹果的占位;
在外类比迭代,支持占位抽象 >>
比如: fo1[吃,苹果] 和 fo2[吃,坚果] 可以抽象为fo3[吃,食物]
另一个思路: 能否对fo[吃的],进行概念化,并得到fo3[吃,吃的]
注: 这一点,在AGI自然语言的认知上,非常重要,比如"老虎"和"狮子"都会吃人,抽象为兽,但可能并无共同特征;

同义规律 >>
简介 意义相同,但微信息不同;同义不同信息的规律抽象; 苹果,果的
? 非同位->组抽象;同位规律->相等抽象;(相等,同继承,继承)






n13p16 重构思维控制器

CreateTime 2018.07.09

废弃deltaIndex >>
1 从网络出发,找出解决hunger问题的最强引用
如:饿了,从抽象层知道,应该找吃的
2 缩小范围,收集当前信息,并以此为索引,找食物
如:从具象层,分析当前情况下(所属位置如:家)的食物在哪里找到。

疑问 >>
1 到底该不该有absMVNode?
如果有,是否仅仅是代码写死的delta+-1;
如果没有,那么时序列的抽象如何整合到cmv基本模型中?
2 为了与时序列保持,网络结构上的融洽,mv是不是也应当有最简单的抽象?如+-1
同意
3 +-索引,是不是不需要原先index和reference的设计那么复杂?
对,因仅有一个+和-,所以无需引用序列和索引序列,仅需存储一个序列,将所有类型的mv的+和-的节点地址,以有序的方式存入;
4 疑问2,是否可以(在时序列抽象后的层,应该脱离cmvNode)?
不可以,如下图:

明日计划 >> status
1. 写directionReference(只有最基本的+-抽象) T
2. 写CmvIndex T
3. 写首次输入cmv时,即引用directionReference T
4. 联想以往解决时,都发生了什么,尝试复现;(决策与解决需求) T
5. 联想到同样经历的mv时,尝试抽象出absCMVNode;(类比cmv与抽象) T
6. 去掉所有的absNode和absCmvNode;而只抽象cmv基本模型来替代; T (同时抽象前后节点)






n13p17 思维网络循环(中层循环)

CreateTime 2018.07.13

简介 >>
从mv循环到(mv顺逆向)的处理,单轮中层循环完成;
本节要解决的是多轮循环;而其源动力是cmv.urgentTo;

正文 >>
1. 在thinkingControl中定义energy字段,并动态更新;
2. 决策中,触发一些cmvCache在排序上的变化;(如饿了,去超市买菜还是去饭店的问题)见n14p2
3. cmvCache中,未必存的绝对是cmv;很多demand都是复合的(如我6点早餐也许只是习惯,未必是真饿了)
4. cmvCache中,需要一个自定义的model,并且为该序列需要的功能定制;

明日计划 >> status
1. 将urgentTo转换成能量值; T
2. 推进多轮循环thinking_Loop方法; 见n14p2
3. 写cmvCacheModel替代麻烦且功能支撑不全面的array[@urgentTo,@delta] T






n13p18 相对宏微之先后思

CreateTime 2018.07.16

简介 >>
名词. 先天思维=先思; 后天思维=后思
1. 先思抽象与后思抽象是不同的。先思时序与后思逻辑也是不同的。
2. 文字或语言等思维方式让动物获得更加复杂的后天抽象。
3. 属性,和抽象,可以是同一种表示方式。

语言: 因为一切决策是为了行为化,而语言提供了可以丰富的行为化出口;即语言使人类在输出条数上异常丰富,它超过手脚表情之和;


问题 >>
Q1: 先后思抽象与知识表示的不同与接洽处理。
Q2: A车是B的,这种属性值关系如何呈现在目前的抽象网络中。
Q3: 代码与思维:很多不经意间的思维,看似是写死的,但却可以因刻意而改变;
A3: 这是看似思维凌驾于代码之上的假象,思维仅仅只是通过网络定向检索等操作,作了些代码作不到的事

1. 这颗的名字是大米 今天吃的饭是面 等等"是"抽象;(占位规律)






n13p19 思维网络循环(外层循环)

CreateTime 2018.07.17

前言 >>
本节重点思考在thinkingControl中决策与输出的实践与重构;
注:在he4o的初版中,仅支持最简单的output,小脑网络型输出在今后版本中完善;

正文 >>
1 当联想到解决经验时,检查以下两点:
a. 检查order_p是否是"输出";
b. 检查order_p是否可以"被输出";
2 如果以上不成立:
a. 生成"心急mv",并通过反射输出;
b. 将反射输出,记录log到foOrders;
3 输出也要输入,(输出前都是想法,输出后才是现实)
a. 那么,我们需要区分"输出与输入"吗?
b. 那么,思维内存只有输入思维流;
c. 假如没有输出记忆,那么如何知道是某行为导致了某cmv呢?
4 output不转为input。
1,简单定义一个outputModel。
2,输出算法outputAlgs
3,函数指针,
4,输出参数。(内容)
//[NSObject invocationMethodName:@"outText:" className:@"Output" withObjects:@[@"😭"]];
步骤 >>
1. "心急"的哭反射输出;
2. "满足"的笑反射输出;
3. 类比到"字符串类型"输出;

从反射输出到明确输出 & outputReference 示图 >>
注: 对于输出的参数类型,如笑,哭;默认可抽象出类型索引;
注: 如图中的抽象到String

明日计划 >> status
1. 写outputIndex和outputReference T
2. 重构OutKVPointer指针 dataTo算法名 T
3. bug(indexReference只按指针排序,未按引用强度;) T
4. bug(directionReference按指针去重,却按引用强度插入,导致去重经常失效) T
5. 写可输出微信息的判断,和输出微信息; T
6. 写absMvNode (基于cmv基本模型写...) T
7. 写commitOutputLog:入网; T
8. AINetAbsIndex中,不能只存pointerIds;因为abs的分区标识是会变化的
9. >>此处改为抽象整个cmv基本模型,或简化成absNode对absMVNode 优先开发 T
10. 主动取当前饥饿状态;或:在需求形成时,用状态主动判断有效性;
11. 继续写energy,让思维网络多次循环跑起来; T
12. >>> HavDemand优先联想到应该是前因序列的强度排序;而非cmvNode
13. havDemand中,扩展对out_p的支持; T






n13p20 下版本

CreateTime 2018.07.23

外层循环_output >>
可输出判断: 不能只用dataTo和algsType判断,还应以网络后天抽象节点判断来判断;
不可输出数组: out是不能以数组处理foNode.orders_p的,下版本改)
思维控制器 >>
1. 意识流 "思维流thinkFeedCache" 可以考虑在下一版再开发;
2. 扩展规律 按着n13p15的方式给he4o扩展规律
3. 思维活跃度 cAssDataLimit值的动态变化
4. 反射反应 大声说与怒气的反射。
5. 好奇心 网络中某个节点意义的疑问。
6. 轻活跃mv 形成知识的断续获取。(或许不需要)
7. 扩展音频 和音频文字不同分区出现信息的规律。
8. 思维解耦 dataIn联想后,只加到energy和cmvCache中,energy的活跃自行决定是否执行cmvCache中哪个demand;
9. 思维控制器 尝试真正使用网络的方式,来重写思维控制器;(一种更新的编程方式)
10. cmvCache 扩展长期mv的支持,可以对长期任务作出规划和决策等等思维活动
11. 决策预测 给决策加上预测功能,使loopManager的可变性,更加灵活
12. 冥想 dataIn_assData可以产生abs;条件:必须是两个cmvModel间的类比
13. 决定干啥 dataOut_AssConData可以影响到LoopModel.order并实时刷新Demand序列;
14. 同理心 可以从观察别人得到某物质,而同理心思考得到物质的方法;
15. 主观决策 主观意志,可以影响score,并影响到决策的结果;及expModel数量,决策的整个过程;
16. output_p absNode中,index中,都要保留outLog标记
17. mol.score mol.score太直接暴力了,需要怀疑是否有更本质且简单的替代方式
18. 拉长思维时间线 现在的思维太短暂了,需要针对拉长时间做设计,例如,任务已在解决中...等等的难点
19. 可视化 神经网络的可视化,he4o系统状态的可视化,mvCache的任务数,当前在思考什么;
20. 小脑之动作纹 1. output引用强度先作为影响决策评分; 2. output引用强度可作为固化动作以优化输出效果;
21. mv第2类失效 mvCache中,有两类失效(参考n14p17),第二类涉及到一些代码的编写;v2中完成;
22. 主观意志 自由意志主动对思维和行为产生的变化。mv是否就是即无即有的自由意志。
23. 微信息层级 尝试比char更底层的编码,例如二进制。让he4o自行尝试出合理的字符输出 (是否可行)
24. 开放接口 首先先把开放接口调整好
25. 小和系统 分项目,小和系统立项
26. 小脑网络 把canOut判断,等等改进为小脑网络
27. 瞬时记忆改 瞬时记忆根据算法改成一组组的设想,可行性,原因
28. sames占位符 类比结果sames中,用占位符,比如ab*,a?c这样的抽象微信息组,注:需要多轮类比(如:abcdabe比ab)
29. 扩展认知 支持对(常变信息的类比出规律);
网络可视化项目 >>
1. 搜哪显示哪;
2. 显示哪搜哪;
3. 随热点显示;
4. 指定焦点的方向显示;
1. 一堆方块,可上下左右操作,查看更多,用颜色标识出是输入,还是输出,可框选查看区域;
2. 可联想查看,输入某个algsType或某个信息,可联想查看;






Other

toDo >> task status
1 删除absNode下的refs_p, T
2 创建absReference 复用indexReference
3 测试absNode的index和reference; T
4 思考absPort和conPort的n对n关系; 太过复杂的关系,是否影响其它,或者造成性能问题 如果要简化为1对n关系,那应该如何优化网络 思: n对n关系,说明一个问题,就是要么多了关联,要么少了节点; 问题升级,参:n13p3
5 关于cmvModel的:orders,foNode,cmvNode四者分开,还是哪些到一起? T
6 把时序列类比的sames也改成时序的。(避免逻辑混乱) dataIn是流式输入;sames也是基于当前输入信号与shortCache已有信号,可进行组合检索的;
7 完善thinking中无mv的assData流程; T
8 noMV的dataIn流程,在联想后,依然noMV,但联想的结果要入到cacheThinkFeed里;
9 将pointer,缓存,port,等封装一下,使用时更简单些;代码也更易读些; T(简单重构了pointer和node,合并了很多ifelse)