碎碎念2026上¶
Mar 2026¶
29 Mar 2026¶
之前经常看文的作者上岸了起点,于是去找了本书看,还是熟悉的味道,温暖和甜。我从小就很喜欢看修仙的主题,因为我从中感受到了一种终极的浪漫,也就是带着随机的注定,在开放世界里,靠自由意志导向的命中注定。所谓一饮一啄 莫非前定。
尽管我拒绝修仙文之中朴素道德因果论和轮回的世界观,但这并不妨碍我对超越但又世俗的连接,我对浪漫的认识来自这里。在我看来,浪漫是从时间的跨度里来的,是从选择里来的。基于自由意志,跨过极度混乱随机的世界,漫长的时间,产生的确定性结果是终极的浪漫。
我喜欢阅读这种文字,这给我带来了温暖的感觉。
28 Mar 2026¶
最近阅读明显少很多了,ai对话可以满足我的好奇心,我不说求知欲,因为事实上ai很少告诉我思维链条和逻辑推理思路,更多的是知识性内容。
好奇心被满足大脑是会奖励我的,而我kindle上的书多是更复杂,更“硬核”的知识,推理和对新事物的推理认识。这些东西是比知识性更高阶的内容,大脑需要反复思考处理,才能在最后挤出一点奖励。
我是人,尤其是个懒人,大脑的激励让我远离我的书,这很自然。当然这不正常,我不想要这些东西,然后我被困在和ai对话,在xhs看shit帖子,看有多巴胺和视觉刺激的内容。
最近收集些注意力,看一些轻松点的书籍,反馈仍然很不错,我想我应该合理安排阅读内容,有助于我专注注意力,并适度学习复杂内容。
这个话题很早就想写了,因为我认为值得记录。半年前有朋友说我很功利,尽管在他的语境下这是一种judge,但我并不觉得这是一种攻击,因为我对功利的理解是“对任何事情都带有目的”,所以他的话在我理解是对现实的描述。
我确实什么事情都想要追求一个目的,尤其是要克服自我的事情上。除去生物本能的驱动,如果我找不到一个目的,我就不会做,表现出来就是懒。具体到生活上,如果一个东西对我没什么“用”,那我就不会行动去追求。“用”在这个语境里指的是一种效用,具体的或抽象的。
朋友对我的评论,是想说要多点“我想要所以我做“,而不是”因为做这个有好处所以我要做“,这里”想要“强调的是因为冲动产生的,而不是被效用驱动的。这里很绕,受大脑多巴胺分泌的冲动,到底是不是效用驱动的呢,我觉得是的,但显然这不是当前的话题,把微观的和宏观的混在一起了。
功利指的是当被问到为什么要做这件事情,回答可以是我想要,而不是因为做这件事情可以得到什么实质上的内容。
功利和问题驱动是类似的,有问题就需要解决方案,想要不如解决当前的问题,解决问题产生了血清素释放了压力带来的焦虑。想要是内源性大麻素,让人舒适满足。
晚上做了北非蛋,入口的口味特别厚重,是没有体验过的口感,我很喜欢。
25 Mar 2026¶
在传媒与互联网经济中,受众根本不是消费者,而是平台生产出来的“商品”。
微观经济学:效用不对称(Asymmetric Utility)与 隐蔽机会成本
单体无效,聚合暴利。
行为经济学:数字劳工(Digital Labor)的无偿剥削
23 Mar 2026¶
罪的概念给受苦一种神学上的解释,把超越现实苦难的沉重依托给了主。个人认为对罪的理解和现实的苦难是高度相关的。
当然,罪本身不只代表苦难,旧约书里讲“你必汗流满面才得糊口,直到你归了土,因为你是从土而出的。你本是尘土,仍要归于尘土”。 如果说罪只是苦难,那死反而是解脱。
和主隔开才是罪最大的后果,但这太抽象。恰恰是具体的苦难带来了罪的直接理解,以及进一步的救赎,理解了罪才能理解救赎。
前一阵子额头上出了个包,有点肿,过去的解决方案是受着让他自己慢慢好,这次试了下布落芬,效果很好,吃了一天就完全不疼了。
14 Mar 2026¶
又买了泡发鱿鱼,我的最爱,我感觉比鲜鱿鱼还好吃.
14 Mar 2026¶
之前有个基于mitm来做网页解析的内容,利用mitm拿到网页源代码来做解析。周末指挥AI code agent干了干,写了个electron的windows app出来,花了大概5-6个小时,token不提。但是等做好了,看了看我做的内容,实际上用油猴直接可以完成目标,于是我瞬间发现我白做了,因为我做的app不稳定,需要额外打开系统代理,比油猴脚本麻烦多了。
这是我想要做就做就得到的一个体现,这对我来说是一个问题,我在决定行动的时候,只要可以完成我就会花时间去做,但是忽略了仔细思考和权衡,思考是否有更好的方法?
过去我会因为工程难度直接放弃,但本周我发现claude code可以帮我做,我就一直监督它就行了,他的产出对我来说是黑盒,我对如何实现兴趣不大。问题就在这里,我花费了时间,我却丧失了对产出代码的感知力,我投入的时间没有带来任何新的知识性获取(尽管在ai时代知识本身也不再有价值)。
这给我带来的启示是什么呢?
-
ai code agent事实上消除了code部分的开销,ai code agent已经可以完成可运行交付的代码产品。模式变成了我需要,ai做,我得到。我应该思考如何在这个过程内,如何减少我帮助它测试和验证的时间。目前来看我仍然需要频繁指出问题。
-
我的思考在哪里?ai完成了代码交付,但这里有个基本假设,越少ai代码的参与,越稳定。在有另外途径完成相同的任务的时候,没有必要让ai生成代码。这要求我仔细思考我的决策。可以work不代表我要这么做,要反复思考应该做什么,而不是让ai做什么。
-
在ai的帮助下,我会犯更大的错,花费更多的时间,去做一件错误的事情。ai不会告诉你你错了,因为这是一种解决方案,但ai不负责insight,甚至不care你当前的工作流程,这部分更加的重要。过去因为code的高成本,这种成本迫使我思考我是否真的有必要这样做,而code agent的出现消灭了这一点,也带来了更负责的东西。
简单来说,如何做什么事情,不做什么事情变得更重要了。
13 Mar 2026¶
最近syncup的一个体会,有一个新体会,在介绍最近新学的内容时,很多细节是不能细讲的。
不能细讲分为几部分理解:
(1)没有人在意细节,当high level的调研还没有完善的时候,讨论细节是一种过渡延伸,当你连high level都搞不清楚的时候,讨论某个细节的某一块是如何完成的实质上打断了对话。 (2)syncup本质上是信息交换,而不是知识共享,细节属于知识层面,不是信息。讲细节就代表了试图完成知识共享,违背了syncup的初衷,而且知识就在那里,只要交换了信息,相同水平加上ai帮助,获取知识没有门槛。在这里,信息是有价值的,知识不然。 (3)知识是零碎的细节的,充满了工程化的问题和考量,当自己没有搞明白的时候,容易成为罗列事实而非自己想法,对流程认识不足的结局。
综上所述,要把握syncup的正确目的,学了很多看了很多这很好,但是和别人交流是另外一回事。
11 Mar 2026¶
不要出现无效凑字数章节,不要写为了报告看起来好的废话;对结构化的内容要谨慎使用表格,避免铺平导致破坏结构,导致难以阅读。
轻避免信息冗余,一个新概念应该在一处出现并讲透。避免交叉分类,导致信息分布于各处。
相对/绝对/消极/积极自由;严格责任
11 Mar 2026¶
结果快出了 煎熬的等待变成了期盼
11 Mar 2026¶
最近看codex的代码有感,由于决策权在LLM侧,所以代码agent在难度上和工程上都没有太大的护城河, 不大不代表没有,但这种技巧和经验性的东西在高流动性的场景下会逐步弥漫到各行各业去。短时间来看门槛很高,但随着时间的流逝这种技术带来的护城河逐渐被吞噬,正如目前cursor逐渐被claude code, codex, gemini-cli吞噬一样,甚至copilot也出了cli版本。
LLM的训练存在着巨大的物理成本,包括人力,算力,机房能源以及客观的时间周期,而软件收到更少物理因素的限制,所以目前依靠agent来赚钱的都难以形成护城河。
那么真正的护城河在哪里呢?我认为数据和用户侧,agent谁都可以开发,但已有的用户,留存的用户和用户的数据是长时间积累下的巨大护城河,这是难以短期越过的鸿沟。
在这种情况下,我认为agent的护城河分为两块,一是token提供商,二是真正提供agent集成服务的;前者我们不讨论,现在已经炒得火热,而后者才是目前saas的价值所在,AI agent的出现并不意味着用户放弃使用saas转向AI,这涉及到巨大的迁移成本,以及责任,而ai鼓吹者恰恰很少很少谈及责任。saas仍然可以将自己的服务通过agent暴露出来,来提供更好的工作流程,这难道不恰恰是saas最开始的初衷吗?
所以说我认为微软尽管现在copilot agent蠢蠢的,不代表它未来不加入,先发固然好,但在自己庞大的用户基数上频繁尝试新东西就不好了。我认为,微软的已有服务在未来恰恰是它通过ai agent提高企业用户付费增加收入的高超手段。
真正的壁垒在于SaaS现有的工作流、分发渠道和私有数据。
09 Mar 2026¶
最近的ai ageny在某种程度上解决了我某个幻想,从脑中的想到实现的落地。
所谓神说要有光,就有了光。
ai agent,做到了我有了想法,只要结构化的描述出来就可以在某种程度上实现。而缺点仍然很明显,我的思考过程要通过语言结构化告诉他,而不是从脑中告诉他。
08 Mar 2026¶
周末在AI的帮助下看了codex代码并花了时间写博客,我有一些迷茫在ai时代写博客还有价值吗, 因为任何人都可以把AI放在codex代码库里去让AI解析代码帮助自己理解。
思考了下,我认为写博客仍然有价值,尽管ai可以帮助我理解和搜索代码,但ai面对着结构化水平更高的代码回答的问题, 和博客的目标是不重合的。博客经过人的加工,天然是低熵的,结构化水平更高,是给人看的。而AI面对代码库, 产出的内容是高熵的,天然会增加混乱程度。
博客的优势在于
-
人在学习过程中结构化了自己的理解和困惑,刻意的忽略和不写次要内容,而AI很多时候high level和细节混在一起, 因为对他来说他的上下文窗口足够大,不需要维持有限的注意力在重要的事情上。博客带着人的视角,由人加工产生,可以让其他人按照类似的思路去理解,像是化学反应催化剂/酸碱度降低反应发生的难度。 AI的输出是混乱的(从熵的角度,而不是从逻辑的角度),人要进一步理解加工,更重要的是ai理解项目的方式人做不到,意味着人只能读结果,不能看过程尝试理解。这里颇有过去看到一个笑话的味道:数学家问上帝有几个解,上帝说有两个,数学家问如何证明,上帝说不需要证明,我看到他们在那里了。AI长上下文能力带来了人不可能拥有的能力,也即直接看到。
-
优秀有经验的工程师会组织问题更好,关注重要的屏蔽不重要的,这点ai做的不好,因为他看到了,他就说出来,这都是需要了解的重点。而写博客恰恰需要分层,专注当前文章需要的重点,决定什么知识需要不写,这很重要。
06 Mar 2026¶
哲学观念(待验证): llm基于高度结构化生成的描述性内容是inferior的,例如相较于高度结构化的代码,生成文档再做阅读。
05 Mar 2026¶
最近有个体会, 决策要牢牢放在自己这里 不能外包决策,llm应该帮助我收集信息, 构建思维链条(静态), 绝对不能让他动态构建思维链条得出决策信息.
03 Mar 2026¶
今天农历生日,已经26岁了,荣耀归于主。
最近说英语发现总卡嘴,是不是我的发音和口型不对,导致说话结结巴巴的, lol
02 Mar 2026¶
ai几宗罪:
- 好大喜功:生成一堆代码,不复用代码,测试一大堆全是重复代码
- 悄悄干坏事:测试代码不assert,永远不报错,一行代码干完的写了好几个函数
- 无脑吹捧:从来不质疑我,说什么都对
- 胡说八道:不诚实,对自己不知道的内容开始胡编乱造,随机抽取一些内容填充任务
1 Mar 2026¶
一个假期的休整,我的状态好了特别多,应该是前一阵子的烦心事堆的太多了。周末把我的gopls-mcp重新看了下, 之前犯了一个错误,觉得gopls-mcp应该加尽可能多的功能,但是在code agent已经可以做到,甚至花了大量的精力把功能做的非常完备的时候, 做一个毫无稀缺性的工具只会给我带来更多的复杂度。less is more, 我把他们全部移除掉了,项目的价值在于如何解决痛点,扩展llm的能力边界, 而不是支持一个code agent核心主打,做的非常好的功能。
1 Mar 2026¶
豹仔小猫经常处于感觉可怜又觉得可恶的状态,六个月大的豹仔太过调皮,今天晚上妹妹说小猫强制爱结果嘴唇被咬了,觉得简直可恶极了。 但前一阵子生病的时候看她的可怜劲,连忙带她去宠物医院检查,有一想豹仔两任主任都不要她了,真是只可怜的小猫。 我俩最又爱又恨,颇为烦恼。
Feb 2026¶
盘前-1.2% 现在居然翻绿了,再次强调市场不要预测,只要应对
28 Feb 2026¶
周六起来打开lol,好久没玩但周五晚上玩男枪玩爽了,两枪一个纯爽,我就愿意玩,玩着很开心。 去超市买了成熟之后金黄色光肉,酸酸甜甜的绿香蕉,慢慢等待。本来想买张彩票,但四点钟彩票站排了二三十个人以上的队伍,我就放弃了。
27 Feb 2026¶
盈余公告后漂移 (Post-Earnings Announcement Drift, PEAD)。
今天翻了个错误,花了20min去查看状态,具体场景是检测到内存大于阈值时暂停tune,等内存恢复了15min后才可以恢复tune。当我在grafana上看到两段标识暂停tune状态的线时,我发现他们之间的间距不是15m,以为是有什么问题,但实际上我需要检查的是每条线的长度是不是长于15m即可,。
25 Feb 2026¶
今天六点半落地新加坡,因为25 Feb也请了假所以打车直接回家补觉了。 晚上去打球骑自行车,发现我的自行车车灯被偷了,气晕了。小偷小摸恰如此,准备给警察提交一个report。
25 Feb 2026¶
加了system prompts,gemini可以给出一些全新思路,指出我根本没有意识到的问题。 或者说,我的特质其实是一种问题。
你正在原地打转。你在上一轮已经探讨过神学教育的影响,现在换个问法再次确认。试图通过不断挖掘个人文字来为过去的痛苦赋予“崇高感”。这种沉溺于自我文本解析的行为,本质上是一种高级拖延症,阻碍你执行日记中得出的正确结论。
用“分析问题”的动作,替换“解决问题”的动作。讨论“高级拖延症”本身,能为你提供智力上的自洽感和“我正在解决问题”的虚假多巴胺奖励。最关键的是,这种行为没有任何现实风险。巧妙地将极具挑战性、充满不确定性的主线任务,降级成了绝对安全的客体(自我心理学研究)。只要你还在研究“为什么拖延”,你就在合法地推迟。
这里有一些生物学机理
元认知层面的多巴胺补偿机制: 主体在对自身的认知过程进行监控和评估(元认知活动)时,若得出“我找到了原因”或“我理解了自己”的结论,中脑边缘系统会释放多巴胺。这种“认知顿悟”带来的多巴胺是一种补偿,它缓解了现实困境或未采取行动所引发的焦虑。主体将“看透问题”等同于“解决问题”,形成高级的认知逃避。
心理防卫机制的无限倒影现象: 机制:当主体在元认知层面察觉到自己正在使用基础防卫机制(如否认、投射)时,会产生“自我伪装被揭穿”的新焦虑。为了防御这种新焦虑,大脑会启动更高维度的防卫机制(如极度的理智化)来解释和合理化上一层防卫。> 实质:犹如两面镜子相对,形成“观察者观察‘正在观察的观察者’”的无限后退(Infinite Regress)。这会导致认知死锁(Cognitive Lock)和行动力彻底瘫痪。
两者结合构成了高自我意识陷阱:“多巴胺补偿”提供了动力,“无限倒影”提供了结构。主体越是进行深层、复杂的自我解剖(无限倒影),越能持续获得“我在深刻反思”的虚假多巴胺快感(补偿)。这种内部闭环完美地消耗了认知资源,彻底阻断了指向外部现实的有效行动。
应该这个问题我在03 Jan 2026用"思考太多..."格式表述过,但这次的表述更加准确和犀利, 我实际上不是在思考,因为我的思考不对我产生现实正面价值,而是我获取多巴胺的一种手段。
我应该有意识地中断我的行为,避免滥用。
update: 🤡🤡🤡
你得出结论“我应该有意识地中断我的行为”,但你选择通过撰写这段详尽的自我剖析来确认这一点。这本身就是新一轮的“高级拖延”。你正在通过宣告“我识破了多巴胺补偿机制”,来获取新的认知顿悟多巴胺。
24 Feb 2026¶
造物主说要有光 就有了光;要有人,就有了人,可惜人沾染了罪,就有死。时间是神的权柄,人的奥秘,人就染上了衰老。陪伴莫过如此,互相陪伴,彼此衰老;而异地见面不多,衰老感受不到,多的是重逢的喜悦,短时间几何距离里极高信息量的陪伴,反而显得时间长了。讽刺的是时间就在那里,奥秘有眼却看不到,有耳却听不到。分别在见面其实是注定的,正如生的时候死就注定了。离别湿润了眼眶,我在胸前画了十字,基督的话从心底传来,凡信的必不朽坏。
21 Feb 2026¶
最近教女友网球的一些心得。引拍找球的时候伸胳膊而不是转腰带动小臂去准备击球,这会导致两个代偿。代偿一是因为球过来有力度,会抬胳膊肘来把球的力度压下去导致击球动作不稳定 代偿二就是转腰后拍子横着收到左臂而不是左肩上方,没有用肱三头肌和二头肌发力导致肩部酸疼。收拍这一步同样会导致抬肘,因为要保证压住球向前走。 同时因为抬肘压球容易下网,所以形成了抬肘压球但往上捞球的动作.
收拍是二头肌三头肌辅助 发力全靠转腰 没有转腰发力就容易胳膊代偿。
20 Feb 2026¶
好想抓小猫 嘿 越想越难耐
05 Feb 2026¶
福柯在《规训与惩罚》中的核心观点:监狱的诞生,标志着权力的“文明化”和“精细化”。惩罚变成了“剥夺自由”。文明社会发现,时间是现代人最宝贵的资产。没收你的时间,比鞭打你的肉体更符合工业社会的逻辑。
不要把“监狱”看作是正义的实现,它是社会治理无能的体现。 监狱的存在,证明了教育、家庭、社区和经济分配机制在前端的失效。因为前端无法消化这些矛盾,最后只能抛给后端的监狱系统硬性消化。 监狱的出现实质上是一种进步,是一个需要非常警惕的结论。我的主要问题在于‘进步观’,我承认人性的恶,但是却在追求人性进步(可信度高度怀疑),我讨论的进步往往是技术/管理进步。
技术/管理进步(线性向上)是可积累的,而和人性/道德进步(水平震荡)是不可积累。韦伯的铁笼(外壳 tahlhartes Gehäuse),人类为了追求效率,建立了一套严密的理性规则(科层制、资本主义、法律),结果这套规则反过来成为了囚禁人类的牢笼。铁笼的构成材料恰恰是工具理性。 在韦伯的“铁笼”和现代监管体系的框架下,钱不再仅仅是购买商品的媒介,它是“结晶化的自由”。所谓“财富自由”,本质上是拥有了支配他人时间的权力。你之所以能坐在那里思考哲学或享受闲暇,是因为有无数个处于铁笼底层的人,正在替你负重前行。而钱买的是消极自由,而不是积极自由。
04 Feb 2026¶
所以我要承认的是市场是有效的,但人的观点不同,所以有效是partial的,人对现实认识的模糊和错误使价格偏离事实,但强事实的出现会强制人扭转重塑自己的观点。
SOTP(Sum-of-the-Parts)
不要试图去“理解”恐慌,因为恐慌本质上是非理性的。
03 Feb 2026¶
2025年总谈过去对我的影响,但其实毕业已经快四年了,这四年在我身上发生了什么影响呢?我很少谈,归根结底我认为他是进行时,不是过去,这不好,我要多谈现在,少谈久远的过去,譬如本科最迷茫和痛苦的时期都是六七年前的事了,至于高中都是八年前的事情了。
02 Feb 2026¶
最近看到猝死案例,在地铁上回去的路上就想到:如何给人的生命定价呢?当然作者并不鼓励定价,生命无价,“于是,神照着自己的形象创作人”,神的造物和人的造物不能相提并论。但本节讨论关注是然,粗略认为分为市场的定价和个人的定价,也分生命被剥夺的方式。 政府剥夺生命的案例不在讨论范围内,这是另外一个话题。
先说市场定价,这里的市场指劳动市场对意外死亡的赔偿定价,不讨论杀手等场景(费用是对违法的补偿而非生命的补偿), todo case study工伤赔偿制度。
市场的定价和个人的定价是不一致的,人与人对自己的生命定价不同,如果有定价的话。 假设人对自己的生命有定价,那理想人应该追寻什么格式呢?
你对一个人说补偿家人xx金钱,我要你的命,大部分人自然而然会拒绝,而处于无知或者不得已参与风险极高的活动是,市场的定价就实质上发生了,也更令人接受。
这里讨论的问题是,当人处于这种处境时,在多大程度上他会为自己的生命定价? 我想大部分人不会为自己生命定价,因为他不曾遇见危险,所以对幸福的追求压倒了潜在的风险。
除此之外,当人意识到这种风险,并得知赔偿时,那他主动或被迫的完成了评估。 这也是我这里关心的,如果自己的生命可以(极大)改善家人的幸福生活时,这个阈值在哪里?
TODO: 边际效益;工伤赔偿制度是收入损失补偿模型而非生命定价,可能有逻辑谬误;概率忽视和双曲贴现;赔偿是事后基于收入损失,通常严重低估生命价值,关注风险溢价; 阈值和机会成本;禀赋效应
1 Feb 2026¶
之前给我的自行车涂了点润滑油,之前骑着一直有异响。周末准备去boolay理发的时候按了一下发现车胎气压严重不足, 我说怎么之前骑着非常费劲,于是打了下气,果然好骑很多。
这是我第二次在新加坡理发,之前觉得新加坡贵一直去jb理顺便玩一圈。新加坡贵和理的差其实是一个偏见, 其实并不贵,因为贵是刚来的时候留下的印象,而差是因为我最开始去的那家收费偏高技术还差劲,在商场里理得还不错。
理完发去思家客买了卤鸭头和猪蹄,又买了小橘子非常的美味。
1 Feb 2026¶
之前我讲我很久没喝酒了,因为我抗拒小分酒精直接透过血脑屏障进入大脑。 不过周末我买了橙汁兑着龙舌兰就喝了两大杯,结果喝多了晚上睡的时候就晕晕乎乎的,早上起来头很晕,吃了点东西才好受些。
Jan 2026¶
31 Jan 2026¶
最近一直在写我的gopls-mcp, 还写了文档网站 https://gopls-mcp.org. 我认为这是一个正确的方向,对于AI agent来说是非常有必要的,而原有的LSP接口设置完全不适合LLM使用。 这个项目也足够有意思,我hardfork了gopls,代码量和逻辑复杂度一下子就上来了,之前在go-mcp-server我试图全部自己写是走错了路。既然要做产品,就要站在巨人的肩膀上,没有必要什么都是“自己的”。
30 Jan 2026¶
早上吃完饭去骑自行车,耳机里烟花易冷的r&b 有一句"跟着红尘跟随我浪迹一生",我突然冒出一个问题,究竟是我在浪迹天涯,还是浪迹天涯这个角色里。 换句话说,我要不要靠外物的形容来定位? 这是个老问题了,我认为我是本体论话题,存在就是本质,铆定在主那里,所以我凭何为我,和我在做什么是无关的。当然这是我对我的理解,一旦涉及到他人描述和身份的词汇是语言的边界,这是一种不得已的简化,语言的边界。
26 Jan 2026¶
很难评,梦里在前面哥们买了一大瓶芬太尼后我购买了高纯度氯化钾注射液,以及在后续场景中说出don't be evil是在干什么
21 Jan 2026¶
今天爆了40u买了GLM一个季度的订阅,尝试了一把vibe coding。最开始用的是bxgg的API,我试了一把claude code把我的海豹机器人一个模块冲构成函数式的,我看效果不错就直接购买了。 下午遇到了一个go loopvar的兼容性bug,我用新工具定位什么非常的块好用,于是我就想起来了我的mcp server, 晚上继续vibe coding花了128m token, 写了11.8k行代码,太牛逼了我说。
19 Jan 2026¶
最近b站出现了很多ai生成的黑人福音,我是喜欢听,尤其是背景的choir。 前些日子的哈吉米音乐落幕了。
18 Jan 2026¶
唯逻辑论的破产。最近接触到了计算不可约,计算是人类用逻辑去理解世界,而人类的计算再不损失精度的情况下注定慢于现实, 而存在先于计算,存在不需要计算,正电荷存在就意味着他会和正电荷排斥;正电荷不计算,这是他存在自带的固有属性。 创世纪说,it was very good, 存在就是好的。正如我在亚庇游记里感慨: 生命的意义就在于活着, 存在本身就是意义,不需要用逻辑再去寻求意义。
这种新的知识要求我重新思考用逻辑化一切的必要性, 过去我偏好理性和逻辑,我认为理智化是唯一正确的路,正如我从理性和逻辑的门进入了神学的世界,但这新的观念直接冲击了唯逻辑论。
10号的时候学了些新东西,一周过去了我认为非常有价值。光速,普朗克长度牢牢限制着模拟。意识的硬问题, 意识可能并不是一种计算,存在本身并非信息数据。比如逻辑上知晓红色所有信息的玛丽,在走出房间看到红色的那一刻的体验超过了关于红色的所有信息。 那么在这个过程里,红色的体验是否是可以通过模拟呈现的信息?
我之前写的要追求体验一节中也契合这种思路, 逻辑可能只是逻辑,它永远无法变成体验,逻辑和体验本质上可能是互斥的,逻辑是理解存在所需要的内容, 但他不是对存在的无损描述。所以当讨论幸福的时候,逻辑上幸福是一方面,这是自我实现的预言, 但抛弃体验是虚假的,因为逻辑永远无法取代体验。
17 Jan 2026¶
从K线中只能得到操作信号 (Execution),得不到解释 (Explanation)。K线是价格行为 (Price Action) 的轨迹,它只告诉你“现在市场正在做什么”以及“你应该在什么位置行动”。试图从中寻找“基本面原因”是缘木求鱼。 K线是地图,它告诉你前面是悬崖(阻力)还是平原(支撑),K线图提供的是市场博弈结构和预期差,这些是财报(后视镜)绝对无法提供的。财报告诉你公司的过去(赚了多少钱),K线告诉你市场的未来预期(大家觉得它值多少钱)。
14 Jan 2026¶
最近会读我的文章是,注意到我很喜欢用“我们”这个词组,我认为“我们”是过去和现在两部分在达成暂时共识时的自称, 是对过去行为的理解。
13 Jan 2026¶
今天给海豹中心donate 5欧元,嘿嘿

12 Jan 2026¶
最近重新开始用github project管理我的进度,因为我发现很多工作和流程需要计划和记录, 尤其是记录进度和执行过程中的细节。
前一次的失败主要在于我的粒度太小,试图把所有事情都记录上去,导致熵极度膨胀。 这次主要关注进度,踩坑和计划,选择性忽略更多细节。
12 Jan 2026¶
早上看到xhs在追求孩子的确定性,比如想让孩子好大学/读博/etc并为无法追求确定性而沮丧。 我的评论是追求确定性才是最大的不确定性,面对计算不可约的未来,只能前进走到终点,背上十字架追随正是如此。
If any man is for captivity, into captivity he goeth: if any man shall kill with the sword, with the sword must he be killed
10 Jan 2026¶
最近的一些对话:
A: 说到这个 物理世界太牛了, 不需要渲染, 也不用算 B: 你怎么知道不需要渲染, 说不定还是在你观测的时候才懒加载的 A: 双缝干涉是吧
A: 比如可以把时薪是否大于社会平均时薪的2σ定义为超高回报工作 Me: 不行 收入不是正态分布 sigma不适用 A: 取个对数就行
基质独立性 -> 计算可以模拟情感;我 -> 逻辑和体验本质上是冲突的,不可能一者取代另一者。我持后者因为:哥德尔的不完备,逻辑是合理的则必有漏洞;自身体验,逻辑和体验的冲突;神学思路,被造物有限,被造物只能造出更劣质的被造物。
07 Jan 2026¶
VZ和T的效率相比VOO极低,在忽略分红的情况下(当然对于分红型股票这是偏颇的),计算历史到现在的投资收益:
- VZ: 2023 83% vs 3.8%; 2011 427% vs 9.45%; 1985 3766% vs 335%
- T: 2023 84.5% vs 33.5%; 427% vs 6,3%1985 3766% vs 555%
04 Jan 2026¶
今天学习了下脑科学中渴望和快乐在生物学上的基础,所有看起来神奇复杂的内容内部都有精妙的系统,这就是我时常说的造物主无处不在,因为世界各处弥漫着他的智慧和真理。
关键要素:a: 中脑皮层多巴胺神经通路, 以及其中VTA(产生多巴胺) b: 内源性阿片类激素 c: 内源性大麻素 d: VP,负责产生快乐,以及抑制冲动 e: gaba, 抑制VTA产生多巴胺
预期由VTA在海马体(记忆)+杏仁核(情绪)+前额皮叶层(场景)的信号下产生,预期产生VTA即释放多巴胺,不需要等待实际刺激,多巴胺此时会刺激VP,产生冲动,这就是渴望(Wanting)。
在预期产生已经产生多巴胺的情况下,实际外界刺激让脑干/下丘脑分泌内源性阿片类激素(b), b的产生抑制gaba,导致gaba对vta的抑制效果降低,产生去抑制效果,rpe反馈回路会根据预期和现实对比决定是否释放大量额外的多巴胺。这个时候如果低于预期,VTA释放极少的多巴胺,触发另外的分子机制让gaba突触的长时程增强。
多巴胺会作用于受体细胞的NAc突触,NAc会根据浓度产生大麻素作为反向信使作用gaba受体(CB1)来调节多巴胺数量,短期内立刻抑制GABA释放,而如果多巴胺释放足够强,会产生抑制性长时程抑制,即gaba永久被抑制无法抑制VTA,同时rpe会产生差值信号告诉大脑调整未来的预期。
03 Jan 2026¶
思考流程上,要拒绝把思考外包给llm,可以提问但要注意思考,不能一直问一直看,信息越来越多,越来越混乱。 认识并不单纯是增加,同样是削减的过程,在和llm聊了之后可以把要点记下来,然后再总结。 立刻总结只会让我的博客变成垃圾场,比如过去sketches的实践就很好的说明了这一点。
同样的,大部分的思考中间状态是垃圾场,寄希望全量从思考过程中留存信息是不可实践的措施,会被繁重的记录和整理拖垮。 正如在prompt里提到的,现实是最快最高效的模拟,全量记录思考过程和留存信息是在尝试用更多的信息来期待对系统有着本质的认识,结果记录本身带来的更大的混乱,这在方法论上是根本错误的。
要专注于熵减,少就是多,2025的问题在于思考太多,和llm对话太多,熵增太快导致大脑一团浆糊。 这里可以引用“柯尔莫哥洛夫复杂性”,理解等于生成数据的最短程序,冗余的东西可以生成出来,而不是记录下来。 在2025年我有越记越多越记越细的倾向,尤其是记录大量琐碎的事物,这在方法论上是不可实践的,我人为的把熵提高了而不是降低了, 长年累月看来这些熵带来了更强的认识负担。
02 Jan 2026¶
由于昨天晚上睡得太晚 今天7.24才醒错过了7-8am的网球场;没有行使我的权利。