Sparks ✲
real_kai42
Kai
@real_kai42

从这几天的观察来看,deepseek (后面简称 ds)对国内 AI 的整体促进作用是非常夸张的,几个观察

  • ds 的优势就是 o1 级的能力,完全开源,并且中文能力强

  • 大量大厂 chat bot 放弃自研模型,接入 ds,效果获得巨大提升。当然并不是放弃自研的研发,而是现在有更好用的模型就先用着,之后自己的起来了再切换

  • 大量企业内部部署来进行公司内部的使用,很多觉得使用 gpt 麻烦的人(确实麻烦,各种魔法),会使用内部的部署来进行平时的工作,不限于写代码,而是各种职位都开始尝试使用 AI,开始提效

  • 在国内破圈,之前喊了这么久的 AI,其实国内普通人并没有用到质量合格的 AI,大量的人至于尝鲜。现在不止 ds 官方,各种 chatbot 都开始接入 ds,国内普通人第一次开始深入把 AI 接入 chatbot

  • 大量传统企业,特别是国央企获得可信任 自部署的模型,这个的影响会比想象的深远

deepseek 这一波的影响会持续扩散,半年后往回看,可能会更有感慨

real_kai42
Kai
@real_kai42

朋友要做的 llm 应用,过来找我帮忙,我直接帮他快速入门了一下 langchain,各种介绍。但朋友总觉得有点麻烦,即使是程序员也不想写那么多代码,还要自己部署啥的

然后我说… 要不你试试 dify,我简单减少了一下,朋友眼睛都亮了,“我要的就是这个!”

所以,如果你想给自己的产品尝试加一些 llm 的功能,dify 是一个很不错的开始,拖拽的方式创建 llm flow,然后一键部署成 API,就可以在自己的应用里使用了 等 idea 验证成熟了,再进一步优化

real_kai42
Kai
@real_kai42

chatGPT 大概每个月被超过 n 次,openAI 每个月被唱衰 n 次,我会不时关注新模型和应用的进展

但就个人使用来说,我依旧是 chatGPT plus + Github Copilot 主要是用熟了,功能和 prompt 技巧也习惯,只要不是大幅落后 SOTA, 我是比较懒的迁移和学习新的 app

改变大众习惯的难度,比想象的高很多

real_kai42
Kai
@real_kai42

没做过 AI app 的:AGI 要来了,AI 无敌了 做过 AI app:难说 难说

目前现状是,对于简单任务,zero-shot,即只通过描述任务就可以让 AI 完成任务的效果真的很惊艳 但对于复杂任务,就需要设计复杂的 pipeline,去解决 AI 的幻想、不确定性。现在遇到问题最佳的解决方案依旧是加更多的 AI 进去,但就会造成一个 pipeline 要处理很久,用户可没那么多耐心

“There is a wall” 这个 wall 就是,如果基础模型不能持续提升,那就需要在 ai model 之上设计更多复杂的 pipeline 去做处理。但因为 llm 的不确定性,增加的 pipeline 可能是 *上雕花,并不能获得确定的提升,甚至可能在部分场景的反作用。 而,如果基础模型能持续提升,人类搞得复杂 pipeline 可能在基础模型升级后变得毫无意义。

当你真的开始用 AI 去做一个复杂任务,就会遇到跟不确定性搏斗的痛苦。

当然,这是站在旧时代程序员尊崇的确定性上得出的结论,可能下一个范式就是接纳不确定性,与不确定性共舞,或者在不确定性的基础上找到确定性。 就像单个分子的热运动是不规则的,但海量分子就会表现出规则的物理现象。

如何把 AI 的不确定性以确定的方式构建工程框架可能是一个有趣的方向

real_kai42
Kai
@real_kai42

一个暴论 如果你用 react 性能工具去 debug chatGPT 等知名的网站,你会发现甚至会出现每输入一次内容就全屏重渲染的 bug

首先这确实证明 react 是真难写(确实),其次是,自己开发的时候真没必要特别纠结那些重渲染等问题,一次重渲染占不了多少 cpu 时间,也消耗的不是服务端性能。

先实现效果,而不是追求代码洁癖