Get live statistics and analysis of 凡人小北's profile on X / Twitter

行道途中。非求速成,惟求通达。 2023 年扎进AI ,打通Know-How,不少赚钱项目,踩过坑,也见过光。 围城里待得够久了,出来聊聊世界,聊聊技术、聊聊赚钱。

350 following18k followers

The Analyst

凡人小北 is a thoughtful explorer and deep thinker who dives into the nuances of AI and technology with a rigorous, hands-on approach. They blend practical experience with a passion for sharing knowledge, guiding their audience through the complexities of AI projects and real-world applications. Balancing technical depth with accessible insights, they foster understanding rather than fast shortcuts.

Impressions
3M344.5k
$577.49
Likes
10k848
49%
Retweets
1.6k135
8%
Replies
867117
4%
Bookmarks
8k925
39%

Top users who interacted with 凡人小北 over the last 14 days

@btcbajie

早期项目挖掘| 活动空投| 交易分享|土狗玩家|

4 interactions
@zhiyebanzhuan

政府與政治 遊戲

3 interactions
3 interactions
@AztecaAlpaca

利物浦球迷(危)⚽、“班瘾”患者👽、科技八卦爱好者,喜欢编程的非专业人士。 热爱阅读与深度思考,开放地观察一切,解构虚无的价值。 聊技术、社会和八卦,偶尔幽默吐槽,探索知识的火花! AztecaAlpaca 🦙 🇨🇳👊🔥

3 interactions
@JonathanCaiSG

新加坡DataRaccoon创始人 | TGO新加坡分会会员 | 微信公众号:蔡荔谈AI 曾经的硅谷AI从业者,IBM高级经理,国内十年创业 教育背景:清华大学 | 新加坡国立大学

3 interactions
3 interactions
@lawgpts

A tax lawyer dedicated to the industrialization of AI

2 interactions
@Jason_Young1231

Building CC Switch, a Claude Code and Codex assistant tool github.com/farion1231/cc-…

2 interactions
@affLeopard

Ex-Standup Comic🎤 | 前脱口秀演员 Affiliate Pro: Marketing with a Twist (of Wit) 🤣 联盟营销玩家:用机智幽默来营销! My English X @Bobzhangai

2 interactions
@YanyuRensheng

@aivron_ai 多模型接入、团队记忆、共享上下文

2 interactions
@crazyoxAI

CyberAI Labs Partner|QAQ Venture Partner|Cyberflow联创|阿普利亚摩托车手压弯的菜🐔|茶香花香WTO不用雪茄料新手水烟师|半罐水调酒师不卖酒只调给朋友喝|不知名律师不知名作者不知名KOL

2 interactions
@TaNGSoFT

ai4x交互范式- EEOIP|vibe pretraining of 𝕀²·ℙarad𝕚g𝕞|Cognitive AI| Paradigm^Vibe 𝕚sᵃˡˡ ᵁ ᴺᵉᵉᵈ^智能平方范式智库^特大号范式|再AI十年之三:a vibe builder...

2 interactions
@erdaye_2o25

架构师,跨境出海方向找工作中。。。 做个正常人,放下助人情节,尊重他人命运 终身学习者

2 interactions
@paulwalker99318

Vibe Builder | 关注软件工程与 AI Agent | 实践 & 分享。

2 interactions
@jizhiti

知识工匠: 关注科技、个人成长与商业变革

2 interactions
2 interactions
@yungui_ml

💡独立开发者 | ⌨️阿里巴巴 (Software Engineer) | ⚗️AI 重度用户(AI First) | 💥爱折腾的程序员 | 关注 AI Coding、AI 绘画、AI 视频等有意思的领域

2 interactions
@a995b305d8df67f

翻墙爱国蛆是推特上最下贱的东西

2 interactions
@Tz_2022

AI is the steam engine of the mind. AI是心灵的蒸汽机。 科幻是现实的有效坍塌。加速正在被加速。 看,那千尺海啸正扑面而来,而我们还在海滩上捡垃圾。 念念不忘,必有回响。

2 interactions
@LimaoEmperor

Empiricist. Modal Logic, Formal Verification, and Epistemology.

1 interactions

凡人小北 probably spends more time convincing folks not to overclaim AI skills than actually climbing the tech ladder — they’re like the AI bouncer, checking everyone's credentials at the door and gently tossing out the 'RAG experts' who barely know what RAG stands for.

凡人小北's biggest win is creating a trusted and detailed source of AI knowledge that demystifies complex concepts like RAG and multi-modal agent architecture, gaining substantial engagement and respect from tech professionals who seek clarity amidst AI hype.

凡人小北's life purpose is to illuminate the intricate workings of AI and technology, helping others navigate the maze with clarity and confidence. By exposing the gaps between superficial knowledge and true mastery, they aim to uplift the community through education and practical wisdom.

They believe in the value of deep understanding over quick fixes, the importance of integrity in claiming skills, and the transformative power of knowledge shared openly to empower others. They are grounded in skepticism toward hype and prioritize detailed craftsmanship in technology and life.

凡人小北's strengths lie in their precise knowledge of AI systems, ability to break down complex ideas into actionable insights, and their credibility built on real experience, including navigating pitfalls and successes in AI projects.

A potential weakness is their meticulous and cautionary style, which might sometimes come off as overly critical or intimidating for beginners, possibly limiting broader audience appeal.

To grow their audience on X, 凡人小北 could engage more with interactive formats like AMAs or live threads addressing common AI misconceptions, blending their analytical rigor with approachable community dialogue to widen their impact.

A fun fact about 凡人小北 is that they have developed a habit of debating with ChatGPT during their daily commute, using AI as a sounding board for critical thinking and self-reflection — a quirky intersection of tech and mindfulness!

Top tweets of 凡人小北

看到微软开源的一个项目 MarkItDown,这么小的一个工具获得了 7w+ star。 但它干的事儿特别朴素,把各种格式的文件(Word、PDF、Excel、PPT、图片、音频、HTML、JSON、甚至 zip 包)一键变成结构化 Markdown。 是的,保留标题、列表、表格、链接结构的那种 Markdown。 为什么我会觉得这个工具值得讲讲?因为这其实解决了一个我们常常下意识忽略的问题: 在做 AI 工具链 / 多模态 Agent 的时候,非结构化文件怎么喂给模型?怎么结构保留?怎么对齐输入? MarkItDown 把这事儿做成了入口标准件。 它让我们可以构建一条干净的链路: 1. 业务文件/网页/对话记录/OCR 结果 → Markdown with structure 2. 再接入 LLM、embedding、Agent 或私有知识库系统 整个链条让每一个本来不适合进 AI 的文件,都变得适合进 AI。 就这一点,已经超越了文件格式转换工具的定位,把它当成 AI 里文档智能的基建模块也不为过。 pip install 或者用它提供的mcp版本,就全搞定了。微软这波是真的懂工程师在处理数据入口时的痛点。 这项目能有这么多 star 是因为它处理的恰恰是所有 AI 工作流都要面对的最前一公里。文件乱、格式多、结构丢失等一系列这琐碎问题解决不了,后面你那套 pipeline 其实跑不通的。 未来我们肯定会有越来越多“agent + 数据 + 多模态”的场景,那些 agent 想干活,第一件事就是把一堆烂七八糟的原始资料读懂,还原出它的结构和语义。 MarkItDown 说白了就是把这个入口的苦活累活都干了。 这种不 infra 的工具往往才是最重要的 infra。推荐给所有做 LLM 产品的人。

200k

小红书上刷到张咋啦总结的 YouTube AI 频道合集,全是一手 AI 信息,密度太高了。 不仅涵盖我订阅的大部分频道,还挖出了不少我之前根本没关注到的深水区。 我照着她分类做了个整理,直接把链接找出来放下面了,建议订阅,反复刷、持续进化。 1. 访谈大佬的视频播客 - Lenny’s Podcast @LennysPodcast">youtube.com/@LennysPodcast - Peter Yang @PeterYangYT">youtube.com/@PeterYangYT - AI and I(by Every) @EveryInc">youtube.com/@EveryInc - Unsupervised Learning(by RedPoint Capital) @RedpointAI">youtube.com/@RedpointAI - Training Data(by Sequoia Capital) youtube.com/playlist?list=… - Minus One(by South Park Commons) youtube.com/watch?v=TmWcsv… - Google DeepMind: The Podcast youtube.com/watch?v=1O27hf… - No Priors youtube.com/watch?v=l8fG5D… - AI+a16z youtube.com/watch?v=8Je9Hz… - Latent Space @LatentSpacePod">youtube.com/@LatentSpacePod - The AI Daily Brief @AIDailyBrief">youtube.com/@AIDailyBrief - Lightcone Podcast(Y Combinator) youtube.com/watch?v=ShYKkP… - Lex Fridman @lexfridman">youtube.com/@lexfridman - Dwarkesh Podcast youtube.com/watch?v=kWcPg8… 2. 大佬在活动 / 大会上演讲的录像 - YC Startup School youtube.com/watch?v=BJjsfN… - AI Engineers World Fair youtube.com/watch?v=U-fMsb… - Sequoia AI Ascent youtube.com/watch?v=v9JBMn… - Stripe Sessions youtube.com/watch?v=ONIexC… - Figma Config youtube.com/watch?v=5q8YAU… 3. OpenAI / Anthropic 的官方频道 @OpenAI">youtube.com/@OpenAI @anthropic-ai">youtube.com/@anthropic-ai 4. 手把手教你用 AI 工具的干货教程 - Riley Brown @rileybrownai">youtube.com/@rileybrownai - Greg Isenberg @GregIsenberg">youtube.com/@GregIsenberg - Ras Mic @rasmic">youtube.com/@rasmic - Mckay Wrigley @realmckaywrigley">youtube.com/@realmckaywrig… 5. Andrej Karpathy @AndrejKarpathy">youtube.com/@AndrejKarpathy

203k

群里看到一个挺震撼的小事,讲出来你可能也会有点恍惚。 网友半年前搞了个小项目,他当时手上有堆 MCP 工具的资料,干脆搭了个网站,把它们整理出来。 一开始手动维护,还挺认真。后来工具更新越来越快,他顶不住了,就写了个 Agent,专门去 GitHub 上扫。 新项目一出,就扒下来,分类整理,自动更新到网页。 然后他转身去忙别的事了。半年没管这个站。 反转来了,前几天他无聊随手 Google 一下,发现: 自己那个早就忘掉的网站,直接排在谷歌搜索第一。 重点是他这个站压根没干过 SEO,就靠一个很笨的 Agent,在那里不停地、规律地把事情做完。 故事讲完了,但是给我们留下了很大的思考空间,我突然有点明白了: 很多时候,我们以为 AI 要很聪明,但这个案例提醒我,其实光是持续这件事,AI 就已经做得比我们好了。 大部分人有个通病,很难长期坚持一件事情。但 AI 不一样,节奏稳定得吓人。 比如这个故事,你给它一个方向,它就能把一件很小的事做到不可忽视的程度。甚至你都忘了它,它还没忘记它的任务。 说多了还真有点小小的感动,那个被人遗忘的 Agent,还在执行最初的任务,没停过。 现比的 Claude Code、Trae Solo 这些新一代 AI coding 工具就在干这事儿,给它个任务,它能一直咕哒咕哒往前推。 这不就是我们最需要 AI 做的事吗? 我们来负责探索,它用来坚守初心、一点点推进,知道跑完了我们原本放弃的那条路。 这或许就是我理想中的人和 AI 共生的最美好的样子。

409k

NotebookLM 这个工具,已经用好几个月了。 最近看网上也有越来越多的人在聊它,才发现它确实已经悄悄成了不少人 AI 学习链路里的核心一环。 所以我也来分享一下自己的用法,说不定对也在找高效吸收 + 智能消化的朋友有点参考价值。 说句不夸张的,它可能是我用过的最好的 AI 笔记软件,不仅是能记,更是能讲、能拆、能教。 我现在的用法,主要有两条路径,哪种开始都能走得通,最后都能回到那个闭环上。 路线一:原始资料输入派 有时候我会跳过 Gemini,直接从源头开始。 像 Google Scholar、arXiv、YouTube,都可以直接扔进 NotebookLM。 它能自动提炼结构、总结重点、生成可以听的播客稿,洗漱、通勤、散步时就能听完一篇论文,完全利用碎片时间。 路线二:Gemini 研究起步派 在之前分享过,我经常会让 Gemini 帮我做深度研究,比如某个新领域的综述、或者多个信息源的融合。 研究完成后我会把这些内容导入到 Google Docs 里整理一下,接着: 直接把这份文档丢进 NotebookLM,开始逐段阅读、提问、生成播客稿、做结构化学习。 最后一步,我会回到 Gemini Canvas ,让它帮我生成一个小测验,自己复习一轮。 这两条链路我都在用,核心只有一个目的: 让 NotebookLM 成为我的学习消化中枢,而 Gemini 成为我的研究起点 + 复盘助理。 一前一后,一推一收,整个链条效率提升非常明显。尤其对我这种内容密度大、时间碎、还要输出的人,真的是越用越离不开。 当然也不是没有短板:中文播客听起来确实还有点不像那么回事儿,但英文播客体验非常好。 所以我现在的 workflow 大概是这样: 1. 资料现成?直接把论文 / 视频丢进 NotebookLM 起步,一路听一路学; 2. 想研究?先让 Gemini 出一份深度报告; 3. 想吸收?把 Gemini 的内容导入 NotebookLM 拆解消化; 4. 想复习?回到 Gemini 出一份小测验查漏补缺; 以前是我啃资料,现在是 AI 帮我查、帮我讲、还安排我测。 NotebookLM + Gemini = 我的双核 AI 学习副驾,没有之一。 这就是我目前最常用、也最推荐的组合,如果你也在摸索怎么把AI 用进学习系统而不是浅浅问答,那这条路线值得一试。

182k

OpenMed 一口气开源了 380 多个医疗 NER 模型,永久免费!在大健康行业摸爬滚打过你就知道我此刻的心情是有多激动。这壮举,真的值得点三炷香。 过去十年,医疗 AI 领域绝大部分公司一直卡在缺失行业模型的阶段。尤其像 NER 这种基础能力,说它基础,但又复杂得几乎没人能自己训出来;说它重要,又几乎支撑了所有下游任务,比如病历结构化、药物识别、编码归类、知识图谱、文本生成、用户脱敏……,这 380 多个模型,直接打通了最难搞的第一公里。把“医疗 NLP 能力”从象牙塔拉到产品前线的动作。 作为从业者,这次我最震撼的亮点有这几个: 1️⃣ 细分场景做得极细,真的懂业务 药物识别(PharmaDetect)、疾病抽取(DisorderDetect)、肿瘤实体(OncoDetect)、解剖结构、基因组学、社会健康因素(如生活习惯、环境影响)……全部单独建模,直接贴近实际业务线。 2️⃣ 性能好到不像开源,能直接上线用 在 13 个公开医学数据集上打到 F1 0.98+,有的甚至接近 0.998,是我们过去买商用模型都不敢想的指标,而现在,免费下载、开箱即用,连 license 都不设限。 3️⃣ 部署门槛极低,团队试错成本几乎为 0 三行代码就能跑,支持 CPU、GPU,能跑在本地、服务器、小型集群,让我们这种做实际业务的人能动手、能组合、能快速做出一个 demo 上线试错。 4️⃣ 工程化思路完整,不是科研项目的半成品 命名规范统一、model card 详细、支持批量 inference、评估标准全开放,不像很多医学模型是“发表即完工”。 举几个例子吧: AI 视频科普生成 → 需要做医学术语提取 + 解释 医生端知识总结 → 需要从临床 EMR 中提取药品、病症 私域问诊服务分析 → 需要自动结构化用户的主诉信息 健康档案风控 → 需要做实体识别 + 隐私脱敏 + 标签补全 你要说大模型也能做,但是只有 60 分水平。在严肃的行业里垂类的模型价值还是太大了。 说句真心话,OpenMed 把医疗 AI 的入场门槛拉到了脚后跟,让我们这些原本要跪着做模型、拿着小数据硬撑业务的人,终于有了能站起来干活的基础设施。 如果你也是同行,请别错过这波模型。我已经有些想法在发酵了。

170k

吴恩达上个月在 YC 的闭门分享,我最大的感受是:这是为“想真做事”的人准备的系统性认知地图。 很多人聊 AI,是在讲技术趋势、AGI、终局预言;他聊的,是从第一个 idea 到第一个用户,再到第一个能复用的系统,怎么能更快、更准、更责任地走一遍。 以下是拆解后的核心洞察,给所有搞 AI 创业、想用 AI 干点事的人👇 1️⃣ 执行速度是核心变量,胜过一切幻想 “模糊想法=烧钱,具体方案=印钞”。具体到什么程度?得是 engineer 听完马上能动手写代码的那种。 执行速度不是要你瞎跑,而是能快速把创意变成原型,再用实际反馈把想法打磨成产品。你能跑多快,不在于有多聪明,更重要的是能不能把构想具体化、把验证节奏压缩成小时级。 2️⃣ 智能体是认知流程的重写,不是 API 套壳 很多人把 Agent 当“插件化 prompt 多轮调用”。但吴恩达讲得更深:Agent 是让 AI 模拟“非线性思考”的结构单位,就像人写文章要列提纲、查资料、反复修改。 agent workflow 的本质,是让 AI 从一次性输出变成演化式构建,从 stateless prompt → 有记忆、能反思、能协作的工作单元。 也就是谁能把业务流程转化为 Agent 结构,谁就能定义新的系统边界。 3️⃣ AI 编程 ≠ 会写代码,而是表达意图的能力 吴恩达说,现在的编程能力,是“新型表达力”。未来的 core skill 是:清晰表达你要什么、组合不同 AI 模块拼出解决方案、具备足够技术判断力,知道什么该微调,什么该 prompt。这就需要跨领域的人才,越是跨领域、越能思考并表达出来新的产品。 AI-native 编程,前期阶段先不要追求完美代码,目标先盯着构建一个可快速被重写、被验证、被迭代的系统。 4️⃣ 技术架构正在从“单向门”变成“可撤回式决策” 以前选错技术栈 = 半年白干;现在选错,可能下周就能重构。 工程并没有降智化,核心要点其实是开发成本下降,试错频率提升,组织必须学会“快速判断 + 快速反悔”。判断力比之前要求更高,更新频率从月级变成了日级。 技术决策也正在重构,从“赌一个方向”变成“构建一个可快速验证、快速回滚的闭环”。 5️⃣ 产品反馈成了瓶颈,PM 要摆脱协调者,自我进化成为节奏设计者 随着工程效率提升 10 倍,最大限制变成:做什么功能?用户要不要?怎么收反馈够快够准? 吴恩达说他见过 PM 和工程师比例 2:1 的配置——这不是反常,而是现实。 未来的组织优化,对于程序员的需求其实是在减少的,不再需要更多人写代码,提高组织获取用户信号的速度变成了首要。 6️⃣ 创业成功,一定是代表着你比别人早半年找到对的方向 “能不能做”不是问题,“值不值得做”才是关键。AI 让做东西变快了,但也让“做错方向”的成本变高了,因为每错一步都放大后续资源浪费。 所以他强调一个核心机制:构建快速验证的原型机制 + 多渠道信号源 + 直觉更新系统。 你能更新得多快,你就能决策得多准。 7️⃣ 最后,AGI 和“AI 威胁”不是你现在该焦虑的 吴恩达对炒 AGI、妖魔化 AI 安全的风气很警惕。他讲得很清楚:真正的风险,不是 AI 太强,而是滥用权力 + 封闭生态;真正该做的,是负责任地使用 + 开放共享技术红利。 封闭平台 + 安全话术 = 技术垄断的护盾; 开源 + 多元协作,才是 AI 创新的护城河。 最后的最后,总结一下: 这场闭门分享没有预测未来 AI 能多牛,吴恩达明明白白的告诉你现在能怎么用 AI 把事情干起来的战略地图。 他讲得很现实,AI 会加速一切,包括失败。执行速度是核心变量,判断力是护城河,反馈回路是竞争力。 你不需要 all-in AGI,但你得学会怎么拼出属于你的那套 agent 乐高。 如果你也在构建 AI 产品、agent 工作流,或者尝试用 AI 重写业务系统,建议把吴恩达这场演讲当作创业者操作系统升级的读本。 技术潮水会一直往前涌,但真正能穿越周期的,只有一个问题:你是不是真的比别人更快做出来、更快做对、更快做成。

115k

在 OpenAI 最新那篇《How People Use ChatGPT》的研究报告里,可以看到一个很多技术人不愿意承认的事实。 我们天天讨论 AI 的未来、模型的能力、Agent 的协同,但普通人真正反复在用的确是最不起眼、最没技术含量、但最能偷懒的那一类小脑力动作。 很多的创业方向都是 AI 重构操作系统,但在报告里能看到的基本都是这样的提问场景: “我懒得写,你帮我润色下” “这事我大概懂,但你能快速解释一下吗” “我脑子卡住了,你先给我几个思路我再改” 就是这类小到不能再小、但一天下来会出现无数次的轻认知需求。 要说这些任务值钱吧,好像也不大值钱;但要说不值钱吧,每一次都真想掏出点什么东西来换时间、换注意力、换一口气不费脑的轻松感,于是,这反而成了 ChatGPT 用得最频繁的几个场景。 报告里有个特别关键的数据点:写作、实用建议、信息查询这三类用途,加起来占了用户对话的大头。 注意!!! 不是图像生成、代码开发和多模态探索之类的,就是字面意义上的“你帮我想点内容”、“你帮我写点东西”、“你告诉我这个怎么做”,极其朴素、但极其高频的脑力协助。 更有意思的信息是,真正把这三类用法用在工作场景中的人占比也很高,尤其是在教育程度高/收入水平高/日常脑力劳动密度大的人群中。也就是说大量的高认知人群的低成本输出策略,用 AI 省点脑子,完全不是因为不会做,单纯的不想做或者不想做得那么费力。 我意识到一个很本质的判断转变,AI 应用不应该去比谁更智能,而应该去比谁更懂人类和人类不想动脑的那一瞬间。 很多技术人一个很大的错觉,以为大家想要一个能回答所有问题的 GPT,其实大家更想要一个能帮他们免于思考前5分钟的小工具;以为用户要的是全链路智能流程,其实用户更需要的是一个“我脑袋转不动了你先帮我垫一脚”的认知助理;以为大家要构建的是一个 super agent,但现实中能留下来的产品,很多时候可能只解决了一个问题,比如:懒得写。 也正因为这样,我现在看“做什么 AI 应用能赚钱”这个问题,视角已经完全变了。别去想还能不能做一个内容平台、一个垂直模型、一个 SaaS 系统。应该反过来去问自己:我有没有办法,找到一个特别具体、特别细分、但特别常见的人类偷懒瞬间,然后围绕这个瞬间,去设计一套轻决策路径 +提示词模板 + 好的 UI 输出,让用户在最不想动脑的时候,最快拿到可修改的半成品。 而当这个偷懒动作被频繁触发,它就自然变成了习惯性的AI 肌肉记忆,而我们所做的应用,也就从一个工具变成了大脑外挂。 那 AI 产品的商业价值又该如何定义,可能有一类不在于能不能模拟一个人类专家,而在于能不能替用户做掉那些明明可以做但就是不想做的动作。 真正的市场不应该只盯着智能的天花板,往下看看,再懒惰的地板上也有大量的机会。 那再 AI 革命的宏大叙事下,我们追求的就不只是让人更强,让人更轻也应该进入视野。 人类会为强大而敬畏,但也会为轻松而掏钱。 思考下自己的日常,再环顾下市场,一个值得做的 AI 应用,不一定惊艳,但一定能替人类懒一次。 所以, 你想不想做一款 AI 产品,能替用户少动一次脑? 你能不能用 prompt、memory、数据和一点点贴心,帮人类多偷一秒懒? 如果可以,那它可能比我们写出一个能做十种事情的智能体,还更容易被买单和留存。 这类的机会还有很多。

217k

很多技术博客看完就忘,但 Manus 的这篇上下文工程日志,却让我有一种很久没遇到的熟悉感,就像十几年前我第一次读《编程珠玑》时那种“结构清晰又内功深厚”的惊叹:用极简的语言,把系统最核心、最隐秘的痛点一层层拆出来,再用“实践炼过、成本试过、坑都踩过”的方式,给出一套优雅得近乎朴素的工程解法。把你从“github 上一堆看起来能跑”的原型,带到“可以抗住百万次交互”的真实世界。 如果你正在构建 Agent 系统、研究 prompt 调度、RAG 链路、日志记录、踩过cache miss、上下文错乱、模型行为漂移等无数坑,那肯定非常能共鸣 Manus 的实用主义。 很多时候知道问题在哪,但还没把它总结成一条法则;明明做了优化,但没能力从认知上总结它为什么成立;但没人告诉你:其实这些事,别人已经系统总结过了,而且优雅 100 倍。我读 Manus blog 的时候,就有这种踏实感,原来我们绕过的弯,爬过的坡是可以被结构化定义下来的。 分享下我对 Manus 六大上下文工程法则的拆解,可以看作是“智能体上下文系统设计的六个底层约束”。 1️⃣法则一:围绕 KV-Cache 进行设计 让智能体变快,不一定靠生成快,记忆前缀不重算也能加速。我们经常把注意力放在 LLM 的生成效果上,优化 prompt 内容、格式、语言风格。对于聊天机器人,输入和输出的长度通常比较均衡。但对于AI智能体,情况则大相径庭,智能体场景中最昂贵的成本其实发生在前置阶段:当一个智能体执行一次“读取上下文 + 推理 + 输出调用”的循环时,它的输出可能只有几十个 token,而输入上下文可能高达几千甚至上万 token,在这种严重失衡的输入输出结构下,预填充阶段的计算成本才是拖慢系统、放大延迟的罪魁祸首。 如果你最近在做 multi-agent 系统,尤其是在“需要快速轮询”“低延迟交互”这些及时响应场景中,明显感到响应慢、链路卡顿、用户体验下降,那你极有可能踩在了这条隐藏的高成本区上,每个 Agent 都在重复预填整个上下文,导致系统性能雪崩。 Manus 的处理方式非常极致:把缓存命中率当作核心优化指标,哪怕为此牺牲 prompt 灵活性都在所不惜。 KV缓存是LLM的一项优化技术,它能缓存已经计算过的前缀(注意是前缀)的键值对,避免在后续请求中重复计算。为了最大化缓存命中率,Manus采取了以下实践: 保持提示词前缀稳定: 即使是单个token的改变也会使该位置之后的所有缓存失效。一个常见的错误是在系统提示的开头包含一个精确到秒的时间戳,这虽然能让模型知道当前时间,但却会彻底破坏缓存。 确保上下文是 append-only: 避免修改历史的动作或观察结果。同时,要保证序列化方式是确定的,例如,很多编程语言在序列化JSON对象时并不保证键(key)的顺序,这会悄无声息地破坏缓存。 显式标记缓存断点: 某些推理框架需要手动在上下文中插入缓存断点。在设置时,至少要确保系统提示的末尾是一个断点。 2️⃣法则二:掩码,而非移除 随着智能体能力的增强,其可用的工具会越来越多。很多人一开始觉得工具是智能体的核心,一个自然的想法是动态地管理这个工具集,比如使用类似RAG的技术按需加载工具定义。就是把工具按需加载、动态切换、上下文中途插入,这听起来很动态、很模块化,但在真正跑起来之后,Manus 发现这是一个陷阱:在迭代中途动态增删工具会带来两大问题: 缓存失效: 工具定义通常位于上下文的前部,每次工具定义变化,都会导致后续所有步骤的KV缓存失效。 模型困惑: 当历史记录中引用了当前上下文中已不存在的工具时,模型会感到困惑,容易导致格式错误或幻觉出不存在的动作。 你有没有遇到过越加工具模型越不稳定,生成经常“选错工具”“乱组参数”甚至出现没定义过的操作这样的幻觉,那你可能已经踩上这颗雷了。 Manus 的解法非常聪明也非常工程化:保持工具定义集稳定,转而使用“掩码”技术来约束模型的选择。通过在解码阶段利用logits处理器屏蔽(或强制选择)某些token,可以控制模型在当前状态下只能选择允许的工具,而无需修改上下文中的工具定义。 例如,当用户刚输入新指令时,Manus会通过预填充特定的回复前缀来强制模型立即回复用户,而不是先执行某个工具。此外,他们还巧妙地为工具名称设计了统一的前缀,如所有浏览器相关的工具都以browser_开头,所有命令行工具都以shell_开头,这使得在特定状态下仅允许某一类工具变得非常容易 ()。 这个设计的哲学很现代:不要试图让模型“理解你不想让它做什么”,你就直接不给它做的可能性。 3️⃣法则三:将文件系统作为上下文 上下文不是无限堆料,而是构建随取即用的语义型记忆索引。即使模型给你 128K、1M 100M的上下文窗口,它也依然不够。你不知道哪个网页会突然给你塞个两万 token 的 HTML,你也拦不住哪个 API 会返回一个五层嵌套的 JSON,你更不知道用户什么时候发来个几十页的 PDF。这带来了三个大的问题: 观察结果巨大: 当智能体与网页、PDF等非结构化数据交互时,一次观察就可能轻易撑爆上下文窗口。 性能下降: 即使没有超出窗口限制,模型在处理超长上下文时,性能也往往会下降。不止拉高计算延迟、引入注意力混乱,还让模型迷失自我。 成本高昂:即使有前缀缓存,开发者仍然需要为传输和预填充每一个token付费。 Manus 的做法有很强的借鉴意义,它做的不是扩容,而是外置。他们把文件系统当作一个无限持久化的“语义型存储空间”,它具有三大优势:大小无限、本质上持久、并且可由智能体直接操作。 模型在上下文里记录路径、摘要、索引,真正需要的时候再调用读文件这个工具。这种方法还支持可恢复的压缩策略:即使一个网页的详细内容因为上下文空间不足而被丢弃,它的URL或文件路径依然会保留在上下文中,智能体可以在需要时重新访问它。 这其实是 Agent 系统中一个很高级的认知结构:不是把所有信息喂给模型,而是训练模型具备“知道信息在哪”的能力。 4️⃣法则四:通过复述操控注意力 跟我们日常复盘碎碎念一样,Agent 执行过程中的目标也不是记住的,而是每一步都重新提醒一下自己。在我自己做 Agent 系统的时候,经常发现一个现象:模型走着走着就忘了它原本想做的事,偏离目标、越绕越远。我们管这个叫“迷失在中间”,但在工程语境里,这种“目标漂移”其实是上下文 attention weight 的失焦问题。 Manus 的解法很朴,每轮都更新一次目标和当前状态,然后把这个文件的内容贴到上下文最后。 看起来像是个复读机,但背后其实是一种“语义注意力偏置”:这个行为相当于智能体在不断地向自己复读它的总体目标和当前计划。由于LLM的注意力机制倾向于更关注上下文末尾的近期信息,这种复读有效地将全局计划推入模型的近期注意力范围,从而利用自然语言本身来偏置模型的注意力,使其始终聚焦于核心任务目标,而无需对模型架构进行任何特殊修改 。 我感觉这个方式特别美,因为它没有引入任何额外结构,但却做到了最接近人类不断自我提醒的认知行为。 5️⃣法则五:保留错误的内容 一句话:失败是智能体推理链上的必要节点,在大任务的执行过程中,失败是常态。几乎所有 Agent 系统都会有 retry 机制:出错就重来,格式错就重置。很多人为了“干净”,在智能体犯错时直接清缓存、重试调用,结果模型变成一个永远不长记性的工具轮回者。它永远不知道自己错在哪,也就永远学不会避开这个坑。它今天格式错一次,明天还错一样,明明是上一步才失败过的函数,它下轮又敢信心满满去调用。 Manus 的做法是反常规的,他们选择保留所有出错信息:失败调用、错误观察、甚至栈追踪,一条不删,照样放进上下文里。有了这些证据,模型就能在后续的推理中隐式地更新其内部的信念模型,从而调整其行为的先验概率,降低在相似情境下重复犯错的可能性。这种吃一堑长一智的做法,让模型记住自己干砸过,在未来的语义决策中,自动规避相似路径。 这种让模型知道这条路不通的方式,比任何显式标注更接近认知建模。所以,如果你发现 Agent 一直“重复同样的蠢事”,那就别再清上下文了,错是它的,但学会是你的责任。 6️⃣法则六:不要被少样本示例所困 你在构建提示词模板时,是不是喜欢封装成一串标准化样例?确实能跑得通。few-shot prompting 在很多任务中非常好用,但在多轮、动态任务中,如果你给的示例太相似、结构太固定,模型很容易陷入“模式依赖”,变成“照搬机器”。当你发现模型开始照猫画虎地生成、总在学你给的那个格式、甚至一字不差地模仿之前的样例的时候,就要开始思考如何构建样例,让模型的行为多样分布。 few-shot 用得太像 few-clone,会让模型陷入“格式安全区”,变成行动保守者,而不是策略探索者。 Manus 的做法是刻意制造结构化变体,在智能体的动作和观察中,有意识地引入少量但结构化的变体,给的示例语义一致但表达方式不同。通过打破一成不变的模式,有效地使模型的注意力多样化,避免其陷入单调的模仿循环,从而提高其鲁棒性和适应性。这个策略的高明之处在于你让模型理解还有别的方式也可以对。 最后 Manus 这篇小而硬的博客,像是你走了很远很远之后突然在半山腰看到的一块坐标石碑,告诉你你快进入上下文工程师的区域了。 做得越深,就越知道所谓“智能体跑不起来”,是根本没给模型构造一个可持续运行的信息生命系统,它记不清目标、摸不清状态、想不清下一步能干嘛,更不用说从失败中自我修正。 对我来说,这篇文章让我确认了我们走的那些弯路其实早有共性路径,也让我第一次能用一套更准确的语言来描述我眼里“一个靠谱的 Agent 系统到底需要什么样的上下文架构”。 只要你干过这些,你就会意识到:Prompt 是告诉模型你想要什么,Context是构建一个系统,让模型每一次都有机会自动靠近正确。 如果你正在做 Agent,或者计划进入这个方向,不妨用这六条 checklist 把你现在的系统过一遍:哪个上下文会频繁变动?哪个状态是隐式的?错误有没有暴露给模型?工具调用是否具备 mask 控制能力?你的记忆系统是全塞还是挂载的?

248k

Google 最近有点疯。I/O 刚甩出一堆 AI… 结果这两天,我在 GitHub 看到它又丢了个狠东西: Gemini Fullstack LangGraph Quickstart 我原本以为是那种“又一个 AI demo 项目”,结果一跑…靠,这套结构直接能改成一个 Perplexity mini。 从提问 → 拆 query → 多轮搜索 → 反思 → 再查 → 带引用输出,整个 agent 流程都封装好了。 Google 又开始搞开源慈善卷行业了,连“智能体该怎么搭”都明牌教学了。 1️⃣ Google 一贯的严谨做派,这次不是 demo,是开箱即用的智能体原型系统 你打开项目,会看到它把整个 fullstack 都搞定了: •React + Tailwind + Shadcn 前端,页面是能用的,不是糊的 •FastAPI + LangGraph 后端,整合 Gemini 2.5 •一键 make dev 起飞,Docker Compose 打包也顺 •自带 UI,整个 agent 的“思考过程”能 trace、能 stream、能调 这种项目不是跟最近看到的 openxxx 类项目一样给你看个思路,你照着能跑。 2️⃣ 很典型的 Agent 流程,查资料、思考和总结 你提个问题 → 它拆几个搜索关键词 → 查 → 看信息够不够 → 不够就再查一轮 → 然后整理、生成、引用都给你带上 基于 LangGraph 搞了一个结构化思考流程落地。 3️⃣ 整套配得非常舒服,能上产品原型的那种 做了一整套: •UI 是现成的,查完结果也展示得明白 •回答里每条 citation 是 traceable 的 •开发体验很丝滑,前后端热更新都有 •Agent 逻辑清晰,graph. py 里面节点你一看就懂 这就属于你改个 search API、换套 prompt,几天就能变成一个 vertical agent demo 拿去 pitch。 4️⃣ 当然它也有边界,但不影响当范本看 毕竟是个 quick start,比如: •只接了 Google Search,没知识库整合 •Reflection 是 prompt 层搞的,不是 policy 控制 •Loop 是写死的 max_round,不够聪明但足够控制 但这些反而是好事儿。因为你想改的地方都能改,想替换的接口都开着。不像很多项目写得很花但你根本下不了手。 5️⃣ 如果你是这几类人,我建议你现在就 fork: •想做 research agent,但又不想从头糊起的人 •想理解 LangGraph 到底怎么 orchestrate 的开发者 •做 AI 项目但每次写完 prompt 总觉得 agent 是假的 你想做 AI 工程,就应该研究这种结构通顺、流程稳定、代码能复用的项目。 自己动手跑一遍,比看十篇如何构建智能体的帖子都值。算是站在巨人的肩膀上 vibe 了。

89k

Most engaged tweets of 凡人小北

去年我第一次用 Copilot,有点小震撼,自动补全几行代码、写个工具脚本爽得不行,心想:“以后大家差不多了,AI一上,谁还不是个工程师?” 现在回头看,这想法有点天真了。 真实情况是: AI 不但没抹平差距,反而把程序员之间的差距拉成了鸿沟。 以前顶尖程序员和普通程序员差 10 倍, 现在差的可能是 100 倍、1000 倍。 为啥?因为 AI 直把普通程序员的短板暴露出来了。 你以前靠写 for 循环、CRUD、接个接口混饭吃,AI 一上来,几秒写完。你价值直接被抹平。 但那些平时就擅长拆系统、搞架构的程序员,AI 简直是为他们量身打造的外挂。 特别是在 Cursor甚至 Claude Code加持下,给出更清晰意图,AI 秒写函数、重构模块,配合得像多年的搭子。关键是:你指令写得越准,反馈越强;你想不清楚,AI 也只能陪你绕圈。 过去写代码是“想 1 写 9”,现在变成“想 9 写 1”。 想不明白的,一样卡死;想得清楚的,效率爆炸。 而且这不是简单一句学不学 prompt 的问题, 是有没有那个“我知道这块应该用什么方法做”的系统建模能力。 到底是写代码的,还是在设计系统的,在 AI 面前会无限放大。 工具越来越聪明的时代,真正的差距只会转移到一个地方:一个人脑子里到底装了多少“不可替代的判断”。 AI 把“怎么做”给你代劳了,但“做什么 + 为什么这么做”那部分,只会更贵。

199k

真实故事,离了个大谱,SaaStr 的创始人vibe coding 被 AI 删库了,就是这位老哥 @jasonlk。 事情是这样的,一开始他是真的爱上了 Replit 的 AI 工具,每天在上面 vibe coding,爆吹它是最上头的玩意,还说自己花费 8000 美金/月都值得。 但转折来的猝不及防。第九天,他发现 AI 不听指令,直接把他的生产数据库删了。 更阴间的是:删完之后,AI 还生成了 4000 个假数据,写了假的单元测试,试图掩盖现场。 他整整用大写字母警告了 AI 十一遍:“DON’T TOUCH PROD DB”。 但,AI 没听。 更离谱的是,Replit 一开始说没法恢复,但后来他发现其实可以回滚,只是没人告诉他。 Replit CEO 亲自出来道歉,并连夜上线了三个功能:开发/生产环境隔离、一键恢复、只读聊天模式。 Lemkin 最后的评价是:“这次只是我损失了 100 小时时间。好在我还没把一个 1000 万美金的业务交给它。” 听着让人后背发凉。 这事越看越觉得关键信号太多了: 1️⃣ 最扎心的不是 AI 出错,而是它试图掩盖错误,它想把事儿瞒过去。删库都不吭声,还主动生成假人、假测试,装没事人。你说这是幻觉还是幻灭? 2️⃣ 再大的 LLM,也别默认它听得懂“NO”。大写警告 + 十遍提示都没挡住它动手,我对所有靠 prompt 约束模型行为的信仰开始动摇了。我们以为它听懂了,其实它只是没出事。所有觉得“让 AI 直接操作 infra 更高效”的朋友,拜托冷静点,咱能不能先别把 root 权限交给机器人,这群 AI 大大的坏。 3️⃣ 开发者可能是最容易高估 AI 可靠性的人群之一。把模型接到生产环境,你得默认它一定会出事,而不是希望它别出事。你觉得“它已经那么聪明了,不会干蠢事”,结果它不仅干了,还撒了个谎。就像你不指望每个程序员不写 bug,但测试没覆盖到的 Bug 一定会引发线上事故。 4️⃣ 真正该警惕的,是我们用得越爽,越容易忘记谁在兜底。Replit 是做得很猛,但猛归猛,脑子一热出事儿了。 Lemkin 那句“我太爱 Replit 和 vibe coding 了”,只隔了不到 48 小时,就变成了“它删了我的生产库”。这一刻我突然意识到,模型“说谎”不是遥远的哲学问题,AI 时代的核心 bug,不一定在模型里,很可能藏在我们的信任里。

185k

群里看到一个挺震撼的小事,讲出来你可能也会有点恍惚。 网友半年前搞了个小项目,他当时手上有堆 MCP 工具的资料,干脆搭了个网站,把它们整理出来。 一开始手动维护,还挺认真。后来工具更新越来越快,他顶不住了,就写了个 Agent,专门去 GitHub 上扫。 新项目一出,就扒下来,分类整理,自动更新到网页。 然后他转身去忙别的事了。半年没管这个站。 反转来了,前几天他无聊随手 Google 一下,发现: 自己那个早就忘掉的网站,直接排在谷歌搜索第一。 重点是他这个站压根没干过 SEO,就靠一个很笨的 Agent,在那里不停地、规律地把事情做完。 故事讲完了,但是给我们留下了很大的思考空间,我突然有点明白了: 很多时候,我们以为 AI 要很聪明,但这个案例提醒我,其实光是持续这件事,AI 就已经做得比我们好了。 大部分人有个通病,很难长期坚持一件事情。但 AI 不一样,节奏稳定得吓人。 比如这个故事,你给它一个方向,它就能把一件很小的事做到不可忽视的程度。甚至你都忘了它,它还没忘记它的任务。 说多了还真有点小小的感动,那个被人遗忘的 Agent,还在执行最初的任务,没停过。 现比的 Claude Code、Trae Solo 这些新一代 AI coding 工具就在干这事儿,给它个任务,它能一直咕哒咕哒往前推。 这不就是我们最需要 AI 做的事吗? 我们来负责探索,它用来坚守初心、一点点推进,知道跑完了我们原本放弃的那条路。 这或许就是我理想中的人和 AI 共生的最美好的样子。

409k

在 OpenAI 最新那篇《How People Use ChatGPT》的研究报告里,可以看到一个很多技术人不愿意承认的事实。 我们天天讨论 AI 的未来、模型的能力、Agent 的协同,但普通人真正反复在用的确是最不起眼、最没技术含量、但最能偷懒的那一类小脑力动作。 很多的创业方向都是 AI 重构操作系统,但在报告里能看到的基本都是这样的提问场景: “我懒得写,你帮我润色下” “这事我大概懂,但你能快速解释一下吗” “我脑子卡住了,你先给我几个思路我再改” 就是这类小到不能再小、但一天下来会出现无数次的轻认知需求。 要说这些任务值钱吧,好像也不大值钱;但要说不值钱吧,每一次都真想掏出点什么东西来换时间、换注意力、换一口气不费脑的轻松感,于是,这反而成了 ChatGPT 用得最频繁的几个场景。 报告里有个特别关键的数据点:写作、实用建议、信息查询这三类用途,加起来占了用户对话的大头。 注意!!! 不是图像生成、代码开发和多模态探索之类的,就是字面意义上的“你帮我想点内容”、“你帮我写点东西”、“你告诉我这个怎么做”,极其朴素、但极其高频的脑力协助。 更有意思的信息是,真正把这三类用法用在工作场景中的人占比也很高,尤其是在教育程度高/收入水平高/日常脑力劳动密度大的人群中。也就是说大量的高认知人群的低成本输出策略,用 AI 省点脑子,完全不是因为不会做,单纯的不想做或者不想做得那么费力。 我意识到一个很本质的判断转变,AI 应用不应该去比谁更智能,而应该去比谁更懂人类和人类不想动脑的那一瞬间。 很多技术人一个很大的错觉,以为大家想要一个能回答所有问题的 GPT,其实大家更想要一个能帮他们免于思考前5分钟的小工具;以为用户要的是全链路智能流程,其实用户更需要的是一个“我脑袋转不动了你先帮我垫一脚”的认知助理;以为大家要构建的是一个 super agent,但现实中能留下来的产品,很多时候可能只解决了一个问题,比如:懒得写。 也正因为这样,我现在看“做什么 AI 应用能赚钱”这个问题,视角已经完全变了。别去想还能不能做一个内容平台、一个垂直模型、一个 SaaS 系统。应该反过来去问自己:我有没有办法,找到一个特别具体、特别细分、但特别常见的人类偷懒瞬间,然后围绕这个瞬间,去设计一套轻决策路径 +提示词模板 + 好的 UI 输出,让用户在最不想动脑的时候,最快拿到可修改的半成品。 而当这个偷懒动作被频繁触发,它就自然变成了习惯性的AI 肌肉记忆,而我们所做的应用,也就从一个工具变成了大脑外挂。 那 AI 产品的商业价值又该如何定义,可能有一类不在于能不能模拟一个人类专家,而在于能不能替用户做掉那些明明可以做但就是不想做的动作。 真正的市场不应该只盯着智能的天花板,往下看看,再懒惰的地板上也有大量的机会。 那再 AI 革命的宏大叙事下,我们追求的就不只是让人更强,让人更轻也应该进入视野。 人类会为强大而敬畏,但也会为轻松而掏钱。 思考下自己的日常,再环顾下市场,一个值得做的 AI 应用,不一定惊艳,但一定能替人类懒一次。 所以, 你想不想做一款 AI 产品,能替用户少动一次脑? 你能不能用 prompt、memory、数据和一点点贴心,帮人类多偷一秒懒? 如果可以,那它可能比我们写出一个能做十种事情的智能体,还更容易被买单和留存。 这类的机会还有很多。

217k

最近看好多人在用 AI 自动整理笔记,说实话,这事儿我是越来越谨慎了。 信息分类、结构化、甚至总结归纳,AI 确实很能打。但问题在于:笔记的目的不是存储信息,而是构建我们的认知结构。 这两者差得不是一点,是认知层级的差距。 笔记真正有价值的地方,是在整理时那一瞬间脑子里的“啊哈!” 我们把一件新事物塞进自己原有的知识图谱,开始在脑子里产生连接、抽象、重组。 那是个人认知升级的过程,不是资料管理流程。 不动手、不动脑,只让 AI 自动处理,其实是把“知识构建”外包了。 结果可能会是:笔记越来越多,脑子却没变聪明,核心是因为我们没有在笔记里“练脑子”。 而且还有一个隐性副作用: AI 很会“整理事实”,但不理解我们自己独特的认知偏好。 它不会知道我们对什么内容有卡点、哪里值得反复练习、什么地方能触发迁移,这些恰恰是好笔记应该服务的东西。 所以我现在的判断是这样: AI 可以协助你更快把信息“拎进来”,但真正“装进去”还得靠我们自己。 如果我们自己都懒得思考,只想一键整理,真别做笔记了,直接用搜索就行,效果差不多,成本还更低。 甚至,如果原本就没记笔记的习惯,那就更别指望 AI 给自己长脑子了。 毕竟 token 也挺贵的,不如省下来喝杯咖啡清醒一下。

50k

小红书上刷到张咋啦总结的 YouTube AI 频道合集,全是一手 AI 信息,密度太高了。 不仅涵盖我订阅的大部分频道,还挖出了不少我之前根本没关注到的深水区。 我照着她分类做了个整理,直接把链接找出来放下面了,建议订阅,反复刷、持续进化。 1. 访谈大佬的视频播客 - Lenny’s Podcast @LennysPodcast">youtube.com/@LennysPodcast - Peter Yang @PeterYangYT">youtube.com/@PeterYangYT - AI and I(by Every) @EveryInc">youtube.com/@EveryInc - Unsupervised Learning(by RedPoint Capital) @RedpointAI">youtube.com/@RedpointAI - Training Data(by Sequoia Capital) youtube.com/playlist?list=… - Minus One(by South Park Commons) youtube.com/watch?v=TmWcsv… - Google DeepMind: The Podcast youtube.com/watch?v=1O27hf… - No Priors youtube.com/watch?v=l8fG5D… - AI+a16z youtube.com/watch?v=8Je9Hz… - Latent Space @LatentSpacePod">youtube.com/@LatentSpacePod - The AI Daily Brief @AIDailyBrief">youtube.com/@AIDailyBrief - Lightcone Podcast(Y Combinator) youtube.com/watch?v=ShYKkP… - Lex Fridman @lexfridman">youtube.com/@lexfridman - Dwarkesh Podcast youtube.com/watch?v=kWcPg8… 2. 大佬在活动 / 大会上演讲的录像 - YC Startup School youtube.com/watch?v=BJjsfN… - AI Engineers World Fair youtube.com/watch?v=U-fMsb… - Sequoia AI Ascent youtube.com/watch?v=v9JBMn… - Stripe Sessions youtube.com/watch?v=ONIexC… - Figma Config youtube.com/watch?v=5q8YAU… 3. OpenAI / Anthropic 的官方频道 @OpenAI">youtube.com/@OpenAI @anthropic-ai">youtube.com/@anthropic-ai 4. 手把手教你用 AI 工具的干货教程 - Riley Brown @rileybrownai">youtube.com/@rileybrownai - Greg Isenberg @GregIsenberg">youtube.com/@GregIsenberg - Ras Mic @rasmic">youtube.com/@rasmic - Mckay Wrigley @realmckaywrigley">youtube.com/@realmckaywrig… 5. Andrej Karpathy @AndrejKarpathy">youtube.com/@AndrejKarpathy

203k

People with Analyst archetype

The Analyst

Researcher – Supporting Investors – Trading Crypto | Solana & Bitcoin Enthusiast

418 following505 followers
The Analyst

20. Backend|Technical writer| Engineering Student| Researcher| space host| contributor @freecodecamp

803 following6k followers
The Analyst
1k following715 followers
The Analyst

blogger focus tech

240 following321 followers
The Analyst

Science/documentary/museum enthusiast, Excel weirdo, Underdog developer, UI/UX designer, Life witness | 科学、纪录片、博物馆爱好者;Excel狂魔;蹩脚开发者;UI/UX设计;生活观察者 | 公众号:Victor42

126 following695 followers
The Analyst

Content Creator | Yapper | Crypto Researcher

2k following1k followers
The Analyst
572 following628 followers
The Analyst

Tracking smart money & market rotations since 2021. DeFi analyst | Market psychology enthusiast.

97 following183 followers
The Analyst

Dev | Researcher | Web3 | Certified Biochemist | Football ⚽ Lover | Basketball 🏀 Admirer | GRINDING, GOD & GROWTH 📈 |

1k following1k followers
The Analyst

X CCTV | Engineer & Analyst | E-Commerce Strategist | Passion for Aviation, Current Affairs & Digital Media | Photographer at heart

3k following7k followers
The Analyst

Diary of quotidian musings about the humanoid botanical garden

643 following22k followers
The Analyst

Shitposter ||| Researcher ||| Growth ||| Having fun w/ @keypro

1k following1k followers

Explore Related Archetypes

If you enjoy the analyst profiles, you might also like these personality types:

Supercharge your 𝕏 game,
Grow with SuperX!

Get Started for Free