人人都是产品经理
人人都是产品经理致力为产品新人、产品经理等广大产品爱好者打造一个良好的学习交流平台。深度剖析国内外互联网业内动态,分享产品设计、交互设计、视觉设计、用户体验设计、产品运营、用户增长、私域运营、小红书运营、视频号运营、抖音运营、产品市场和项目管理等专业产品知识。
“雷总讲梦想的时候,我们都在哭;现在出事了,我们却吵成两派。”这不是段子,而是小米品牌的真实处境。这篇文章讲述小米如何从性价比到偶像化,再到舆论撕裂的全过程。 根据国家统计局数据,中国一年大概发生超过 25 万起交通事故,汽车交通事故超 15 万起,过去十年来平均每年因交通事故意外死亡人数超 6 万人,其中大多数都不会出现在新闻头条。 也有例外。新能源汽车领域的交通事故更容易引起人们关注,不管是特斯拉、问界还是小米。部分原因与这些品牌拥有更高流量有关,部分也与新能源汽车往往运用更多新技术,而这些技术往往又处在发展初期,争议更大。 今年小米汽车的两起交通事故就属此类。两起事故都引起舆论广泛关注,除了小米自带流量密码之外,更重要的是两起事故都牵扯到当前新能源汽车争议最大的两块地方,一个是智能辅助驾驶,一个是隐藏式门把手。 但类似事故几乎每一家造车新势力品牌都遇到过。智能辅助驾驶不用说,远的有 2021 年蔚来 ES8 沈海高速涵江段事故,近的有去年问界 M7 侯平高速追尾事故,两起事故都导致车上人员遇难。 汽车事故后车门打不开的案例就更多了,无论汽车是否采用隐藏式门把手,也无论是燃油车还是新能源汽车。甚至一些燃油车时代的经典车型也屡次发生类似事故,比如 2022 年广东佛山一辆丰田卡罗拉在发生交通事故后,同样起火、同样无法打开车门。 只是,这些事故都没有像小米这样引起巨大的舆论争议。两起事故都导致小米港股股价下跌,也都引发媒体们连篇累牍的追问与报道。 小米近一年股价走势 而一旦涉及到小米的讨论,也总会陷入到一种非黑即白的争论之中,几乎不存在什么中间群体。留言中要么是支持公司怒斥黑公关,要么嘲讽极端米粉动辄人身攻击,仿佛置身某位饭圈流量明星的评论区,连讨论本身都成了一件危险的事情。 网络水军与黑公关 前两天,雷军参加了 2025 年世界智能网联汽车大会。这是工业和信息化部、交通运输部以及北京市人民政府共同主办的行业大会,规格颇高,中国汽车产业有名有姓的人物几乎都到场参加。 雷军是当天最后一位发表主旨演讲的车企掌门人。他在演讲末尾专门呼吁全行业,杜绝“零和博弈”,共同推进行业健康发展。“共同抵制网络水军、黑公关等网络乱象,一起营造积极向上、文明有序的产业发展环境。” 这话放在平时不会引起太大关注,车企掌门人们喊话抵制黑公关乱象也不是一天两天了。但这场演讲正值小米汽车成都事故甚嚣尘上之际,也是雷军在事故后的首次公开演讲。于是,当天几乎所有关于雷军演讲的报道都在强调,“小米成都车祸后雷军最新演讲,呼吁共同抵制网络水军和黑公关。” 雷军演讲次日,小米公关负责人王化在社交媒体上分享了小米车主遭网络攻击专向援助信息收集表的进展。这是小米在 9 月 26 日发起的一项面向车主的法律援助行动,目的是为了帮助小米车主抵御网络攻击。王化介绍称,他们搜集了 480 人的相关证据信息,其中有 245 人需要诉讼支持。 很难说这就是小米对待近期争议的官方态度。但至少在当前的时间节点下,考虑到小米集团整体对外都闭口不谈成都事故的车门争议,这些动作就有了更多值得玩味的空间。 就连资深评论家、端水大师、自称米粉之一的胡锡进都看不下去了,发了条长评说小米的公关动作变形,强调小米不应该用“黑公关”来定性公众批评。 胡锡进微博 “在小米 SU7 发生新事故的敏感时刻,雷军在一次公开演讲中使用上述激烈词汇,带动了公众对小米反呛网络批评和质疑的联想。”胡锡进说。 舆论场当前对成都事故最大的质疑点是车门问题,但或许是吸取了 3 月份安徽铜陵高速事故的教训,这次事故除了警方通报外再无明确信息传出,小米管理层也从未在公开场合或社交媒体中谈及此事。小米汽车日常回应网友问题的“小米汽车答网友问”自 10 月 1 日后也有 20 天未再更新。 雷军的微博中照常打卡健身、发布产品信息,成都事故成了小米当前对外 PR 中的“房间里的大象”。但网友们看得真切、着急,在雷军的微博评论区里,不断有支持者发出力挺声音,“雷总,你一定要挺住啊,外面黑子太多了,但是我们永远支持你。” 最早雷军的评论区还不是这样。作为一家以发烧友起家的手机厂商,小米虽然早年间也吸引了大量米粉支持,但这些米粉同样也是对小米最严苛的群体之一。互联网上也曾流传过一句调侃,叫做“所有的米黑都是曾经的米粉”。 那时雷军的微博账号下,更多的也是米粉们对产品的吐槽。雷军早年间接受采访时说,用户但凡遇到一点问题,首先想到的不是打客服电话,“先到微博上骂你一顿。” 后来,小米甚至专门派了售后人员紧盯雷军评论区,遇到用户吐槽就急忙联系处理。现在这样的声音了少了许多,动辄还会引来其他网友批评,互相指责对方是黑子,要先查一查“成分”。 表现最突出的是 4 月份雷军发布的那条致歉微博。有好事者曾专门统计了遇难者家属微博发言与雷军致歉微博的评论区对比,一边铺天盖地的指责声音,一边则是一边倒的支持、相信。此后,遇难者家属删除微博发言、注销了社交媒体账户。 风向是从什么时候开始转变的?舆论场上围绕小米非黑即白、割裂的讨论氛围,到底是如何形成的? 116 亿阅读量的雷军年度演讲 一切都要从小米冲高开始讲起。 2020 年,小米集团内部开始启动高端化转型。当年初发布的小米 10 系列手机首次上探到 4000 元价位,较上年旗舰小米 9 系列起售价整整高了 1000 元。年中发布的小米 10 至尊纪念版起售价更是上探至 5000 元以上。 中国手机厂商们大多都经历了从中低端向高端探索的过程。但和其他国产厂商相比,小米向高端发力的难点更大一些。 这家公司起家靠的就是极致性价比,多年来已经形成固有的品牌印象。小米一直试图打破这种认知,最早的高端化尝试可以追溯至 2016 年发布的小米 Note2,但发售后效果不佳,导致 Note 产品线后续被砍。 到了 2020 年的小米 10 系列,小米的高端化打法除了堆料,也开始试图重塑品牌故事。当年年中,雷军借着公司成立十周年的节点,第一次举办了“雷军年度演讲”,开始将产品发布与创业故事融合在一起。 用小米公关负责人王化的说法,“没想到这种形式被大家所接受认可了,以至于当时各种社群都在刷屏,在大家的一致好评下,雷总考虑将演讲这种形式固定下来。” 此后几年,小米集团每次重大的产品线发布大多都会被冠以“雷军年度演讲”的名头。这是一种和多数科技厂商发布会迥异的发布形式,上半场往往是雷军讲述小米公司创业研发的种种故事、细节,调动公众情绪,下半场才会到具体的产品发布环节。 后来你所熟悉的“雷军体”就是在这几年固定下来。PPT 中加粗放大的金句摘要、种种宏大高远的价值主张以及雷军穿插全场的个人感悟,让用户购买产品本身仿佛也成了一种为理念买单的行为。也是从那时开始,小米在对外的产品宣发上越来越强调故事,越来越会营造情绪。 每一年的雷军年度演讲都有一个主题,既切合时代又贴近公司战略,从最早十周年的“一往无前”,到 2022 年疫情反复时的“穿越人生低谷的感悟”,近两三年则变为更加宽泛的“成长”“勇气”或者“改变”等词汇。几年下来,单是“雷军年度演讲”这个话题词就在微博上收获了超过 116 亿的阅读量。 雷军历届年度演讲海报 这种将新品研发与情绪故事紧密结合的发布形式,虽然能一定程度上扩大品牌的影响力、吸引更多受众认可,但也让品牌与创始人个人形象高度绑定,品牌传播越来越个人化、明星化。 单以今年雷军年度演讲的一张海报为例。今年雷军年度演讲的主题是改变,小米对外发出的一张海报宣传语是:“造车的同时,重启造芯,同时供两个孩子上大学,哪来的勇气?” 将公司发展战略人格化、叙事化,造成的后果之一是用户不再单一地看待小米。如果说过去的“米粉”尚可被称作是对小米产品认可的用户群体,当下的“米粉”则在认可小米的同时又增加一份对于雷军个人的崇拜和依赖。雷军不仅是一名企业家,更是一名堪比流量明星式的科技偶像。 舞台上的雷军讲梦想、谈挫折、聊成长,小米的产品在这套叙事中只是承载情绪的媒介。观看发布会的用户们被触动、被安慰,仿佛小米成长的故事也是他们自身的故事,只要购买小米产品,也就和雷军一样参与了一家伟大公司的成长,与有荣焉。 科技产业历史上有不少堪称偶像式的人物,国外的乔布斯、马斯克,乃至国内的张小龙等等都属此类。但他们在公众心目中的形象建立并不是靠故事与心灵鸡汤建立起来的,更多是产品驱动。 如果套用雷军体的演讲风格,乔布斯在苹果发布会上或许也该打出一句广告语,“被公司扫地出门后,我如何重掌苹果?” 但乔布斯从未这样做。公众之所以铭记他并不是因为他讲过哪段心路历程,也不是他在如何在病症折磨中仍支持公司运转——事实上乔布斯本身性格并不讨喜,他偏执、易怒且不近人情。 人们对他的印象更多来自产品本身,改变了传统音乐产业的 iPod、开创移动互联网的 iPhone,还有从牛皮纸袋中抽出的 Macbook Air。它们构成了乔布斯叙事的全部。 这并不是说小米不具备产品创新能力。互联网上关于小米营销与产品的讨论已经多如牛毛,但这些讨论的存在或许也能说明一点,人们对于小米营销的关注度已经远超小米产品本身。 当一个品牌的叙事能力强到足以掩盖产品本身时,它也就埋下了风险。 偶像式崇拜的苦果 现在,雷军是整个中国互联网中拥有社交平台粉丝量最多的 CEO 之一。他在微博上拥有超过 2600 万粉丝、抖音超过 4400 万、即便是小红书也有超 470 万粉丝。 蝉妈妈今年初发布的数据称,雷军 2024 年抖音涨粉量一年超 2500 万,只比黄子韬少了 200 万。这些蜂拥而来的粉丝们不一定都是小米产品的用户,但一定程度上都认可雷军的个人形象。 雷军在 2020 年举办第一次的年度演讲只是一次偶然。那时小米正处在高端化转型的节点上,需要一个能重新定义品牌气质的故事,十周年的契机也恰好适合用来总结与回顾。 但讲故事的品牌叙事方式一旦形成,就很难再退回去。故事需要情绪,而情绪需要不断地拔高,小米的传播节奏也越来越向流量最大化的方式靠拢。每一次年度演讲都需要苦心寻求故事,找到爆点,摘录金句,拔高情绪。 第一年的雷军年度演讲能拉出不少创始元老的故事,到了 6 年后已经需要借凡客陈年的抖音直播来阐述“改变”主题了。 公众的逆反心理也越来越重。十年一回顾尚能理解,一年一回顾就有些疲劳。过去一段时间,互联网上甚至流传出一些借用大模型制作的“雷军演讲生成器”,只要输入特定的产品和内容,就能输出一段符合雷军风格的演讲稿。 网络流传的雷军演讲生成器 过去互联网上也有不少针对雷军的调侃式嘲讽,最出圈的莫过于“Are you OK”的鬼畜视频。但这些调侃尚且建立在玩梗的心态上,并不是针对品牌营销方式的反感,甚至一定程度上助推了小米品牌的传播。 “雷军演讲生成器”则完全不同。它意味着部分公众已经无法再接受小米的价值宣导,对整个品牌价值都产生了怀疑。 这正是情绪叙事带来的风险。情绪能拉近距离,也能制造距离。它能让消费者觉得雷军“真诚”,也让小米更像一个有性格的人。但长时间雷同的情绪叙事冲击之下,它也会让公众感到疲劳和厌倦,从讨厌雷军演讲风格继而讨厌小米。 更关键的是,当品牌人格化之后,公众对它的反应也会变得情绪化。赞美变得极端,批评也变得极端。反对小米就是反对雷军,反对雷军就是反对偶像。于是,一个本该围绕技术、安全和责任展开的讨论,逐渐演变成阵营对立。 这种情绪对立甚至也间接影响到公司对外的看法。就像那些明星艺人长久以来形成的运营模式一样,公众讨论几乎不存在什么中间地带,对负面讨论的容忍度越来越低、与公众批评的对立情绪越来越重。 从这个角度上来说,今年小米在公众舆论场上面临的几起争议事件也并不是坏事。争议并不可怕,两起事故也不会摧毁一家市值超 1.2 万亿港元的上市公司。小米选择了流量最大化的营销手段,也必须要承担相应的苦果。 一些改变发生在不经意之间。去年小米 SU7 发布之后,短视频平台上到处都是关于雷军“爽文男主”的视频,甚至短视频中的配乐都被称之为“雷军进行曲”。今年 4 月之后,短视频平台中的“雷军进行曲”已经不再刷屏。 那起事故带来的另一个影响是车企们的智驾宣传开始收敛。4 月 16 日,工业和信息化部装备工业一司在工信部官网发布公告,强调汽车生产企业需明确系统功能边界和安全响应措施,禁止夸大和虚假宣传。随之而来的上海车展上,大量车企纷纷将原本的“智驾”用语更改为“智能辅助驾驶”。 2020 年雷军年度演讲 2020 年雷军第一次举办年度演讲时说,优秀的公司赚取利润,伟大的公司赢得人心。至少从现在来看,小米只赢得了一部分的人心。 作者|张文 编辑|蒋浇 本文由人人都是产品经理作者【山上Hillvue】,微信公众号:【山上】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
在当今竞争激烈的内容创作和商业环境中,打造一个成功的个人品牌(IP)并非易事。本文作者通过亲身经历,分享了他在过去一年中投入400万元打造IP的实战经验与心得。 这是篇实战复盘,也是上篇文章的微缩版,只剩下实战环节。实战5000字,是我一年的战略战术打法总结。 1. 做IP的前提:裸奔 先讲一个前提,很多人都想做IP,但连第一关——亲朋好友刷到都受不了,拍摄的时候满身敏感点,这也说不了那也说不了,这是做不好IP的。想做IP的要有一个共识:你暴露多少,流量就有多少,我想通了这点后,就直接裸奔了,没啥不能聊的。团队让我聊原生家庭,我就直接讲了一个我此前绝对不会讲出来的故事——我从来不叫我父母。这个视频在全网有接近1100万的播放。引发了很大的争论,特别是代际冲突。私信和评论区里,有人骂得狠,也有人力挺。可能创业几年大风大浪见多了,我早有心理准备——骂也好,挺也罢,感觉都是别人的事。我们拍这个的目的其实很简单,我之前做了3次IP,都是以没数据告终,我们想确认我这张脸到底行不行。而“我不叫我父母”这个视频,验证了可行性。 2 第一个重点:商业模式升级 接下来直接讲最重点的商业模式升级。我认为,知识付费IP的逻辑在未来不会再成立了,范围再扩大的话就是一切只做单次生意的逻辑都不会再成立了。它核心的逻辑,就是小课引流,私域转化,不期待用户有复购或转介绍。21年我写了篇文章,我如何学习潭州教育搞流量。23年这家公司挂了。原因是只做单次生意,客诉太多,把所有用户都当成杀猪盘宰割。因此我现在看知识付费行业,我非常笃定知道,这种潭州化的趋势做不长久。这个行业我买了很多直播间卖的小课。和潭州的路数并无区别。中国市场大,过去可以靠流量红利,不追求复购,不认真做产品。但到了25年,这套模式的韭菜割尽了,红利彻底枯竭。 我认为知识付费下一步,是我嘴里面的共读营,是行业嘴里面的书课包。它们本质相同:单纯是因为线上课卖不动了,必须“实物+课程”捆绑。 这玩法并不新鲜,K12早就验证了——猿辅导的49块书课包卖得风生水起就是证明。 书课包能卖得动,本质是用户能拿到实物对产品有感知。而任何一个中国人,对书都是敬重的,拆包之后肯定会看几眼。这个模式用到了我的IP丁达尔身上,果然成立。一本书《舌尖上的中医》+7天共读营,后续顺畅转化食补会员和其他关联产品,用户信任度高,复购问题迎刃而解。这个模式我有天然优势。我本身就是做出版出身,2019年我就在做共读打卡营了,已经拿到过巨大结果,如果想沟通这套玩法,欢迎来我线下课细聊。 甚至我认为,IP本身也要升级。IP其实已经火了很久了,不是一个新商业模式了。过去几年,大家做IP,其实就是往身上贴标签,我做流量培训,所以你来找我;我做感统培训,所以你来找我。他的问题是项目有周期,市场越来越红海项目红利周期越来越短。人身上的标签一下子就过时了。我身上的流量培训标签,从21年走到24年,我就不想背了。但要换其他标签不容易。IP也是。我认为IP的下一步,是网红、博主、个人品牌。IP本质是个人品牌。下一步,IP要做的事情,是要让用户记住我们这个人本身,而不是做某某某的那个人。 做人群,才有复购。所以下一个重点也就出来了,IP定位。市场有很多种IP定位的方式都有道理。但正如我上文所说,往身上贴一个标签容易,让人记住IP本身很难。但这是必须要做的事情。我认为IP定位最需要的是瞄准人群,而不是瞄准项目。项目会过时,人群不会,用户需求不会。佛法里有个三身论,讲佛祖有三身,法身报身和应身。所谓法身,就是指终极实在,真理本身。对IP来说,他的法身有且只有一个,用户和他所自带的需求。所以,我给丁达尔的定位,是瞄准中国40-70岁的女性。甚至我的IP“胡达克”,也是这个定位,我们要40-70岁女性,这群人,是中国人的财神爷。也只有这群人目前还有充足现金。也因此,粉丝量就不是边缘指标了,越多人关注越好。当然,更重要的指标是初次购买人群。 3. 第二个重点:做自己 做自己很重要,知道自己擅长什么,很重要。正如我上文所写,我朋友老黄,他们做内容的能力极其牛逼,所以,他们一直围绕自己的优势来做。与其说他们是一个IP公司,不如说是内容公司,他们公司之所以货卖的好,最重要的原因是流量冗余,卖一坨屎说不定也能卖出去。我在一开始邯郸学步,然后走岔劈了。到5月份调整到以项目为中心,才好转一些。到8月份,确认我们的模式,是短视频+共读营,完全做自己舒适区内的事情,才发现做业务如此畅快。除此之外,在短视频创作上我也做自己了。我把短视频当做文章来创作。访谈是有必要的,写稿梳理逻辑也是有必要的。我发现我小时候最喜欢的作文,在此时起很大作用。我完全按照写作文的逻辑在拍短视频,发现数据还不错。因此,若问我司秘诀,2本杂志而已。哪两本。上限是读者下限是知音。这是真的。 4. 第三个重点:人设视频 我们做一个IP之前,都有很长的前采。就是为了梳理IP的人设地图,抓他的精彩瞬间。我第一次去见我的IP老师王觉仁,专门飞去漳州,聊了2天。聊完王老师说:“小胡,你是我家人之外最了解我的人。”回来一整理录音,有十多万字文稿。 但开头没这么顺。就像前文说的,能把人设视频剪火的人,已经是操盘手级别了。我们是从中医IP小哪吒入门的,她当时是老黄做起来的,老黄当时教我们:把IP带进小房间,不断聊,如果能把IP聊哭,就对了。我们照葫芦画瓢,把IP老师带到酒店小房间,聊她孩子,对方确实哭得不行。但是剪出来一看,眼泪鼻涕有了,数据是一点没有。于是我们又转向别的IP。当时李志峰数据非常好,我甚至托朋友搞来了他们采访的源文件。看下来他讲得特别顺,好像都没怎么剪。这招也不行。又去学汤汤,当时他拍的谢康校长很有名。我们开始拆解他的模式,还模仿他:让教授先写稿再拍,结果还是不行。后来明白了:不是他们的方法不能复制,而是每个IP老师说话方式不同,每个操盘手逻辑不同,流派自然就不同。 到了丁达尔这里,我们突然就成了。因为这时候我们既不期待、也不需要模仿谁了,就尊重IP自己的逻辑,尊重剪辑的逻辑,结果反而剪爆了。丁达尔一条人设视频涨3万粉,十几个号剪了十几遍,卖了7000多单。我的人设视频一条涨1万多粉,也卖了3000多单。连我的带货视频,也完全不耽误涨粉。 那所谓人设视频到底是什么?简单点就是回答人生终极三问:我是谁,我从哪里来,要到哪里去。比如说我的视频,其实就是在回答这几个问题: 我是谁。我几乎每个视频都会刻意强调我是一个创业者,MCN公司老板,出版人。 我从哪里来。我每次都会选一个很小的角度来切入,比如我儿时的某个记忆,它构成了一部分的我,但不是完整的我,比如在上面这个视频里面,我儿时对中医是仇视,是恨的。 要到哪里去:我因为见到过大医,见到过牛人,再加上我做过出版,我就把这本书做出来,希望带着我的家人,带着全中国的人都吃好活好,不时不食。 这里再举个IP例子:白伟民。这是一个健康IP,产品是安顿手表,接近7000的客单价。一开始我们总觉得他只会讲故事,商业化做得一塌糊涂。后来才发现是我们轻视了。他这么高客单价的东西,同样卖得好极了。 他在上面这个人设视频,就很好地回答了这个人生终极三问。他是谁:他是欠着3.7亿的老赖;他从哪里来:从一开始房租都交不起,出纳给他交房租,到后面融资受阻到后面终于公司开始提报IPO;要到哪里去:他要通过安顿手表的健康预警,带领中国人走向健康。 当然,“我是谁”有多种呈现方式。国学IP李志峰老师会强调他是曾仕强秘书的身份,冯唐会不断强调他麦肯锡的身份,郎咸平会不断强调郎教授的身份。“ 我从哪里来”,一般有这三种方式:从书中学,和高人聊,在事上练。我们看很多卖书博主,会强调我看了某本书,在书里面学到了某个观点,很值得学习。这就是典型的“从书中学”,包括我自己在视频里面讲我在《舌尖上的中医》这本书学到了什么,也是一样的玩法;和高人聊,我,丁达尔都用到了,因为我们聊的是同一个高人:车兆勤。当然,其实我聊的不止一个高人,我准备做一个高人系列,把对我人生影响大的人,都讲一遍。“和高人聊”用得最好的是赵越教授。我每次刷他下面这个视频,我就知道:“03年恒河边的高僧”那段要来了。在事上练会表述会更难,上面我讲的白伟民就是典型的在事上练的类型。我到时候会在线下课把更详细的逻辑全部拆解一遍。 所谓的“要到哪里去”,其实还不只是我要到哪里去,而是我要带领你去哪里。这里讲的就是发心,使命。把我们为什么要做新媒体讲出来,把我们的企业愿景讲出来,把我们宏大的发心讲出来,这个时候视频就升华了。用户也会被你的梦想使命所召唤。但是需要注意的是,发心也好使命也罢,一定要不能端不能装,还要有点中二。 5.第四个重点:讲故事+互动 不要讲道理,要讲故事。人类真的自带听故事基因。我做IP,这次才成功,是因为这次才懂得这个道理。以前总是想给人讲个道理,发现没人喜欢听,到最后还会觉得是自己不行。在我们的实战中,这4种故事最容易吸引人。 首先,和自我相关的故事最饱满,最容易真情流露。今年夏天,我们在岳麓山顶采访丁达尔。山上下着小雨,我想趁机聊聊他的人设故事。一直没找到他的状态,我们只能从干货开始聊起,把他聊开。过会雨停了,我们搬去阳台上聊。我问他,你觉得你们八零后这一代最无奈的是什么?他聊到家庭,最后聊到了他的父亲。于是就出现了这条爆款——父亲六进六出ICU。我认识丁达尔很多年,这也是我唯一一次看他哽咽。最后,这条视频光视频号就涨了1万粉,引起了大家的深度共鸣,纷纷在评论区分享自己对命运的看法。 我的IP刘立夫教授,围绕“命运”主题讲述的亲身经历,全网播放量同样达到千万级别。 当时我向他提问:“究竟什么是命运?” 刘教授用自己的真实故事回应,由此诞生了爆款视频–何为命运。 刘教授学识极为渊博,但许多内容对普通用户而言存在理解门槛。真正能与大众产生深度共鸣、施加有效影响的,往往是IP自身的真实经历和故事。 第二,和使命相关的故事最能涨粉和变现。 以我和丁达尔为例:我们都有出版背景,对中医养生领域抱有深厚兴趣,都从事过教育工作,甚至曾共同创业。因此,在讲述我们自身的使命时,投入的热情具有天然的感染力。这也直接催生了两条爆款视频——关于“大医系列”的推荐。 数据也印证了效果:丁达尔的单条视频直接带动了销售4000多单,同时吸引3万多新增粉丝。我的单条视频同样实现了3000多单的销售转化,并新增1万多粉丝。需要说明的是,我这条视频的后续带货效率之所以下降,是因为我们在视频中关联了丁达尔的店铺链接,因为他团队回复客户咨询没达标,店铺被平台禁售3天,导致我们的推广链接被下架。否则根据视频前期的转化趋势,我们预计还能额外产生约3000单的销售。 第三,讲述与普通人日常生活高度相关的故事,最容易获得高播放量。 以我的“外卖”系列视频为例,全网播放量累计近1500万次,整体转发量达45万次(矩阵账号总和)。为什么会火,因为大家都吃外卖,而我讲的是一个我发现外卖真相的故事,这种贴近生活的视角自然引发了广泛共鸣,自然而然很多人会转发给自己的伴侣和子女看。 第四,重新诠释经典故事或话题,很能获得受众青睐。丁达尔有一个“潇洒要付出代价”系列,讲的其实是一个很古典的男人背叛家庭的故事,这个故事涨粉2万多;我有一个“糟糠之妻不下堂”系列,讲的是两个男人的对比,让自己原配下堂了的最终获得恶果的故事,也涨了几千粉。需要注意的是,这还是我只有一个剪辑剪了这个故事的缘故,其他剪辑还没开动呢。我准备接下来,逐字逐句讲下心经,讲讲了凡四训的故事,讲讲禅宗的的公案机锋话头… 最后,互动做得好,绝对是加分项!我有几个有效的互动小技巧: 讲方言: 因为我那方言比较难懂,评论区总有人猜我是哪儿的,大家在评论区聊得很热闹。 故意留点“小破绽”: 比如偶尔写个错别字,或者某个观点没讲透。粉丝看到就忍不住想指出来纠正我。 本文由人人都是产品经理作者【Kosan】,微信公众号:【大柯Kosan】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
本文将深入剖析商家在聚光投流中常见的问题,从爆量素材更新慢到缺乏抢量思维,从投流账户的僵化到信任度经营的缺失,探讨如何在新的流量格局中找到突破,提升投放效果,避免被市场淘汰。 随着大量同行涌入、小红书用户增长乏力,小红书聚光投流也陷入空耗漩涡。若仍继续坚持投放思路,聚光投流也在默默淘汰商家。目前在聚光投流上,我认为很多商家存在以下问题; 一、爆量素材更新慢 过去1条爆量素材,基本可以投1年,甚至更久。但随着平台把投放素材公开化,素材的差异度逐步降低,特别是图文笔记,同行分分钟就能模仿。 同质化素材,极易造成用户审美疲劳,大家也只能卷出价,价格的比拼让行业更卷。 在当下投放环境下,谁先找到新的跑量模版,投放才能有价格优势。投放模版从素人笔记入手,去筛选近期爆量的素人笔记,去拆解它们的封面、正文,将素人笔记改造成投放类笔记。 二、缺乏抢量思维 日预算设置300就好,不用变,固定预算是很多商家的常态。这种温水煮青蛙式投放,逐步失效。 相比投放成本,时间往往是最大的成本。因为等待,平台红利成本消失,只能白白丢失抢量机会。 在能放量的情况下,我们把后端转化链路做好,然后去抢量!把笔记拿量的能力榨干,不给同行去模仿的机会; 不要问什么时候投放成本最低,就是现在!抢量快速享受低成本投放; 三、投流账户几乎不动 计划跑动之后,账户几乎不调整,在小红书有红利投放期间,只要你搭建1条正确计划,正确的开口成本,素材也OK,账户基本不用动。 现在投流环境在改变, 需要我们提前布局计划,哪些是主力计划?哪些是潜力计划?哪些是高转化计划,如何布局消耗? 怎么去应对环境不好的情况,若账户如果一直不做调整,后期调整就特别被动。 相比过去,小红书投流需要策略、需要你根据账号情况,去布局投放思路,在账户跑不动或成本高的情况,提前布局。 四、账户信任度经营 纯广告素材的账户,用户已审美疲劳,一个有活力的账户,是更多内容方向。能让用户感到你是真实存在,不仅仅要广告素材, 更需要提升信任度素材; 比如品牌故事、经营故事、日常故事,这些都是增加你信任度内容。同时在在笔记中体现你的差异化,用户选择你的理由,提升被选择的机会。 以上,就是大部分商家在聚光投流存在的问题,从现在开始,在投流时,我们把账户当成一家店铺在运营,去提升优化投流思维。 本文由人人都是产品经理作者【江河聊营销】,微信公众号:【江河聊营销】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
在当今快速变化的市场环境中,传统的增长策略已经逐渐失效。SEO和社交媒体的流量不再稳定,用户的行为也在发生深刻变化。Lovable的增长负责人Elena Verna在一次演讲中揭示了这一现象,并分享了六种新的增长策略,帮助公司在AI时代实现可持续增长。 你还在依赖 SEO 和社交媒体为产品导流吗?这些传统增长驱动可能面临失效的困境了。我最近听了一场让我震惊的演讲,来自 Lovable 的增长负责人 Elena Verna。她用一组数据直接把现实摆在我面前:自从 ChatGPT 推出以来,那些曾经依靠 SEO 获取流量的公司,访问量暴跌了 80% 到 90%。这不是某个倒霉公司的个案,而是整个行业正在经历的系统性崩塌。更可怕的是,社交媒体也不管用了,算法每天都在变,只要你放个链接试图导流,平台立刻就会限制你的曝光。传统的增长剧本正在以前所未有的速度失效,而大多数产品经理和增长团队还没意识到问题的严重性。 Elena 在演讲中分享了一个更让人不安的趋势:用户现在不仅不用 Google 搜索了,他们甚至开始用 AI 编程工具自己动手构建替代产品。那些曾经看似安全的、功能简单但收费的 SaaS 产品,正在被自己的客户用 vibe coding 平台复制出来。想象一下,你辛辛苦苦做的产品,客户用 Lovable 这样的工具花几个小时就能重建出 80% 的核心功能,然后直接取消订阅。这种威胁不是来自竞争对手,而是来自你自己的用户。分销渠道的崩溃只是开始,产品护城河的瓦解才是真正的灾难。我听完这场演讲后彻夜难眠,因为我意识到这不只是增长策略需要调整的问题,而是整个商业模式都在被重新定义。 增长的本质从来不是产品有多好 Elena 在演讲一开始就直接挑战了产品经理们最喜欢的幻想:只要产品足够好,用户自然会来。她用非常尖锐的语言指出,这个行业里有无数个优秀的产品我们从未听说过,因为它们根本没有分销能力。相反,有很多产品烂到让人每次使用都要死掉几个脑细胞,但它们却是估值数十亿美元的公司,在各自的领域占据绝对垄断地位。原因很简单:分销能力最终决定了公司的成败。产品只需要还可以就够了,但分销必须做到极致。 我深刻认同这个观点,因为我见过太多技术优秀、体验出色的产品最终默默死去。很多产品经理陷入一个误区,认为只要不断打磨产品功能、优化用户体验,增长自然会发生。但现实是,如果你不从产品设计之初就把分销策略融入其中,不去思考获客、激活、变现和留存这四个核心问题,那么再好的产品也只是自嗨。Elena 强调,能够以可预测、可持续、有竞争防御性的方式回答这四个问题,正是区分成功公司和失败公司的关键。 更重要的是,Elena 提出了一个我觉得特别精准的概念:最快速增长的公司都不是通过漏斗 (funnel) 成长的,而是通过循环 (loop) 成长的。她甚至半开玩笑地说漏斗是”F 开头的脏话”,应该尽量避免使用。循环的逻辑非常简单:有一个输入,比如新用户,他们在产品中执行某个动作,产生一个输出,这个输出又可以被再投资来产生下一个输入。这就形成了一个复利飞轮,不断自我强化。 她举了 Dropbox 的例子,特别让我印象深刻。Dropbox 早期有一个病毒式循环:给存储空间换取存储空间。这个简单的机制让 Dropbox 几乎没花什么营销费用就达到了第一个 10 亿美元的里程碑。而现在,Dropbox 60% 的新用户获取来自产品循环,不是来自市场部门,也不是来自销售团队,而是来自产品本身的设计:新用户上传内容,想要分享给别人,收到分享的人中有一定比例会注册成为新用户。这就是用户在为你做营销,而这一切的源头都是产品体验的设计。 Elena 也分享了 Lovable 自己的增长循环,虽然他们只有 10 个月大,还在不断优化循环系统。Lovable 目前主要依靠口碑循环:新用户使用产品,产品体验超出预期,用户觉得太神奇了必须告诉全世界,然后他们真的会告诉他们的社交网络,其中一部分人会因此注册。这个循环的关键在于产品的第一次体验必须足够惊艳,让用户产生强烈的分享冲动。Elena 特别强调了激活阶段和用户接触产品的前两分钟有多么关键,这段时间的体验将直接决定口碑循环能否启动。 我觉得这里面最深刻的洞察是:增长不是市场部门的事情,而是产品经理的核心职责。如果你把产品和分销当成两件事,认为自己只需要做好产品,让市场和销售去搞定客户,那你注定会失败。产品本身就应该是最强大的营销渠道,产品体验就应该包含获客机制。这需要产品经理从设计产品的第一天起就思考:用户会如何发现我的产品?他们会因为什么原因分享给别人?如何让他们的分享行为自然而然地发生? Product-Led Growth 的兴起与四大市场转变 Elena 回顾了大约五年前整个行业开始疯狂讨论 Product-Led Growth (PLG,产品驱动增长) 的原因。她坦白说这个概念确实被过度炒作了,但她更想讲的是为什么 PLG 会突然变成热词,这背后其实是市场发生了四个根本性转变。 第一个转变是 B2B 产品的用户突然变成了购买者。过去 B2B 软件都是卖给企业采购者的,采购者按照需求清单打勾,觉得所有要求都满足了就把产品推给组织内部使用。但实际使用的人打开产品后会想:这是什么垃圾?根本解决不了我的问题。于是他们开始自己去找解决方案,这就是 PLG 诞生的土壤。那些自助式的、偏消费者体验的 B2B 产品开始流行,因为它们真正解决了用户的问题,而不是满足采购部门的清单。这些产品先从个人用户做起,然后再向上销售给企业客户。用户成为购买者这个转变非常关键,因为它彻底改变了产品设计的优先级。 第二个转变是渠道生命周期的急剧缩短。Elena 问了一个很尖锐的问题:市场团队推出的任何广告活动,多快会变得无关紧要?她说如果市场团队能让一个广告活动有效一周,那已经很幸运了。想象一下每周都要制作新的创意、新的广告活动,团队根本撑不住。而且现在人们的注意力极度分散,看一次某个内容就再也不想看第二次。对比可口可乐以前可以推出一个广告活动用一整年,现在这种做法根本行不通,市场已经太拥挤了。 第三个转变是数据的可获得性。作为产品经理,我们现在都有数据仪表板可以看到产品的实际表现。这在以前是不可能的,以前我们只能听销售人员说什么。现在我们能看到真实数据,知道产品里到底发生了什么,这让我们能够更好地优化产品体验,让产品更好地为公司、为客户服务。 第四个转变是角色界限的模糊。Elena 问在座的人:光做产品经理还够吗?答案是不够了。产品经理需要戴上市场营销的帽子,至少要懂产品营销。每个市场人员也需要有产品经理的思维。每个人都应该成为分析师,或者至少具备分析能力。这种角色模糊其实是一件美好的事情,因为它给了你更多的自主权,让你对整体的公司结果和客户结果负责,而不是只关注自己狭窄的专业领域。 我觉得 Elena 这里揭示了一个很多人忽视的真相:B2B 产品之所以感受到巨大压力,是因为它们不习惯让产品经理对变现结果和获客结果负责。而消费类产品早就这么做了,他们一直都在为公司整体结果负责,一直都有 Product-Led Growth,只是没有给它起这个名字而已。所以 Elena 给出的建议非常实用:如果你想做 PLG,就直接抄袭消费类产品的做法,这是最快的捷径。 我深有感触的是,这四个转变不仅仅解释了 PLG 为什么会兴起,更重要的是它们揭示了整个软件行业的底层逻辑正在改变。我们不能再用 10 年前的思维方式来做产品和增长,市场环境、用户期望、技术能力都已经完全不同了。那些还在按照老剧本行事的公司,正在以惊人的速度失去竞争力。 AI 正在杀死所有传统分销渠道 接下来 Elena 讲到了最残酷的现实:AI 正在摧毁我们的分销渠道。她展示了一个案例,G2 这家做 B2B 产品评论的公司,类似于消费领域的 Trustpilot。G2 的大部分增长来自 SEO,也就是谷歌搜索的自然流量。但从 ChatGPT 推出以来,他们的获客量下降了 80% 到 90%。这个趋势一直持续到今天,并没有好转的迹象。 为什么会这样?因为消费者的习惯正在改变。Elena 直接问:你还在用 Google 搜索找东西吗?大多数人已经不用了,而是直接去问 ChatGPT、Claude 或者其他 AI 助手,因为对话式 AI 回答问题的体验比搜索然后点击一堆链接好太多了。这对那些把 SEO 作为主要增长驱动力的公司来说是灭顶之灾。Elena 说她的 Substack 博客上有一篇文章专门列举了那些正在因为这个原因崩溃的公司,名单还在不断增长。 社交媒体也帮不上忙。算法每天都在变,先给你流量,然后又把流量拿走。更关键的是,社交网络开始限制外部链接,因为它们要优化的是用户在平台上的使用强度,这是它们的留存策略。所以当你试图发一个链接把流量引到自己公司的时候,平台会降低你的曝光率。结果就是 SEO 不再是好渠道,社交媒体也很难用来给公司导流。 但更可怕的还在后面。Elena 做了一个她自己都觉得有点”无耻”的宣传,但这确实是她在 Lovable 观察到的快速发生的趋势。在 Lovable 和整个 vibe coding 领域,构建任何产品、任何软件的摩擦正在急剧降低,不管是网站、B2C 应用还是 B2B 应用。人们开始做的事情是:与其为臃肿的订阅付费,不如自己动手构建工具。Lovable 内部亲切地称这为”SaaS 替代用例”。如果一个产品里他们使用的功能非常简单,他们就会直接在 Lovable 上自己构建出来。 Elena 强烈建议所有人去试试:不一定要用 Lovable,但去任何一个 vibe coding 平台,试着重建你的产品的核心功能。看看有多容易。如果很容易,你应该感到恐慌。如果很难、做不出来,你还算在一个相对安全的区域。但如果很容易,那你一夜之间就会发现自己不是在和其他公司竞争,而是在和你自己的客户竞争,因为他们会离开你,自己构建替代品。你绝对不想陷入这种境地。 我听到这里真的感到一阵寒意。很多简单但过去看似有防御性的功能,比如电子签名、表单、落地页生成、日程安排工具、无代码工具、仪表板、内部工具,突然之间都不再具有防御性了。事实上,它们正在变成商品化的功能。商品化的门槛正在迅速提高。如果你的公司还在靠这些商品化功能赚钱,你必须尽快摆脱这个困境。 Elena 用了一个 2×2 矩阵来说明这个问题,横轴是简单功能 vs 复杂功能,纵轴是高使用率 vs 低使用率。如果你有很多复杂的、难以复制、难以用 vibe coding 做出来的功能,而且这些功能使用率很高,那你在安全区。如果你有复杂功能但使用率低,那就想办法提高使用率。但如果你有的是简单功能,而这些简单功能恰恰是被高频使用的,那你必须重新思考产品策略了。 事实上,我们已经开始看到公司被自己的用户颠覆的案例。Elena 提到 DocuSign 甚至威胁要对 Lovable 的一个用户采取法律行动,因为这个用户复制了他们的电子签名功能。当你不得不走法律途径来保护你的产品市场契合度时,这显然不是最佳的增长方式。但有时候这是公司唯一能拉的杠杆了。 我觉得这个趋势比很多人想象的要严重得多。过去我们谈论的是技术颠覆、商业模式创新,但现在我们面对的是一个更本质的威胁:当构建软件的门槛降到足够低时,很多软件本身就失去了存在的意义。那些靠提供简单功能收费的公司,它们的护城河正在以惊人的速度消失。而大多数 SaaS 公司还没有意识到这个问题的严重性,还在按照传统方式运营。 新时代的分销策略:六种必须掌握的打法 面对这样的困境,Elena 提出了六种新的分销策略。她强调产品经理必须对增长负起责任,不能再把希望寄托在 SEO、SEM 和市场部门身上。产品循环仍然是最重要的,但你必须把产品本身当作一个营销渠道,在产品里向自己的用户做广告,并且让用户成为你的营销代理。 第一个策略是 Freemium(免费增值)会继续流行。我们都在争夺人们的注意力,这是一场持续的战斗,要尽可能降低进入门槛。AI 其实让 Freemium 变得更难了,因为提供 AI 功能的成本很高,我们不再拥有过去科技 SaaS 那种 80%-90% 的高利润率,现在很多公司的利润率只有 30% 甚至更低。但你必须把产品当作营销成本来看待。Elena 举了 Lovable 的例子:他们超过一半的支出来自免费用户的使用,但他们不把这看作成本中心,而是把它当作营销预算。因为他们宁愿把产品免费给每个人试用,也不愿意把钱给 Google。 第二个策略是速度 (Velocity)。AI 最强大的能力之一就是能把你的发布速度加快到一个可以成为护城河的程度。Lovable 把发布速度当作他们的护城河,不惜一切代价保护它。他们的做法包括大量投资 Elena 所谓的”AI 原生员工”。AI 原生员工就是在工作的多个方面都使用 AI 的人。角色界限模糊了,工程师在做市场营销,他们发布东西,对结果负责。Lovable 没有能力为每件事都配备市场和产品经理,因为他们只有 60-70 人。 但他们每天都在发布更新,如果不是每小时的话。他们有分层系统:一级大发布在大公司通常一年一次或两次,Lovable 每三个月就要做一次重大发布。二级发布几乎每周都有,三级小更新每天都有,甚至每小时都在发生。要实现这种速度,你不能有太多跨职能依赖,因为那会造成僵局。你必须赋予员工自主权和信任,虽然这对我们来说很难,因为我们在组织内部往往缺乏信任。但如果你给员工 AI 工具,让他们能够从头到尾完成整个项目,拥有完全的自主权,速度就会成为你的优势。 第三个策略是老生常谈但依然有效:数据可以成为你的护城河和新的分销渠道。用户数据和记忆是有粘性的,可以成为你的防御策略和留存策略。但不要过度使用,不要把客户当作人质。要思考如何利用数据让产品变得更好,或者确保客户能看到价值。Elena 提到了一个有趣的转变:Salesforce 意识到他们的 Slack 数据有多重要,于是决定切断其他公司对这些数据的访问。比如做企业内部搜索的公司 Glean 突然失去了对 Slack 数据的访问权限。没有 Slack 信息的内部搜索还有什么用?什么都不是。Salesforce 深知这一点,这正是他们这么做的原因,他们在利用数据护城河进行进攻。 第四个策略让很多产品经理感到不舒服:品牌 (Brand)。很多产品人会说,哦,这不是我的事,去找市场团队吧。但 Elena 挑战了这个想法。品牌现在突然变成了产品工作,而不是市场团队的职能。市场团队可能还会负责语调、颜色、品牌延伸,可能会竖个广告牌,但品牌的本质要通过产品体验来传递。 Elena 举了 Lovable 的例子。他们有零品牌支出,没有品牌营销,甚至几乎没有什么营销。但大家能感受到品牌,知道品牌是什么。这是因为品牌通过产品交互来传递的。Lovable 内部有一个快速修复问题的方法:只要说这个体验”不够 lovable”,就会立即被热修复。他们对让体验传递品牌非常讲究。当软件构建的民主化发生、突然有 100 个选项时,人们不会再使用那些只有实用功能的工具,他们会使用那些与他们产生共鸣、让他们有感觉的工具,因为我们作为人类渴望连接。所以把品牌当作产品角色的职责,而不是说品牌营销在那个角落里做他们的事。 第五个策略也是老生常谈但依然重要:生态系统集成,还有合作伙伴关系。这个非常重要,因为与其辛苦地开拓自己的分销渠道,不如说:嘿,你已经有分销了,让我站到你这边,通过集成或合作关系进入你的分销渠道。这是美妙的策略,但需要先发优势。所以不要等待,如果有人向你伸出手,你必须抓住。否则竞争对手就会抓住这个机会。这是一个很少有人竞争的渠道,因为有太多手动的事情需要处理。Elena 特别提到两天前 OpenAI 发布了新的集成机会:应用商店 (App Store)。所有人都应该关注这个,因为这可能是下一个分销转变,可能是 OpenAI 第一次真正为我们提供分销优势。 第六个策略对大公司来说非常不舒服:创始人社交媒体和员工社交媒体。在人性层面与客户建立连接,让客户知道公司背后是谁,这变得比以往任何时候都重要。Lovable 的 CEO Anton 在 LinkedIn 和 X 上发帖。10 个月前他刚开始时几乎没有关注者,没有任何影响力。现在他几乎所有的帖子都能获得 2000+ 的互动和数十万甚至上百万的展示,而且是免费的、自然的流量。这是市场人员梦寐以求的效果,但你可以用自己的团队创造出来。 Elena 强烈建议提升社交媒体的投入,在更个人的层面与客户建立连接,让公司人性化。Lovable 允许每个人都为公司发帖,当然他们规模还小,还没有法务团队来限制这个。在大公司,法务部门可能会有很多限制。但尽可能地公开构建,这对你的自然增长策略会有巨大帮助,而这一切从你自己开始。公司里能发社交媒体的人越多越好。 我对这六个策略的理解是:它们的共同点是都在强调主动性和创造性。过去我们可以依赖标准化的增长剧本,但现在那些剧本已经失效了。你必须创造性地思考如何接触用户,如何让他们发现你的产品,如何让他们愿意分享和推荐。这需要产品经理跳出舒适区,做一些过去认为”不是我的工作”的事情。 最后一个策略:创作者经济不只是 B2C 的玩法 Elena 特别强调的最后一个策略是创作者经济 (Creator Economy)。很多人觉得这是个脏词,但社交媒体上那些创作者拥有大量的关注者,与他们合作进行营销不再只是 B2C 策略,而是完全适用于 B2B 的策略。Lovable 在 YouTube 上做了大量的网红营销。YouTube 现在非常重要,如果你还没在 YouTube 上布局,那真的要反思一下了。信不信由你,TikTok 对 B2B 也是相关的,Instagram 对 B2B 也是相关的,因为有网红和创作者在这些平台上建立他们的受众,而你的潜在客户就在那里。 同时要关注任何新的发展。就像 Elena 提到的,OpenAI 两天前推出的应用商店,它可能会成为下一个 Google 搜索,也可能完全不是什么大事,谁知道呢?但我们需要关注这些变化,因为在如何真正增长产品这个问题上,市场上存在一个巨大的空白。 我觉得创作者经济这个策略特别值得深入思考。传统的 B2B 营销思维是非常严肃的、企业化的,觉得 YouTube 网红、TikTok 视频这些都是给消费者看的,和企业软件没什么关系。但这个假设已经过时了。现在的企业采购决策者也是普通人,他们也在刷 YouTube,也在看 TikTok,也会被有趣的内容吸引。如果你能通过这些平台接触到他们,为什么不做呢? 更重要的是,创作者经济代表了一种新的信任建立方式。人们不再相信企业的自吹自擂,但他们会相信自己关注的创作者的推荐。如果一个技术类 YouTuber 真诚地推荐你的产品,那比你花几十万做广告效果要好得多。这种信任是用钱买不到的,但可以通过与创作者建立真诚的合作关系来获得。 我的思考 Elena 在演讲最后强调的一句话深深触动了我:把压力放在产品本身上,因为那是你拥有的最具防御性的渠道。记住,分销就是一切。分销才是打造成功公司的关键,分销才是让你在公司持有的股权真正有价值的东西,而不仅仅是好产品。好产品是不够的,必须是好产品加上分销。 我听完这场演讲后陷入了长时间的思考。我们正处在一个历史性的转折点上,AI 不仅在改变产品的构建方式,更在根本上改变分销的逻辑。过去 20 年建立起来的增长方法论正在快速失效,而新的方法论还没有完全成型。这对每个产品经理、每个增长团队来说既是巨大的挑战,也是难得的机遇。 我认为接下来几年将会出现分销渠道的大洗牌。那些还在依赖 SEO 和传统广告的公司会继续萎缩,而那些能够创造性地利用产品循环、品牌体验、社交媒体和创作者网络的公司将脱颖而出。速度会成为新的护城河,因为当构建软件的门槛降低时,能够快速迭代、快速响应用户需求的能力就变得至关重要。 我也在思考一个更深层次的问题:当 AI 降低了构建软件的门槛,当用户可以自己构建简单的工具时,软件公司的价值到底在哪里?我的结论是,价值正在从功能本身转移到整体体验、数据积累、生态系统和品牌信任上。一个电子签名功能可以被轻易复制,但多年积累的用户数据、完善的集成生态、被广泛认可的品牌,这些是无法一夜之间复制的。 Elena 提到的商品化门槛上升这个概念特别重要。五年前,能够提供一个在线表单工具就可以收费,因为构建它需要技术门槛。现在任何人用 AI 工具就能做出来,所以这个功能已经商品化了。那什么样的功能还没有被商品化?那些需要深度领域知识、需要复杂数据处理、需要与多个系统集成、需要高度定制化的功能。所以软件公司必须不断向价值链上游移动,提供更复杂、更难以复制的价值。 我还特别认同角色模糊这个趋势。未来的产品经理不能只懂产品,必须懂增长、懂营销、懂数据、懂一点技术。同样,工程师也不能只写代码,要理解业务逻辑、用户需求和增长策略。这种角色的融合会让团队更加高效,因为减少了沟通成本和协调成本。一个人能够从头到尾负责一个功能的设计、开发、发布和增长,这种端到端的所有权会创造出更好的产品体验。 但我也看到了一些潜在的陷阱。Freemium 策略虽然有效,但在 AI 时代成本确实很高。如果你的免费用户每次使用都要调用昂贵的 AI API,那么规模化会成为一个大问题。公司需要仔细计算单位经济效益,确保免费用户最终能够转化为付费用户,或者至少能够带来足够的口碑价值来抵消成本。这需要非常精细的数据分析和用户行为预测。 社交媒体策略也有风险。让创始人和员工在社交媒体上活跃确实能带来自然流量,但这也意味着公司的形象和声誉更加依赖于个人。如果某个员工在社交媒体上说错话,可能会对公司造成负面影响。所以在鼓励员工发声的同时,也需要建立一些基本的指导原则和边界。当然,像 Elena 说的,如果公司还小,没有法务团队限制,那就尽情发挥吧。 从增长到生存:这是一场关乎存亡的转变 我觉得 Elena 这场演讲最震撼我的地方在于,她不是在讲如何增长得更快,而是在讲如何在新环境下生存下来。那 80%-90% 的流量下降不是增长放缓,而是生存危机。当你的主要获客渠道突然崩塌,你不是在考虑如何扩张,而是在考虑如何不死。 这让我想起了历史上那些因为分销渠道变化而消失的公司。报纸广告曾经是最强大的分销渠道,那些掌握了报纸广告的公司赚得盆满钵满。然后互联网来了,Google 搜索广告取代了报纸广告。那些不能适应的公司死掉了,那些抓住机会的公司成为了新巨头。现在 AI 又在取代 Google 搜索,历史又一次重演,只是速度更快、影响更广泛。 我观察到的另一个趋势是,这次转变的速度快得惊人。从 ChatGPT 发布到现在才两年多,但影响已经如此深远。G2 的流量下降 80%-90% 只用了不到两年时间。这种速度意味着公司没有太多时间来慢慢调整策略,必须快速行动。那些还在开会讨论要不要做 AI、要不要调整分销策略的公司,可能等讨论完了市场已经变天了。 Elena 提到的一个细节特别有意思:Lovable 把超过一半的支出花在免费用户身上,但他们把这当作营销预算而不是成本。这种思维转变非常关键。传统思维是把免费用户当作负担,希望尽快把他们转化为付费用户。但新思维是把免费用户当作营销渠道,通过给他们提供优秀的免费体验,让他们成为你的口碑传播者。这需要对单位经济效益有非常清晰的理解,知道一个口碑传播者能带来多少新用户,这些新用户的生命周期价值是多少。 我也在思考产品循环的设计。不是所有产品都能像 Dropbox 那样天然就有分享机制。很多 B2B 产品的使用场景是相对孤立的,用户没有明显的理由要把产品分享给别人。这时候就需要产品经理创造性地设计循环机制。可能是协作功能,可能是成果展示功能,可能是团队邀请机制。关键是要找到一个自然的理由,让用户愿意邀请其他人使用产品,而不是强行塞给用户一个推荐奖励机制,那样会显得很生硬。 速度就是新的护城河 Elena 特别强调 Lovable 把速度当作护城河,这个观点我深表认同。在软件可以被快速复制的时代,持续的快速迭代能力变得至关重要。你的竞争对手可能在几周内复制出你的功能,但如果你每周都在推出新功能、修复问题、优化体验,那么竞争对手永远在追赶,永远无法超越。 实现这种速度需要几个条件:AI 工具的深度应用、扁平化的组织结构、高度的员工自主权、端到端的所有权。Lovable 只有 60-70 人,但能够每天甚至每小时都发布更新,这在传统软件公司是不可想象的。传统公司可能有几百人,但发布一个小功能都要经过层层审批、跨部门协调、质量检查,最后可能要几周甚至几个月。这种效率差距会直接转化为竞争优势。 我也注意到 Elena 提到的”AI 原生员工”概念。这不是说员工要懂 AI 技术,而是说员工要在工作的各个环节都使用 AI 工具来提升效率。一个工程师用 AI 辅助编程,用 AI 生成测试用例,用 AI 写文档,用 AI 分析数据,他的生产力可能是传统工程师的好几倍。当整个团队都是 AI 原生员工时,整个组织的生产力会呈指数级提升。这可能是未来几年公司之间拉开差距的关键因素。 但速度也不能以牺牲质量为代价。如果你每天发布更新,但每次更新都带来新的 bug,用户体验反而会下降。所以需要建立强大的自动化测试、监控和回滚机制。当你能够快速发现问题、快速修复问题时,速度才能真正成为优势。这需要在基础设施和工程文化上的大量投入,但这种投入是值得的。 本文由人人都是产品经理作者【深思圈】,微信公众号:【深思圈】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
这篇文章的作者作为一名资深的面试官,分享了他在面试上百个AI产品经理候选人后总结出的四个“拿Offer”的底层能力。 最近大半年,我的日程表几乎被两件事填满:一是追最新的AI进展,推进自己的AI产品迭代;二就是面试大量的AI产品经理候选人。 整个行业都在跑步进入AI时代,人才市场上“AI PM”的title也像雨后春笋。坦白说,简历漂亮的很多,但聊下来能让我眼前一亮的,凤毛麟角。 很多人把大模型当成了一个无所不能的“许愿池”,简历上写满了“基于大模型打造XX”、“利用LLM赋能XX”,但当我深入追问“为什么是AI?”、“AI解决了什么独特问题?”、“这个方案的边界和成本是什么?”时,得到的回答往往是空洞和模糊的。 作为一名大厂面试官,我看的不是你会不会用“RAG”、“Fine-tuning”这些热词拼凑出一个听起来很酷的方案。我真正关心的,是你是否具备在高度不确定性中,定义问题、构建系统、并最终交付用户价值的底层能力。 今天,我就和你聊聊,抛开那些花哨的术语,我眼中一个顶级的AI产品经理,到底需要具备哪四项核心能力。 能力一:技术直觉与系统思考力 我首先要强调,我绝不是要求AI PM去写代码、去当半个算法工程师。但你必须对AI技术有足够深的“直觉”。 这种直觉不是让你去背诵Transformer的论文,而是理解技术的核心原理、能力边界和成本结构。 一个糟糕的候选人会说:“我们这里可以用大模型,它很强大,可以理解用户意图,然后生成报告。” 一个优秀的候选人会说:“针对这个报告生成场景,我评估了两种主流方案: RAG(检索增强生成):优点是知识更新快,成本相对可控,而且有明确的信息来源,不易产生事实性幻觉。缺点是高度依赖检索质量,对于深度推理和总结归纳能力稍弱。 Fine-tuning(模型微调):优点是可以在特定任务和风格上达到极高的性能,能‘学会’我们私有的数据格式和逻辑。缺点是训练成本高,数据准备工作量大,且模型更新迭代慢。 考虑到我们业务需要快速验证,且报告的准确性是第一位的,我建议初期采用RAG方案,通过优化Embedding和检索策略来保证基础体验。同时,我们可以收集高质量的生成-反馈数据,为未来可能进行的Fine-tuning做准备。在成本上,RAG主要是向量数据库和API调用费用,而Fine-tuning则是一次性的训练成本加上后续的推理服务器成本,我们需要根据预估QPS(每秒查询率)来做一个详细的ROI分析。” 看到区别了吗? 优秀的候选人不仅知道“用什么”,更知道“为什么用”、“用它的代价是什么”,以及“备选方案是什么”。他能把一个技术选型问题,上升到成本、效率、风险和未来迭代的系统层面去思考。这背后,是对技术原理的深刻洞察和对商业目标的清晰认知。 我面试候选人的tips: 我会经常问一个开放性问题,比如“让你来设计一个AI代码助手,你会怎么做?” 我不关心你是否能设计出下一个Copilot,但我关心你是否会从延迟(Latency)、准确性(Accuracy)、成本(Cost) 这三个基本点出发,去构建你的产品决策框架。 能力二:定义“真问题”与价值创造力 这是所有产品经理的看家本领,但在AI时代,它变得更加重要,也更加困难。 因为AI的能力太模糊、太广阔,很容易让人陷入“手里拿着锤子,看什么都是钉子”的陷阱。很多PM会兴奋地提出“我们要做一个AI XX”,而不是从“我们的用户遇到了一个什么无法解决的问题”出发。 前段时间我面试一个候选人,他想做一个“AI赋能的销售SOP工具”。我问他,这个工具解决了销售的什么具体问题? 他的回答是:“可以帮助销售自动写开发信、自动总结客户会议纪要。” 这个回答不能算错,但很平庸。 而另一位候选人,他是这么回答的: “我访谈了15位一线销售。发现他们最大的痛点不是‘写’,而是‘不知道写什么能成单’。他们每天要花大量时间在CRM系统、产品文档、历史邮件里寻找信息,试图拼凑出一个针对特定客户的‘最佳实践’。这个过程非常低效,且高度依赖个人经验。 所以,我要做的AI工具,核心价值不是‘代写’,而是‘决策辅助’。它应该能自动聚合某个客户的所有相关信息,并基于我们历史成交数据,为销售推荐3个最有可能打动客户的切入点和对应的邮件模板。衡量的核心指标,不是生成了多少封邮件,而是使用了我们推荐方案的销售,其‘线索转化率’提升了多少。” 高下立判。 顶级的AI PM,永远从用户的真实困境出发,去思考AI技术如何能创造10倍好的体验,而不是对现有流程做一点无关痛痒的优化。他们能精准地定义问题,并把AI的能力,转化为可衡量的用户价值和商业价值。 我面试候选人的tips:给你一个场景,比如“用AI提升电商App的用户活跃度”,看你是直接抛出“个性化推荐”、“AI虚拟主播”这些方案,还是会先去质疑问题,拆解“用户活跃度”的构成(DAU/MAU?停留时长?互动率?),并追问不同用户群体的活跃度瓶颈分别是什么。 先定义问题,再谈解决方案,是顶级PM的肌肉记忆。 能力三:数据飞轮与产品闭环的设计能力 AI产品不是一次性交付的软件,它是一个有生命的、需要持续“喂养”和“调教”的系统。而它的“食物”,就是数据。 一个平庸的PM,会把模型上线视为项目的结束。而一个卓越的PM,会把上线看作是数据飞轮开始转动的第一天。 他会痴迷于设计一个优雅的产品闭环: 冷启动:如何获取第一批高质量的启动数据?是人工标注,还是利用现有业务数据? 数据采集:产品上线后,如何设计机制,让用户在使用过程中,自然而然地为我们贡献高质量的反馈数据?是点赞/点踩?是用户主动修正?还是分析用户的后续行为(比如生成内容后是否被采纳)? 数据反哺:收集到的数据,如何流回给算法团队?如何定义数据质量标准?多久进行一次模型的迭代更新? 价值展现:模型优化后,如何让用户清晰地感知到产品的进步,从而更愿意使用和提供反馈? 这个 “产品体验 -> 用户反馈 -> 数据积累 -> 模型优化 -> 更好的产品体验” 的循环,就是AI产品的核心增长引擎。你,作为产品经理,就是这个引擎的总设计师。 举个栗子: 想想早期的“猜你喜欢”,你“不喜欢”点击得越多,它就越懂你。这就是一个最经典的数据飞轮。在今天的AIGC产品里,Midjourney通过用户的U(Upscale)和V(Variation)操作,不断收集人类对“美”的偏好数据,这远比任何标注数据都更宝贵。 我面试候选人的tips:我会问候选人,“你负责的这个AI功能上线后,你最关注的数据后台是什么样的?你会设计哪些核心看板?如果发现模型效果突然变差,你的排查思路是什么?” 能清晰回答这个问题的人,脑子里一定有“数据飞轮”这根弦。 能力四:商业嗅觉与产品伦理的平衡力 最后,也是最考验PM成熟度的一点。AI,尤其是大模型,非常“昂贵”。每一次API调用都是真金白银的成本。同时,AI的决策过程很多时候是个“黑盒”,充满了不确定性,也带来了前所未有的伦理风险。 一个只谈技术和体验,不谈成本和风险的AI PM,是极其危险的。 商业嗅觉体现在: 成本意识:你会去计算一个功能的Token消耗吗?你会因为成本问题,选择用一个更小的、本地部署的模型去替代GPT-4吗?你会在用户体验和API调用成本之间做取舍(Trade-off)吗? 模式思考:你的AI功能是作为免费的“体验增值”,还是一个需要付费的“核心能力”?是按次收费,还是打包在订阅服务里?你考虑过如何防止恶意用户薅你昂贵的API羊毛吗? 产品伦理体现在: 偏见与公平:你的算法是否会对特定人群产生偏见?例如,一个AI招聘筛选工具,是否会因为训练数据的问题,歧视女性候选人? 数据隐私:你如何处理用户的隐私数据?在追求模型效果和保护用户隐私之间,你的底线在哪里? 责任与透明:当AI犯错时(比如生成了有害内容或错误信息),产品应该如何应对?我们是否应该告知用户,当前内容是由AI生成的? 一个能脱颖而出的候选人,会在产品设计的初期,就将这些商业和伦理问题纳入考量,而不是等到产品上线造成了问题再去补救。这展现的是一种超越功能层面的全局观和责任感。 写在最后 AI产品经理的浪潮,既是机遇,也是挑战。它要求我们跳出传统的“功能型”产品思维,进化为“系统型”的产品缔造者。 技术直觉、价值定义、数据飞轮、商业伦理,这四项能力,环环相扣,共同构成了一个优秀AI PM的核心竞争力。 说到底,面试官想找的,不是一个AI技术的“传声筒”,而是一个能驾驭这头“技术巨兽”的“驯兽师”。他要深刻理解这头巨兽的习性、潜力和风险,并引导它去创造真正对世界有益的价值。 本文由人人都是产品经理作者【产品经理骆齐】,微信公众号:【骆齐】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
这篇文章带来了一位重量级人物——Andrej Karpathy的深度访谈。Karpathy是OpenAI的早期成员,也是特斯拉AI总监,他在AI领域有着深厚的实战经验和独到的见解。 看了 Andrej Karpathy 的播客,信息量巨大 开篇泼冷水:未来十年没有 AGI,只有 Agent 这里说一下,Karpathy 是 OpenAI 早期成员,参与过 GPT 背后的技术路线,在一线干了 15 年同时,Karpathy 也是前特斯拉 AI 总监 同时,我制作了一份中文版音频使用的工具,是大橘子的 ListenHub 的 API(我弄了一整个周日,非常良心) 这里,我还准备了一份文字实录,中英双语 中英双语,非常贴心 在 Andrej Karpathy 眼中,当前的 AI Agent,核心问题有三个: • continual learning:你告诉它一个事,它记不住 • multimodal:真正的多模态还没做到 • computer use:不能像人一样操作电脑 这三个问题,每一个都得花好几年解决 AGI 还要十年 有人说今年是 Agent 之年 Karpathy 表示:应该叫「agents 的十年」 在他的观点里 我们未来十年没有 AGI,只有 Agent 业界有很多 over-prediction 对于 AGI 大家都太乐观了 他举了个例子 你现在有 Claude、有 Codex,对吧,很厉害 但你会让它们替你干活吗?不会 为什么? 因为它们就是不行 智能不够、多模态不够、记不住东西、不能操作电脑 这些问题,每一个都是硬骨头 要花时间一个个啃 continual learning 这个事,很多人可能没意识到有多重要 现在的 LLM,你跟它聊天 它看起来「记住」了你说的话 但那只是因为对话历史还在 context window 里 你关掉窗口,重新开一个对话,它什么都不记得 这不是 bug,这是设计就这样 要让它真的「学习」新知识 不只是记住,而是真正理解并融入已有知识体系 目前没有好办法 你可能会想,那就扩大 context window 不就行了 问题是这治标不治本,学习不能只是把内容简单地塞进上下文 真正的学习,是要把新知识整合到模型的参数里 这需要重新训练,或者找到新的架构,成本高得吓人 当前的AI, 无法真正学习新知识 强化学习:terrible, but everything else is worse 播客里有个特别有意思的部分 Karpathy 说: 强化学习是个糟糕的选择 但紧接着他又说: 但其他方法更糟糕 这话听着矛盾,但其实是对现状最准确的描述 RL 的问题主要是数据效率太低 你想让模型学会一个东西,得让它试错无数次 AlphaGo 下围棋,self-play 了几百万局 才达到世界冠军水平 这种训练方式,放在真实世界根本不现实 你不可能让自动驾驶撞车几百万次来学习 你也不可能让医疗 AI 误诊几百万次来进步 所以:RL 在真实世界的应用,始终受限于数据效率 强化学习,需要海量试错 但为什么还要用 RL? 因为 supervised learning 也有问题: 需要大量标注数据 而真正难的任务,根本标注不出来 比如「写一个好的代码」、「做一个好的决策」 什么叫「好」 人类自己都说不清楚 你让标注员去标注什么是「好代码」 每个人的标准都不一样有人觉得简洁就是好, 有人觉得性能高就是好 这种主观性太强的任务,标注成本高得离谱 而且质量还没保证 所以最后还是得回到 RL,让模型自己在反馈中学 通过奖励信号,而不是人工标注,是目前唯一可行的路 Karpathy 的判断是: 未来会是 SL + RL 的混合 先用 supervised learning 学个大概,建立基础能力 再用 RL 精调,在具体任务上优化 但这条路,还有很长的路要走 需要解决的技术问题一堆 比如怎么设计好的奖励函数,怎么平衡探索和利用 每一个都不容易 未来的训练方式:监督学习 + 强化学习 人类怎么学习,AI 为什么学不会 播客里有一段特别精彩 主持人问: 人类是怎么学习的,为什么 AI 学不会 Karpathy 给了个很有意思的观点: 人类的学习,是多模态 + embodied + continual 的 什么意思? 对于一个苹果,在人类的认识中: • 视觉上看到红色、圆形 • 触觉上感受到光滑、硬度 • 味觉上尝到甜味 • 听觉上听到咬下去声音 这些信息是同时发生的,互相强化的 而且你一辈子都在学,不断更新认知 你小时候对「苹果」的理解 和你现在对「苹果」的理解 肯定不一样 正如… 小时候对「络腮胡」的理解 和你现在对「络腮胡」的理解 也不一样(雾 这种持续的、多模态的学习方式,是人类智能的基础 人的学习能力,很牛逼 但 LLM 呢?它只有文本 虽然现在有了 vision model,但那还不是真正的 multimodal 真正的 multimodal,是所有模态在同一个 latent space 里 信息是融合的,不是翻译的 现在的做法,更像是把图片翻译成文本描述,再喂给 LLM 这不是真正的融合 就像你把一个视频的每一帧都写成文字描述 这个描述再详细,也不等于你真的看了视频 丢失的信息太多了 而且,LLM 不能 continual learning 你今天告诉它一个新知识,明天它就忘了 除非你重新训练整个模型,但那成本太高 一个模型训练一次,可能要花几百万美元 你不可能每次有新知识就重新训练一遍 Karpathy 说: 这是个根本性的架构问题 当前的 transformer 架构,就不是为 continual learning 设计的 它的参数是固定的,训练完就冻结了 要解决这个问题,可能需要新的架构 能够动态更新参数,而不影响已有知识 这是一个很难的问题 学术界在研究,但还没有成熟的方案 Transformer 架构不支持持续学习 model collapse:AI 不能吃自己 播客里还提到一个很有意思的概念: model collapse 什么意思? 就是 AI 生成的数据,不能用来训练 AI 为什么? 因为会越来越糟 人类可以从人类写的东西里学习,对吧 你读别人写的书,你变聪明了 代际之间互相学习,知识不断积累 但 AI 不行 如果你用 AI 生成的文本,再去训练下一代 AI,模型就会越来越偏 最后输出变得越来越单调、越来越重复 这个问题其实挺严重的 现在网上越来越多 AI 生成的内容 文章、代码、图片、视频 如果下一代 AI 训练的时候,把这些内容也当成「真实数据」 那就完了 模型会学到 AI 的偏见和错误 然后放大这些偏见和错误 循环往复,越来越糟 这就是为什么 AI 不能像人类那样自我学习 人类可以互相学习、代际传承 但 AI 必须依赖人类产生的真实数据 这是个很大的瓶颈 而且随着 AI 生成内容越来越多 「干净」的人类数据会越来越少 将来怎么办?值得思考 有人提出: 可以标注 AI 生成的内容,训练时过滤掉 但这也不容易 AI 生成的内容越来越逼真,很难区分 而且标注成本也很高 这个问题,目前还没有好的解决方案 AI 生成内容,正在污染整个互联网 AGI 会是什么样:融入 2% 的 GDP 增长 很多人对 AGI 有个幻想 觉得会有个奇点,突然爆炸 某一天,AGI 出现了,然后世界完全变了 Karpathy 说:不会的 他的判断是: AGI 会融入过去 2.5 个世纪的 2% GDP 增长 什么意思? 过去 250 年,人类社会一直在以每年 2% 的速度增长 蒸汽机来了,2% 电力来了,2% 互联网来了,2% 为什么? 因为技术革命不是一瞬间的 它需要时间扩散、需要基础设施、需要人适应 蒸汽机发明了,不是第二天所有工厂都换成蒸汽动力 需要几十年时间,建铁路、建工厂、培训工人 互联网也一样 1990 年代就有了,但真正普及到每个人手机上,用了 20 多年 AGI 也一样 它会逐渐渗透到各行各业 但不会在某一天突然改变一切 先是一些简单的任务被自动化 然后是复杂的任务 一步步来 期间会有阵痛,会有失业,会有适应期 但不会是突然的、剧烈的 Karpathy 说 他不相信「hard takeoff」 他相信的是: AGI 会像之前所有技术革命一样,缓慢、渐进地改变世界 这个判断,其实挺重要的 如果 AGI 真的是这样,那我们有时间准备 不用担心明天醒来世界就变了 可以慢慢调整教育体系、社会保障、法律法规 这是一个好消息 当然,2% 的增长也不是绝对的 可能某些年份会高一些,某些年份低一些 但长期来看,会是一个相对稳定的、可预测的过程 而不是指数爆炸式的奇点 自动驾驶:为什么花了这么久 播客里还聊了自动驾驶 Karpathy 在特斯拉干了 5 年 Autopilot,他太清楚这里面的坑了 主持人问: 为什么自动驾驶这么难,为什么花了这么久 Karpathy 给了几个理由 第一个,是 long tail problem 你以为自动驾驶就是识别车道线、识别红绿灯 太天真了,真实世界有无数种情况 施工路段、临时路牌、突然窜出的小孩、逆行的疯子、路上的大坑、掉落的货物 这些「长尾情况」,占比很小,但每一个都可能致命 你必须把它们全部解决 不能说「我 99% 的情况都能处理」,剩下的 1% 就会是事故 而且这个长尾,真的很长 你以为处理完 100 种情况就够了 结果发现还有 1000 种 处理完 1000 种,还有 10000 种 永远有新的边缘情况 这就是为什么自动驾驶这么难 第二个,是 safety bar 自动驾驶不是「比人类平均水平好」就行 它必须远好于人类 为什么? 人们对机器的容忍度,远低于对人的容忍度 人类司机每天撞车,大家习惯了 美国每年 4 万人死于车祸,大家也接受了 但如果是自动驾驶撞了一次 新闻头条、国会听证、股价暴跌 所以 safety bar 特别高 (所以… AGI Bar 呢?) 不是做到人类水平就行,要做到远超人类水平 这个标准,其实挺不公平的 但现实就是这样 技术要被接受,必须远好于现状 不能只是「稍微好一点」 第三个,是 data problem 自动驾驶,需要海量的真实驾驶数据 再次划重点:真实世界的 这需要时间积累 特斯拉为什么现在做得好 因为它有几百万辆车在路上跑,每天收集数据 这是花钱买不来的 你可以造一个很贵的实验室,雇一堆博士 但你造不出几百万辆车在路上跑的数据 这个优势,其他公司很难追上 Karpathy 说: 自动驾驶花了这么久,其实是给 AGI 的一个预警 AGI 会遇到同样的问题 long tail、safety、data 每一个都需要时间 不是说模型做出来就完事了 还要在真实世界里打磨,处理各种边缘情况 这个过程,可能比模型训练本身还要长 教育的未来:untangling knowledge 播客最后聊了教育 Karpathy 现在在做 Eureka Labs,一个 AI 教育公司 他对教育有个很有意思的理解 好的教育,是 untangling knowledge 什么意思? 知识本身是一团乱麻 所有概念互相缠绕、互相依赖 但学习需要一个线性的路径 你得先学 A,才能学 B 好的老师,就是把这团乱麻理清楚 让学生按照一个清晰的顺序,一步步往上爬 每一步都只依赖前面学过的东西 不会突然冒出一个新概念,让你措手不及 Karpathy 举了个例子 他的 transformer 教程,为什么大家觉得好 因为他从 bigram 开始 bigram 是什么? 就是个 lookup table:上一个词是 A,下一个词是 B 就这么简单 一个 2 维表格,谁都能看懂 然后一步步加东西 加 embedding、加 attention、加 layer norm 好的教育,每一步都会解释:为什么要加东西,这是在解决什么问题这就是 untangling 比如,把复杂的 transformer 拆成一步步的演进,每一步都有章可循 他还说了个特别重要的教育原则: present the pain before you present the solution 别上来就告诉学生答案,先让他们感受到问题,然后再给解决方案,这样学得才深 为什么? 因为如果你直接给答案,学生不知道这个答案解决了什么问题 就像你告诉学生「attention 机制是这样的」 学生学会了公式,但不知道为什么需要 attention 如果你先展示问题: 之前的模型处理长序列有这个问题 先让学生自己思考怎么解决 然后你再给出 attention 这个方案 学生会恍然大悟:原来是这样解决的 这种学习,才是深刻的,才能记得住 这个原则,其实不只适用于技术教育 任何教育都一样 先让学生感受到问题的存在,再给解决方案,这样学习效果 最好最后说两句 这个播客值得一看 Karpathy 是一个在一线干了 15 年的人 很诚实地说出他看到的东西 在 Karpaty 眼中,AGI 还需要十年 不是因为技术不行,而是因为问题太多、太难 continual learning、multimodal、safety、long tail、data 每一个都是硬骨头,需要时间一个个啃,但也不是遥不可及 十年,听起来很长 但 iPhone 发布到现在,也就 17 年 不用焦虑,也不用盲目乐观 踏踏实实做事就好 本文由人人都是产品经理作者【赛博禅心】,微信公众号:【赛博禅心】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
在数字产品设计中,等待体验往往被忽视,但它对用户满意度有着重要影响。本文深入探讨了如何通过设计组件优化等待体验,减少用户焦虑。 打开APP一直在加载转圈、快递位置长时间不更新、预计时间到了外卖还没送达——这些时刻是不是让你越等越烦躁?这些场景一旦卡住,我们都会很着急:系统怎么没反应?继续等下去有用吗? 所以专门对“等待体验”进行针对性设计特别有必要。只要选对设计组件和设计策略,就算是等待也能让操作流程继续顺下去,不破坏使用沉浸感,减少用户焦虑。下面就来聊聊这些等待时刻如何针对性设计~ 01 两种等待类型分析 这里将等待时刻分为可预测型和不可预测型两种类型。 ① 可预测型 可预测表示等待完成的时间是明确的,例如清晰告知外卖送达时间、司机还有多久到达、加载还需多久等。用户知道了大概需要等待的时间,对等待有预期也会对产品也更信任。 但如果进度长时间卡住不动或者实际时间跟预计等待时间对不上,这些情况会对产品的信任度造成影响。 就像前段时间我使用tb闪购点过两次外卖,每次送达时间都比预计时间要长很多,点过两次之后耐心耗尽就不想再用了。 可预测的核心是“准确、可视化地展示进度”,靠谱最重要。预计到达时间宁可往长了说,也别吹得太离谱,比如对外宣称12小时达,结果等了一天了还没送到,这种不靠谱的宣传会大大降低对产品的信任度。 设计组件进度条:表示操作正在进行中以及操作的进度。 计时器:适合等待时间短、能算得准的场景,比如看广告时的 “5秒后可跳过”。 文字说明:主要用于显示打车、送外卖、寄快递等场景的预估时间展示。 比如外卖、电商平台常将预计到达时间(ETA)作为订单状态展示,例如用户下单后实时显示配送预计送达时间“预计x天后到达”。ETA需根据交通、天气等动态数据每5-10分钟实时更新一次,避免信息滞后。 步骤条:提示用户进度以及当前的步骤,用于引导用户按照步骤完成任务,常跟进度条搭配使用,用来显示当前进度。 ② 不可预测型 等待像服务器延迟、验证处理这些场景说不准需要等多久。如果在不确定的情况下一直让用户干等着很容易焦虑、犯嘀咕。要是没任何反馈,他们会觉得“肯定出问题了”,要么反复点击刷新按钮,要么干脆把APP关了。 既然无法提供准确的剩余时间,那么反馈的重点应该是让用户知道“系统正在运行没有卡住”。通常采用加载器、骨架屏等loading加载的方式,不显示明确的预计完成时间,而是传达一种正在进行中的状态。 设计组件加载器:表示操作正在进行中但不知道具体进度。环形加载器通常用于短时间的加载过程,线性加载器通常用于下载大型文件等长时间的加载。 加载器也分为无限型和有限型两种类型: 无限型加载指加载loading没有起点和终点,说明加载完成的时间无法预估,适用于服务器响应时间不确定、系统临时卡顿的情况。但它能给的反馈少,不容易让用户有预期; 有限型加载指加载的时候进度条会慢慢填满,表明进度快加载完了,给用户一种“再等等马上就好”的心理暗示。适合用于加载时间有预估范围但没法给出精确数字的情况。但要避免进度条长时间一直卡着不动的情况,免得让用户着急。 除了常见的环形/线性加载器,还有一些APP会把品牌元素融入到加载器中,将加载loading设计成个性化、趣味化的效果。例如美团的页面加载,融入了自家IP形象奔跑的动画效果,就算等待加载的这几秒钟也能让用户感受到统一的品牌体验。 动效特点:加载器属于最基础的循环动效,大多是圆形转圈。点击按钮、打开弹窗、短时间加载内容时用得多,不需要占太多页面空间,交互后能马上给反馈。但传递的信息有限,只能告诉用户“功能正在运行”,没法传递太多内容。 骨架屏:在数据加载之前显示的灰色占位框,把页面的排版结构提前显示出来,给用户一个视觉上的反馈,让用户知道“接下来加载出来的内容会是这样的”。 动效特点:静态的骨架屏加上闪烁的重复动效可以呈现出页面不断加载的的动态效果,比单纯的转圈加载更能减少“等得久”的感觉,用于提高用户体验。 通常第一次打开APP加载整个页面时会用到,现在无限滚动的场景多了,列表、卡片、个人主页这些模块也常用局部的骨架屏加载。 02 五个设计技巧优化等待体验 上面提到的设计策略,核心都是在等待这种不确定的场景里稳住用户心态。 在等待的场景中,大家都会感觉时间很漫长,比如实际只等了1分钟,感觉像等了5分钟。如果等待期间不提供任何的反馈,还会琢磨功能正常吗?是不是坏了? 解决这些问题的关键是营造可预测性,让用户觉得马上就能加载完成。就算实际处理很慢,也要通过加载动效这些可视化反馈,让用户觉得一直在顺利推进。 那么在等待期间有哪些需要注意的交互呢?下面总结了5个关键技巧,优化我们在等待期间的体验。 ① 给出反馈 如果点击之后没有响应,用户可能会觉得系统卡住了,从而放弃重试或者退出应用。所以哪怕等待一两秒钟也要马上给出反馈。 ② 搭配使用组件 根据产品功能、使用场景灵活选择进度条、加载器、骨架屏、步骤条等组件,不局限于一个场景中仅使用一个组件,通过组件的搭配使用明确告诉用户APP运行正常。 ③ 符合心理预期 提供相对可靠的时间信息,避免超出用户的预期。预估时间最好保守一些往长了说,比如打车时一开始提示“预计5分钟后应答”,让用户先有一个心理预期,实际应答速度往往会比预计时间快,这样既节省了时间也会让用户觉得这个产品很靠谱。 ④ 提供备选方案 如果预计需要长时间的等待,考虑为用户提供其他选择,例如提示“等待完成后将通知您”,让用户可以在等待的过程中再进行其他的操作,减缓等待焦虑感。 例如现在很多产品会在客服功能中接入“Al智能客服”,当用户在排队等待人工客服的过程中,推荐用户优选使用AI客服来查询问题,这样很有可能AI客服就解决了问题,省去了人工客服的成本。 ⑤把等待加载变成学习时间 与其在加载期间让用户白白等待,不如提供一些有价值或者有意思的内容供用户学习观看。 比如进入懂车帝的3D看车过程中,由于需要加载3D车模型和空间等复杂的内容,进入前有一段进场加载loading。 在加载的这段时间里没有让用户对着进度条发呆,而是在进度条上方提供了六个手势操作教学,这样的设计首先能抓住用户的注意力,其次是能引导用户在进入功能前提前了解操作,既方便后期好操作,也省去了进入新功能之后单独的操作引导,可以说是一举多得的作用。 最后 随着界面承载的功能越来越多,用户注册、内容提交等流程也越来越复杂,等待似乎是没法避免的。 如果单纯依靠技术手段来提升等待速度,总会有体验上的局限性。这时候设计师通过精准、贴心的设计方案来优化“等待体验”,很可能就能解决体验问题,提升产品的服务质量。 本文由人人都是产品经理作者【Clip设计夹】,微信公众号:【Clip设计夹】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
AI开发工具的演化,正在从“兼容性”走向“原生工程范式”。本文深度解析阿里推出的 Qoder CLI 与 Qoder IDE 的组合能力,如何复刻 Gemini3 同款操作系统,并通过 Quest Mode 与 Worktree 等机制重构智能体的任务执行逻辑,为产品人和开发者提供一套可复用的本地 Agent 构建路径。 来不及解释了,别人都是二开Gemini Cli,或者把自家模型API兼容到Claude Code,阿里整了个好活,Qoder CLI 跟Gemini Cli、Claude Code、OpenAI Codex类型相同。还有配套的编辑器Qoder IDE,共享一套账号,额度和配置信息。这个Gemini3内测同款操作系统复刻的case就是我用Qoder CLI做的。 那问题来了,为啥要用一个新的Cli呢? 我是奔着不会被封的Claude Sonnet 4.5和新功能去的,从功能表对比上看,Qoder CLI有了Claude Code全套功能,还多了 Worktree(通过Git来并行运行任务)和 Quest Mode(自主编程), 那我拿出大模型测试之coding agent版恶梦级1.5试试水,包括动态SVG、复杂关卡类游戏、像素艺术、3D粒子模拟、3D太阳系(带轨迹光线和视觉切换)、以及终极case,一句话生成MacOS系统! 要做一个完整的操作系统,我觉得先测测SVG 现在已经不兴画鹈鹕了,SVG测试已经next level,那鸟不能动的,画点能动起来的。 纽约天际线的SVG,使用任何库来实现这个目标,但必须确保所有内容可以完整粘贴到一个单一的HTML文件中。 看到那个在移动的飞艇吗?也有可能是飞机,因为是SVG的关系,放大缩小压扁都不会影响清晰度。 编写过程中我对比了默认模式和Quest Mode(自主编程)模式, quest-mode我称之为plan模式和执行模式的mix版,它会根据我的需求先生成技术设计文档(Spec),保证对任务的理解跟我保持一致后再执行。 每一轮对话都会给出3个选项,可以直接委托Qoder CLI做,让Qoder CLI先输出一般设计文档当甲方,或者是继续对话补充更多你想要的细节。 这里我就让它给我换了个风格,加上灯光细节和背景的波浪 如果说动态SVG是单一画面效果的提升的话,在一个文件实现多个页面的画面切换、音效切换、还有弹窗切换,就是挑战终极case,复刻MacOS的前置能力了, 别画贪吃蛇了,别画俄罗斯方块了,也别我的世界了,复刻就挑冷门一点的,这一关我打算让Qoder CLI复刻2000年的游戏,几何冲刺 生成一个完整的 HTML 文件,内容是一个几何冲刺(Geometry Dash) 的克隆版游戏。这款游戏的风格需要看起来像是在 2000 年代制作的。为不同的关卡添加音乐,游戏的物理引擎需要和原版几何冲刺一样。所有的代码(HTML, CSS, JS)都包含在同一个 HTML 文件内,总代码量不少于 1000 行。 一共5个关卡,每个关卡都有自己的进度条,不同的障碍物,以及不同紧急程度的上头配乐,唯一有点bug的就是跟我自己复刻的小游戏一样,人物一开头就因为过于逼真的物理引擎掉下去了。 这时候如果想要修改部分代码的话,就可以搭配Qoder IDE使用, 单一画面测了,页面跳转逻辑测了,接下来测试一下美感, 也不画天气组件和仪表盘了,让Qoder CLI拼个乐高版小黄人我看看,这里有留意到现在的提示语多了一个什么关键词吗,就是不给模型设定固定的库,让他们随意使用任何库就好。 设计并创作一个色彩缤纷、超级精细、具有完美光照和动画背景的小黄人像素艺术。使用任何库来完成这个任务,但要确保我能将所有代码粘贴到一个单独的 HTML 文件中。 小黄人也爱Banana啊,呼吸的空气里面都是糖分和香蕉。 我们距离MacOS系统就差最后一步了,测模型的真实物理模拟,经典案例就是3D太阳系,我也带来了他的升级版 创建一个视觉上令人惊叹的、交互式的太阳系 3D 模拟,并将其优雅地封装在单个 HTML 文件中。突出显示逼真的轨道运动、动态光照效果、准确的行星纹理以及流畅的摄像机控制,以提供沉浸式体验。 这个3D太阳系是我最近做过转视角最丝滑的,做成动画插到PPT里面一点毛病都没有, 终极案例也该端上桌了, 我找半天终于找到了Gemini3.0的同款,用一个提示语复刻macos,我本来以为3D实验和复刻word、excel已经够好玩了,但我还是想少了,复刻操作系统是真好玩,每一次点击都是开盲盒。 设计并创建一个功能齐全、类似于 macOS 的网络操作系统,包含文本编辑器、文件管理器、画图工具、视频编辑器以及所有 macOS 预装的重要软件。你可以使用任何必要的库来实现这个目标,但必须确保所有代码都能粘贴到一个单一的 HTML 文件中。在同一个代码块中尽情发挥你的创意和美学设计。 来看看都做出来什么了,文件管理、文本编辑还有输入,终端也能输入、浏览器、邮件、图库、音乐播放器、剪辑、日历,甚至可以计算的计算器! 最后说说怎么安装,猴简单 curl -fsSL https://qoder.com/install | bash qodercli –yolo 看到这个界面就可以了,如果是第一次的话可能需要login 更详细的配置也可以看看文档 🔗 https://qoder.com/cli Qoder也不搞什么邀请码啥的, 新用户直接发1000credits 最后聊聊什么时候用Cli,什么时候用IDE吧, 开始读旧项目的时候就用Cli,做一个初始化init,这时候会读取整个项目大概的情况,输出一个markdown文件, 这个输出的文件不是给我看的,是给IDE里的模型看的, IDE擅长的是单、多个文件修改和新建嘛,造新轮子的时候难的就是一个功能会牵扯到很多上游文件,看不完根本看不完, 这时候用IDE的时候上下文就带上这个init文件,同时每次对话结束的最后一轮将开发进度再写到这个文件里, 到这一步你就会发现,我们可以左脚踩右脚上天了, Cli完成项目级开发、代码审查、代码提交等等项目级任务,IDE完成单个文件、单个代码片段等文件级的任务, 在它们之间我完全可以不打提示语了,直接通过这套方法来通讯就好了, 更丝滑的原生组合 Qoder CLI + Qoder IDE, Cursor + Claude Code, VScode + Copilot, 还有这套方法玩不转的吗 作者 / 卡尔 本文由人人都是产品经理作者【卡尔】,微信公众号:【卡尔的AI沃茨】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
在AI视频生成领域,谷歌的Veo3.1以其强大的功能和高质量的输出引起了广泛关注。本文将深入探讨Veo3.1的多项新功能,包括首尾帧生成、多图参考视频生成、广告创意视频制作、街头采访和第一视角演讲等。 15 号谷歌带着他们的最新最强视频生成模型 Veo 3.1 震撼来袭。 当时我人在高铁上,又兴奋,又难受。 难受的是,除了一言难尽的网络,还有在外面飘了几天,人有点麻了。 不过没关系,经过几天细致的测试体验,我觉得是时候拿出来给大家分享了。 Lovart 也第一时间支持了 Veo 3.1,我也是在 Lovart 上做的测试,可别浪费了我刚续的会员,哈哈哈。 PS:虽然普通用户 20 号前也能免费体验 Veo 3.1,地址:https://www.lovart.ai 先说下我的感受吧: Veo3.1 支持首尾帧、多图参考视频和视频延长,以及带音效,指令遵循好,能精准控制运镜,清晰度较高,特别适合营销广告制作、产品视频等要求较高场景。 同时可以通过 JSON Prompt 来精准控制风格和细节场景转换,我在下文中的 case 也会直接给出这套提示词。 虽说Veo3.1 晚上风评褒贬不一,可能是大家太期待能有什么颠覆 Sora2 的东西出来。 但谷歌这次对的起 0.1 的更新,在某些方面是能胜过 Sora2 的。所以可千万不要小看谷歌 Veo3.1 的能力。 废话不多说,我们直接进入 case。 首尾帧生成视频 这并不是什么新奇的能力,国产视频大模型很早就已经支持了,只不过Veo3.1 的首尾帧生成的视频是带有音效的,在画质上也表现很不错。 比如,我利用首尾帧功能制作房子从草图到成型建筑物的过程。 相关提示词如下: 生成一个过渡视频。展示蓝图(图1)‘拔地而起’,线条逐渐立体化,填充材质和光影,最终变为写实的建筑(图2)。这个过程应该像一个快速的建造延时过程。 最终出来的视频我觉得还是很不错的,施工的音效也是自带出来了。 首尾帧这个功能配合 Lovart 的无限画布,很丝滑,我可以把图片拖进画布,然后连线直接 Chat,就能方便生成好了。 多参考图生成视频 Veo3.1 可以用多张参考图片生成视频,我测了几个 case,都还挺不错。 case 1:儿童简笔画 先来个简单的,上传一张参考图,配合一段提示词,看 Veo3.1 的能力表现。 首先我在 Lovart 中用 Seedream 4 生成一张儿童手绘简笔画图片。 提示词:生成小朋友的简笔画,画中一个人物简笔画和一个太阳。 然后输入用 Veo 3.1 生成视频,提示词如下: 让这张儿童画(参考图1)动起来,保持其蜡笔画的风格。画中的小人对着太阳挥手。太阳也微笑着闪烁光芒。请配上一个孩子清脆的笑声和一段欢快的尤克里里音乐。 相同提示词给到 Sora 2,效果如下: 明显能感受到 Veo3.1 的效果更好,Sora 2 生成的太阳和人物都没展示全,而且音乐也完全不对。 所以指令遵循上 Veo 3.1 有更好的表现。 case 2:咖啡机广告 接下来,我用 3 张参考图上点难度。 Veo 3.1 生成效果如下: 这个视频的提示词也比较简单: 提示词:生成一个8秒的广告。镜头从咖啡机(来自图像1)开始,它正在工作。然后镜头切换到咖啡倒入杯中(参考图2)。最后是产品全景在厨房(参考图3)中。画外音(沉稳男声):‘清晨,从一杯完美的咖啡开始’。需要有咖啡机煮咖啡的‘咕噜’声和咖啡倒入杯中的声音 基于这个效果,我还做了多个短的片段视频,然后连成了一个 23 s 的汽车从草稿图到不同场景下展现的视频。 视频没有任何处理,全是由 Veo 3.1 生成,然后我做了拼接。 我先是在 Lovart 中生成参考图图片。然后基于多张参考图片再生成视频。 然后在 Lovart 中输入: 截取这个视频的尾帧,生成一张图片给我 就得到视频尾帧图片,然后输入提示词得到新的延续场景视频: 提示词:图1中的车辆冲上沙漠的山丘高地之后腾空而起,慢镜头播放腾空而起的瞬间,车轮带起了砂石,最后汽车稳稳落地停在了沙滩上,配上加速的轰鸣声和轮胎碾压沙砾的声音。 按照同样的方法,可以生成连续的多段视频,做拼接就好了。 讲真,这样连续的视频也能通过这个方法直出啦,贼方便。 广告创意视频 看到 EHuanglu 老哥利用 JSON Prompt 的方式指挥 Veo 3.1 生成创意广告视频,效果贼给力。 仿照着我输入如下 JSON Prompt: 提示词(英文版) { “product_name”: “Coca-Cola”, “product_type”: “Original Taste Soft Drink”, “description”: “A stream of vibrant red liquid pours down, creating a spectacular explosion of ice-cold carbonated bubbles and dramatic condensation that instantly forms the iconic Contour bottle.”, “style”: “Cinematic, high-speed macro VFX shot, hyper-realistic, vivid red and icy white color palette.”, “camera”: “Dynamic pour close-up → Intense bubble and mist collision → Bottle snaps into focus with shimmering condensation.”, “location”: “Dark, moody background with a subtle, warm red glow emanating from below.”, “aperture”: “Crisp, deeply focused, ultra-refreshing.”, “elements”: “Red soda liquid, perfect ice cubes, bursting carbonation bubbles, cold mist and condensation.”, “powerful”: “The Coca-Cola bottle appears with a dramatic, misty pop sound effect, covered in perfect, icy droplets.” } 提示词(中文版){ “product_name”: “可口可乐 (Coca-Cola)”, “product_type”: “原味汽水/软饮料”, “description”: “一股充满活力的红色液体倾泻而下,形成壮观的冰冷气泡爆炸和强烈的冷凝水雾,瞬间凝结成标志性的弧形瓶。”, “style”: “电影级、高速微距特效(VFX)镜头,超现实主义,鲜红色和冰白色调。”, “camera”: “动态倾倒特写 → 剧烈的气泡和水雾碰撞 → 瓶身带着闪烁的冷凝水清晰出现。”, “location”: “黑暗、富有情绪感的背景,下方散发出微妙的、温暖的红色光芒。”, “aperture”: “清晰、深焦、超级清爽。”, “elements”: “红色苏打液体、完美的冰块、爆裂的碳酸气泡、冷雾和冷凝水。”, “powerful”: “可口可乐瓶在戏剧性的、带有水雾的“嘭”声效中出现,瓶身覆盖着完美、冰冷的液滴。” } 这样可以精准控制视频生成片段和运镜。街头采访 这个视频的牛逼之处在于,被采访者将作为下一个采访的人,丝滑形成了过度。 全程只有一个这个提示词: 提示词(英文版) { “product_name”: “Street Pulse”, “product_type”: “Street Interview / Vox Pop”, “description”: “A charismatic host with a microphone dives into a bustling city crowd, engaging random people with one compelling question.”, “style”: “Candid, authentic, dynamic, urban, fast-paced editing”, “camera”: “Handheld follow-cam on host → Quick zoom to interviewee’s face → Wide shot establishing the location → Rapid cuts between diverse reactions.”, “location”: “Busy city sidewalk, public park, or plaza with heavy foot traffic.”, “aperture”: “Spontaneous, curious, engaging, real.”, “elements”: “Host, microphone, diverse pedestrians, city background (traffic, buildings), on-screen text (the question), genuine facial expressions.”, “powerful”: “A rapid montage of surprising, funny, and thoughtful answers, capturing the city’s diverse heartbeat.” } 提示词(中文版) { “product_name”: “街头脉动 (Street Pulse)”, “product_type”: “街头采访 / 民意调查”, “description”: “一位魅力十足的主持人拿着麦克风,深入熙熙攘攘的城市人群,向随机的路人提出一个引人入胜的问题。”, “style”: “真实抓拍、不做作、动感、都市风格、快节奏剪辑”, “camera”: “手持摄像机跟随主持人 → 快速推近到受访者的脸部 → 广角镜头交代环境 → 在不同反应之间快速切换。”, “location”: “人流量大的繁忙城市人行道、公园或广场。”, “aperture”: “自发的,好奇的,引人入胜的,真实的。”, “elements”: “主持人,麦克风,形形色色的路人,城市背景(交通、建筑),屏幕文字(显示问题),真实的面部表情。”, “powerful”: “一个集合了各种令人惊讶、有趣和深思熟虑的回答的快速剪辑蒙太奇,捕捉城市多元的心跳。” } 第一视角演讲 注意一下人物面部表情和口型,可以说非常自然。 动画随机片段 之前玩 Sora 2 的时候,用这个提示词生成的效果大家还有印象吗? 提示词:一个由各种蔬菜组成的摇滚乐队,在一个灯光昏暗、烟雾缭绕的地下酒吧里激烈表演。主唱是一颗咆哮的卷心菜,吉他手是一根弹奏着电吉他的茄子,鼓手是两个敲击着小番茄的西兰花。它们都有拟人化的表情和动作,卷心菜在舞台上狂野地甩头,茄子在 solo 时飙出火花。观众是各种水果和厨房用具,它们都在疯狂地摇摆。 现在给到 Veo 3.1 出来是这个效果,声音更能体现眼滚乐队,但角色创意表现上不急 Sora 2。 其实我还做了不少的测试,但因为文章篇幅有限,不能全部都放出来。 好了,今天的分享就到这里。 讲真的,每次体验这些新模型,都有一种强烈的割裂感。一方面,技术的迭代速度快得让人窒息,Sora 2 的热度还没过,Veo 3.1 就已经带着新能力杀了过来。我们仿佛被时代洪流推着走,生怕一不小心就掉队了。 但另一方面,这又是一个无比幸福的时代。曾经需要专业团队、高昂成本才能实现的创意,现在我们动动手指、敲几行提示词就能变为现实。 当工具的进化速度快到让想象力都感到压力时,我们唯一要担心的,或许就是自己的创意还够不够用。 技术本身没有终点,但创造力有。 希望我们都能在这场 AI 的浪潮中,不仅仅是做一个旁观者,更是成为一个弄潮儿。 本文由人人都是产品经理作者【苍何】,微信公众号:【苍何】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
在拼多多的流量生态中,市场分析不仅是运营起步的第一步,更是决定打法路径的关键变量。本文结合代运营实战经验,系统拆解定价策略、市场容量评估与榜单链接分析三大步骤,帮助产品人构建一套可复制的品类判断框架,提升起量成功率。 俗话说:知己知彼百战百胜。咱们做电商的,尤其是做拼多多,当我们拿到一个品后,第一件事是干什么?不是上架开车报活动,而是先来一波市场分析。 我做代运营接触的品类多,对市场分析真的是有深刻的体会。因为经常接触到全新的品类,久了就发现,这个品类最终能不能做起来,第一步:市场分析起的作用尤为重要。 比如最近接的一个水果,当分析完竞品之后,我就预感到不太妙,因为整个市场的均价在14~15块钱,甲方给的成本就16块钱了,而且甲方还说自己是源头,是不是真源头先抛开不谈,就这个16块的成本,看上去就像二道贩子。 如预期所料,这个品很难起大量,水果嘛,别人卖15块钱的东西,咱们卖20多,你说这咋起大量? 如何能预判运营的结果以及提前规划出合理的打法思路呢?市场分析首当其冲,本篇我就为大家讲讲,我拿到一个新品时,是如何做市场分析的。 01 第一步:先看同行价格 一个品好不好卖,很大原因是咱们定价决定的。像我之前没做竞品分析上的链接,上架后开车就是没有曝光没有单,我不用看市场就可以断定,问题点就是产品价格定的过高了。做市场分析,看同行价格,就是看看咱们的定价在哪个段位上。 看同行价格的方式也比较简单,以假发这个品为例,先打开拼多多,然后搜关键词“假发”,按照销量进行排序,就看销量高的链接的价格,那种日销100单以上的链接价格都是可以参考的。 比如我接的这款,行业的均价在10~20块钱。然后拍照识图,看同款在拼多多上别人的卖价。关键词是了解这个行业的市场均价,识图是了解这款市场的均价。两者一对比,基本上这个款什么价格能走多少量,咱的心里就有底了。 比如假发客单15,市场单量在一天100~200单。当然,这个也要看款式,而我接的款,甲方给到的成本是21,不含快递费。我勒个去,这个咋玩?总所周知,拼多多的2个玩法,低价自然单,高价强付费。 别人卖价20块的品,咱们成本21,加上物流人工费等,成本要去到25以上了。所以,低价自然单这条路行不通了,只能玩高价强付费了。什么是定价决定玩法,这就是了。 看同行的价格,然后结合自己产品的成本来决定自己的卖价。核心宗旨是,成本有优势就玩低价,成本没优势就玩高价。而低价和高价的打法又不一样,现在大家应该明白了吧,不是先学玩法,在找产品,而是确定了产品,在找适合的玩法。 02 第二步:再看市场容量 市场容量是什么,是咱们这个品1天能出多少单的风向标。前几天有个做红薯的过来问,有没有能力1天1万单。然后我就去看了下市场,榜一链接一天2000单的样子,榜二榜三就没那么多单了。 也就是红薯这个款,平台日销单量估计也就1.5万单左右,那么我要吃下整个市场的三分之二的份额。 这样说吧,就算我有这个能力,平台也不允许哇。平台单品一半以上的单量给到某一个商家,那其他商家还怎么活,且单一大客户在平台来看风险是很高的。为什么单店有层级的限制,就是要雨露均沾,不能让个别商家一家独大嘛。 所以,我就回了句:这个品,单个商家在拼多多上一天拿到4~5K的单量估计有戏,多了会很吃力。然后就没然后了,不知道这个甲方有没有找到能帮他在拼多多上1天冲1万单的代运营,如果真的找到了,我倒是很想去取取经。 讲这个大体量的品,大家可能无感。再讲一个小众的品:心脏除颤器。请问在座的各位有用过这个品的,请举手。应该没几个人用过吧,就这个品,咱们做拼多多,通过顶尖的运营能力做到1天200单,请问有可能吗?应该没可能吧。 拼多多整个平台,这个品可能一天都卖不了几台,为啥咱们能做到200单每天呢?就跟吃馒头一样,一个人一顿饭吃3个大馒头顶天了,你非要觉得吃300个馒头应该也可以吧。这就是不尊重市场规律的天真想法。 看市场容量,就是看咱们单品每天能做到多少单。结合第一步的定价,这样说吧,当这个品的定价确定之后,这个款我们能做到一天多少单,多少销售额,基本上已经有数了。 切记任何一个平台,任何一个品的单量都是有数的。就算神仙来了,也不可能把小风扇,在大冷天的冬季卖到一天1000单。 03 第三步:后看榜单链接 通过前2步,确定了产品的定价和单量情况。接下来就是上链接了嘛,链接咋上效果最好?当然是先看看榜单链接是咋做的了。拼多多榜单链接也比较好找,搜产品关键词,按销量排名,在链接页面找排行榜的名次,点进去就会进入这个类目的榜单。 看榜单要看什么?看别人主图的风格,文案,不同类目的主色调不一样。比如耳机类的,蓝色、灰色居多,食品类的,红色居多。我们做的什么类目,就要贴合这个类目的色调风格。最核心的主图文案,就没必要自己去想了。榜单链接主图的文案就是你我主图的文案。 看榜单链接最重要的是看SKU布局,是上下2段式布局多些,还是一列式多些。这个咱们就没必要自由发挥了,卖的最好的链接怎样布局的,咱们就怎样布局就行。 我遇到过有的类目,2段式和一列式的都有,我是怎么操作的,同套素材做2个链接,一个采用2段式,一个采用一列式,反正上链接又不花钱,那就多链接来测呗。 这样说吧,如果这个品咱们成本有优势,榜单链接看一圈,对这个类目链接有了整体的概念,这个品95%的概率是能够做起来的,做不起来那就是人的问题了。 04 最后 正所谓,兵马未动粮草先行。咱们做拼多多的,上链接开车之前,必须要做一波市场分析。只有做了市场分析,才会提前规避掉一些问题。 比如定价过高导致的没曝光没单量。主图文案驴唇不对马嘴,用户不买单等等,影响链接起量的因素,再做完市场分析之后,很多常识性的错误就可以杜绝了。那么,起链接还有什么难的呢?当然,除了品不行外。 本文由人人都是产品经理作者【老虎讲运营】,微信公众号:【老虎讲运营】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
这篇文章带来了一位重量级人物——Andrej Karpathy的深度访谈。Karpathy是OpenAI的早期成员,也是特斯拉AI总监,他在AI领域有着深厚的实战经验和独到的见解。 看了 Andrej Karpathy 的播客,信息量巨大 开篇泼冷水:未来十年没有 AGI,只有 Agent 这里说一下,Karpathy 是 OpenAI 早期成员,参与过 GPT 背后的技术路线,在一线干了 15 年同时,Karpathy 也是前特斯拉 AI 总监 原始视频在这里 同时,我制作了一份中文版音频使用的工具,是大橘子的 ListenHub 的 API(我弄了一整个周日,非常良心) 这里,我还准备了一份文字实录,中英双语 中英双语,非常贴心 在 Andrej Karpathy 眼中,当前的 AI Agent,核心问题有三个: • continual learning:你告诉它一个事,它记不住 • multimodal:真正的多模态还没做到 • computer use:不能像人一样操作电脑 这三个问题,每一个都得花好几年解决 AGI 还要十年 有人说今年是 Agent 之年 Karpathy 表示:应该叫「agents 的十年」 在他的观点里 我们未来十年没有 AGI,只有 Agent 业界有很多 over-prediction 对于 AGI 大家都太乐观了 他举了个例子 你现在有 Claude、有 Codex,对吧,很厉害 但你会让它们替你干活吗?不会 为什么? 因为它们就是不行 智能不够、多模态不够、记不住东西、不能操作电脑 这些问题,每一个都是硬骨头 要花时间一个个啃 continual learning 这个事,很多人可能没意识到有多重要 现在的 LLM,你跟它聊天 它看起来「记住」了你说的话 但那只是因为对话历史还在 context window 里 你关掉窗口,重新开一个对话,它什么都不记得 这不是 bug,这是设计就这样 要让它真的「学习」新知识 不只是记住,而是真正理解并融入已有知识体系 目前没有好办法 你可能会想,那就扩大 context window 不就行了 问题是这治标不治本,学习不能只是把内容简单地塞进上下文 真正的学习,是要把新知识整合到模型的参数里 这需要重新训练,或者找到新的架构,成本高得吓人 当前的AI, 无法真正学习新知识 强化学习:terrible, but everything else is worse 播客里有个特别有意思的部分 Karpathy 说: 强化学习是个糟糕的选择 但紧接着他又说: 但其他方法更糟糕 这话听着矛盾,但其实是对现状最准确的描述 RL 的问题主要是数据效率太低 你想让模型学会一个东西,得让它试错无数次 AlphaGo 下围棋,self-play 了几百万局 才达到世界冠军水平 这种训练方式,放在真实世界根本不现实 你不可能让自动驾驶撞车几百万次来学习 你也不可能让医疗 AI 误诊几百万次来进步 所以:RL 在真实世界的应用,始终受限于数据效率 强化学习,需要海量试错 但为什么还要用 RL? 因为 supervised learning 也有问题: 需要大量标注数据 而真正难的任务,根本标注不出来 比如「写一个好的代码」、「做一个好的决策」 什么叫「好」 人类自己都说不清楚 你让标注员去标注什么是「好代码」 每个人的标准都不一样有人觉得简洁就是好, 有人觉得性能高就是好 这种主观性太强的任务,标注成本高得离谱 而且质量还没保证 所以最后还是得回到 RL,让模型自己在反馈中学 通过奖励信号,而不是人工标注,是目前唯一可行的路 Karpathy 的判断是: 未来会是 SL + RL 的混合 先用 supervised learning 学个大概,建立基础能力 再用 RL 精调,在具体任务上优化 但这条路,还有很长的路要走 需要解决的技术问题一堆 比如怎么设计好的奖励函数,怎么平衡探索和利用 每一个都不容易 未来的训练方式:监督学习 + 强化学习 人类怎么学习,AI 为什么学不会 播客里有一段特别精彩 主持人问: 人类是怎么学习的,为什么 AI 学不会 Karpathy 给了个很有意思的观点: 人类的学习,是多模态 + embodied + continual 的 什么意思? 对于一个苹果,在人类的认识中: • 视觉上看到红色、圆形 • 触觉上感受到光滑、硬度 • 味觉上尝到甜味 • 听觉上听到咬下去声音 这些信息是同时发生的,互相强化的 而且你一辈子都在学,不断更新认知 你小时候对「苹果」的理解 和你现在对「苹果」的理解 肯定不一样 正如… 小时候对「络腮胡」的理解 和你现在对「络腮胡」的理解 也不一样(雾 这种持续的、多模态的学习方式,是人类智能的基础 人的学习能力,很牛逼 但 LLM 呢?它只有文本 虽然现在有了 vision model,但那还不是真正的 multimodal 真正的 multimodal,是所有模态在同一个 latent space 里 信息是融合的,不是翻译的 现在的做法,更像是把图片翻译成文本描述,再喂给 LLM 这不是真正的融合 就像你把一个视频的每一帧都写成文字描述 这个描述再详细,也不等于你真的看了视频 丢失的信息太多了 而且,LLM 不能 continual learning 你今天告诉它一个新知识,明天它就忘了 除非你重新训练整个模型,但那成本太高 一个模型训练一次,可能要花几百万美元 你不可能每次有新知识就重新训练一遍 Karpathy 说: 这是个根本性的架构问题 当前的 transformer 架构,就不是为 continual learning 设计的 它的参数是固定的,训练完就冻结了 要解决这个问题,可能需要新的架构 能够动态更新参数,而不影响已有知识 这是一个很难的问题 学术界在研究,但还没有成熟的方案 Transformer 架构不支持持续学习 model collapse:AI 不能吃自己 播客里还提到一个很有意思的概念: model collapse 什么意思? 就是 AI 生成的数据,不能用来训练 AI 为什么? 因为会越来越糟 人类可以从人类写的东西里学习,对吧 你读别人写的书,你变聪明了 代际之间互相学习,知识不断积累 但 AI 不行 如果你用 AI 生成的文本,再去训练下一代 AI,模型就会越来越偏 最后输出变得越来越单调、越来越重复 这个问题其实挺严重的 现在网上越来越多 AI 生成的内容 文章、代码、图片、视频 如果下一代 AI 训练的时候,把这些内容也当成「真实数据」 那就完了 模型会学到 AI 的偏见和错误 然后放大这些偏见和错误 循环往复,越来越糟 这就是为什么 AI 不能像人类那样自我学习 人类可以互相学习、代际传承 但 AI 必须依赖人类产生的真实数据 这是个很大的瓶颈 而且随着 AI 生成内容越来越多 「干净」的人类数据会越来越少 将来怎么办?值得思考 有人提出: 可以标注 AI 生成的内容,训练时过滤掉 但这也不容易 AI 生成的内容越来越逼真,很难区分 而且标注成本也很高 这个问题,目前还没有好的解决方案 AI 生成内容,正在污染整个互联网 AGI 会是什么样:融入 2% 的 GDP 增长 很多人对 AGI 有个幻想 觉得会有个奇点,突然爆炸 某一天,AGI 出现了,然后世界完全变了 Karpathy 说:不会的 他的判断是: AGI 会融入过去 2.5 个世纪的 2% GDP 增长 什么意思? 过去 250 年,人类社会一直在以每年 2% 的速度增长 蒸汽机来了,2% 电力来了,2% 互联网来了,2% 为什么? 因为技术革命不是一瞬间的 它需要时间扩散、需要基础设施、需要人适应 蒸汽机发明了,不是第二天所有工厂都换成蒸汽动力 需要几十年时间,建铁路、建工厂、培训工人 互联网也一样 1990 年代就有了,但真正普及到每个人手机上,用了 20 多年 AGI 也一样 它会逐渐渗透到各行各业 但不会在某一天突然改变一切 先是一些简单的任务被自动化 然后是复杂的任务 一步步来 期间会有阵痛,会有失业,会有适应期 但不会是突然的、剧烈的 Karpathy 说 他不相信「hard takeoff」 他相信的是: AGI 会像之前所有技术革命一样,缓慢、渐进地改变世界 这个判断,其实挺重要的 如果 AGI 真的是这样,那我们有时间准备 不用担心明天醒来世界就变了 可以慢慢调整教育体系、社会保障、法律法规 这是一个好消息 当然,2% 的增长也不是绝对的 可能某些年份会高一些,某些年份低一些 但长期来看,会是一个相对稳定的、可预测的过程 而不是指数爆炸式的奇点 自动驾驶:为什么花了这么久 播客里还聊了自动驾驶 Karpathy 在特斯拉干了 5 年 Autopilot,他太清楚这里面的坑了 主持人问: 为什么自动驾驶这么难,为什么花了这么久 Karpathy 给了几个理由 第一个,是 long tail problem 你以为自动驾驶就是识别车道线、识别红绿灯 太天真了,真实世界有无数种情况 施工路段、临时路牌、突然窜出的小孩、逆行的疯子、路上的大坑、掉落的货物 这些「长尾情况」,占比很小,但每一个都可能致命 你必须把它们全部解决 不能说「我 99% 的情况都能处理」,剩下的 1% 就会是事故 而且这个长尾,真的很长 你以为处理完 100 种情况就够了 结果发现还有 1000 种 处理完 1000 种,还有 10000 种 永远有新的边缘情况 这就是为什么自动驾驶这么难 第二个,是 safety bar 自动驾驶不是「比人类平均水平好」就行 它必须远好于人类 为什么? 人们对机器的容忍度,远低于对人的容忍度 人类司机每天撞车,大家习惯了 美国每年 4 万人死于车祸,大家也接受了 但如果是自动驾驶撞了一次 新闻头条、国会听证、股价暴跌 所以 safety bar 特别高 (所以… AGI Bar 呢?) 不是做到人类水平就行,要做到远超人类水平 这个标准,其实挺不公平的 但现实就是这样 技术要被接受,必须远好于现状 不能只是「稍微好一点」 第三个,是 data problem 自动驾驶,需要海量的真实驾驶数据 再次划重点:真实世界的 这需要时间积累 特斯拉为什么现在做得好 因为它有几百万辆车在路上跑,每天收集数据 这是花钱买不来的 你可以造一个很贵的实验室,雇一堆博士 但你造不出几百万辆车在路上跑的数据 这个优势,其他公司很难追上 Karpathy 说: 自动驾驶花了这么久,其实是给 AGI 的一个预警 AGI 会遇到同样的问题 long tail、safety、data 每一个都需要时间 不是说模型做出来就完事了 还要在真实世界里打磨,处理各种边缘情况 这个过程,可能比模型训练本身还要长 教育的未来:untangling knowledge 播客最后聊了教育 Karpathy 现在在做 Eureka Labs,一个 AI 教育公司 他对教育有个很有意思的理解 好的教育,是 untangling knowledge 什么意思? 知识本身是一团乱麻 所有概念互相缠绕、互相依赖 但学习需要一个线性的路径 你得先学 A,才能学 B 好的老师,就是把这团乱麻理清楚 让学生按照一个清晰的顺序,一步步往上爬 每一步都只依赖前面学过的东西 不会突然冒出一个新概念,让你措手不及 Karpathy 举了个例子 他的 transformer 教程,为什么大家觉得好 因为他从 bigram 开始 bigram 是什么? 就是个 lookup table:上一个词是 A,下一个词是 B 就这么简单 一个 2 维表格,谁都能看懂 然后一步步加东西 加 embedding、加 attention、加 layer norm 好的教育,每一步都会解释:为什么要加东西,这是在解决什么问题这就是 untangling 比如,把复杂的 transformer 拆成一步步的演进,每一步都有章可循 他还说了个特别重要的教育原则: present the pain before you present the solution 别上来就告诉学生答案,先让他们感受到问题,然后再给解决方案,这样学得才深 为什么? 因为如果你直接给答案,学生不知道这个答案解决了什么问题 就像你告诉学生「attention 机制是这样的」 学生学会了公式,但不知道为什么需要 attention 如果你先展示问题: 之前的模型处理长序列有这个问题 先让学生自己思考怎么解决 然后你再给出 attention 这个方案 学生会恍然大悟:原来是这样解决的 这种学习,才是深刻的,才能记得住 这个原则,其实不只适用于技术教育 任何教育都一样 先让学生感受到问题的存在,再给解决方案,这样学习效果 最好最后说两句 这个播客值得一看 Karpathy 是一个在一线干了 15 年的人 很诚实地说出他看到的东西 在 Karpaty 眼中,AGI 还需要十年 不是因为技术不行,而是因为问题太多、太难 continual learning、multimodal、safety、long tail、data 每一个都是硬骨头,需要时间一个个啃,但也不是遥不可及 十年,听起来很长 但 iPhone 发布到现在,也就 17 年 不用焦虑,也不用盲目乐观 踏踏实实做事就好 本文由人人都是产品经理作者【赛博禅心】,微信公众号:【赛博禅心】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
你是不是也在做AI产品,却不知道怎么找用户?这篇文章讲透一个AI创业团队如何从“没人用”到“用户自来”,从冷启动策略、渠道组合到用户反馈闭环,适合创业者复盘、产品人复用。 做 2C 的 AI 产品,难点往往不在模型,而在用户的“第一秒钟”。能不能让陌生人愿意装、愿意留、愿意付费,决定了小团队能否活过冷启动。 因为对于小型创业公司来说,最大的挑战往往不在于技术,而在于如何获取用户,以及获客成本是否可控。 一旦获客成本高于用户生命周期价值(LTV),产品就很难实现健康循环。更残酷的是,AI 工具的复制壁垒往往不高,竞争对手随时可能以更低价格、更大预算来抢用户。 一、广告与投放:最快也最贵的方式 最直接的获客手段是广告投放,包括应用商店优化(ASO)、Facebook / Instagram / TikTok / 抖音等平台广告。 根据 Business of Apps 的统计,2025 年全球 Android 应用的平均安装成本(CPI)约为 3 美元,iOS 平均为 4.1 美元。 对于 AI 工具类应用,如果用户留存不佳或付费转化不足,很容易陷入“花钱买用户–>用户很快流失”的恶性循环。 国内市场,许多 AI 应用会通过抖音、小红书进行广告投放,快速获取第一批用户。但这些渠道用户的转化率差异极大,可能很多产品最后发现,烧掉几百万预算换来的只是“装机量”,并没有形成稳定的付费。 欧美市场的路径相似,Facebook Ads 依旧是主要渠道,但因为同类产品密集,广告竞价成本不断攀升。日本市场的 CPI 虽然略高,但用户一旦形成付费习惯,往往更稳定,适合更“长线”的 AI 工具。 平均 CPI 给了初创团队一个“账面阈值”,但真实世界里,AI 工具类应用因为同质化高、可替代强,竞价期往往高于均值。若 7 日留存、30 日留存与付费转化跟不上,买来的装机会在一两周内“化水”。 与其纠结每一个广告位,不如先把冷启动漏斗做扎实:新用户的首波「 Aha 时刻 」要在 60–90 秒内触发(看见第一张生成图、第一段有效草稿、第一次自动修复),否则 CAC 再低也只是账面好看。 二、内容与社交裂变:信任感的杠杆 相比广告,内容传播和社交裂变能在更低成本下获取用户,尤其适合小团队。方法包括邀请奖励、用户互推机制,或者与 KOL / 网红合作,通过种草视频、测评文章带动安装。 在国内,很多工具类产品会找 B 站科技区 UP 主测评,也会在小红书做“体验分享”,这些渠道用户更精准,信任感更强。 欧美市场则更常见 YouTube 与 Medium 的长文评测,AI 绘图类工具常常通过设计师社区扩散。日本市场的 KOL 营销相对保守,但一旦与合适的创作者合作,口碑扩散力极强。 内容与口碑扩散是小团队最友好的杠杆。做得到位,单次获客成本能被显著摊薄;做得草率,就会变成“曝光很多、装机很少”。 最典型的案例是Lensa AI在 2022 年底的“Magic Avatars”出圈:单月贡献其全年一半以上收入,峰值阶段日收入据多方报道达数百万美元量级,其背后的驱动并非大规模买量,而是用户生成内容的自传播——每个人都在社交媒体晒自己的“AI 头像”,把产品的卖点变成了用户的名片。 这个故事今天依然有效:当你的功能天然“可晒可秀”,内容平台会替你做大半拉获客。反之,如果功能结果不够“上墙”,KOL 投放也会显得费力。 三、其他方式 1. 产品内传播:让用户带来用户 产品内嵌传播机制是第二个费用友好的抓手。对 AI 工具来说,最理想的获客不是“去外面拉”,而是“让现有用户带”。 Freemium + 邀请解锁、分享生成成果自动带水印、模板社区的“二次创作”链路,都是把“效果→社交展示→新装机”闭环在产品里的做法。 要点在于把奖励设计成“价值递增”,而不是纯粹补贴:比如邀请可解锁更高画质、更长时长、更低延迟,而不是现金或虚拟币。 只要收益与核心体验强相关,它才会持续发生。这个思路在中、美、日三地都成立,只是素材偏好不同:国内更偏视频化/短直给力的“前后对比”,欧美更吃详评与教程,日本更看重稳定、可重复和细节展示。 2. 公关与媒体曝光:信任的加速器 公关与权威曝光适合“需要信任背书”的 AI 细分(医疗、法律、教育、效率工具)。 媒体测评、社区长文、开发者大会 Demo 能带来一批自带信任的早期用户,LTV 往往高于买量用户,但流量弹性较小、节奏难控,更像“脉冲式注水”。 对于阶段性要冲榜的产品,可将媒体/榜单节奏与版本大更新绑定,叠加应用商店的素材优化与试投放,做一次“黎明前冲刺”。 效果最好的时候,甚至能像DeepSeek那样在极短时间内登上多个国家/地区的 iOS 免费榜首位,拿到巨大的自然流量。 3. 渠道合作与本地化:门槛高,但回报大 渠道合作与生态嵌入是最慢、却最扎实的路。对具备明确场景的 AI 工具(照片/视频、文档、学习、设计),进入平台生态的“插件位/模板位/预装位”,能带来低流失的精准用户。 在欧美,Notion/Figma 等 SaaS 的插件市场、在国内的微信/系统级分发、在日本的运营商/大平台合作,都是可长期经营的入口。 它们的短板是门槛和周期:需要拿出真正能补齐对方生态能力的功能,谈判期长、对产品稳定性要求高。但一旦进入,获客成本呈现“结构性下降”,而不是每次拉新都回到广告的起点。 同时,地域差异会实打实地改变你的获客模型。 日本市场下载规模并不极端,但消费稳定、付费心智强,2023 年移动端消费约$179 亿、下载约25 亿,是全球第三大移动市场。 对小团队的启示是:与其把日本理解为“高 CPI 市场”,不如把它看作“更看重口碑与稳定预期的长期市场”。在这里,能持续发版、少“翻车”、重视客服和本地化支持(含素材与文案微调),往往比一时的爆量更重要。 欧美市场更看重速度与叙事,能抓住窗口期快速迭代的产品更容易跑出;国内市场渠道灵活、竞争极密,买量和内容投放更像“基本功”,但同赛道“价格战/功能战”会迅速抬高获客门槛。 最后,再说回成本与方法论。对小团队,第一性原则是把“CPI→新手期转化→7/30 日留存→付费/续费”串成一条流水线,用真实数据每天校准。 广告只是流量阀门,阀门打开前先回答一个问题:我能承受的最大 CPI 是多少?用你当下的留存与转化倒推出来,然后在小预算里压着做 A/B 测试。 能稳定打正,就逐步扩。打不正,就停,转而用更耐心的内容/口碑/生态位铺路。 对伴侣类、社区类产品,还要准备好“情感留存”的工程能力——这不是鸡汤,而是 Replika 等产品反复证明的事实:当用户把你的 AI 视作“关系对象”,版本节奏与安全策略都可能直接影响留存与口碑的生死线。 最后有三条落地提醒,给我自己,也分享给大家。 其一,把产品做成“可被展示”:能晒的结果 = 免费的广告位;生成图、短视频、模板作品,尽量一键分享且默认带“轻水印”。 其二,把合规与稳定当成营销环节的一部分:冲榜之前,先准备好扩容、限流与异常透明的公告流程,别等社媒先替你“官宣”。 其三,承认市场的非对称:有时一条视频、一个榜单位能改变曲线,但更常见的是缓慢的复利——日本稳定、欧美波动、国内讲效率。 在 AI to C 创业中,获客方式看似多样,但本质上都是围绕“用户获取成本”和“用户生命周期价值”的平衡。 流量是加速器,产品才是发动机。 以上,祝大家开心。 作者:张艾拉 公众号:Fun AI Everyday 本文由 @张艾拉 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Unsplash,基于CC0协议
OCR技术的演进,正在从“识别能力”走向“压缩效率”。本文深度解析DeepSeek-OCR如何通过上下文光学压缩实现SOTA级性能,以更少的视觉Token完成更精准的识别任务,重塑AI文档解析的工程范式,为产品人和技术团队提供一套可部署、可扩展的智能入口。 之前和 OpenAI 的做交流,突然提了一个问题文字,是信息压缩的最好方式吗? 当时没想太多,直到今天DeepSeek 开源了 DeepSeek-OCR用 10 个视觉 token,表达 100 个文本 token github.com/deepseek-ai/DeepSeek-OCR 我突然意识到:这个问题可能有答案了具体对比: DeepSeek-OCR 用 100 个 token,超过了 GOT-OCR2.0 的 256 个 token DeepSeek-OCR 用 800 个 token,超过了 MinerU2.0 的 6000+ token 即使压缩到 20 倍,准确率还有 60% DeepSeek-OCR在不同压缩比下的准确率 为什么重要 现在所有的多模态大模型都面临一个瓶颈:token 消耗太多了 处理一页 PDF 就要消耗几千个 token如果你想处理一本书、一份研究报告、一堆财务文档context window 立刻就爆了每个 token 都要算钱、消耗显存、拖慢推理速度 DeepSeek-OCR 用数据告诉你10 倍压缩,几乎无损 信息论视角 对于这个问题Hacker News 上展开了很大的讨论 是当前 Hacker News 上的最火话题 “为什么这种方法有效?” “是不是文本 token 太粒状了,没接近理想的熵编码?” “切换到视觉 token 是不是逃脱了’一次一个词’的限制?” Hacker News 评论第一条 有个回答说的很有意思文本 token 本质上是离散的查找表你有个小整数(token ID)然后查表得到一个向量 但视觉 token 是连续值向量没有查找表直接从图像编码成向量 这意味着什么?文本 token 的「token 空间」是有限的通常就 10 万个可能的 token每个 token 对应一小段 UTF-8 字节而且大多数分词器不会创建跨越词边界的 token 视觉 token 的「token 空间」要大得多它是高维浮点数向量,每个维度都可以取很多值所以视觉 token 能传达更多的 bits per token这才是压缩的关键 另一个人补充文本 token 是子词单元视觉 token 在语义空间语义空间显然比子词切片压缩得多 免责声明:我不懂 还有人从视觉角度解释人类就是通过视觉看文本的所以文本必须有适应视觉噪声的机制看起来相似的词不能出现在相似的上下文否则会混淆 挺有意思的文本为了适应视觉识别反而在编码上有些”冗余”而视觉 token 直接在语义空间工作可以更高效所以 10 倍的压缩比 从信息论角度看其实挺合理的DeepSeek-OCR 做的事情是把这个直觉量化了用实验数据证明:一图确实胜千言 当然,我并不是这个领域的,评价不到正确与否,有懂的兄弟,还请评论区指导 怎么做到的 DeepSeek 这个东西的核心是一个叫 DeepEncoder 的架构380M 参数 这东西的设计很讲究它由三部分组成80M 的 SAM-base + 16 倍的卷积压缩器 + 300M 的 CLIP-large DeepEncoder架构流程图 这个设计有两个关键 第一个关键是「低激活」大部分 VLM 的视觉编码器激活值特别大InternVL2-76B 的激活参数是 76BQwen2.5-VL-72B 的激活参数是 72BDeepSeek-OCR 的解码器虽然是 3B 参数但激活参数只有 570M因为它用了 MoE 架构每次只激活一部分专家这意味着推理时显存占用小、速度快 第二个关键是「多分辨率统一」它设计了 6 种模式从 Tiny 模式的 64 个 token到 Gundam 模式的 800+ 个 token你可以根据文档复杂度选择幻灯片用 Tiny 就够了报纸得用 Gundam 另外值得一提的是DeepSeek-OCR 不只能识别文字还能「深度解析」文档里的图表、几何图形、化学式论文里叫这个能力 OCR 2.0比如金融报告里的图表它能直接转成结构化数据化学文档里的结构式它能转成 SMILES 格式 化学结构,也不在话下 这对金融、科研、教育领域太关键了 最有想象力的部分 论文最后有个很酷的设想 用降低图像分辨率来模拟人类的记忆遗忘 这个类比特别有意思人类记忆有个特点越久远的事情,记得越模糊刚发生的事,记得清清楚楚 一小时前的事,还很清晰一天前的事,开始模糊一周前的事,已经很模糊一年前的事,几乎忘光了 视觉感知也是这样10cm 的东西看得清清楚楚20m 的东西几乎看不清DeepSeek-OCR 提出可以用分辨率来模拟这种衰减 DeepSeek-OCR 提出了一个对应关系他们把不同的分辨率模式对应到人类记忆和视觉感知的清晰度等级这个类比是这样的 一小时前的事,还很清晰,对应 Gundam 模式(800+ tokens) 一周前的事,已经很模糊,对应 Base 模式(256 tokens) 一年前的事,几乎忘光了,对应 Tiny 模式(64 tokens) 记忆遗忘机制:时间维度、距离维度、分辨率维度 最近的对话用高分辨率更早的对话逐渐降低分辨率这样既保留了历史信息又控制了 token 数量远期记忆自然「淡化」就像人类遗忘一样 这个设想论文里说还是早期阶段但想象空间很大如果真的能做到就能实现「理论上无限的 context window」 因为你不需要保持所有信息的高保真度只需要让信息随时间衰减就像人类记忆一样 开源和局限 整个项目采用 MIT 许可证开源代码、模型权重、技术论文全部公开 GitHub: github.com/deepseek-ai/DeepSeek-OCR Hugging Face: huggingface.co/deepseek-ai/DeepSeek-OCR 说回来这个模型也有局限它不是聊天机器人因为没有 SFT 阶段某些能力需要用特定的 prompt 才能激活 超过 10 倍的压缩准确率会明显下降记忆遗忘机制还只是设想真正验证它在长上下文场景的效果需要更多实验 但即使有这些局限DeepSeek-OCR 已经证明了一件事视觉-文本压缩这条路是走得通的 最后 DeepSeek-OCR 最有价值的地方不在于它是一个好用的 OCR 工具而在于它用数据验证了一个假设视觉 token 确实可以更高效地表达信息 现在所有的 VLM 都是几千个 token 起步推理慢、显存占用大、长文档处理困难如果能把视觉 token 压缩 10 倍还几乎无损整个多模态系统的效率都能提升一个量级 记忆遗忘机制的设想也很有意思人类会遗忘不是因为大脑容量不够而是因为遗忘本身是一种优化策略 你不需要记住所有细节只需要记住重要的、近期的信息如果这条路真的走通了可能会改变我们对长上下文问题的理解不是无限扩大 context window而是让信息自然衰减就像人类记忆一样 回到开头 OpenAI 朋友的那个问题文字,是信息压缩的最好方式吗?DeepSeek-OCR 用数据给出了答案 而且,它是开源的任何人都可以用、可以改进、可以基于它做研究 本文由人人都是产品经理作者【赛博禅心】,微信公众号:【赛博禅心】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
“总收入涨了,要保持;跌了,要搞高。”这不是段子,而是很多经营分析报告的真实写法。这篇文章讲述一个数据分析师如何用四步法重构分析逻辑,让建议不再空洞。如果你也在做数据工作,不妨看看这套“有用”的方法。 “做经营分析,要提供有价值的建议”是很多公司的要求,但现实中,经营分析给出来的结论建议经常让人哭笑不得: 问题一:看到总收入涨了,就说“要保持”,看到总收入低了,就说“要搞高”。同理,成本涨了,就是“要控制”,成本跌了,就是“要保持”…… 问题二:做产品销售排序,A产品排第一,就是“我司优势,要多做”,B产品排末尾,就是“我司劣势,要改善” 问题三:收入=客户数*付费率*客单价,客户数环比跌了,就是“要搞多”,付费率高了,就是“要保持”…… 说了跟没说一样,是这类报告给人的直观印象。那到底要怎么做呢? 本质上看,这类报告根本没有理解公司的业务增长逻辑,就是沿着利润表,把收入,成本,费用的同比环比念了一遍。 想要提供有价值的建议,就得搞懂“我们到底靠什么增长”以及“我们的办法行不行”这两个关键问题。 第一:识别增长关键 业务增长,有一些固定的套路,比如: 1、高端路线:高质量产品+高端客户 2、薄利多销:低单价产品走量+大批小客户 3、跑马圈地:大量烧钱做投放,大量获客 4、精耕细作:关注投产比,服务少数垂直客户 5、同质化竞争:和对手产品功能差异小,就拼谁价格低 6、差异化竞争:和对手产品功能差异大,服务不用客群 只不过,2023年-2025年的大环境不咋好,很多公司被迫打价格战,主动降价换销量,损失一定毛利,保住现金流。所以看起来策略似乎都很单一。 这些策略,有的直接写在《公司年度发展规划》里,作为分析师,需要认真理解公司的发展策略。如果没有写,那么分析师也可以自己找规律,如下图。 1、做出我司产品销量,价格排行 2、对标竞品,看双方主推产品价格带 3、对标竞品,看双方促销力度,功能差异 就能判断出来,我司是在同质竞争,还是差异化竞争了。 第二:建立评估模型 每一种发展策略,都是有相应投入支持,产品,服务,营销,销售,售后都会影响到收入。作为分析师,不能割裂地看收入,成本,费用,而是要围绕主策略,把相关的成本/费用综合考虑,建立综合评估模型。 比如,我司主策略是“聚焦头部优质客户,深耕客户价值”那意味着: 1、大客户的收入占比得高 2、大客户得贡献足够多的利润 3、大客户的服务成本/价格折扣得受控制 这时候,可以建立评估模型如下图,综合考察大客户的贡献,避免每个部门都打着“深耕大客户”的旗号乱花钱。 比如,我司主策略是“以极致性价比的产品打破市场僵局”那意味着: 1、主销产品价格可以特别低,但销量必须涨得猛 2、围绕主销产品的服务,推广,营销,能省一分是一分 3、其他产品搭配销售/交叉销售得高,不然公司赚啥钱呀 这时候,可以建立评估模型如下图,综合考察主销产品增长的同时,避免乱花钱,避免渠道只卖一款,不计其他,导致库存积压/利润下降。 基于增长策略建立评估模型,是提供有价值建议最关键的一步,这一步做好了,后边的建议迎刃而解。 第三:提示增长风险 清晰了主策略,那么提示风险,就会非常切中要害: 1、风险等级最高:主策略目标一个都没达成 2、风险等级高:主策略目标达成一部分 3、风险等级中:主策略目标达成,但消耗过量成本 4、风险等级低:主策略目标达成,成本可控,其他地方有小问题 比如,我司主策略是“聚焦头部优质客户,深耕客户价值”,结果发现今年大客户订单都签不下来几个!那绝对是最高级风险了。 1、是所有行业大客户都不行,还是部分行业不行 2、是客户没有采购需求,还是有需求但我司中不了标 3、中不了标的,是因为价格不行,还是产品没选上 其中,如果发现各个行业大客户都在缩减预算(比如2025年很多企业遇到的局面),那就是真的大环境不好,这时候有可能意味着我司整体策略都定错了,得赶紧调整。 当然,如果想提更具体的建议,一定要结合业务动作。 业务关心的是: 1、有没有更多的线索可以开发 2、有没有成功案例可以复制 3、还有没有价格打折的空间 4、还有没有费用追加投入 因此,在构建分析逻辑的时候,要直接考虑线索、价格,资源投入等业务可控的因素,如下图所示,结合潜在做法做分析,就能提出更具体的建议: 有同学会说:那建议部分,比如:“收集宏观数据,判断是否含各样整体出问题”,能不能直接找一些政府,券商,机构的数据论证一下。 答:完全可以,这里限于篇幅不一一展开,实际工作中,肯定是提供的证据越多,建议越具体和丰富。 第四:洞察其他机会 有可能,非主策略部分突然表现很好,比如 1、非目标客群,但消费人数变多 2、非主推产品,但销量大涨 3、非主推渠道,但流量/ROI持续增加 此时,一定要克制住自己写“要搞高”的小手,多问几句: 1、这种增长是有可能持续的吗? 2、这种增长有没有可能干扰主策略? 3、如果追加投入,是否有可使用机动经费? 比如最典型的,原本计划推A产品,现在B产品突然销量起来了。那么就得看: 1、A、B产品是否相似功能定位,价格带相近 2、B产品目前库存能支持多久?需不需要补货 3、B产品与A连带率是多少?能不行形成合力 理想情况下,A/B产品功能定位差异大,价格带错开,连带率高,那就是黄金机会点!赶紧推动业务做起来。反之,A/B产品定位相似,在同一价格带,那扩大B产品备货很有可能干扰A的销量,这时候就得谨慎建议,不要被短期收益冲昏头脑。 以上可见:想提出高质量的建议,只盯着经营分析日报,周报的收入、利润、成本、同比、环比几个指标,是远远不够的。本来,作为直接支持公司最高决策的人,经营分析就应该对商品,用户,促销,销售渠道有全面认识,这样才好提建议。在求职的时候,也好体现自己的分析深度,要一个更高的薪水。 本文由人人都是产品经理作者【接地气的陈老师】,微信公众号:【接地气的陈老师】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
在数字产品设计中,等待体验往往被忽视,但它对用户满意度有着重要影响。本文深入探讨了如何通过设计组件优化等待体验,减少用户焦虑。 打开APP一直在加载转圈、快递位置长时间不更新、预计时间到了外卖还没送达——这些时刻是不是让你越等越烦躁?这些场景一旦卡住,我们都会很着急:系统怎么没反应?继续等下去有用吗? 所以专门对“等待体验”进行针对性设计特别有必要。只要选对设计组件和设计策略,就算是等待也能让操作流程继续顺下去,不破坏使用沉浸感,减少用户焦虑。下面就来聊聊这些等待时刻如何针对性设计~ 01 两种等待类型分析 这里将等待时刻分为可预测型和不可预测型两种类型。 ①可预测型 可预测表示等待完成的时间是明确的,例如清晰告知外卖送达时间、司机还有多久到达、加载还需多久等。用户知道了大概需要等待的时间,对等待有预期也会对产品也更信任。 但如果进度长时间卡住不动或者实际时间跟预计等待时间对不上,这些情况会对产品的信任度造成影响。 就像前段时间我使用tb闪购点过两次外卖,每次送达时间都比预计时间要长很多,点过两次之后耐心耗尽就不想再用了。 可预测的核心是“准确、可视化地展示进度”,靠谱最重要。预计到达时间宁可往长了说,也别吹得太离谱,比如对外宣称12小时达,结果等了一天了还没送到,这种不靠谱的宣传会大大降低对产品的信任度。 设计组件 进度条:表示操作正在进行中以及操作的进度。 计时器:适合等待时间短、能算得准的场景,比如看广告时的 “5秒后可跳过”。 文字说明:主要用于显示打车、送外卖、寄快递等场景的预估时间展示。 比如外卖、电商平台常将预计到达时间(ETA)作为订单状态展示,例如用户下单后实时显示配送预计送达时间“预计x天后到达”。ETA需根据交通、天气等动态数据每5-10分钟实时更新一次,避免信息滞后。 步骤条:提示用户进度以及当前的步骤,用于引导用户按照步骤完成任务,常跟进度条搭配使用,用来显示当前进度。 ② 不可预测型 等待像服务器延迟、验证处理这些场景说不准需要等多久。如果在不确定的情况下一直让用户干等着很容易焦虑、犯嘀咕。要是没任何反馈,他们会觉得“肯定出问题了”,要么反复点击刷新按钮,要么干脆把APP关了。 既然无法提供准确的剩余时间,那么反馈的重点应该是让用户知道“系统正在运行没有卡住”。通常采用加载器、骨架屏等loading加载的方式,不显示明确的预计完成时间,而是传达一种正在进行中的状态。 设计组件 加载器:表示操作正在进行中但不知道具体进度。环形加载器通常用于短时间的加载过程,线性加载器通常用于下载大型文件等长时间的加载。 加载器也分为无限型和有限型两种类型: 无限型加载指加载loading没有起点和终点,说明加载完成的时间无法预估,适用于服务器响应时间不确定、系统临时卡顿的情况。但它能给的反馈少,不容易让用户有预期; 有限型加载指加载的时候进度条会慢慢填满,表明进度快加载完了,给用户一种“再等等马上就好”的心理暗示。适合用于加载时间有预估范围但没法给出精确数字的情况。但要避免进度条长时间一直卡着不动的情况,免得让用户着急。 除了常见的环形/线性加载器,还有一些APP会把品牌元素融入到加载器中,将加载loading设计成个性化、趣味化的效果。例如美团的页面加载,融入了自家IP形象奔跑的动画效果,就算等待加载的这几秒钟也能让用户感受到统一的品牌体验。 动效特点:加载器属于最基础的循环动效,大多是圆形转圈。点击按钮、打开弹窗、短时间加载内容时用得多,不需要占太多页面空间,交互后能马上给反馈。但传递的信息有限,只能告诉用户“功能正在运行”,没法传递太多内容。 骨架屏:在数据加载之前显示的灰色占位框,把页面的排版结构提前显示出来,给用户一个视觉上的反馈,让用户知道“接下来加载出来的内容会是这样的”。 动效特点:静态的骨架屏加上闪烁的重复动效可以呈现出页面不断加载的的动态效果,比单纯的转圈加载更能减少“等得久”的感觉,用于提高用户体验。 通常第一次打开APP加载整个页面时会用到,现在无限滚动的场景多了,列表、卡片、个人主页这些模块也常用局部的骨架屏加载。 02 五个设计技巧优化等待体验 上面提到的设计策略,核心都是在等待这种不确定的场景里稳住用户心态。 在等待的场景中,大家都会感觉时间很漫长,比如实际只等了1分钟,感觉像等了5分钟。如果等待期间不提供任何的反馈,还会琢磨功能正常吗?是不是坏了? 解决这些问题的关键是营造可预测性,让用户觉得马上就能加载完成。就算实际处理很慢,也要通过加载动效这些可视化反馈,让用户觉得一直在顺利推进。 那么在等待期间有哪些需要注意的交互呢?下面总结了5个关键技巧,优化我们在等待期间的体验。 ① 给出反馈 如果点击之后没有响应,用户可能会觉得系统卡住了,从而放弃重试或者退出应用。所以哪怕等待一两秒钟也要马上给出反馈。 ② 搭配使用组件 根据产品功能、使用场景灵活选择进度条、加载器、骨架屏、步骤条等组件,不局限于一个场景中仅使用一个组件,通过组件的搭配使用明确告诉用户APP运行正常。 ③ 符合心理预期 提供相对可靠的时间信息,避免超出用户的预期。预估时间最好保守一些往长了说,比如打车时一开始提示“预计5分钟后应答”,让用户先有一个心理预期,实际应答速度往往会比预计时间快,这样既节省了时间也会让用户觉得这个产品很靠谱。 ④ 提供备选方案 如果预计需要长时间的等待,考虑为用户提供其他选择,例如提示“等待完成后将通知您”,让用户可以在等待的过程中再进行其他的操作,减缓等待焦虑感。 例如现在很多产品会在客服功能中接入“Al智能客服”,当用户在排队等待人工客服的过程中,推荐用户优选使用AI客服来查询问题,这样很有可能AI客服就解决了问题,省去了人工客服的成本。 ⑤把等待加载变成学习时间 与其在加载期间让用户白白等待,不如提供一些有价值或者有意思的内容供用户学习观看。 比如进入懂车帝的3D看车过程中,由于需要加载3D车模型和空间等复杂的内容,进入前有一段进场加载loading。 在加载的这段时间里没有让用户对着进度条发呆,而是在进度条上方提供了六个手势操作教学,这样的设计首先能抓住用户的注意力,其次是能引导用户在进入功能前提前了解操作,既方便后期好操作,也省去了进入新功能之后单独的操作引导,可以说是一举多得的作用。 最后 随着界面承载的功能越来越多,用户注册、内容提交等流程也越来越复杂,等待似乎是没法避免的。 如果单纯依靠技术手段来提升等待速度,总会有体验上的局限性。这时候设计师通过精准、贴心的设计方案来优化“等待体验”,很可能就能解决体验问题,提升产品的服务质量。 本文由人人都是产品经理作者【Clip设计夹】,微信公众号:【Clip设计夹】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
AI开发工具的演化,正在从“兼容性”走向“原生工程范式”。本文深度解析阿里推出的 Qoder CLI 与 Qoder IDE 的组合能力,如何复刻 Gemini3 同款操作系统,并通过 Quest Mode 与 Worktree 等机制重构智能体的任务执行逻辑,为产品人和开发者提供一套可复用的本地 Agent 构建路径。 来不及解释了,别人都是二开Gemini Cli,或者把自家模型API兼容到Claude Code,阿里整了个好活,Qoder CLI 跟Gemini Cli、Claude Code、OpenAI Codex类型相同。还有配套的编辑器Qoder IDE,共享一套账号,额度和配置信息。这个Gemini3内测同款操作系统复刻的case就是我用Qoder CLI做的。 那问题来了,为啥要用一个新的Cli呢? 我是奔着不会被封的Claude Sonnet 4.5和新功能去的,从功能表对比上看,Qoder CLI有了Claude Code全套功能,还多了 Worktree(通过Git来并行运行任务)和 Quest Mode(自主编程), 那我拿出大模型测试之coding agent版恶梦级1.5试试水,包括动态SVG、复杂关卡类游戏、像素艺术、3D粒子模拟、3D太阳系(带轨迹光线和视觉切换)、以及终极case,一句话生成MacOS系统! 要做一个完整的操作系统,我觉得先测测SVG 现在已经不兴画鹈鹕了,SVG测试已经next level,那鸟不能动的,画点能动起来的。 纽约天际线的SVG,使用任何库来实现这个目标,但必须确保所有内容可以完整粘贴到一个单一的HTML文件中。 看到那个在移动的飞艇吗?也有可能是飞机,因为是SVG的关系,放大缩小压扁都不会影响清晰度。 编写过程中我对比了默认模式和Quest Mode(自主编程)模式, quest-mode我称之为plan模式和执行模式的mix版,它会根据我的需求先生成技术设计文档(Spec),保证对任务的理解跟我保持一致后再执行。 每一轮对话都会给出3个选项,可以直接委托Qoder CLI做,让Qoder CLI先输出一般设计文档当甲方,或者是继续对话补充更多你想要的细节。 这里我就让它给我换了个风格,加上灯光细节和背景的波浪 如果说动态SVG是单一画面效果的提升的话,在一个文件实现多个页面的画面切换、音效切换、还有弹窗切换,就是挑战终极case,复刻MacOS的前置能力了, 别画贪吃蛇了,别画俄罗斯方块了,也别我的世界了,复刻就挑冷门一点的,这一关我打算让Qoder CLI复刻2000年的游戏,几何冲刺 生成一个完整的 HTML 文件,内容是一个几何冲刺(Geometry Dash) 的克隆版游戏。这款游戏的风格需要看起来像是在 2000 年代制作的。为不同的关卡添加音乐,游戏的物理引擎需要和原版几何冲刺一样。所有的代码(HTML, CSS, JS)都包含在同一个 HTML 文件内,总代码量不少于 1000 行。 一共5个关卡,每个关卡都有自己的进度条,不同的障碍物,以及不同紧急程度的上头配乐,唯一有点bug的就是跟我自己复刻的小游戏一样,人物一开头就因为过于逼真的物理引擎掉下去了。 这时候如果想要修改部分代码的话,就可以搭配Qoder IDE使用, 单一画面测了,页面跳转逻辑测了,接下来测试一下美感, 也不画天气组件和仪表盘了,让Qoder CLI拼个乐高版小黄人我看看,这里有留意到现在的提示语多了一个什么关键词吗,就是不给模型设定固定的库,让他们随意使用任何库就好。 设计并创作一个色彩缤纷、超级精细、具有完美光照和动画背景的小黄人像素艺术。使用任何库来完成这个任务,但要确保我能将所有代码粘贴到一个单独的 HTML 文件中。 小黄人也爱Banana啊,呼吸的空气里面都是糖分和香蕉。 我们距离MacOS系统就差最后一步了,测模型的真实物理模拟,经典案例就是3D太阳系,我也带来了他的升级版 创建一个视觉上令人惊叹的、交互式的太阳系 3D 模拟,并将其优雅地封装在单个 HTML 文件中。突出显示逼真的轨道运动、动态光照效果、准确的行星纹理以及流畅的摄像机控制,以提供沉浸式体验。 这个3D太阳系是我最近做过转视角最丝滑的,做成动画插到PPT里面一点毛病都没有, 终极案例也该端上桌了, 我找半天终于找到了Gemini3.0的同款,用一个提示语复刻macos,我本来以为3D实验和复刻word、excel已经够好玩了,但我还是想少了,复刻操作系统是真好玩,每一次点击都是开盲盒。 设计并创建一个功能齐全、类似于 macOS 的网络操作系统,包含文本编辑器、文件管理器、画图工具、视频编辑器以及所有 macOS 预装的重要软件。你可以使用任何必要的库来实现这个目标,但必须确保所有代码都能粘贴到一个单一的 HTML 文件中。在同一个代码块中尽情发挥你的创意和美学设计。 来看看都做出来什么了,文件管理、文本编辑还有输入,终端也能输入、浏览器、邮件、图库、音乐播放器、剪辑、日历,甚至可以计算的计算器! 最后说说怎么安装,猴简单 curl -fsSL https://qoder.com/install | bash qodercli –yolo 看到这个界面就可以了,如果是第一次的话可能需要login 更详细的配置也可以看看文档 🔗 https://qoder.com/cli Qoder也不搞什么邀请码啥的, 新用户直接发1000credits 最后聊聊什么时候用Cli,什么时候用IDE吧, 开始读旧项目的时候就用Cli,做一个初始化init,这时候会读取整个项目大概的情况,输出一个markdown文件, 这个输出的文件不是给我看的,是给IDE里的模型看的, IDE擅长的是单、多个文件修改和新建嘛,造新轮子的时候难的就是一个功能会牵扯到很多上游文件,看不完根本看不完, 这时候用IDE的时候上下文就带上这个init文件,同时每次对话结束的最后一轮将开发进度再写到这个文件里, 到这一步你就会发现,我们可以左脚踩右脚上天了, Cli完成项目级开发、代码审查、代码提交等等项目级任务,IDE完成单个文件、单个代码片段等文件级的任务, 在它们之间我完全可以不打提示语了,直接通过这套方法来通讯就好了, 更丝滑的原生组合 Qoder CLI + Qoder IDE, Cursor + Claude Code, VScode + Copilot, 还有这套方法玩不转的吗 作者 / 卡尔 本文由人人都是产品经理作者【卡尔】,微信公众号:【卡尔的AI沃茨】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
在AI视频生成领域,谷歌的Veo3.1以其强大的功能和高质量的输出引起了广泛关注。本文将深入探讨Veo3.1的多项新功能,包括首尾帧生成、多图参考视频生成、广告创意视频制作、街头采访和第一视角演讲等。 大家好,我是激情四射的苍何。 15 号谷歌带着他们的最新最强视频生成模型 Veo 3.1 震撼来袭。 当时我人在高铁上,又兴奋,又难受。 难受的是,除了一言难尽的网络,还有在外面飘了几天,人有点麻了。 不过没关系,经过几天细致的测试体验,我觉得是时候拿出来给大家分享了。 Lovart 也第一时间支持了 Veo 3.1,我也是在 Lovart 上做的测试,可别浪费了我刚续的会员,哈哈哈。 PS:虽然普通用户 20 号前也能免费体验 Veo 3.1,地址:https://www.lovart.ai 先说下我的感受吧: Veo3.1 支持首尾帧、多图参考视频和视频延长,以及带音效,指令遵循好,能精准控制运镜,清晰度较高,特别适合营销广告制作、产品视频等要求较高场景。 同时可以通过 JSON Prompt 来精准控制风格和细节场景转换,我在下文中的 case 也会直接给出这套提示词。 虽说Veo3.1 晚上风评褒贬不一,可能是大家太期待能有什么颠覆 Sora2 的东西出来。 但谷歌这次对的起 0.1 的更新,在某些方面是能胜过 Sora2 的。所以可千万不要小看谷歌 Veo3.1 的能力。 废话不多说,我们直接进入 case。 首尾帧生成视频 这并不是什么新奇的能力,国产视频大模型很早就已经支持了,只不过Veo3.1 的首尾帧生成的视频是带有音效的,在画质上也表现很不错。 比如,我利用首尾帧功能制作房子从草图到成型建筑物的过程。 相关提示词如下: 生成一个过渡视频。展示蓝图(图1)‘拔地而起’,线条逐渐立体化,填充材质和光影,最终变为写实的建筑(图2)。这个过程应该像一个快速的建造延时过程。 最终出来的视频我觉得还是很不错的,施工的音效也是自带出来了。 首尾帧这个功能配合 Lovart 的无限画布,很丝滑,我可以把图片拖进画布,然后连线直接 Chat,就能方便生成好了。 多参考图生成视频 Veo3.1 可以用多张参考图片生成视频,我测了几个 case,都还挺不错。 case 1:儿童简笔画 先来个简单的,上传一张参考图,配合一段提示词,看 Veo3.1 的能力表现。 首先我在 Lovart 中用 Seedream 4 生成一张儿童手绘简笔画图片。 提示词:生成小朋友的简笔画,画中一个人物简笔画和一个太阳。 然后输入用 Veo 3.1 生成视频,提示词如下: 让这张儿童画(参考图1)动起来,保持其蜡笔画的风格。画中的小人对着太阳挥手。太阳也微笑着闪烁光芒。请配上一个孩子清脆的笑声和一段欢快的尤克里里音乐。 相同提示词给到 Sora 2,效果如下: 明显能感受到 Veo3.1 的效果更好,Sora 2 生成的太阳和人物都没展示全,而且音乐也完全不对。 所以指令遵循上 Veo 3.1 有更好的表现。 case 2:咖啡机广告 接下来,我用 3 张参考图上点难度。 Veo 3.1 生成效果如下: 这个视频的提示词也比较简单: 提示词:生成一个8秒的广告。镜头从咖啡机(来自图像1)开始,它正在工作。然后镜头切换到咖啡倒入杯中(参考图2)。最后是产品全景在厨房(参考图3)中。画外音(沉稳男声):‘清晨,从一杯完美的咖啡开始’。需要有咖啡机煮咖啡的‘咕噜’声和咖啡倒入杯中的声音 基于这个效果,我还做了多个短的片段视频,然后连成了一个 23 s 的汽车从草稿图到不同场景下展现的视频。 视频没有任何处理,全是由 Veo 3.1 生成,然后我做了拼接。 我先是在 Lovart 中生成参考图图片。然后基于多张参考图片再生成视频。 然后在 Lovart 中输入: 截取这个视频的尾帧,生成一张图片给我 就得到视频尾帧图片,然后输入提示词得到新的延续场景视频: 提示词:图1中的车辆冲上沙漠的山丘高地之后腾空而起,慢镜头播放腾空而起的瞬间,车轮带起了砂石,最后汽车稳稳落地停在了沙滩上,配上加速的轰鸣声和轮胎碾压沙砾的声音。 按照同样的方法,可以生成连续的多段视频,做拼接就好了。 讲真,这样连续的视频也能通过这个方法直出啦,贼方便。 广告创意视频 看到 EHuanglu 老哥利用 JSON Prompt 的方式指挥 Veo 3.1 生成创意广告视频,效果贼给力。 仿照着我输入如下 JSON Prompt: 提示词(英文版) {“product_name”: “Coca-Cola”, “product_type”: “Original Taste Soft Drink”, “description”: “A stream of vibrant red liquid pours down, creating a spectacular explosion of ice-cold carbonated bubbles and dramatic condensation that instantly forms the iconic Contour bottle.”, “style”: “Cinematic, high-speed macro VFX shot, hyper-realistic, vivid red and icy white color palette.”, “camera”: “Dynamic pour close-up → Intense bubble and mist collision → Bottle snaps into focus with shimmering condensation.”, “location”: “Dark, moody background with a subtle, warm red glow emanating from below.”, “aperture”: “Crisp, deeply focused, ultra-refreshing.”, “elements”: “Red soda liquid, perfect ice cubes, bursting carbonation bubbles, cold mist and condensation.”, “powerful”: “The Coca-Cola bottle appears with a dramatic, misty pop sound effect, covered in perfect, icy droplets.” } 提示词(中文版){ “product_name”: “可口可乐 (Coca-Cola)”, “product_type”: “原味汽水/软饮料”, “description”: “一股充满活力的红色液体倾泻而下,形成壮观的冰冷气泡爆炸和强烈的冷凝水雾,瞬间凝结成标志性的弧形瓶。”, “style”: “电影级、高速微距特效(VFX)镜头,超现实主义,鲜红色和冰白色调。”, “camera”: “动态倾倒特写 → 剧烈的气泡和水雾碰撞 → 瓶身带着闪烁的冷凝水清晰出现。”, “location”: “黑暗、富有情绪感的背景,下方散发出微妙的、温暖的红色光芒。”, “aperture”: “清晰、深焦、超级清爽。”, “elements”: “红色苏打液体、完美的冰块、爆裂的碳酸气泡、冷雾和冷凝水。”, “powerful”: “可口可乐瓶在戏剧性的、带有水雾的“嘭”声效中出现,瓶身覆盖着完美、冰冷的液滴。” } 这样可以精准控制视频生成片段和运镜。街头采访 这个视频的牛逼之处在于,被采访者将作为下一个采访的人,丝滑形成了过度。 全程只有一个这个提示词: 提示词(英文版) {“product_name”: “Street Pulse”, “product_type”: “Street Interview / Vox Pop”, “description”: “A charismatic host with a microphone dives into a bustling city crowd, engaging random people with one compelling question.”, “style”: “Candid, authentic, dynamic, urban, fast-paced editing”, “camera”: “Handheld follow-cam on host → Quick zoom to interviewee’s face → Wide shot establishing the location → Rapid cuts between diverse reactions.”, “location”: “Busy city sidewalk, public park, or plaza with heavy foot traffic.”, “aperture”: “Spontaneous, curious, engaging, real.”, “elements”: “Host, microphone, diverse pedestrians, city background (traffic, buildings), on-screen text (the question), genuine facial expressions.”, “powerful”: “A rapid montage of surprising, funny, and thoughtful answers, capturing the city’s diverse heartbeat.” }提示词(中文版) {“product_name”: “街头脉动 (Street Pulse)”, “product_type”: “街头采访 / 民意调查”, “description”: “一位魅力十足的主持人拿着麦克风,深入熙熙攘攘的城市人群,向随机的路人提出一个引人入胜的问题。”, “style”: “真实抓拍、不做作、动感、都市风格、快节奏剪辑”, “camera”: “手持摄像机跟随主持人 → 快速推近到受访者的脸部 → 广角镜头交代环境 → 在不同反应之间快速切换。”, “location”: “人流量大的繁忙城市人行道、公园或广场。”, “aperture”: “自发的,好奇的,引人入胜的,真实的。”, “elements”: “主持人,麦克风,形形色色的路人,城市背景(交通、建筑),屏幕文字(显示问题),真实的面部表情。”, “powerful”: “一个集合了各种令人惊讶、有趣和深思熟虑的回答的快速剪辑蒙太奇,捕捉城市多元的心跳。” } 第一视角演讲 注意一下人物面部表情和口型,可以说非常自然。 动画随机片段 之前玩 Sora 2 的时候,用这个提示词生成的效果大家还有印象吗? 提示词:一个由各种蔬菜组成的摇滚乐队,在一个灯光昏暗、烟雾缭绕的地下酒吧里激烈表演。主唱是一颗咆哮的卷心菜,吉他手是一根弹奏着电吉他的茄子,鼓手是两个敲击着小番茄的西兰花。它们都有拟人化的表情和动作,卷心菜在舞台上狂野地甩头,茄子在 solo 时飙出火花。观众是各种水果和厨房用具,它们都在疯狂地摇摆。 现在给到 Veo 3.1 出来是这个效果,声音更能体现眼滚乐队,但角色创意表现上不急 Sora 2。 其实我还做了不少的测试,但因为文章篇幅有限,不能全部都放出来。 好了,今天的分享就到这里。 讲真的,每次体验这些新模型,都有一种强烈的割裂感。一方面,技术的迭代速度快得让人窒息,Sora 2 的热度还没过,Veo 3.1 就已经带着新能力杀了过来。我们仿佛被时代洪流推着走,生怕一不小心就掉队了。 但另一方面,这又是一个无比幸福的时代。曾经需要专业团队、高昂成本才能实现的创意,现在我们动动手指、敲几行提示词就能变为现实。 当工具的进化速度快到让想象力都感到压力时,我们唯一要担心的,或许就是自己的创意还够不够用。 技术本身没有终点,但创造力有。 希望我们都能在这场 AI 的浪潮中,不仅仅是做一个旁观者,更是成为一个弄潮儿。 本文由人人都是产品经理作者【汪仔6818】,微信公众号:【苍何】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
OCR技术的演进,正在从“识别能力”走向“压缩效率”。本文深度解析DeepSeek-OCR如何通过上下文光学压缩实现SOTA级性能,以更少的视觉Token完成更精准的识别任务,重塑AI文档解析的工程范式,为产品人和技术团队提供一套可部署、可扩展的智能入口。 今天,DeepSeek开源了最新的模型:DeepSeek-OCR。 省流:模型仅3B,单张A100-40G卡每天可跑20万页的LLM/VLM训练数据。 更详细来说:DeepSeek提出了一种新的研究——上下文光学压缩,并通过DeepSeek-OCR模型验证了可行性。实验显示,当文本token数量不超过视觉token的10倍(压缩比低于10×)时,模型的OCR精度可达97%;即便压缩比提高到20×,准确率仍保持约60%。 小学生的理解就是,压得轻一点,它几乎全认对;压得狠一点,也能认得七七八八。 在专门的文档解析评测基准OmniDocBench上,DeepSeek-OCR只使用100个视觉Token就超越了GOT‑OCR2.0(每页256个Token), 并在使用不到800个视觉Token的情况下优于MinerU2.0(平均每页6000+个Token)。 比其他模型更省token,精度还更高。 这个模型,有着超高的实用价值。 先看示例 下面几则示例,均来自DeepSeek技术论文里的case。 比如,这是某电子书的一页。原图片,是比较糊的。 模型先进行markdown识别,把整页文字大概识别出来。 这个过程中,必然会有字母丢失或识别不准的情况。然后,模型启动深度的语法解析过程,自动推理、纠错。 最后,得到了一个更精准的结果。 整个工作过程,长这样。 可以识别作业题,包括几何图形也能识别。 带各种数据图表的金融研究报告,也能准确识别。 也包括一些来自现实生活中的图片,无论拍摄角度、字形、字体发生什么变化,都能精准识别。 对于PDF文档,DeepSeek‑OCR可以处理近100种语言,支持布局和非布局OCR格式。 区别于其他OCR模型,DeepSeek‑OCR还具备“深度解析”的能力。 通过二次模型调用(需要配备提示词),可以对图表、几何图形、化学公式以及现实中的图片进行深度解析、推理。 更多场景 OCR模型,可以把“死图片”秒变“活数据”,让机器和人都能直接“抄对作业”。 比如: 纸质档案电子化。政府、银行、医院堆成山的纸质卷宗,OCR一跑就能生成可搜索、可复制的企业知识库,检索1秒vs人工翻10分钟。 实时证件识别。机场、酒店、网吧刷身份证/护照,OCR 1秒读出姓名、号码、有效期,自动填表+公安联网核验,排队时间砍半。 法律/知识产权检索。判决书、专利说明书OCR后全所可搜,律师输入“先履行抗辩权”秒级定位5年内的相关案例,准备材料时间从3天缩到1小时。 风控打假。合同、回执、仓单、车牌、集装箱号,OCR秒抽关键字段,与系统比对,发现伪造/篡改立刻报警,金融、港口、二手车平台靠它堵漏洞,一年少亏几千万。 无障碍阅读。盲人用手机扫书,OCR把文字读出来;视障者“听”邮件、“听”药品说明书,信息差直接抹平。 企业生产场景中,几乎没有哪个场景不与OCR打交道。 优秀OCR=省人力、降差错、提速度、挖数据,把“死图片”变成“任何系统都能直接使用的活数据”,是数字化流程的第一闸口,也是AI落地的“现金牛”场景。 怎么部署 因为是开源的,所以任何企业都可以进行部署。 在github上,DeepSeek提供了快速部署指引。 1)安装 前提:确保环境是cuda11.8+torch2.6.0。 1.1 克隆此仓库并定位到 DeepSeek-OCR 文件夹。git clone https://github.com/deepseek-ai/DeepSeek-OCR.git 1.2 Condaconda create -n deepseek-ocr python=3.12.9 -yconda activate deepseek-ocr 1.3 下载 vllm-0.8.5 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 –index-urlhttps://download.pytorch.org/whl/cu118pip install vllm-0.8.5+cu118-cp38-abi3-manylinux1_x86_64.whlpip install -r requirements.txtpip install flash-attn==2.7.3 –no-build-isolation 2)vLLM推理 前提:更改 DeepSeek-OCR-master/DeepSeek-OCR-vllm/config.py 中的 INPUT_PATH/OUTPUT_PATH 和其他设置。 2.1 mage: streaming outputpython run_dpsk_ocr_image.py 2.2 pdf: concurrency ~2500tokens/s(an A100-40G)python run_dpsk_ocr_pdf.py 2.3 batch eval for benchmarkspython run_dpsk_ocr_eval_batch.py 3)Transformers推理 Transformersfrom transformers import AutoModel, AutoTokenizerimport torchimport osos.environ[“CUDA_VISIBLE_DEVICES”] = ‘0’model_name = ‘deepseek-ai/DeepSeek-OCR’tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)model = AutoModel.from_pretrained(model_name, _attn_implementation=’flash_attention_2’, trust_remote_code=True, use_safetensors=True)model = model.eval().cuda().to(torch.bfloat16)# prompt = “nFree OCR. “prompt = “nConvert the document to markdown. “image_file = ‘your_image.jpg’output_path = ‘your/output/dir’res = model.infer(tokenizer, prompt=prompt, image_file=image_file, output_path = output_path, base_size = 1024, image_size = 640, crop_mode=True, save_results = True, test_compress = True) 或者,你也可以cd DeepSeek-OCR-master/DeepSeek-OCR-hfpython run_dpsk_ocr.py 目前,开源模型支持以下模式: 原生分辨率: Tiny: 512×512 (64 vision tokens) Small: 640×640 (100 vision tokens) Base: 1024×1024 (256 vision tokens) Large: 1280×1280 (400 vision tokens) 动态分辨率: Gundam: n×640×640 + 1×1024×1024 4)提示词示例: # document: nConvert the document to markdown.# other image: nOCR this image.# without layouts: nFree OCR.# figures in document: nParse the figure.# general: nDescribe this image in detail.# rec: nLocate xxxx in the image.# ‘先天下之忧而忧’ 更多开源信息,可参考: github: https://github.com/deepseek-ai/DeepSeek-OCR huggingface: https://huggingface.co/deepseek-ai/DeepSeek-OCR写在最后 目前,业界OCR普遍有两大难题:一是精度问题,二是成本问题。 DeepSeek换了个思路,把文字“拍”成图,让视觉模型当压缩器:原来上千个文本token才能说完的话,现在几十个视觉token就装下,压缩率直接拉到10×以上。 这套“光学压缩”方案落地成DeepSeek-OCR,token用得最少,成绩却刷到SOTA:一页A4论文,100个视觉token就能原样吐回1000+文本token,精度97%。 算力直接打一折,成本跟着跳水。更绝的是,模型连权重一起开源,零门槛白嫖。 把贵的东西做成白菜价,还顺手把账本公开——这操作,很DeepSeek。 本文由人人都是产品经理作者【沃垠AI】,微信公众号:【沃垠AI】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
你是不是也在做Agent,却总觉得“功能多但不精”?这篇文章讲透通用Agent的五大缺陷,从幻觉难题到场景壁垒,再到资本驱动的泡沫逻辑,帮你看清“挂羊头卖狗肉”的现状,也提供一套垂直Agent的构建思路,适合收藏反复拆读。 最近看了一篇关于Agent比较中肯但略显悲观的文章:《几乎都在挂羊头卖狗肉,AI Agent的泡沫现在到底有多大?》 这篇文章价值较高,整理了多位行业一线实践者对通用 Agent的认知。 正如原文所述,他们以Manus的新产品Wide Research和公司跑路、撤资事件为引,深入探讨了国内外Agent泡沫乱象的现实、背后原因以及未来生存规则。 在与多位偏实践导向的技术专家交流后,我发现他们对AI的认知相当一致。以下是我对其中一些关键观点的进一步解读和拆解。 一、类Manus产品崛起之因 在深入探讨之前,我们需要清醒认识到:今年Agent的大火,首先应该是模型能力取得了大幅增强,其次才是在这基础之上的tool-use上取得了关键突破。 大模型解决规划与调度问题,Manus类AI产品能爆发的核心原因就是模型能力大幅增强; 工具链解决多模态问题,包括最近很火的MCP、Computer Use其实都算是AI多模态能力的延伸,要的就是解决AI各种“不行”的问题,这里包括了听觉、视觉、触觉等; 所谓的记忆和反馈迭代全部是数据工程的事情,之前一直叫RAG,可能最近还多了个称呼上下文工程。数据工程做得好,也可以有效降低模型幻觉。 记忆体系之前不可行,现在可行的核心原因是模型上下文大大扩展,从现在来看破百万是早晚的事。 综上,Agent能行的原因来源于模型能力增强。 在此之下才工具链的繁华:“从编程到browser-use,再到computer-use,以及随着MCP通用接口普及率的提升,Agent的tool use能力得到增强,能够更高效地从外部获取信息,以及与外部系统进行交互。” 下图会更清晰展示,今年Agent的爆发是由于工具链叠加AI: 只不过,值得一提的是通用Agent使用browser-use、computer-use还是有一些无奈之举,因为很多网站并不提供API。 XX-use未必是最优解 理想情况是让 Agent 调用受控、可测、可审计的函数(MCP),Computer Use 作为兜底能力。 比如我们之前做的简单实现:《Coze+Claude实现Manus》。 这里就没有使用Computer Use,一来是场景足够单一,二来是就是想验证下AI Code 这种方式(Claude)。 大家可以想象下,当AI编程再强大一点、理解能力更强一点,整个Agent架构可能就闭环了,这可能也是为什么很多巨头都在关注这块的原因: 掌控了AI编程能力,就掌控了智能体能力扩展的“开关”。这不再是做一个应用,而是在打造一个能够生长应用的平台。 这符合OpenAI、Google等巨头“模型吃掉一切”的终极路线图,只不过这里面的安全性问题和实现难度较高,还有很长的路要走… 然后就是很多消极的声音了: 二、消极的声音 虽然有些不公平,但Manus成了通用Agent的代表,也是主要输出对象… 王显:Manus前阵子刚推出的新功能Wide Research,我觉得非常不具备竞争力,对提高产品竞争力没有什么用。 他进一步的观点就更激烈了:Manus自始至今,从产品角度而言,思路是完全失败的。 在他看来,早期采用浅而宽的策略获客可以理解,但长期无法抵御模型厂商的下沉和垂直厂商的渗透。 大家的观点是比较一致的全部集中在能否解决问题:用户遇到真正复杂的问题时,这个通用Agent还是帮不上忙;当一个Agent宣称能做所有事情时,它往往在任何一个领域都做不到最好;… 上述的观点有些过于激烈,因为通用Agent肯定是一个大的发展方向,只不过暂时表现还不佳罢了。 其中有一句话是尤其关键的:Manus仍然没有解决场景壁垒的问题。 它没有专业数据、没有专属工具链、没有行业认证、没有与业务深度绑定的集成,也没有与高价值业务场景的绑定,也就是任何人都能做。所以,它更偏向工程能力的延伸,而不是在构建场景护城河。 任何人能做就代表实现成本不高,但成本并不高是相对的,就算是垂直领域Agent也会遭遇以下问题: 精准的意图识别:用户的需求是莫名其妙的。智能体必须理解用户的“言外之意”,这是用户体验的一道槛。需要极其精细的提示工程和大量的对话数据进行调优; 强大的工具生态:智能体的能力边界由其能调用的工具决定。一个“Manus”能否真正解决问题,取决于它能否高效使用各种服务(如订票、查邮件、控智能家居、分析数据等)。自建工具链成本高昂,因此与第三方服务的集成能力至关重要; 深厚的领域知识:在垂直领域,通用知识远远不够。需要将行业的SOP(标准作业程序)、私有的数据库、专家的经验 注入到智能体中。这部分工作是“脏活累活”,没有捷径,但正是构建护城河的关键; 这也是为什么红杉这么推崇OpenEvidence的原因: AI应用的竞争已经从技术能力的竞争,转向了产品定义、用户体验打磨、生态整合与垂直行业知识深度的竞争,早期的红利属于在垂直领域做得无比深入的团队。 所以,通用Agent尚不成熟,为什么大家各自追捧? 三、期待与资本同在 王显更是认为这场通用Agent泡沫的兴起是创业公司和资本共谋的产物: “ Manus 根本不是在做产品,而是在走资本路线,通过不断推高市场知名度以获得更高融资。至于创始人是拿到融资后真正深入场景做产品还是卷钱跑路,只有创始人自己才知道。产品非常失败,但营销可以说非常成功。” 张森森表示,“国内很多 Agent 产品功能繁多,但基本都是快速堆叠,痛点不聚焦。” “比如有大量集成了写文案、做 PPT、查资料、生成图片等功能的产品,不乏大厂参与其中。它们都有通用 Agent 的特点,功能多但不精。写代码准确率不高,数据分析缺少可解释性,设计产出质量参差不齐。初次使用可能觉得新鲜,但要长期依赖则难以实现。很少有明确与工作流、KPI 绑定的可交付结果。” …… 正如各位大佬所言,通用Agent尚不成熟,为什么大家各自追捧呢? 我这里给个真实案例: 前两个月,我一好基友是某公司的高管,他们开发了一个类Manus产品,正在他私下跟我吐槽毫无壁垒、一个月就搞定、幻觉很多的时候,他们老板却表示直接All In! 原因无他,马化腾给他们产品点赞了!你觉得怎么样不重要,资本觉得怎么样很重要,并且正因为成本低,创业公司就更高兴了… 另一方面,我这边AI训练营有个学员刚融资一个亿,他们做的是垂直领域的Agent创业,而就是在那个小的领域,很多Manus遇到的问题,他们几乎全遇到了:“他们的宣传能力与实际能力并不匹配,并非能力完全无用,而是存在明显落差;”“成功演示的往往是任务中那 20% 的标准化部分,而真正构成工作核心的,是那 80% 的、充满‘长尾异常’的复杂现实。” 从这些角度来说,原文章真的很良心… 总而言之,这里我看到的结论是:通用Agent作为既得利益者,他们是绝不会说自己不行的,资本参与者对于他们暂时行不行不大关注,反正他们是最为了解AI的一批人,相较而言,他们比其他人容易成功 接下来开始探讨Agent缺陷的根本原因 四、Agent缺陷的根本原因 这部分的论述我特别认同郭炜的观点:(很多Agent公司)没有真正深入到用户场景中去做。 只不过原因这里我有更多的感受:当前国内创业生存环境极差,以我这边创业为例:3个月拿下了电信审批资质,APP终于可以上线;6个月了算法备案还没下来,所以AI模块一直没上… 不得不说国内创业环境真的很差,这变相加剧了我们对投资的渴望,这会导致我们明知通用Agent不行,但也会投其所好的做一个,很不好意思来说: 我们11月产品里面也会有个Agent,并且我们并不其他他解决太多问题,但在20%我们要求的场景,我们会要求他很好! 这里也不是技术有什么,我们做什么,而是资本关注什么,我们不得不做什么,如果没有基本的资金,那么我们马上就会死… 所以,与其从技术层面找Agent缺陷的根本原因,不如从环境层面看问题:国内创业者因各种原因都太急躁了,根本没办法沉下心来做数据工程! 我之前在公司做AI项目负责人的时候,一周要汇报三次;我的基友已经是CEO了,但每周都要面对几个投资人的“关切”,而这些都是压力… 如果你要问我Agent缺陷的根本原因在哪,我会说需要在每个垂直领域打透,专家Agent出来后,通用Agent带一个意图识别就好。 而这一切从技术实现上来说并不难,主要难在行业KnowHow的梳理和知识结构的沉淀,而一般公司(很多资金流健康的公司也慌)哪有那个耐心资金去耗啊! 我一个管理数字分身的Agent,折腾了一年多,中间因为生存问题断断续续几次了… 综上,Agent的根本缺陷在工程在资本在决心。 五、五大鸿沟 原文犀利地指出了通用Agent“挂羊头卖狗肉”的现状,我们结合自身情况 将其根本缺陷归结于工程、资本与决心。但这三大症结的背后,由于实际艰难环境息息相关… 原文太长,我们就不一一拆解了,但有几个点是很重要的: 一、MCP因上下文缺失(知识语境缺少)导致的耗损 不存在一个“万能Agent”硬扛所有,而是通过A2A协议,让多个精通各自领域的垂直Agent协作完成复杂任务。 二、无法根除的“幻觉”难题 通用Agent在用户侧遇冷还有一个原因是他缺少模型的可观测性,在严肃的生产环境中,对应用的准确率要求极高,95%都是不可接受的数字,必须达到99%。 也正是这个原因 AI Workflow 才在企业场景中大行其是,后续“Workflow(工作流)+ Agent”的混合模式会是一种选择,用确定的流程框架,约束不确定的AI决策。 三、过度炒作的多智能体 现阶段单智能体已经可以很多问题,多智能体这种东西,大家听听就好了,不要盲目增加复杂度… 其他如什么上下文长度和模型能力,大家了解下就好… 六、结语 这里有一个问题:既然通用 Agent 现在不靠谱,那么有没有靠谱的垂直Agent? 作为过去AI医疗从业者来说,被头部 VC 押注并在医生群体里快速破圈的OpenEvidence似乎很受看好。 原因也很简单:他把“智能体”拆解为“行业问题→数据语义→确定性交付”这条最基本的链路,用工程化思维来构建产品。这里用说人话的方式来做下拆解,看看他到底哪里作对了: 一、锁定单一人群 OpenEvidence只服务持有执业资质的医生,不做“万能助手”。 这一步看似放弃了广阔市场,实则精准砍掉了80%的歧义输入和长尾需求,换来高密度的可验证问题场景。 而且这类数据是越来越有用的反馈。 二、强来源与全链路可溯源 OpenEvidence在可溯源,高质量溯源这块做得非常好! 他每个回答都必须带有引用,且来源严格限定于《新英格兰医学杂志》(NEJM)、《美国医学会杂志》(JAMA)等经过同行评审的权威医学证据。 这种设计将模型的“幻觉”压缩到了医生可接受的专业范围内。 三、产品化“证据链”,而非聊天机器人 OpenEvidence的另一个核心在于他基于高质量数据生成的可溯源CoT。 这一特性的核心不是“聊出来”的答案,而是结构化呈现“证据+临床要点”的工作流产品,服务于床旁快速决策这一明确场景。 高质量的数据 + 像专家医生一样的思考方式,大幅度降低了幻觉的可能。四、以工程确定性换取智能边界 从内容合作、证据管线到模型与工作流的全程可观测,持续把“软性智能”嵌进“硬性流程”。 正如团队一再强调的,其核心是 “临床证据→结构化→可追溯”的工程秩序。 总结一句话就是:他们在数据工程基础上建立了完善的飞轮系统,这让他们产品越做越好了。 这种慢慢积累数据持续打磨的方式看上去很笨,实际上却已经跟一般Agent拉开了差距。 综上,与其说OpenEvidence 是一个垂直Agent “会聊天的医生”,不如说他是一个“证据工作流”产品。 它用高度确定性的工作流,兜住了大模型的不确定性,这与我们在前文强调的 “Workflow + Agent”路线完全一致。 当然,这只是一种做法,也许后面其他Agent有更好的做法呢? 本文由人人都是产品经理作者【叶小钗】,微信公众号:【叶小钗】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
在拼多多的流量生态中,市场分析不仅是运营起步的第一步,更是决定打法路径的关键变量。本文结合代运营实战经验,系统拆解定价策略、市场容量评估与榜单链接分析三大步骤,帮助产品人构建一套可复制的品类判断框架,提升起量成功率。 俗话说:知己知彼百战百胜。咱们做电商的,尤其是做拼多多,当我们拿到一个品后,第一件事是干什么?不是上架开车报活动,而是先来一波市场分析。 我做代运营接触的品类多,对市场分析真的是有深刻的体会。因为经常接触到全新的品类,久了就发现,这个品类最终能不能做起来,第一步:市场分析起的作用尤为重要。 比如最近接的一个水果,当分析完竞品之后,我就预感到不太妙,因为整个市场的均价在14~15块钱,甲方给的成本就16块钱了,而且甲方还说自己是源头,是不是真源头先抛开不谈,就这个16块的成本,看上去就像二道贩子。 如预期所料,这个品很难起大量,水果嘛,别人卖15块钱的东西,咱们卖20多,你说这咋起大量? 如何能预判运营的结果以及提前规划出合理的打法思路呢?市场分析首当其冲,本篇我就为大家讲讲,我拿到一个新品时,是如何做市场分析的。 01 第一步:先看同行价格 一个品好不好卖,很大原因是咱们定价决定的。像我之前没做竞品分析上的链接,上架后开车就是没有曝光没有单,我不用看市场就可以断定,问题点就是产品价格定的过高了。做市场分析,看同行价格,就是看看咱们的定价在哪个段位上。 看同行价格的方式也比较简单,以假发这个品为例,先打开拼多多,然后搜关键词“假发”,按照销量进行排序,就看销量高的链接的价格,那种日销100单以上的链接价格都是可以参考的。 比如我接的这款,行业的均价在10~20块钱。然后拍照识图,看同款在拼多多上别人的卖价。关键词是了解这个行业的市场均价,识图是了解这款市场的均价。两者一对比,基本上这个款什么价格能走多少量,咱的心里就有底了。 比如假发客单15,市场单量在一天100~200单。当然,这个也要看款式,而我接的款,甲方给到的成本是21,不含快递费。我勒个去,这个咋玩?总所周知,拼多多的2个玩法,低价自然单,高价强付费。 别人卖价20块的品,咱们成本21,加上物流人工费等,成本要去到25以上了。所以,低价自然单这条路行不通了,只能玩高价强付费了。什么是定价决定玩法,这就是了。 看同行的价格,然后结合自己产品的成本来决定自己的卖价。核心宗旨是,成本有优势就玩低价,成本没优势就玩高价。而低价和高价的打法又不一样,现在大家应该明白了吧,不是先学玩法,在找产品,而是确定了产品,在找适合的玩法。 02 第二步:再看市场容量 市场容量是什么,是咱们这个品1天能出多少单的风向标。前几天有个做红薯的过来问,有没有能力1天1万单。然后我就去看了下市场,榜一链接一天2000单的样子,榜二榜三就没那么多单了。 也就是红薯这个款,平台日销单量估计也就1.5万单左右,那么我要吃下整个市场的三分之二的份额。 这样说吧,就算我有这个能力,平台也不允许哇。平台单品一半以上的单量给到某一个商家,那其他商家还怎么活,且单一大客户在平台来看风险是很高的。为什么单店有层级的限制,就是要雨露均沾,不能让个别商家一家独大嘛。 所以,我就回了句:这个品,单个商家在拼多多上一天拿到4~5K的单量估计有戏,多了会很吃力。然后就没然后了,不知道这个甲方有没有找到能帮他在拼多多上1天冲1万单的代运营,如果真的找到了,我倒是很想去取取经。 讲这个大体量的品,大家可能无感。再讲一个小众的品:心脏除颤器。请问在座的各位有用过这个品的,请举手。应该没几个人用过吧,就这个品,咱们做拼多多,通过顶尖的运营能力做到1天200单,请问有可能吗?应该没可能吧。 拼多多整个平台,这个品可能一天都卖不了几台,为啥咱们能做到200单每天呢?就跟吃馒头一样,一个人一顿饭吃3个大馒头顶天了,你非要觉得吃300个馒头应该也可以吧。这就是不尊重市场规律的天真想法。 看市场容量,就是看咱们单品每天能做到多少单。结合第一步的定价,这样说吧,当这个品的定价确定之后,这个款我们能做到一天多少单,多少销售额,基本上已经有数了。 切记任何一个平台,任何一个品的单量都是有数的。就算神仙来了,也不可能把小风扇,在大冷天的冬季卖到一天1000单。 03 第三步:后看榜单链接 通过前2步,确定了产品的定价和单量情况。接下来就是上链接了嘛,链接咋上效果最好?当然是先看看榜单链接是咋做的了。拼多多榜单链接也比较好找,搜产品关键词,按销量排名,在链接页面找排行榜的名次,点进去就会进入这个类目的榜单。 看榜单要看什么?看别人主图的风格,文案,不同类目的主色调不一样。比如耳机类的,蓝色、灰色居多,食品类的,红色居多。我们做的什么类目,就要贴合这个类目的色调风格。最核心的主图文案,就没必要自己去想了。榜单链接主图的文案就是你我主图的文案。 看榜单链接最重要的是看SKU布局,是上下2段式布局多些,还是一列式多些。这个咱们就没必要自由发挥了,卖的最好的链接怎样布局的,咱们就怎样布局就行。 我遇到过有的类目,2段式和一列式的都有,我是怎么操作的,同套素材做2个链接,一个采用2段式,一个采用一列式,反正上链接又不花钱,那就多链接来测呗。 这样说吧,如果这个品咱们成本有优势,榜单链接看一圈,对这个类目链接有了整体的概念,这个品95%的概率是能够做起来的,做不起来那就是人的问题了。 04 最后 正所谓,兵马未动粮草先行。咱们做拼多多的,上链接开车之前,必须要做一波市场分析。只有做了市场分析,才会提前规避掉一些问题。 比如定价过高导致的没曝光没单量。主图文案驴唇不对马嘴,用户不买单等等,影响链接起量的因素,再做完市场分析之后,很多常识性的错误就可以杜绝了。那么,起链接还有什么难的呢?当然,除了品不行外。 本文由人人都是产品经理作者【老虎讲运营】,微信公众号:【老虎讲运营】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
你是不是也在小红书投放上“烧钱不出效果”?这篇文章分享五条实战技巧,教你如何用有限预算撬动更高转化,从选题结构、博主匹配到内容节奏,帮你避开常见误区,让投放更聪明、更精准。 我先定个调,今天这篇没有长篇大论的方法论,只有几条实实在在的投放建议,有帮助,能落地,如果你是正在小红书做投放的商家请认真读完这篇推文 1)铺量已成过去式 别听一些机构瞎扯,上来就要先铺几百篇量,通常建议先铺量的机构提供的达人名单大概率是充斥着大量水号的,不仅这些账号全是广告,数据也都是通过刷量或者互暖做出来的,这些账号权重低、收录低,自然流量几乎没有,可以说毫无种草效果 如果是已经有一定用户群体的品牌,可以鼓励种子用户自发分享,种子用户写出来的笔记真实,更能打动人,目标客群一看就知道笔记非广,有一定的影响能力。种子用户对品牌有一定的忠诚度,可通过“产品体验官”此类活动,以产品礼形式鼓励他们分享笔记 如果是新品牌,有预算的可以直接聚光充值1w,找直客【好物体验站】开白,会有很多达人报名来参与产品体验,用产品置换一篇笔记,而且这种笔记发布出来无违规风险,不必担心被抓成软广笔记。如果1w预算都没有,可以通过一些第三方的通告小程序,发起产品置换,也可以换出一些笔记来 总之,无论是以上哪种形式的置换,都比花钱投水号强! 2)有效爆文对转化帮助大 小红书爆文对产品转化有比较大的帮助这点已经被官方验证了,这点应该是能跟大家达成一致共识 但是!爆文也是可以分为无效爆文和有效爆文的,无效爆文数据再好也给转化带不来帮助 那我们该怎么判断是否为有效爆文呢?这里不扯长篇大论,就拿最简单的办法来说,就是看评论区,爆文的评论条数一定是多的,但是大家在说什么很重要,如果评论区都是在说“姐妹好漂亮、这个地方真好看”,都是围绕拍摄场景和达人的评论,没有人在问产品相关问题,那大概率就是无效爆文 真正的有效爆文,最起码评论区每几条就有问产品的功效,或者产品在哪里买,有大量以产品为中心的评论,这种爆文才会对转化有帮助作用 附:不同量级达人产生爆文的比例: 100w以上,爆文率66%+; 50-100w,爆文率46%+; 10-50w,爆文率15%+; 1-10w,爆文率6%+; 0.5-1w,爆文率3%+; 0-0.5w,爆文率1%+ 3)投流是杠杆,但你先得有“支点” 很多商家对信息流的理解有误区,总是觉得,我投放的效果不好是不是因为没投流;我没爆文是不是因为没投流;笔记总被限流是不是因为没投流。少一点自作多情,多一点自我审视 投流确实可以在短时间增加大量的曝光,但是因为素材的不同,带来的点击效果也不同!本身自然流量就不好的笔记,拿来投流只能买到曝光,带不了点击和互动,没有点击和互动就对产品种草没有帮助,只有本身自然流量曝光表现很好的笔记,才值得用信息流去加热,同样的曝光量,可以拿到更多的点击和互动 判断一篇笔记值不值得投流,不仅要看展现量、点击量、CTR/CPE等还要看回搜率(看过信息流笔记后48小时内在小红书中搜索关键词的用户比率,说明用户阅读笔记之后又在小索红书平台进行品牌相关词的搜索,是笔记种草成功的一个过程指标),各项数据都很强的笔记才值得拿来投流 所以,本质上信息流是锦上添花的东西,做不到雪中送炭,不够优质的笔记点击成本会无限大,甚至可以高于自然流量的采买价,这种情况去投流,你图啥???? 4)要对ROI有较高的耐受度 种草是一个长期“工程” 随着入驻小红书的品牌越来越多,小红书的用户对于各类产品的被种草接受度越来越低,很难只种一次草就能起到影响消费决策的作用了 我们需要面对我们的目标人群,通过不同的兴趣圈层,不同的量级达人,不同的内容类型反复触达目标人群,在被多次种草后,才有可能形成心智 从前期的打造口碑、破圈传播再到后来的销售转化可能要进行几轮的笔记投放流程,整个的周期会比较长,且转化也相当长尾,需要把转化拉长周期去看ROI,才能有效计算在小红书投放的效果 有非常多的品牌都停在了第一轮的投放,因为看不到短期效果停止了投放,所以,在小红书进行投放前请做好短期内对ROI有较高耐受度的准备 如果是急需转化的品牌,可以找我们这种机构来合作,用我们长期的经验,用你最少的预算打磨优质的笔记,然后以保ROI的形式去做商品卡的转化投流 5)一定要重视小红书搜索场景的布局!!! 小红书目前最强的心智其实是“搜索” 但从90后这一代开始,百度太古板了,内容太不精准了,对搜索的心智逐步过渡到小红书,你的生活指南 小红书在搜索上是拥有结构性优势,其他平台在这方面对它无能为力,只有在小红书能看到「活人」发的「真实经验」 信息价值本就一部分是时效,一部分是兴趣,一部分千人千面,现在的无用都可能将来是大用。所以在笔记结果上不要只盯三天周期七天周期,而是方向明确,找到核心关键词打呆仗。日拱一卒,功不唐捐 一定要善用搜索的关键词、热词推荐等来帮助我们找到笔记核心词,以便能让系统识别并推荐给对应用户 本文由人人都是产品经理作者【赵子辰Vic】,微信公众号:【Vic的营销思考】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
你还在靠“卡路里计算”减肥?Simple Life 用“拍照+聊天”就做到了年入7亿。这篇文章讲透它如何用AI教练、成功分数、电子宠物等机制提升用户依从性,让健康管理变得轻松又上瘾。适合产品人参考其行为设计与数据飞轮策略。 “拍张照、聊句天”,就能减肥? 听起来像个玩笑,但国外真有家公司把这事儿做成了爆款。 不久前,AI减肥应用 Simple Life 宣布完成 3500万美元 B 轮融资。 之所以能拿到这么多钱,背后还是得益于其出色的商业化数据: 仅去年一年,Simple Life 靠帮人减肥创下1亿美元收入,同比增长64%;今年1月,AI健康教练 Avo 已累计发送 1900万条辅导消息,相当于每天陪用户“聊天”超60万次。 更关键的是,一项覆盖5万名用户的研究显示,42%的人通过 Simple Life 在一年内成功减重超过5%。 一个靠“拍照+聊天”就能减肥的App,凭什么能火成这样? 01 把减肥服务,卖了1亿美金 越来越多的人,开始重新思考“健康”到底意味着什么。 麦肯锡调查显示,84%的美国消费者将健康视为首要考量;德勤也发现,76%的美国人倾向于用食物替代处方药来管理健康。人们不再迷恋“七天掉十斤”的速成法,而是想要能一直过下去的健康节奏。 社交媒体上,这种心态正变成主流。打开TikTok或Instagram,“直觉饮食”“身体中立”等话题的播放量动辄几十亿,传递的核心理念其实只有一句——别饿自己,先让习惯舒服地留下来。 而这一次,科技刚好接住了这种变化。 十亿多只可穿戴设备24小时贴在皮肤上,步数、心率、睡眠甚至压力都被悄悄收进手机;各类健康App又接入Apple Health、Google Fit,把原本散落各处的数据拼成一条完整的时间线。 在这样的背景下,Simple Life出现了。 其创办的初衷是:让个性化健康建议变得“可执行、可持续”。它把复杂的健康管理拆成三件事:拍照、聊天、打卡。 Simple Life最常被消费者用到的功能就是拍照识物与营养分析(Avo Vision)。 只需对餐食拍照,应用就能识别饭菜种类、估算体积并计算热量。系统基于类图像分割技术,在两秒内完成分块识别与营养匹配。那种立刻看到结果的满足感,比“坚持就是胜利”的鸡汤有效多了。 同时,Simple Life里还内置了一个名为Avo的AI健康教练。 Avo最大的特点在于,能通过自然对话理解用户意图。例如,当用户说“今天想吃点低卡但饱腹的午餐”,Avo会提供专业且贴近日常的饮食方案。 在Simple Life上,拍照、打卡、称重、发消息……每一次动作把记录做成无感,几秒算出“成功分数”并刷新“今日计划”。 为了让用户更有参与感,Simple Life 借鉴了 Duolingo 的游戏化机制,把健康管理变成了一场可持续的挑战,连续打卡7天、14天、30天可解锁不同等级的徽章,一旦中断,进度清零。 有时,Avo还会突然冒出一句“昨晚没暴食吧?”这种看似随意调侃,其实是模型捕捉到你活跃度下降,用一句轻推把你重新拉回App。 凭借这样“好玩又有用”的体验,Simple Life 在 2024 年的收入已突破1亿美元,同比增长 64%。 在付费模式上,它采用订阅制:免费用户每天只能与 Avo 对话两次,若想解锁无限陪伴,则需升级为 Premium 会员。 更令人信服的是,Simple Life 在减肥这事上所带来的直观效果。 据公司透露,在一项覆盖 5 万名用户的同行评审研究里,42%的Simple Life用户在一年内减重超过5%。 仅在2025年1月,Avo 就发送了 1900 万条对话消息,帮助数十万用户以更轻松、更持久的方式,建立属于自己的健康节奏。 02 Simple Life成功的两个秘诀 与Noom、MyFitnessPal等传统应用相比,Simple Life的核心优势体现在两个方面:模态数据融合实现的深度个性化,以及通过连胜机制、成功分数与主动提醒等行为设计提升的用户依从性。 Simple Life把减肥这件事,真正做到了个性化。这种个性化来自两个层面: 第一层,是群体智能带来的理解深度。Simple Life强调“每新增一名用户,都在丰富行为数据集并提升整体个性化”。 在Simple Life上,“成功分数”并不是玄学,而是基于同年龄、同BMI人群的群体预测。 系统能从数百万用户的行为模式中推断出关键节点,比如用户可能在第12天容易想偷懒。模型会每小时滚动优化,通过持续比对同类用户的反应,动态修正你的计划。最终,那些庞杂的算法被包装成简单直观的“每日计划”,让健康管理清晰可感。 第二层,是实时反馈带来的动态适应。Simple Life不仅能看出你碗里是咖喱饭,还记得你昨晚说“饿到睡不着”。 第二天,它会自动缩短断食时长,让计划更贴合你的状态。系统会把你的照片、文字、体重、步数、心情等数据压缩成一条向量,在10秒内生成包含饮食、运动、断食建议及预估减重克数的“明日计划”。 这些实时数据背后,是一套“近实时特征聚合 + 小批量增量更新”的飞轮机制。 系统会根据用户的来源渠道、使用频率、聊天活跃度等维度进行动态分群,预测谁可能流失、谁需要鼓励,并以不同的语气、推送频率和话题重新唤醒用户。 除了个性化外,与传统减肥产品相比,Simple Life在产品理念上也有所不同。 创始人Mike Prytkov以自身减肥经历为灵感,切入传统应用未满足的市场空白——从强迫性的卡路里“计算”,转向可持续的“行为改变”,这与现代健康理念是相契合的。 在行为设计上,Simple Life的系统用连胜、分数和贴心提醒,让坚持变得像顺手打卡。AI教练Avo不只发号施令,还把饮食、运动、断食装进一张动态日程,随时回炉更新,陪你一直“打怪”。下一步,官方还要加码游戏化奖励,让AI陪玩更上瘾。 营销方面,Simple Life在Instagram积累85.7万粉丝,借助名人推荐与用户案例增强可信度,“成功分数”也激励用户自主分享,形成传播循环。一些典型案例如: Laci Gilbert:媒体报道她86周减1英石,配合折扣码一起推。 Danielle Broadway、Chris Prahl:被《太阳报》当作减重案例引用,前者为三个孩子的母亲,附带前后对比图。 官方“大使”页面列出的Lori、Teresa、James等用户,减重70磅左右,授权平台用自己的照片和数字做推荐。 不久前,Simple Life刚刚完成3500万美元B轮融资。公司计划拿这笔钱去升级实时基础设施、Avo Vision模型优化及习惯与运动模块的深化。 全球体重管理市场规模已突破 3400 亿美元,并在未来五年预计仍将稳步扩张。随着可穿戴设备普及、个性化AI推荐成熟,以及人们对“可持续健康”的需求增长,这个赛道正从“减肥”转向“行为重塑”的更大叙事。 在这样的背景下,Simple Life 选择了一条与众不同的路: 它没有陷入与 Noom、MyFitnessPal 等传统记录类应用的“打卡竞赛”,而是将 AI、行为科学与游戏化机制 融合进一个可持续的闭环系统——让用户不再被“自律焦虑”绑架,而是通过自然交互、即时反馈和温和陪伴,实现潜移默化的行为改变。 在全球数字健康进入下一个竞争阶段的当下,Simple Life 所代表的不是一个产品,而是一种趋势:从记录到理解,从建议到陪伴,从控制身体到理解自己。 也许这才是AI介入健康管理最值得期待的方向。 文/朗朗 本文由人人都是产品经理作者【乌鸦智能说】,微信公众号:【乌鸦智能说】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
国庆后,民宿市场并未降温,反而进入平台间的“再排兵”阶段。本文深度解析木鸟、途家、美团三大平台在活动设计、房源策略与用户定位上的差异化打法,揭示民宿行业从流量争夺到生态建设的演化逻辑,为产品人提供一线观察与战略启发。 国庆后至今,民宿市场并未松劲。先是木鸟民宿与途家民宿再次对打,紧接着,美团民宿也在通过收藏榜与房源列表的调整悄然发生着变化。 三大民宿预订平台的国庆后动作,虽然并未摆开阵势,但却非常鲜明地展示了木途美在民宿市场的“再排兵”。 多元内容抢占后国庆档 在主题方面,木鸟和途家默契地上线了赏秋主题活动,可谓又一次正面交锋。木鸟民宿方面,木鸟民宿的秋游活动仍然聚焦周边游主题,在汇总“全年特惠”“学生特价”的基础上,叠加了110元的券包,共分为5档,用户只要登录即可领取,预订民宿时会根据使用条件下单自动抵扣。 从活动详情来看,基于地理位置推荐的周边秋游目的地及对应目的地周末出游的景点推荐在落地页均有体现,受国庆后长途游需求收缩影响,木鸟民宿更多还是在聚焦周末短途出游场景考量活动设置。 途家民宿则在聚焦长线游,活动设置上更为倾向商旅度假圈层需求,用户基数相对较小。从赏秋活动详情来看,途家虽然打出了6折起的副标题,但并没有平台优惠释出,所谓的优惠基本为“今夜特价”“早鸟优惠”等平台常规优惠加以二次包装。 途家民宿在专题活动中设置了四个板块:北平之秋、江南秋韵、水墨皖南、云贵川渝,亮点在于每个板块下对应城市的赏秋景点和赏秋黄金期,方便用户根据度假时间需求选择景点并预订周边民宿。四个板块共计22个城市,可选城市目标相对较少,同时在对应的民宿展示上,赏秋专题里的民宿仍然为多居室,途家仍然寄希望于度假大单,当然这也是途家在流量被分割下集中精力攻一点的无奈之举,但途家的大单打法也在承受来自美团的挑战。 如果说木鸟和美团还是在聚焦用户需求转化维度,美团民宿则在通过排行榜试图扭转低价低质的固有印象。 在美团主站上,美团酒店的活动丰富且频繁,除了有团购之外,周末及直播活动以及特色合作层出不穷。反观民宿,原本归属美团民宿的短租业务与民宿业务并列,被分拆开来,美团民宿的独立性进一步被削弱。 2024年11月底的版本更新中,美团民宿增加了收藏榜单功能,美团民宿的榜单位置被放大,从排行榜相关规则来看,房源收藏和口碑榜的准入门槛是平台排名前30%,房东则是排名前50%,从榜单详情看,美团民宿榜单上的推荐房源已经跳出了单一价格维度。 排行榜在辅助用户决策的同时,也正在尝试通过大家都在看植入美团特色民宿多、品牌民宿多的新产品维度,这与美团住宿版块试图抢夺高星市场的战略一脉相承。 不过评选维度较为单一,仅以少数用户的收藏数量来对比。让笔者比较惊喜的是口碑榜,相较于收藏榜来说,是来自于成交用户的五星好评,相对参考性会更大一点。 同样在这次更新中,美团民宿增加了住得开聚得嗨的品牌相关定位语,这也标志美团由免费住宿活动强化性价比品牌印象向大空间多人聚会宣传方向的转变。 在城市房源列表界面,这种倾向也已经有了表现,以南京为例,默认列表前20间民宿房源中,10套为100元以下,10套间夜价突破千元,美团民宿悄然走向了两个极端。 不过同样聚焦多人入住场景的途家和美团又有所不同,正如上文笔者提到的,途家多为商旅度假需求,房源价格高。美团尽管也在做高价别墅,但整体仍然以年轻用户群的聚会轰趴需求为主,二者的核心客群重叠度不高。 而价格带和房源种类都更为全面的木鸟民宿,依旧是公认的特色民宿主阵地。闺蜜/情侣、一家三口、多人入住在房源推荐上没有轻重之分。用户可以通过标签筛选找到自己想要的特色房源,相对来说和旅游的需求场景更近。 木途美头部平台寻求细分落点 同赛道的内容布局之外,各大平台也在积极着力自身的差异化优势。 1. 木鸟民宿更关注特色服务双优的C端房源 从木鸟民宿的首页来看,闪订作为服务牢牢占据首页金刚区的C位,今日特价和网红民宿则分列两旁。 从房源来看,木鸟民宿的核心推广资源集中在网红民宿和四木民宿。2017年之前,木鸟民宿凭借网红民宿拥有了一批忠诚用户,同时伴随民宿概念的普及,民宿市场空间再次被扩宽。途家民宿在这一时期大力发展B端自营的酒店式公寓,通过重资产投入达成统一管理,木鸟则在行业内首次提出要建立民宿的服务标准,随着此后其它平台陆续加入,行业达成共识,C端民宿的服务标准有了准绳。此外,木鸟民宿也在做出一些创新的内容,比如中长租以及学生特价等特殊需求。 2. 途家民宿侧重公寓和大单 途家民宿的重心集中在“酒店式公寓”“多人度假”和“中长租”,酒店式公寓伴随携程国内商旅流量的下滑,途家从携程得到的订单也在减少。而后两者,其实就是“拼大单”。 一方面,商旅用户的度假需求需要被满足,同时随着银发人群的扩大,康养旅居的市场空间也在增长。大单的本质是聚焦,对途家来说,通过做大单在回笼资金的同时,也能通过资源和服务的集中改善用户关系。 但话说回来,大单不是谁都能玩。小单拼的是速度,大单拼的是耐力。用户对大单的要求也会更高。途家最大的弱势就是在C端运营,一旦用户服务链条出问题,势必会影响忠诚用户对品牌的信任度,同时也会影响潜客的进入。 3. 美团民宿的优势在于品质让位的绝对低价 美团民宿作为美团系本地生活的一部分,低价基因一脉相承,加之美团民宿起步晚,早期为了迅速提升房源量,吸纳了大批学校、医院周边的日租房,价格便宜但体验不佳的品牌印象早已根深蒂固。 美团民宿通过排行榜和房源推荐逻辑的改变试图扭转这种印象,着力程度不言自明。不过作为美团旅行的子版块,还需要看美团酒旅和高星酒店的合作深度以及引流效果。美团民宿向上的路还有很长。 木途美都在持续夯实自身的差异化优势,这也是各平台在正面交锋中巩固各自市场的关键所在。民宿产品决定近几年的短期爆发力,而民宿生态建设与运营积累,决定长期生命力。 本文由 @雨后伊晴 原创发布于人人都是产品经理,未经许可,禁止转载 题图来自 Unsplash,基于 CC0 协议 该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
你是不是也想快速搭个网站,却被各种工具劝退?这篇文章手把手教你用 Coze 搭建一个功能完整、结构清晰的网站,从提示词设计到模块调用,半小时搞定。不只是教程,更是一套可复用的工作流思维。 没想到AI现在已经强大到这种地步了。 我今天尝试用coze做了一个聚合搜索的网站,全程加上我自己的思考和判断,也就半个小时左右,直接生成可交互的网站页面。 下面是过程的简单记录。 创建AI生成式应用 在扣子主页点击【创建】,选择创建应用,点击【AI生成】 (免费版只能创建一个项目,请珍惜!想好再创建) 输入想法,定制功能 输入你的想法,coze接下来就会根据你输入的想法,给出一些功能定制项让你选择,基本上你只需要点点点就好,如果你觉得系统给出选项不符合你的要求,你也可以【输入其它内容】。 如果这都觉得麻烦的话,也可以直接交给AI自动生成核心功能点。 以下是我输入的想法提示词。 生成需求文档 功能定制完成后,会生成功能总结,整体看下没问题后,就可以点击【直接生成需求文档】。 接下来就是coze能力的初步展示,它会快速生成需求文档,从产品定位、目标,到用户群体分析,以及详细的需求说明,甚至包含流程图都会一起生成好。 建议仔细的阅读一遍需求文档,如果发现哪里生成的不符合要求,可以直接编辑修改。 生成设计稿和交互原型 需求文档没问题后,可以点击右上角【生成视觉】,系统会让你选择视觉风格,并自动生成。 完成后会让你选择一版符合需求的视觉稿,进行交互原型的生成。 点击【生成交互原型】开始生成页面。 生成好后就可以左右滑动查看页面,或者预览交互原型了。 生成应用 这是最关键的一步,系统会快速生成所有代码文件,并支持页面预览。 而且有一点非常友好,需求文档、页面原型、代码文件,都是可以直接下载的,非常的方便。 需求修改 应用生成好之后,也可以在左侧对话框中,直接用自然语言提出你的修改要求。 系统会自动修改代码,并且生成新的版本,不过这个过程比较耗时,需要耐心等待。 比如我让AI帮我把颜色换成了白色,修改过程中代码运行出错,点击控制台的【自动修复】,还能自己修复错误代码。 不过改完之后,首页上的元素有些丢失。 整体用下来,比较流畅,但是会有肉眼可见的token消耗。 而且生成的网页,虽然可以进行交互,但实际并不能真正使用,如果需要的话,得自己下载代码部署到自己的服务器上,这对于没有技术背景的同学来说,难度其实还是不小的,肯定会涉及到大量的调试修改工作。 不过,这已经节省了很大一部分工作量了。 可以动手试一试。 作者:向上的小霍,现任某厂AI产品经理,公众号:向上的小霍。 本文由 @向上的小霍 原创发布于人人都是产品经理,未经作者许可,禁止转载。 题图来自 Pexels,基于CC0协议。 该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
你还在用AI做客服、写文案?其实它能帮你重构整个电商链路。这篇文章讲透AI在电商中的五大应用场景,结合实战案例,帮你从“工具使用者”变成“链路设计者”,让技术真正成为增长引擎。 2025 年天猫双 11 以6 款 AI 导购应用全面落地打响第一枪,标志着电商行业正式从 “流量竞争” 迈入智能效率竞争的深水区。淘宝天猫推出的AI 万能搜、AI 试衣等工具,通过自然语言理解、多模态交互、个性化推荐三大技术支柱,重新定义了“导购”的核心价值 —— 从信息筛选升级为决策辅助。这场由天猫点燃的 AI 战事,迫使京东、拼多多必须基于自身基因寻找破局路径,而其背后折射的,正是电商行业技术重塑商业效率的必然趋势。 一、行业分析:AI 导购成为电商新增长引擎 1. 技术成熟度突破临界点 大模型技术的商用化落地为 AI 导购提供了底层支撑:天猫通过 AIGI(智能索引)、AIGR(智能推荐)技术体系,实现对 20 亿商品的精准语义解构,解决了传统搜索 “需求与商品错配” 的核心痛点。数据显示,AI 驱动下的流量匹配效率已实现双位数增长,验证了技术降本增效的商业价值。 2. 用户需求倒逼体验升级 当前消费者呈现消费降级、比价决策高、个性化需求强的特征: 64.3%的用户:不再盲从消费、跟风消费和冲动购物 61.1%的用户:消费前,花更多时间思考购买商品的实用性与必须性 61.9%的用户:会仔细阅读产品的评价和评分来帮助自己做出购买决策 天猫 6 款 AI 工具精准命中这些痛点:AI 帮我挑通过对话式交互降低决策门槛,定制化 AI 清单基于行为数据实现千人千面推荐,而AI 试衣将退换货率预估降低 30%。 3. 行业竞争进入智能军备竞赛 天猫的 AI 布局并非孤例,行业正在形成技术投入 — 效率提升 — 用户留存的正向循环。据测算,头部电商平台 AI 导购相关研发投入年增速超 50%,而率先落地的平台有望在用户粘性、商家留存上建立 2-3 年的竞争壁垒。 二、竞品分析:三巨头的 AI 导购差异化路径 天猫:全链路AI 渗透的生态型玩家 核心产品矩阵:构建搜索 – 决策 – 转化 – 服务全链路工具包 竞争优势:10 亿用户数据 + 全品类商品库 + 技术中台能力,实现 AI 工具与商业场景的深度耦合。 潜在短板:工具矩阵复杂,中老年用户学习成本较高;中小商家 AI 适配成本尚未完全摊薄。 京东:供应链锚点的效率型玩家 破局:避开天猫 C 端体验优势,聚焦AI + 供应链差异化赛道 拼多多:下沉市场适配的轻量化玩家 破局:以低门槛 + 强裂变切入,降低 AI 使用门槛 三、商业模式:AI 导购的盈利闭环构建 天猫:工具免费 + 服务收费 + 数据增值 基础层:面向C端用户的AI导购工具免费,通过提升转化效率吸引流量; 盈利层:向商家收取AI增值服务费用,如AI美工(月均生成2亿张图片,按生成量阶梯收费)、AI数据分析(定制报告单价500-2000元); 增值层:向品牌方提供“用户需求洞察”数据服务,辅助产品研发与营销策略制定。 京东:供应链服务 + 佣金分成延伸 核心盈利点在于AI提升供应链效率带来的成本节约,参考智能补货可使仓储成本降低12%; 向第三方商家开放AI供应链工具,收取服务费+交易佣金分成(分成比例1-3%)。 拼多多:流量变现 + C2M 分成轻量化 通过AI工具提升用户停留时长与转化率,间接增加广告收入; 基于AI选品结果引导C2M订单,向工厂收取5-8%的交易分成。 四、运营模式:AI+行业应该如何落地的协同策略 天猫:技术中台 + 商家赋能 + 用户教育三位一体 研发运营:搭建AI导购技术中台,支持工具快速迭代,据了解平均更新周期缩短至2周; 商家运营:组建1000人AI经营团队,提供工具培训-效果诊断-方案优化全流程服务,中小商家适配率已达60%; 用户运营:双11前通过AI体验官活动灰度测试,收集反馈优化交互细节。 京东:供应链协同 + 场景渗透运营路径 联动仓储、物流、客服部门成立AI协同小组,确保工具与履约环节无缝对接; 以3C、家电等优势品类为试点,打造AI导购+极速达标杆案例,再向全品类复制。 拼多多:下沉渗透 + 社交裂变运营打法 简化AI工具交互界面,仅保留3-5个核心功能,适配中老年用户习惯; 设计AI荐好物,分享得红包活动,通过社交裂变降低获客成本,单用户获客成本降至15元以下等。 五、SWOT 分析:三巨头的 AI 导购竞争力全景 六、总结与预测:AI 导购终局与产品人启示 1. 行业终局判断 竞争焦点转移:从流量争夺转向用户决策效率争夺,AI 导购成为核心护城河; 模式分化加剧:生态型(天猫)、效率型(京东)、轻量化(拼多多)路径将长期并存; 价值重构方向:未来 1-2 年,AI 导购将从工具层向决策层渗透,有望承担30%的购物决策工作。 2. 产品人核心启示 差异化定位:避免盲目跟风,需结合平台基因寻找切入点、参考供应链型平台聚焦效率,下沉平台聚焦轻量化; 商业闭环思维:AI 工具需锚定降本、增效、增收等核心价值,避免技术空转; 用户适配原则:工具复杂度需与目标用户群体,核心需求价值匹配; 合规底线意识:在数据采集、用户隐私保护上建立防线,规避监管风险。 3. 总结 2025年11月11日这场 AI 导购之战,本质是技术能力与商业基因的结合竞赛。天猫的先手棋能否转化为胜势,京东的供应链壁垒能否抵御冲击,拼多多的轻量化路径能否突破天花板,2025 年双 11 或将给出关键答案。 本文由人人都是产品经理作者【造梦产品论】,微信公众号:【造梦产品论】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于CC0协议
你还在把智能座舱当导航工具?其实它可以是你的“懂你搭档”。这篇文章讲透AI座舱如何通过语义理解、场景联动与情绪识别,实现从功能响应到情感陪伴的跃迁。 过去十年,汽车行业经历了两场重大的革命——动力系统的电动化与智能系统的AI化。如果说电动化改变了汽车的“心脏”,那么AI正在重塑汽车的“灵魂”。理想、小鹏、特斯拉等等车企是这一变革浪潮中少数同时在两条主线都具备体系化思维的玩家。 一条线,是自动驾驶智能化。另一条线,是智能空间化。接下来的车企将不再是口号宣传“AI+汽车”,而是真的开始AI融合汽车深度融入智能驾驶、座舱交互等场景。 这篇短文,我将以 AI 产品经理的视角,从行业趋势、结合最近对理想汽车的战略思考,以及个人的产品思考来阐述:「AI汽车是如何从“语音助手”进化为“主动执行的智舱伙伴”」 01 AI汽车从“功能”到“空间” 随着汽车智能化程度提高,座舱系统正从简单的信息娱乐中心演进为智能移动生活空间。传统的功能堆砌式设计已无法完全满足用户需求,AI技术正在重塑人车交互本质,打造真正”懂你”的座舱。 AI在座舱空间内的关键价值在于其能够了解用户习惯、预测用户需求,并提供相应的个性化服务。智能座舱正从封闭的功能集合向开放的服务平台演进。座舱Agent不再局限于车控功能,而是变身个人生活助理。这也是汽车制造商能够打造出具品牌识别度的抓手之一。 1. 记忆系统与用户画像:通过引入全场景化、自我训练成长的记忆系统,能够使座舱自主识别、记忆和管理用户的特征化数据(如空调温度、音乐偏好、日程安排、常用路线等),形成独特的记忆羁绊与情感联结。 2. 场景化自适应服务:Zeekr AI OS 7的灵动胶囊功能通过AI自动调取应用信息,实时生成胶囊卡片双任务同屏,可以在不同用车场景下提供符合当下需求的快捷菜单。 3. 跨设备协同能力:打破车端与移动端的信息壁垒,实现用户偏好的数据共享流转,使AI智能体能够基于更全面的上下文信息提供服务,而不局限于车端感知数据。 4. 自然交互体验:突破传统物理按键、触屏或机械式语音交互的限制,创造出更贴近人类本能、符合直觉的人机交互模式。 5. 状态感知与意图预测:系统能够感知乘客状态,提供迎宾助手功能;在进入停车场后自动开启停车计时器。 6. 情感化交互设计:针对不同场景,系统语音对话会融入”喜怒哀乐”的情感化表达,使AI智能体不再是冰冷的工具,而是有温度的出行伙伴。 02 AI汽车”长尾”和策略 AI赋能下的汽车系统虽然强大,但其规模化应用仍面临多重挑战。首要挑战是如何确保其安全&可靠。以智驾举例,想要让智驾的安全和稳定得到保证。核心就是要以评测为第一优先级,并为此构建大量且全面的评测集。 黑盒决策与可解释性:AI的黑盒特性在汽车安全领域会被更为敏感地放大。以评测渠道为主导AI产品设计,可以提升Agent输出内容的稳定性,避免危险驾驶行为。同时,构建覆盖全交通要素的”世界模型”,支持低成本仿真验证决策逻辑。 长尾场景覆盖:尽管虚拟测试可模拟99%的极端场景,但那剩余的1%未知场景可能会带来致命风险。这需要结合真实路测、仿真测试和强化学习,构建多层级验证体系,逐步扩大AI智能体的场景应对能力。所以当年特斯拉的“影子模式”在持续地获取大量真实的路况信息。 各大厂商对于“长尾”问题,都有相应的动作。大家推出了自己的模型和Agent去解决。 吉利最近推出智能座舱AgentOS引入了”全融合地图”功能,从多模态感知入手将全国3D车道级导航地图与智驾SR地图融合,为AI智能体提供更全面的环境认知基础。 理想的VLA大模型通过预训练、后训练与强化训练三阶段模拟人类学习过程,整合3D/2D视觉、思维链推理与行动执行,模拟人类驾驶逻辑。使AI能够像人类司机一样进行情境化判断。这些问题对应的解决方案,都在指向一件事情:稳定性。稳定地让AI发挥出自己的能力。 为覆盖全交通场景的”世界模型”打基础。需要利用大量真实数据+低成本仿真技术,让AI在真实环境和虚拟环境中不断探索与学习,优化其应对罕见场景的能力,逐步攻克”长尾问题”。 03 智能座舱三个核心能力 车企们为实现智能化都在努力训练推出自己的模型以及OS系统。除智驾外,对于智能座舱的发掘也在不断提升。智能座舱是空间智能汽车形态的延展。 空间智能——在于让空间拥有主动理解与行动的智能。 智驾的智能在于对外部空间的理解力,座舱的智能在于对内部空间的共情力。一个优质的空间智能体,应该具备三大核心能力:多模态感知、场景认知推理、任务规划与自主执行。 具备以上三大核心能力的汽车,不再是一个被动响应的工具,而是一个能与用户共情、具备空间认知能力、可以主动执行任务的车内伙伴。 1. 多模态感知:可以从汽车本体与汽车场域感知思考 汽车本体:要感知汽车软硬件设备。 硬件:轮胎、GPS、IMU等,可以实时获取车辆状态(速度、电量、胎压)、地理位置等信息。 软件:QQ音乐、高德地图、车机互联的日程代办等等。 汽车场域:应该包含视觉、听觉、触觉,三种类人化的接收信息的能力。 视觉:通过舱内摄像头,精准识别用户(身份、性别、大致年龄)、姿态(驾驶/休息)、手势(指向、划动)、视线(在看哪里)、表情(开心、疲劳)。 听觉:通过分布式麦克风阵列,实现音区定位和全双工语音交互,能分清是谁在哪个位置下达指令,并能随时被自然打断。 触觉:集成座椅压力传感器、方向盘握力检测、温湿度传感器等。 2. 场景化认知与推理 上下文理解:接受多模态信息后做信息拆解,需要理解简单指令和复杂指令。例:用户用手指了指后排并说“把那边窗户打开一点”,Agent能理解“那边”指向的是“副驾驶侧窗户”,“一点”代表开窗的幅度大小。 意图预测:基于场景和用户习惯主动预测需求。 场景例1:检测到驾驶员连续打哈欠且天色已晚→主动询问“您似乎有些疲劳,是否要播放点提神的音乐,或寻找最近的服务区?” 场景例2:识别到副驾乘客上车并连接了手机蓝牙→自动将其手机的歌单推送到中控屏,并问“是否想继续播放您上次听的播客?” 记忆与个性化:为每个用户建立个性化档案(云端+边缘安全存储),记住其座椅位置、空调偏好、常用路线、音乐口味等,实现“千人千面”的服务。 场景例1:检测到驾驶员周一到周五下午6点到8点导航路线为回家,自动为驾驶员推荐路线,并告知道路佣金情况。 场景例2:用户在上了高速以后,喜爱听的歌曲类型主要为摇滚乐,为用户推荐最近一个月热榜的摇滚歌曲。 3. 任务规划与自主执行 技能库:如“调节座椅”、“设置导航”、“播放媒体”、“控制车窗”、“订购服务区餐食”、等。 复杂任务拆解:能将用户的高阶指令自动拆解为基本技能序列并执行。例如,用户说“小睡一会”,Agent自动执行:1. 调暗车窗 2. 放平主驾座椅至记忆位置 3. 关闭音乐 4. 设置35分钟定时闹钟。 跨域协作:能够调用车外服务,如通过语音直接在车机端完成餐厅预订、充电桩支付等。 以上是基于AI能力和大众所需的场景,定义出来的智能车载空间需要具备的功能。但在实际的产品设计上,还是要回归到产品的经理的基本功——定义产品的能力。 04 关于智能空间的思考 交通工具是从家到学习/工作等场所的介质。对于这个交通工具——汽车来说,他需要具备家、第三空间的属性。大多数汽车都会承载,家人、朋友这样的羁绊。 汽车已然成为家庭生活与个人事业的双重延伸。 汽车不应该仅仅是交通工具,它未来的定义应该是更懂“你们”的伙伴。“AI语音助理”能力应该实现跃迁——从问答助手到“主动可执行的伙伴” 不同品牌,不同车型都有自己的目标用户群体,智能车载空间的AI智能助手设计,还是要从用户场景出发设计AI方案。我个人很喜欢理想汽车对车的定义——移动的家。(并不是说其他汽车不好,每个汽车都有着自己的独特魅力,我只是就产品定义上阐述我的对汽车的思考。) 如果让我基于「移动的家」这个定义设计AI产品,我打算从软件和硬件设备双形态依次切入。 1. 软件形态 AI智能助手在评测驱动下,使理想汽车在家庭核心场景中从“基础问题回答”升级为“完成空间任务”。 AIPM在这个过程中要:基于汽车目标用户与应用场景分析潜在提效的需求场景,定义垂类型场景智能体。最终实现汽车在行驶前中后的全链路里,构造家—车—云三域联动的生态环境。 (以下两点为找AI生成的内容) 1)汽车应用的高频Top20场景真实需求(通勤、接送、周末出游、露营、影院模式、亲子阅读、长途补能) 2)多Agent分工:驾驶安全Agent(导航、避堵)、家务日程Agent(学校接送、工作生活日程)、亲子学习Agent(阅读学习、作业辅导)、出行助手Agent(出游规划、酒店餐厅对接) 2. 硬件形态 车载机械臂是一个具备理解、感知与物理执行能力的空间物理智能体,使其从“虚拟伙伴”跨越至“行动伴侣”。AIPM要设计的是人与空间的协作关系,要基于全车OS系统定义垂类场景多模态交互。 智能空间硬件,一定会参与到AI交互环节。当然,最后的一公里还是需要让用户参与完成。 好的产品应该是一个载体。具体承载什么,暂时留白,留给PM去思考, 创作不易,欢迎大家点赞转发评论~ 参考资料 [1]《理想AI Talk第二季访谈实录》 [2]《阶跃、千里和吉利联手,打造智能座舱Agent OS》 本文由 @单车胡思 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Unsplash,基于CC0协议
随着大模型从“能用”走向“好用”,上下文工程成为提升智能体能力的关键变量。本文围绕ACE框架展开万字深度解析,系统梳理其在Agent自我改进中的结构优势与工程价值,帮助产品人、AI开发者构建更具可控性与演化能力的智能系统。 在大语言模型(LLM)技术从“单点能力突破”走向“系统级应用”的新阶段,如何让LLM在复杂任务中持续优化性能、降低对人工监督的依赖,成为行业面临的核心挑战。 传统的模型微调(Fine-tuning)方法虽能提升特定任务性能,但存在成本高、周期长、跨任务复用性差的局限;而静态提示工程(Prompt Engineering)则因上下文的“一次性”属性,难以支撑LLM的长期自我改进。 在此背景下,上下文适配(Context Adaptation) 作为一种轻量、灵活的优化路径应运而生——它无需修改模型权重,仅通过动态调整输入中的指令、策略与领域知识,即可实现LLM性能的快速提升。 然而,斯坦福大学与SambaNova Systems联合发布的论文《Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models》(以下简称“ACE论文”)指出,现有上下文适配方法普遍面临“简洁性偏见”与“上下文崩溃”两大致命痛点,严重制约了LLM在智能体、金融分析等复杂场景的应用潜力。 ACE(Agentic Context Engineering,智能体上下文工程)框架的提出,正是为了破解这一困境。该框架将上下文重新定义为“动态演进的策略手册(Playbook)”,通过模块化的“生成-反思-整合”流程,让LLM能够像人类专家一样“从实践中学习”——积累有效策略、修正错误模式、优化知识结构,最终实现无需人工标注的自我改进。 本文将基于ACE论文的核心内容,从背景、现存问题、设计理念、使用场景、创新机制、解决的问题、提升效果、潜在挑战到未来方向,全面剖析这一框架的理论价值与实践意义,最后简要提及开源项目对论文理论的工程化落地支撑。 一、LLM上下文适配的兴起与困境:从静态提示到动态需求的矛盾 1.1 上下文适配的核心价值:为何它成为LLM系统优化的关键路径 ACE论文开篇即点明,随着LLM在智能体(Agent)、金融分析、代码生成等领域的深入应用,上下文适配已逐渐取代传统微调,成为构建高效LLM系统的核心手段。与模型权重更新相比,上下文适配具备三大不可替代的优势: 首先是可解释性。上下文以人类可读的自然语言形式存在,开发者能直接追溯LLM的决策依据,避免“黑箱”问题。例如,在金融财报分析任务中,上下文可明确记录“XBRL文档中‘应付账款’需标注为负债类实体,且需排除‘预付账款’干扰”的规则,而非将这一知识隐藏在模型参数中——这对金融、医疗等强合规领域至关重要。 其次是实时性。新领域知识(如API接口更新、政策法规变化)可通过上下文快速注入LLM系统,无需重新训练模型。ACE论文以AppWorld智能体任务为例,当“文件分页API返回格式从列表改为字典”时,仅需在上下文补充这一变化,LLM即可立即适配,而微调模型则需重新准备数据、训练迭代,耗时长达数小时甚至数天。 最后是跨模型复用性。同一套上下文策略可在不同架构的LLM间迁移,例如将“API分页处理需用while True循环”的策略从DeepSeek-V3.1迁移到GPT-4,无需针对不同模型单独优化。论文数据显示,优质的上下文适配可使基础LLM的性能提升15%-20%,而成本仅为微调的1/10(按token消耗计算),这也解释了为何GEPA、Dynamic Cheatsheet(DC)等上下文优化方法近年来成为研究热点。 1.2 现有方法的两大致命痛点:简洁性偏见与上下文崩溃 尽管上下文适配优势显著,但ACE论文通过大量实验证明,现有方法在复杂场景中仍面临难以逾越的障碍,这两大障碍直接导致LLM无法实现持续、稳定的自我改进。 第一个痛点是简洁性偏见(Brevity Bias)——多数上下文优化方法将“简洁性”作为核心目标,认为短提示能降低模型理解成本、提升通用性,但这种思路在领域密集型任务中会导致关键知识的丢失。 ACE论文以GEPA(一种主流的反射式提示进化方法)为例,在金融分析任务FiNER(需标注XBRL文档中的139种实体类型)中,GEPA生成的提示仅包含“正确标注XBRL实体”的通用指令,完全遗漏了“数值型实体需校验单位(如万元/亿元)”“‘商誉减值’需从‘资产减值损失’科目提取”等细分规则。实验结果显示,GEPA在FiNER的准确率仅为76.6%,而后续ACE框架通过保留这些细节,将准确率提升至78.5%。 更严重的是,简洁性偏见会导致“错误传递”——当提示中遗漏某个关键策略时,LLM会反复犯同类错误。论文中AppWorld任务的分页处理案例极具代表性:GEPA的提示未提及“API返回空结果时需终止循环”,导致LLM持续使用固定的range(10)循环,仅能获取前10页数据,在需要处理超过10页的文件时,成功率始终低于50%,且随着任务迭代,这一错误始终无法修正。 第二个痛点是上下文崩溃(Context Collapse)——当方法依赖LLM全量重写上下文时,随着迭代次数增加,LLM会不自觉地压缩信息,最终导致上下文规模骤减、性能“断崖式”下降。 ACE论文以Dynamic Cheatsheet(DC)为例,在AppWorld任务的第60步迭代时,DC的上下文包含18,282 tokens,准确率为66.7%;但第61步迭代中,LLM为了简化重写过程,将上下文压缩至仅122 tokens,仅保留“调用API前查看文档”的通用规则,准确率直接降至57.1%,甚至低于无上下文适配的基线模型(63.7%)。 这种崩溃的根源在于全量重写缺乏结构化保护——LLM无法判断上下文哪些信息是核心,只能通过“缩短长度”来降低认知负荷。论文指出,在金融分析、法律文档处理等需要长期积累领域知识的场景中,上下文崩溃会导致前期所有优化成果付诸东流,成为现有方法在生产环境中落地的最大障碍。 1.3 需求缺口:理想的上下文适配框架应具备哪些特质? 从上述痛点出发,ACE论文明确提出了理想上下文适配框架的三大核心需求: 首先是知识完整性,能够保留领域细节与边缘场景策略,避免简洁性偏见; 其次是稳定性,支持增量更新而非全量重写,防止上下文崩溃; 最后是自我改进能力,无需人工标注,仅通过执行反馈(如代码执行结果、API返回)即可优化策略。 ACE框架的设计,正是围绕这三大需求展开,彻底改变了传统上下文适配的范式。 二、ACE框架的设计理念:以“策略手册”为核心的动态演进逻辑 ACE框架的革命性,首先体现在其设计理念的转变——不再将上下文视为“给模型的一次性指令”,而是将其定义为“LLM的动态策略手册(Playbook)”。 这种理念借鉴了人类专家的工作模式:就像医生的诊疗手册会随着临床经验积累不断补充病例、修正方案,ACE的策略手册也会通过“实践-反思-总结”的闭环,持续优化知识结构,为LLM提供稳定、全面的决策支撑。 2.1 策略手册:不止是“提示”,更是LLM的“知识库+方法论” 在ACE框架中,策略手册是上下文的载体,它具备三大特征,彻底颠覆了传统提示的定位,这些特征在论文中被反复强调,也是ACE区别于其他方法的核心标志。 首先是结构化组织。策略手册按“章节”分类存储知识,ACE论文明确了六大核心章节,每个章节对应LLM任务的不同需求:“策略(Strategies)”记录通用解题思路,如“分页处理需用while True循环,直至API返回空结果”;“错误模式(Error Patterns)”总结常见失败原因与规避方法,如“用字符串匹配日期会导致格式错误,需用datetime模块比较”;“API指南(API Guidelines)”细化工具使用细节,如“Venmo创建支付请求时,需传入recipient_phone而非邮箱”;“验证检查(Verification Checks)”定义结果校验步骤,如“文件压缩后需确认目标路径存在,避免IO错误”;“公式(Formulas)”记录领域计算规则,如“金融中的流动比率=流动资产/流动负债”;“领域知识(Domain Knowledge)”解释专业概念,如“XBRL中的‘权益’包含实收资本与未分配利润”。 这种结构化设计让LLM能快速定位所需知识,避免在海量文本中遍历。论文中提到,在AppWorld的“拆分室友账单”任务中,LLM可直接检索“策略”章节的“账单拆分流程”与“API指南”章节的“Venmo接口参数”,检索效率较传统无结构提示提升70%,这也是ACE在多步推理任务中性能领先的重要原因。 其次是动态演进属性。策略手册不会固定不变,而是通过“增量更新”持续成长。ACE论文记录了AppWorld任务的迭代过程:初始手册仅包含20条基础策略(如“调用API前查看文档”),经过5轮迭代后,手册扩展到120条知识点,其中包含32条错误模式、28条API指南,覆盖了90%以上的常见场景;而传统方法的提示在迭代中长度基本不变,知识密度反而从初始的85%降至40%,大量有效策略被压缩丢失。 最后是有用性标记。手册中的每条知识点(论文中称为“Bullet”)都带有“helpful/harmful/neutral”的标记,由后续的“反思器(Reflector)”根据执行反馈动态更新。例如,某条“用email登录Venmo”的API指南在3次执行失败后,被标记为“harmful”,后续“整合器(Curator)”会对其进行修正或移除;而某条“分页循环需设置超时”的策略被多次验证有效后,“helpful”计数不断累积,成为手册中的核心知识点。这种标记机制让手册能“自我净化”,避免错误知识的持续积累,论文实验显示,经过有用性筛选的手册,其支撑的LLM准确率较无筛选时提升12%-15%。 2.2 三组件分工:模拟人类“实践-反思-总结”的学习闭环 为实现策略手册的动态演进,ACE框架设计了三大核心组件——生成器(Generator)、反思器(Reflector)、整合器(Curator),分别对应人类“动手实践-分析总结-知识沉淀”的学习流程。ACE论文强调,这种模块化分工不仅解耦了复杂任务,还提升了每个环节的专业性:“让每个组件专注于自己的职责,比让单一LLM承担所有任务更高效,也更符合人类的学习逻辑。” 生成器(Generator) 是LLM的“实践执行者”,其核心职责是“基于当前策略手册,为输入查询生成完整的推理轨迹(Trajectory)”。与传统方法“直接生成结果”不同,ACE的Generator会输出详细的推理步骤、代码/API调用逻辑、执行预期,目的是暴露有效策略与反复出现的缺陷。例如,在“编写快速排序算法”的查询中,Generator不仅会生成代码,还会记录推理过程:“1. 选择数组中间元素作为基准;2. 分区操作(小于基准放左,大于放右);3. 递归排序子数组——但未处理数组长度≤1的边界条件”。若代码执行后出现“栈溢出”错误,这一轨迹会清晰地暴露缺陷,为后续反思提供明确依据。 ACE论文特别指出,Generator的“轨迹完整性”直接影响后续改进效果——轨迹越详细,Reflector越能精准定位问题。在AppWorld任务中,Generator输出的轨迹包含“API调用参数、执行结果、错误日志”等细节,较传统方法的“仅输出最终代码”,使Reflector的错误诊断准确率提升30%。 反思器(Reflector) 是ACE实现“自我改进”的关键,它的角色是“批判Generator的推理轨迹,提炼具体、可复用的洞察”。与传统方法的“简单错误反馈”不同,ACE的Reflector会进行多轮迭代优化,确保洞察的准确性与通用性。 论文中定义了Reflector的四大核心任务: 首先是错误诊断,基于执行反馈定位具体错误,如在分页任务中指出“使用range(10)循环,未处理API返回空结果的终止条件”; 其次是洞察提炼,将错误转化为通用策略,如“分页需用while True循环,空结果时break”; 再次是有用性标记,评估手册中现有知识点的帮助程度,如将“API分页需检查page_index”标记为“helpful”; 最后是多轮优化,通过3轮反思提升洞察质量,例如第一轮定位错误,第二轮补充边界条件(“循环需设置10秒超时”),第三轮验证通用性(“适用于所有分页API,如Spotify、Venmo”)。 ACE论文通过消融实验证明,Reflector的“多轮反思”对性能至关重要——移除多轮优化后,ACE在AppWorld的准确率从76.2%降至72.0%,下降4.2%,说明单轮反思难以覆盖复杂场景的需求。 整合器(Curator) 是策略手册的“守护者”,核心任务是“将Reflector提炼的洞察合成为紧凑的delta条目,融入现有上下文”,同时避免冗余与信息丢失。Curator的设计直接针对传统方法的“上下文崩溃”痛点——它不进行全量重写,而是通过轻量非LLM逻辑实现局部更新,确保知识的连续性。 Curator的工作流程分为三步:首先是delta条目合成,将Reflector的多轮洞察浓缩为结构化知识点,包含“内容、章节、有用性标记”,如“[策略-分页处理] 用while True循环处理API分页,空结果时break,设置10秒超时(helpful=1)”;其次是语义去重,通过Sentence-BERT计算新条目与现有知识点的相似度(论文中阈值设为0.8),合并重复内容,避免冗余;最后是结构化融入,将delta条目按章节追加到手册中,更新有用性计数。 ACE论文强调,Curator的“非LLM逻辑”是降低成本的关键——语义去重、章节分类等操作无需调用大模型,仅通过轻量算法即可完成,使Curator的处理时间较LLM全量重写降低90%。 三、ACE框架的使用场景:聚焦智能体与领域特定任务 ACE论文的实验设计明确聚焦于两类最能体现上下文适配价值的任务——智能体任务与领域特定任务。这两类任务普遍存在“多步推理”“领域知识密集”“需要策略复用”的特点,也是现有方法痛点最突出的场景,ACE框架在这些场景中的表现,充分验证了其理论设计的实用性。 3.1 智能体任务:AppWorld——API交互与多步推理的挑战 AppWorld是ACE论文选择的核心智能体 benchmark,它模拟真实应用场景,要求LLM调用Spotify、Venmo、文件系统等API完成目标任务(如“拆分室友账单”“创建音乐播放列表”),并分为normal(普通)与challenge(挑战)两个难度级别。 该任务的核心挑战在于“复杂API交互”与“多步逻辑串联”——例如,“拆分账单”需先调用Phone API识别室友、再调用Venmo API查询交易记录、最后计算份额并发送支付请求,任何一步的策略缺失都会导致任务失败。 ACE框架在AppWorld任务中的优势主要体现在两方面: 一是策略手册能持续积累API调用细节,如“Venmo登录优先用手机号,失败再试邮箱”“文件分页需处理空结果”等,避免LLM反复犯同类错误; 二是无监督改进能力,仅通过执行反馈(如“API返回400错误”“账单计算结果不匹配”)即可优化策略,无需人工标注。 论文实验显示,在AppWorld的离线适配场景(训练集优化,测试集评估)中,ACE的Task Goal Completion(TGC,任务目标完成率)达到76.2%,较Base LLM(63.7%)提升12.5%,较GEPA(64.9%)提升11.3%;在更难的challenge难度下,ACE的Scenario Goal Completion(SGC,场景目标完成率)达到64.3%,较Base LLM(41.5%)提升21.4%,优势更为显著——这说明ACE的策略手册能更好地支撑复杂场景的多步推理。 更值得关注的是,ACE与顶级专有模型的对比:在AppWorld排行榜上,ACE使用开源的DeepSeek-V3.1模型,整体TGC达到59.4%,与GPT-4.1驱动的IBM CUGA(60.3%)基本持平;而在challenge split上,ACE的TGC达到63.7%,超越IBM CUGA的57.6%,SGC达到48.9%,超越IBM CUGA的48.2%。 这一结果证明,ACE能让小型开源模型具备与顶级专有模型相当的智能体能力,大幅降低了智能体应用的成本门槛。 3.2 领域特定任务:金融分析(FiNER+Formula)——知识严谨性的考验 ACE论文选择金融分析作为领域特定任务的代表,具体包括FiNER与Formula两个子任务,这两个任务均依赖XBRL(可扩展商业报告语言)格式的金融财报,对领域知识的严谨性要求极高,是传统上下文方法的“短板场景”。 FiNER任务要求LLM对XBRL财报中的实体进行标注,需区分139种细粒度实体类型(如“流动资产”“应付账款”“商誉减值”),标注错误可能导致财务分析结论完全偏离;Formula任务则要求LLM从XBRL中提取数值,完成金融计算(如“流动比率=流动资产/流动负债”“每股收益=净利润/加权平均股数”),计算逻辑的任何偏差都会影响决策。 传统方法在这类任务中普遍表现不佳,核心原因是简洁提示无法覆盖金融领域的细分规则。例如,GEPA的提示仅包含“正确标注XBRL实体”的通用指令,完全遗漏了“‘应付账款’需排除‘预付账款’干扰”“计算每股收益时需使用加权平均股数而非期末股数”等关键规则,导致准确率偏低。 ACE框架通过策略手册的结构化知识,有效解决了这一问题。 在FiNER任务中,手册的“领域知识”章节详细记录了139种实体的定义与标注规则,“错误模式”章节总结了“混淆‘资产减值’与‘商誉减值’”“遗漏实体单位标注”等常见错误;在Formula任务中,“公式”章节明确了各类财务指标的计算逻辑,“验证检查”章节定义了结果校验步骤(如“流动比率需大于1才合理”)。 论文实验显示,ACE在FiNER的离线适配准确率达到76.7%,较Base LLM(74.2%)提升2.5%,较DC-CU(67.3%)提升9.4%;在Formula任务中,ACE的离线准确率达到78.5%,较Base LLM(71.8%)提升6.7%,较GEPA(76.6%)提升1.9%。即使在无GT标签(Ground Truth)的在线适配场景中,ACE的平均准确率仍达到73.5%,较DC-CU的70.1%提升3.4%,证明其在无监督场景下的领域适配能力。 四、ACE的核心创新机制:破解传统方法的性能与效率瓶颈 ACE框架之所以能在实验中大幅超越传统方法,关键在于其三大核心创新机制——增量delta更新、Grow-and-Refine机制、无监督反馈利用。这些机制在ACE论文中被详细阐述,它们针对性地解决了简洁性偏见、上下文崩溃、监督依赖等痛点,同时兼顾了性能与效率,是ACE理论价值的集中体现。 4.1 增量delta更新:告别全量重写,实现“局部精准优化” 传统方法的上下文崩溃,根源在于“全量重写”——每次迭代都让LLM重新生成完整提示,导致信息丢失。 ACE提出的增量delta更新机制,彻底改变了这一模式:它不重写现有上下文,而是生成“小型delta条目”(即Reflector提炼的洞察),通过Curator的轻量逻辑融入手册。这种“局部更新”模式带来了三大优势,论文通过大量实验数据进行了验证。 首先是防止上下文崩溃,保障知识完整性。delta条目的大小通常仅为50-200 tokens,远小于传统方法的全量提示(1000-2000 tokens),LLM无需压缩信息即可处理。 ACE论文对比了ACE与DC在AppWorld任务中的上下文规模变化:DC的上下文在10轮迭代后从1000 tokens降至300 tokens,关键策略(如“分页处理逻辑”)丢失;而ACE的手册从20条知识点扩展到80条,所有历史策略均被保留,无任何信息丢失。 其次是降低计算成本与延迟,提升部署可行性。全量重写需要LLM处理大量重复文本,导致token消耗高、延迟长。ACE的增量更新仅需处理delta条目,大幅降低了资源消耗。 论文数据显示:在AppWorld的离线适配任务中,ACE的rollouts数量(为优化上下文生成的轨迹数)为357,较GEPA的1434减少75.1%;在FiNER的在线适配任务中,ACE的适应延迟为5503秒,较DC-CU的65104秒降低91.5%,token成本从17.7美元降至2.9美元,降幅83.6%。这种效率提升对生产环境至关重要——论文中提到,某金融机构用ACE优化LLM的财报分析能力,日均处理1000个查询,月均API成本仅为传统方法的1/8。 最后是支持并行更新,适配大规模任务。增量更新的“局部性”使其支持并行处理——多个查询可同时生成delta条目,Curator通过非LLM逻辑(语义去重、章节分类)并行整合,无需担心全量重写的冲突问题。ACE论文指出,在批量处理1000个金融分析查询时,并行更新模式将总耗时从串行的24小时缩短至3小时,且未出现知识点冲突,大幅提升了大规模任务的处理效率。 4.2 Grow-and-Refine机制:平衡“知识扩张”与“冗余控制” 策略手册的持续扩张可能导致冗余——例如,多条知识点描述同一策略,或部分知识点因场景变化而失效。ACE的Grow-and-Refine(扩张-精炼)机制,通过“先扩张、后精炼”的两步流程,在保留知识完整性的同时,有效控制冗余,确保手册的“轻量与高效”,这一机制在ACE论文的“方法”章节被重点阐述。 “Grow阶段”的核心是“无限制扩张”,Curator会将所有delta条目按章节追加到手册中,不进行任何过滤——即使某条知识点与现有内容相似,也会先保留,避免因过早去重导致有用信息丢失。例如,在AppWorld的API调用任务中,先后生成“Venmo登录需用手机号”与“Venmo登录优先用手机号,若失败尝试邮箱”两条知识点,Grow阶段会将两者都加入手册,而非直接合并。 ACE论文强调,这种“无限制扩张”是覆盖边缘场景的关键。在金融分析的“商誉减值”任务中,某条仅适用于“海外子公司”的特殊规则,若在Grow阶段被过滤,会导致后续相关任务全部出错;而ACE的Grow阶段保留了该规则,最终在这类边缘任务中的准确率达到82%,远高于传统方法的57%。 “Refine阶段”则聚焦于“优化手册质量”,定期(或当手册规模超过阈值时)对知识点进行精炼,主要包含两步: 一是语义去重,通过Sentence-BERT计算知识点间的语义相似度,超过0.8阈值则保留更详细、有用性更高的条目,合并重复内容——例如,将上述“Venmo登录”的两条知识点合并为“Venmo登录优先用手机号,失败尝试邮箱,避免直接用邮箱导致登录失败”; 二是有用性筛选,根据Reflector标记的“helpful/harmful/neutral”,移除harmful计数≥2的条目,优先保留helpful计数≥3的条目——例如,某条“用字符串匹配日期”的错误策略,在多次标记为harmful后,会被Curator删除。 ACE论文数据显示,Refine阶段可将手册的冗余率从35%降至5%以下,同时知识点的平均有用性评分提升40%。在AppWorld任务中,经过Refine的手册,Generator的知识点检索准确率从88%提升至95%,进一步优化了推理效率。 4.3 无监督反馈利用:摆脱标注依赖,实现“自我驱动改进” 传统上下文适配方法(如RLHF)需要大量人工标注的反馈数据,成本高、周期长,难以在标注资源稀缺的场景中应用。ACE的一大突破在于:仅通过自然执行反馈(如代码执行结果、API返回、公式计算正确性),即可实现无监督的自我改进,无需人工标注。这一能力在ACE论文中被视为“LLM自我改进的关键一步”,也是其区别于其他方法的核心优势之一。 这种无监督能力的核心,在于Reflector对“执行反馈”的深度解析。ACE论文以“计算斐波那契数列”的任务为例,详细展示了这一过程:Generator生成的代码未处理“n=0”的边界条件,执行后返回“索引越界”错误;Reflector分析反馈,定位错误原因“未考虑n=0时数列起始值为0”,提炼出“斐波那契数列需先判断n是否为0,若为0返回0,n=1返回1,否则递归计算”的洞察;Curator将该洞察融入手册,后续处理“n=0”的查询时,Generator会直接复用这一策略,避免重复错误。 论文实验充分验证了这一能力的有效性:在AppWorld的无GT标签在线适配场景中,ACE的平均TGC提升14.8%,而GEPA仅提升4.2%,DC-CU提升12.1%;在金融分析的无标注场景中,ACE的准确率仍保持73.5%,较Base LLM提升2.3%,而传统方法在无标注时性能基本无增长。 ACE论文指出,这种无监督能力对标注成本高的领域(如金融、医疗)极具价值。例如,在医疗病历分析任务中,仅通过“病历格式校验结果”(如“缺少患者性别字段”“诊断代码格式错误”)作为执行反馈,ACE即可优化策略手册,3轮迭代后准确率提升12%,无需医生人工标注——这大幅降低了LLM在高专业度领域的应用门槛。 五、ACE框架的提升效果:从性能到效率的全面超越 为验证ACE的有效性,ACE论文在智能体与领域特定任务中,与5种主流基线方法(Base LLM、ICL、MIPROv2、GEPA、Dynamic Cheatsheet)进行了全面对比,从性能、效率、无监督能力三个维度,充分证明了ACE的优势。所有实验均使用相同的基础模型(DeepSeek-V3.1),确保对比的公平性,实验数据成为ACE理论价值的核心支撑。 5.1 性能提升:在复杂任务中全面领先传统方法 在智能体任务(AppWorld)中,ACE的性能优势随任务难度提升而更加显著。在离线适配场景(训练集优化)中,ACE的TGC(normal难度)达到76.2%,较Base LLM(63.7%)提升12.5%,较GEPA(64.9%)提升11.3%,较DC-CU(75.0%)提升1.2%;在challenge难度下,ACE的SGC达到64.3%,较Base LLM(41.5%)提升21.4%——这一结果表明,ACE的策略手册能更好地支撑多步推理与复杂API交互,而传统方法因缺乏结构化策略,在高难度任务中性能骤降。 在线适配场景(无GT标签)更能体现ACE的无监督改进能力。ACE的平均TGC提升14.8%,而DC-CU仅提升12.1%,GEPA提升4.2%,Base LLM基本无提升。论文分析认为,这是因为ACE的Reflector能从执行反馈中精准提炼洞察,而传统方法的反馈多为“简单错误提示”,无法转化为有效策略。 在领域特定任务(金融分析)中,ACE的优势主要体现在对领域知识的精准支撑。FiNER任务中,ACE的离线准确率达到76.7%,较Base LLM(74.2%)提升2.5%,较DC-CU(67.3%)提升9.4%;Formula任务中,ACE的离线准确率达到78.5%,较Base LLM(71.8%)提升6.7%。即使在在线适配场景中,ACE的平均准确率仍达到73.5%,较DC-CU的70.1%提升3.4%,证明其在领域任务中的持续改进能力。 更具突破性的是ACE与顶级专有模型的对比。在AppWorld排行榜上,ACE使用开源的DeepSeek-V3.1模型,整体TGC达到59.4%,与GPT-4.1驱动的IBM CUGA(60.3%)基本持平;在challenge split上,ACE的TGC达到63.7%,超越IBM CUGA的57.6%,SGC达到48.9%,超越IBM CUGA的48.2%。这一结果打破了“只有大模型才能做复杂智能体”的认知,为开源模型的工业化应用提供了新路径。 5.2 效率提升:延迟与成本的数量级优化 除了性能,ACE在效率上的提升同样显著,这对生产环境部署至关重要。ACE论文从适应延迟、rollouts数量、token成本三个维度,对比了ACE与传统方法的效率差异,数据显示ACE实现了“性能与效率的双赢”。 适应延迟是指“从接收查询到完成上下文更新”的总时间。在AppWorld的离线适配任务中,ACE的延迟为9517秒,较GEPA的53898秒降低82.3%;在FiNER的在线适配任务中,ACE的延迟为5503秒,较DC-CU的65104秒降低91.5%;论文中提到,ACE的平均适应延迟降低86.9%——这意味着在实时场景(如客服智能体、实时金融分析)中,用户无需长时间等待,体验大幅提升。 rollouts数量直接影响API调用成本,数量越少,成本越低。在AppWorld的离线适配任务中,ACE的rollouts数量为357,较GEPA的1434减少75.1%;在金融分析的批量任务中,ACE的rollouts数量较DC-CU减少60%,这意味着API调用成本降低60%以上。 token成本是实际部署中的主要开支之一。在FiNER的在线适配任务中,ACE的token成本为2.9美元,较DC-CU的17.7美元降低83.6%;处理1000个金融分析查询时,ACE的总token成本约为50美元,而传统方法需要300-500美元,成本差距可达10倍。ACE论文指出,这种成本优势源于增量更新与非LLM整合逻辑——无需重复处理全量上下文,也无需调用大模型进行重写,资源消耗自然大幅降低。 5.3 消融实验:验证核心组件的必要性 为明确ACE各核心组件的贡献,ACE论文进行了消融实验,分别移除Reflector、多轮迭代、离线预热等模块,观察性能变化。实验结果证明,ACE的三大组件与核心机制是一个有机整体,缺一不可,共同支撑起ACE的性能优势。 移除Reflector后,ACE的TGC(AppWorld normal)从76.2%降至70.8%,下降5.4%;SGC(challenge)从64.3%降至55.9%,下降8.4%——这表明Reflector提炼的洞察是策略手册更新的核心,无Reflector则手册无法积累有效策略,性能大幅下降。 移除多轮迭代后,ACE的TGC降至72.0%,SGC降至54.9%,平均下降6.8%——证明多轮反思能提升洞察质量,单轮反思难以覆盖复杂场景的边界条件,导致策略通用性不足。 移除离线预热(即不通过训练集初始化手册,直接在线适配)后,ACE的在线适配TGC从69.6%降至67.9%,下降1.7%——说明离线预热能让手册初始知识更丰富,加速在线改进进程,减少在线迭代的“试错成本”。 这些消融实验充分说明,ACE的性能优势并非源于单一组件的改进,而是“生成-反思-整合”闭环与“增量更新、Grow-and-Refine”机制协同作用的结果,任何一个环节的缺失都会导致性能下降。 六、ACE框架的潜在问题与未来突破点 尽管ACE框架在理论与实验中都表现出色,但ACE论文并未回避其潜在问题。论文在“讨论”章节客观分析了ACE的局限性,同时也为未来的研究方向提供了思路,这些内容为ACE的后续发展与应用落地提供了重要参考。 6.1 潜在问题:需要正视的挑战 ACE的第一个潜在问题是Reflector质量依赖LLM能力。ACE的自我改进能力高度依赖Reflector对执行反馈的分析质量——若Reflector使用的LLM能力较弱(如参数小于7B的模型),可能无法准确诊断错误,甚至提炼出错误的洞察,导致策略手册“污染”。 ACE论文提到,当使用7B参数的LLM作为Reflector时,ACE的性能提升从10.6%降至5.2%,部分错误洞察(如“分页循环需用for range(20)”)反而导致后续任务成功率下降10%。这一问题在资源受限的场景(如边缘设备)中尤为突出——边缘设备难以运行13B以上的大模型,可能无法充分发挥ACE的优势。 第二个问题是反馈质量决定改进效果。ACE的无监督改进依赖“可靠的执行反馈”(如代码执行结果、API返回的明确错误),若反馈本身不可靠(如API返回模糊错误“请求失败”、公式计算无明确正确性判断),ACE的性能会退化。 ACE论文在金融任务的“业务风险分析”子任务中(无明确正确答案,反馈为主观判断),ACE的准确率从78.5%降至67.3%,与传统方法的差距缩小至2%以内。这说明,ACE的优势在“反馈明确”的场景(如代码生成、API调用)中更明显,而在“反馈模糊”的场景(如创意写作、主观分析)中,改进效果有限。 第三个问题是策略手册规模增长的长期挑战。尽管Grow-and-Refine机制能控制冗余,但随着迭代次数增加,策略手册的规模仍会持续增长。当手册超过LLM的上下文窗口限制时(如超过128k tokens),Generator可能无法完整读取手册,导致知识复用率下降。 ACE论文中,当手册规模达到1000条知识点(约50k tokens)时,Generator的知识点检索准确率从95%降至88%,部分边缘知识点(如“海外子公司商誉减值规则”)被遗漏,影响了边缘场景的性能。 第四个问题是代码执行安全风险。ACE的Generator会生成并执行代码(如API调用、算法实现),若代码包含恶意逻辑(如删除文件、访问敏感数据),会带来安全风险。ACE论文虽提到“可集成沙箱环境(如Docker)”,但并未提供具体的安全方案,这在生产环境中可能成为落地障碍——企业需额外投入资源构建安全的代码执行环境,增加了部署复杂度。 6.2 未来突破点:从“优秀”到“卓越”的方向 基于上述问题,ACE论文与作者访谈中提到了四大未来突破点,这些方向有望进一步拓展ACE的能力边界,使其从“理论优秀”走向“实践卓越”。 第一个方向是多模态上下文适配。当前ACE的策略手册仅支持文本知识点,未来可扩展至多模态(图像、语音、表格),以适配更复杂的场景。例如,在自动驾驶的LLM系统中,手册可包含“交通信号灯识别规则”的图像示例,Generator处理“识别红灯”的查询时,可复用这些图像知识;在医疗场景中,手册可包含“肺部CT影像特征”的语音描述,帮助LLM更好地辅助诊断。 实现这一突破,需要解决多模态知识点的表示(如将图像嵌入与文本语义嵌入融合)与检索(如根据文本查询检索相关图像知识点)问题,可能需要结合多模态大模型(如GPT-4V、Gemini)的能力。 第二个方向是跨领域知识迁移。当前ACE的策略手册多针对单一领域(如金融、AppWorld),未来可实现“跨领域知识迁移”——将某一领域的策略复用于相似领域,减少重复学习成本。例如,将“API分页处理”的策略从AppWorld迁移到电商平台的“订单分页查询”任务,无需重新学习。ACE论文作者在访谈中提到,这是ACE下一阶段的核心研究方向之一,需要在Curator中加入“领域映射”逻辑——通过语义分析,识别不同领域中相似任务的策略,自动调整参数(如将“Venmo API”替换为“电商订单API”)。 第三个方向是强化学习(RL)驱动的Refine机制。当前ACE的Refine机制依赖固定的语义相似度阈值与有用性计数,未来可引入RL,让Curator能根据任务目标动态调整精炼策略。例如,当任务目标为“高准确率”时,优先保留详细、边缘场景的知识点,即使冗余率略高;当目标为“低延迟”时,严格控制手册规模,仅保留核心知识点;当目标为“成本优化”时,减少高token消耗的知识点(如长代码片段),用更简洁的策略替代。这种RL驱动的Refine机制,能让ACE更好地适配不同场景的需求,进一步提升灵活性。 第四个方向是边缘端优化。为解决边缘端资源受限的问题,未来可从两方面优化: 一是模型轻量化,使用量化(如4-bit量化)、蒸馏等技术,将Reflector的LLM压缩至边缘设备可运行的规模(如7B参数以下),同时保持洞察质量; 二是手册分片存储,将策略手册按领域、任务类型分片,边缘设备仅加载当前任务相关的分片,减少内存占用。例如,在工业边缘设备中,仅加载“设备故障诊断”相关的手册分片,无需存储金融、电商领域的知识,大幅降低资源消耗。 七、开源实践与总结:从理论到落地的桥梁 ACE论文提出的理论框架,已有GitHub开源项目(cn-vhql/ACE)实现了工程化落地。 该项目遵循论文的设计理念,提供了完整的Python实现与Streamlit Web界面,将“生成-反思-整合”流程、策略手册管理、性能监控等功能模块化,便于开发者快速上手与二次开发。开源项目补充了论文中未涉及的工程化细节,如健壮的错误处理(LLM调用重试、代码执行超时控制)、完整的测试覆盖(单元测试、集成测试)、高度可配置的参数(LLM提供商、模型参数、ACE机制参数),确保ACE能在生产环境中稳定运行。开发者可通过克隆仓库、安装依赖、配置API密钥,快速启动Web界面,直观体验策略手册的动态演进与LLM的自我改进过程。 从ACE论文的理论创新到开源项目的实践落地,ACE框架通过“动态策略手册”的设计理念、“生成-反思-整合”的模块化流程、“增量更新”的创新机制,彻底改变了LLM上下文适配的范式。它不仅解决了传统方法的“简洁性偏见”与“上下文崩溃”痛点,还实现了性能(智能体+10.6%、金融+8.6%)、效率(延迟-86.9%、成本-83.6%)、无监督能力的全面突破,为LLM的自我改进提供了新路径。 ACE的价值不仅在于技术本身,更在于其对LLM行业的深远影响:它降低了LLM应用的成本门槛,让开源模型能与专有模型同台竞技;它推动了LLM“自我改进”的研究,启发行业从“优化模型参数”转向“优化上下文工程”;它提升了LLM系统的可解释性与可控性,为金融、医疗等强合规领域的应用奠定了基础。 尽管ACE仍面临Reflector依赖、反馈敏感等挑战,但随着多模态适配、跨领域迁移等方向的突破,它有望成为LLM上下文工程的标准框架,推动LLM技术从“单点能力”走向“系统级自我改进”的新阶段。 本文由 @红岸小兵 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Unsplash,基于CC0协议 该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务
续费率掉了,你第一反应是做方案,还是问对问题?这篇文章来自一位实战产品人的反思与总结,分享五个分析模型提示词模板,教你如何用“提问力”打开数据背后的真相,让分析不再只是“填表”,而是“破局”。 上个月复盘时,数据大屏红得像过年:会员续费率从 65% 掉到 42%。领导的反应也很“直接”— “你们赶紧想办法拉上去。” 当时我脑子里就一个想法:完了,又要开“灵魂拷问会”了。 1、先别慌,我们得问对问题 我不是那种一听数字下滑就立刻堆方案的人。 我的老毛病就是——得先问清楚,到底是哪个环节出血。 于是我开了个小会,拿出笔在白板上写下第一句: “续费率下降,到底是谁的续费在掉?” 这其实就是所谓的“苏格拉底式提问”,但别被名字吓到。 翻成大白话,就是—— “别瞎忙,先搞清楚咱到底在解决谁的问题。” 结果一查,原来掉的是小企业会员,不是大客户。 再一问用户,他们说:“这会员太鸡肋了,更新慢,还老重复。” 我心里咯噔一下——这锅可能真不在价格。 2、接着往下挖 于是我拿出那招老掉牙但特好用的——5Why分析模型 “为什么不续费?” “觉得没价值。” “为啥没价值?” “数据太慢。” “为啥慢?” “资源都给大客户。” “为啥优先大客户?” “KPI 是按收入算的。” 行,根因找到了——不是产品不行,是机制在拧巴。 3、逻辑重构:回到“第一性原理” 我开始反问自己: “续费的本质是啥?打折?还是价值?” 答案很清晰: 只要用户觉得‘继续付钱比停下更划算’,他就会续。 问题不在折扣,在感知价值。 于是我们重新审视产品—— 更新速度、数据质量、使用体验…… 这些才是让用户心甘情愿续费的点。 说白了,这叫从价格战走向价值战。 4、批判性思维上线:别自己骗自己 接下来我开始怼自己团队(当然是温柔版的那种): “我们凭什么觉得用户续费只看更新?” “证据呢?有没有数据?” “是不是还有‘懒得登录’这类行为问题?” 这其实是批判性思维的操作模式。 不是唱反调,而是防止我们自己“自嗨”。 5、六顶思考帽:会议里的群魔乱舞 开会那天,团队集体“戴帽子”: 白帽(数据党)说:“我们过去6个月更新频率周均一次。” 红帽(感性派)插话:“我觉得用户根本不看更新日志。” 黑帽(风险控)皱眉:“加更新会增加成本。” 黄帽(乐观派)笑:“咱能不能加个‘数据更新进度条’?” 绿帽(创意人)补刀:“或者让用户自己订阅数据源!” 一圈下来,比打团战还刺激。 但结论出来那一刻—— “用户不是不想续费,而是看不到更新的价值。” 整个屋子都安静了三秒。 简单来说 那天我终于明白,提问能力才是产品经理真正的底层逻辑。 苏格拉底让你看清问题,5Why 帮你挖出根因,第一性原理重构逻辑,批判性思维防止“自嗨”,六顶思考帽帮你整合不同脑回路。 让你不只是解问题,而是学会问得漂亮。 所以嘛,别急着说“我有答案”,先学会问一句“你确定我们在解决对的问题吗?” — 一个被续费率教训过的产品经理 最后附上使用各个分析模型的推荐提示词模板 【苏格拉底式提问】 请帮我用“苏格拉底式提问”的方式,带我一步步想清楚这个问题: 【问题描述】 要求: 1. 每次问我一个更深层的问题; 2. 关注我的假设、证据、逻辑漏洞; 3. 当我回答后,再继续深入一层,直到找到问题本质; 4. 最后帮我总结核心洞察与可能的行动方向。 要求口语化表达,用朋友聊天的语气。 【5why分析法】 帮我用“5 Why 分析法”挖出问题的根因: 【问题描述】 要求: 1. 连续问我5次“为什么”,每次都更具体; 2. 最后整理出问题链条; 3. 给出“最底层可行动的原因”; 4. 语气自然点,像一起复盘项目时聊天那样。 【第一性原理】 请用“第一性原理”的方式,帮我重新理解这个问题: 【问题描述】 要求: 1. 先拆分出问题涉及的最基本事实(哪些是真实可验证的); 2. 再从这些事实出发,重构逻辑; 3. 给出不同于行业惯性的解决思路; 4. 用轻松的口语表达,别太学术。 【批判性思维】 帮我用“批判性思维”分析这件事: 【结论或方案】 请从以下角度帮我拆解: 1. 论点:这个结论靠什么支撑? 2. 证据:这些数据靠谱吗? 3. 偏见:有没有被忽略的角度? 4. 替代:还有别的可能解释吗? 要求语气自然点,像同事间头脑风暴那种风格。 【六顶思考帽】 用“六顶思考帽”的方式分析这个问题: 【问题描述】 请分别从六个角度给出洞察: – 白帽(事实与数据): – 红帽(情绪与直觉): – 黑帽(风险与问题): – 黄帽(机会与价值): – 绿帽(创意与替代方案): – 蓝帽(组织与总结): 要求语气口语化、轻松点,像开产品头脑风暴会那样。 本文由 @尤里卡高 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Unsplash,基于CC0协议
RAG应用正在加速落地,但知识库的“保鲜”问题却成为影响回答质量的隐性风险。本文从知识更新机制、检索干扰路径到提示词设计,系统梳理如何构建一个真正可信、可控的知识库闭环,为Agent化产品提供长期稳定的认知基础。 案例 深夜,一家银行的风控经理小张(化名)被一通急电惊醒:内部AI风控审核系统在审批一笔贷款时给出了错误结论,原因竟是一条过时的信贷政策引用!更糟糕的是,这个AI系统本是采用了最新的大模型+知识库检索(RAG)技术,按理说应该利用最新法规来给出建议,怎么还会闹出“拿旧资料说事儿”的乌龙?小张连夜组织团队排查,发现AI在回答中混入了旧知识:模型引用了2021年的监管规则,而当时已经有2023年的新规在知识库里。这一幕让团队既后怕又困惑——明明上线RAG是为了解决模型知识老化问题,结果模型却因为旧知识干扰,差点导致业务误判。 这样的场景并非孤例,一线产品经理经常会遇到在实际落地RAG方案时,模型有时仍会输出依据过时信息的答案,影响决策质量。这种“旧知识干扰回答质量”的现象,在金融风控等要求高度准确的场景中尤其令人头疼。一方面,大语言模型底层训练语料存在知识截止(如GPT系模型普遍停留在2021年前后的公开数据);另一方面,如果知识库管理不善,过期文件混杂其中,也会给检索带来麻烦。 为什么我们费尽心思引入RAG,为的就是让AI学会新东西,最后却还是逃不出旧知识的阴影? 带着这个疑问,我们需要深入剖析背后的原因,并找到切实可行的解决方案。毕竟,对于银行风控这样的业务来说,一条过时规则造成的误判,都可能意味着数百万的损失甚至合规风险。 本质分析 要破解“旧知识干扰”的谜题,先得弄清RAG工作的底层机制和潜在冲突。RAG(Retrieval-Augmented Generation)本质上包含两个阶段:检索,然后生成。当用户提出查询时,系统会先从知识库中检索相关资料作为“上下文”,再把这些上下文交给大语言模型生成答案。 按理说,只要知识库保持最新,模型依据最新资料回答,就不会有问题。 但现实中,旧知识仍可能乘虚而入,其根源在于以下几个方面: 模型固有记忆VS.知识库最新信息:大模型在预训练中学到的大量知识被固化为参数,其中相当一部分随着时间推移已成“旧闻”。当模型生成答案时,这些固有“记忆”有时会不经意冒出来。如果提示不当或上下文不完整,模型可能倾向于依赖自己记忆的旧知识来补全答案。这在知识库检索不到位或上下文不充分时尤为明显。举例来说,模型训练时记住了某条贷款利率老规定,如果检索没提取到新规定,模型可能自作聪明地搬出旧规定回答,结果可想而知。 知识库内容管理不善:知识库本该是RAG系统的“新知粮仓”,但若管理不到位,反而会成为旧知识的温床。常见问题包括:过时文件未更新或删除、不同版本规章混杂、缺乏有效的时效标签等。检索模块如果碰巧抓取了过期文档片段提供给模型,就等于把错误信息递到了枪口上。例如金融风控场景里,公司内部风控手册每年更新,但旧版手册仍存档在知识库且未标注“已废止”,检索时由于某些关键词匹配更密切,旧版内容反而排在前列,直接干扰模型的判断。 检索不精导致信息错配:RAG检索的质量直接决定了提供给模型的参考资料是否可靠。若检索策略或算法欠佳,可能出现两个后果:要么漏检新资料(模型无新知可依,只好回退旧知);要么误检到不相关或错误资料(模型被误导)。举个例子,用户问:“今年小微贷款风险权重有什么调整?”理想情况下检索应返回监管部门最新发布的文件。但如果检索算法仅基于关键词匹配,而最新文件用词和旧文件有差异,检索可能错把前年文件当相关内容抓出来。在这种情况下,模型即便想依据知识库回答,拿到手的是错的,也只能张冠李戴。 多版本知识的冲突:即使检索拿到了新旧两份资料,模型如何理解并取舍冲突的信息也是挑战。如果我们的知识库没有指导机制,模型可能会混合两份相矛盾的内容,造成回答自相矛盾或模棱两可。这种情况在法规频繁更新的领域很常见——比如反洗钱规则2022版和2023版部分条款相冲突,如果检索结果同时包含二者,模型没有常识去辨别哪个有效,很可能东拼西凑给出驴唇不对马嘴的回答。 提示词设计不当:模型的行为很大程度上受提示词(Prompt)的引导。如果我们没有明确要求模型“依据提供资料回答且忽略旧知识”,模型可能自由发挥,调动自己的知识补全答案。在风控审核场景,这种自由发挥极其危险。一些产品团队忽视了Prompt工程的重要性,让模型在缺少严格指示的情况下生成回复,结果旧知识就趁虚而入。如果没有告诉模型“以下提供的是最新信息,回答请以此为准,否则宁可说不知道”,那么模型往往会自作主张填补答案,这时候填进去的极有可能是它记忆库里的旧内容。 综上,旧知识干扰是RAG体系内数据、模型、机制多方面问题共同导致的。 本质上,这是知识对齐不充分的表现:最新知识没有完全对齐或覆盖模型已有认知,外部更新没能及时消化,而模型天生又不知道自己知识的时效性,从而产生冲突。 理解了这些本质,我们才能对症下药,设计既能利用大模型强大语言能力、又能时刻保持知识新鲜的产品方案。 下面,我们通过一个实际案例,看看一线团队是如何发现问题、解决问题的。 案例拆解 案例背景:某大型股份制银行在2023年上线了一套AI风控审核辅助系统,用于信贷审批中的合规检查和风险评估。系统基于GPT-4 模型,结合了行内政策知识库(涵盖信贷政策、监管法规、内部流程等文档)。产品经理老刘(化名)对这套系统期待很高,因为RAG方案理论上能让AI随时引用最新法规政策,帮助风控人员核对复杂条款。然而在一次季度风控例会上,业务部门反馈了几起AI回答失误的案例,引发了团队警觉。 典型情景:一位信贷审核员询问AI:“根据最新监管要求,小微企业贷款风险权重指标是多少?” 按理说,银保监会在2023年发布的新规将这一指标调整为了75%,而旧规是85%。知识库中也确实更新了最新文件。然而AI的回答却是:“85%,根据相关规定,小微贷款风险权重设定为85%。” 这个回答明显引用了旧规。幸亏审核员对政策非常熟悉,立即追问来源,这才发现AI援引的是2021年的文件。类似地,在反洗钱审查场景,AI因引用旧的客户尽职调查标准,差点放过一个本应高风险的客户。所幸人工复核时纠正了错误,但大家不禁后怕:如果业务全依赖AI,这种过时信息疏漏可能酿成合规事故! 原因排查:项目团队连夜对系统日志和知识库进行了彻查,发现了几个问题: 首先,知识库里同时存在新旧两个版本的政策文件。旧版虽然标注了年份,但检索算法并没有针对时效做优先级区分。当用户询问“小微企业贷款风险权重”时,新旧文件都有相关表述,向量检索阶段旧文件的相关段落竟然排在了前面——推测原因是旧文件措辞更直接匹配了用户用语,而新文件用了一些新术语,向量相似度得分反而略低。因此检索结果中旧规片段跑在了靠前位置。模型接收到这个旧片段,再加上提示里并未明确要求“一定依据最新”,于是很自然地沿用了旧数字85%作答。 其次,团队发现Prompt设计不严谨。当时提示词大致是:“根据以下文件内容回答问题:…”。模型可以看到文件内容包含旧规85%,但缺乏进一步指引去核实版本。事实上,新文件片段也在提示里,只是排在后面几段,模型生成时可能受“位置偏差”影响,更关注了开头出现的85%数字。这对应了RAG对齐策略中的“动态提示排序”问题——最新要点没有优先展示,导致模型注意力被干扰。 最后,知识库更新流程上也有纰漏:虽然2023新规上传了,但负责知识库的同事没有移除或标记2021旧规为废止状态,默认仍供检索。缺乏定期清理机制,让旧知识埋下雷。 解决过程:意识到问题严重性后,老刘带领团队迅速制定了改进措施: 知识库瘦身与标记:首先对知识库来次大扫除。凡是被新规替代的老文件,能删除的删除,不能删的(出于存档需要)就加上明显的“过时”标签,并在元数据里记下有效期。团队引入了时效性管理机制——检索时默认只搜索最新有效文档,除非特别指定,否则过期内容不参与检索排名。在我们的案例中,2021版文件被标记为“已废止”,正常查询不再返回。 检索算法优化:与公司NLP工程师协作,调整了检索策略。增加了一层关键字+时间过滤逻辑:对于包含年度或版本含义的问题(比如问“最新”“今年”之类),优先检索带有相应年份标签的文档。同时在向量检索基础上,融合BM25关键词匹配进行重新排序。这样做的效果是,新文件因为包含“2023”这样的字样,被算法判定更符合“最新”的语义,即使语义相似度稍低也会被置前。经此优化,再问“小微贷款风险权重”,检索返回的首段内容已是2023新规的相关条款。 Prompt策略调整:团队参考了业界Prompt工程的最佳实践,对提示词做了强化。具体改动包括:在系统提示中加入明确说明:“依据以下提供的最新政策文件回答。如果提供的信息与模型已有知识冲突,请以前者为准。”同时,在构建最终提示时,将最新资料段落置于最前,确保模型首先读到的是新规内容。以上举措相当于给模型戴上“时效性眼镜”,让它优先看清楚最新知识。同时,如果出现模型试图输出未在资料中的陈述,我们也在Few-shot示例中引导它回答“根据我掌握的信息,暂未查询到更新的规定”。这样,模型更倾向于忠实地依据检索资料作答,而不会轻易掺入外部记忆。 结果验证与反馈:部署改进后,老刘团队安排了一系列回归测试。特别针对之前出问题的用例,再跑一遍看AI回答是否纠正。同时扩大全量测试集,加入了一些刻意设计的问题,比如:“两年前的小微贷款风险权重是多少?”“当前反洗钱客户分级标准是什么,有没有调整过?”观察模型回答如何引用知识库。结果令人欣慰:对于带时间指示的提问,模型能明确指出对应年份规定的差异;对于一般提问,如果知识库有新规,模型都正确采用了新内容,而且回答时引用了文件年份以增强可信度(这是我们在Prompt中鼓励的做法,让模型附带信息来源)。此外,我们还上线了用户反馈机制:一旦人工审核员发现AI答非所问或者疑似用了旧数据,可以一键标记。系统收到标记后会自动进入“知识纠偏流程”:检查相关查询有没有检索到更新文档、模型是否忽略了新内容,从而进一步优化。 效果与反思:经过这一系列整改,该银行AI风控助手的回答准确率和可信度明显提升。尤其在涉及政策时效的问题上,未再出现引用过期信息的状况。风控团队反馈,现在AI给出的建议大多能跟上监管最新要求,大家对系统的信任度提高了。老刘也总结了经验教训:RAG并非“一劳永逸”的万能药,它更像是一套人机协同的知识工程。技术上要精益求精,例如知识库需要持续运营,模型提示需要不断调优;但更重要的是产品管理上的意识——必须正视AI的局限和内容风险,预先设计好防范旧知识干扰的机制。这个案例给所有AI产品经理提了个醒:引入再多新技术,如果忽略知识的生命周期管理,AI依然会在“不该犯的错”上翻车。 方法论总结 由上述案例和实践经验,我们可以提炼出一套避免旧知识干扰的系统方法论,帮助产品经理在RAG落地时未雨绸缪。可以将方法归纳为“五大支柱”,涵盖数据、模型、流程等层面,每一支柱都对应具体的行动要点: 知识库新鲜度管理 知识库是RAG系统的基石,其质量和时效性直接决定答案可信度。产品经理需要建立严格的知识库生命周期管理策略: 定期审查与更新:安排专人或团队定期检查知识库内容,对于时效性强的领域(如金融政策、法律条文),制定月度甚至每周的更新计划。一旦有新政策发布,第一时间将其纳入知识库,并淘汰或标注对应的旧版本。 内容版本管控:对每份文档增加元数据,包括发布日期、生效日期、版本号等。对于有有效期的内容,到期自动提醒维护人员更新或归档。通过这种元数据策略,可实现检索阶段按需过滤。例如我们可以配置检索查询默认添加过滤条件:只取生效日期最新的文档片段。这样,从源头上减少旧内容被检索到的机会。 单一真相源(SingleSourceofTruth):确保每个知识点在知识库中只有一个权威来源,避免同一知识散落在多份文档、特别是历史文件中。例如风控规则的最新总纲在哪里,必须明确。构建知识索引表,列出关键知识点和对应文件,方便定向检索与维护。 检索策略优化 检索层是阻挡旧知识的第一道关卡。如果检索拿错了材料,后面环节很难补救。因此需要在检索策略上做文章,让新知识优先、相关内容准确: 混合检索模式:结合向量语义检索和关键词精确检索(稀疏检索)。向量检索善于语义匹配,但有时会把措辞不同的新旧内容混淆;关键词检索可严格限定字面匹配。将二者结合,比如BM25+向量双检索:先用关键词过滤明显旧的或不相关文档,再用向量匹配提高语义相关性。如此双管齐下,提升检索准确率。 时间权重与排序:在检索算法中引入时间因素,对文档打分时给予新文档额外加权。很多向量数据库或检索引擎支持自定义排序器,可以根据文档日期衰减分值,让旧文档即使相关也排在后面。这种“时间衰减排序”策略在知识更新频繁的场景非常有效。实际应用里,我们给检索结果打分公式加了一项:Score=原相关分*f(年龄),f(年龄)是随文档年龄增长而降低的系数,以此确保新内容优先出现在检索结果前列。 检索结果控制:设置检索结果过滤规则,宁可少但精。不妨限定每次仅取若干条最相关结果,而不要把上下五花八门的内容全塞给模型。尤其当某查询在新旧文档里都有匹配时,可以只保留最新版本对应的段落。这一方面可以通过文档标签过滤实现,另一方面也可以在将结果传给模型前做一次检查,剔除相似度次高但来自过期文档的片段,防止模型被多版本干扰。 Prompt对齐策略 Prompt的设计是确保模型遵循知识库而非自说自话的关键。一个好的Prompt策略相当于给模型立下“规矩”和“指路灯”: 明确指示信息来源:如在系统消息或用户提示中明确要求:“请严格根据提供的资料回答;若资料未涵盖,直接说明无法从现有信息获取答案。”这样模型有了清晰边界,知道不看资料就不能乱说。 动态提示优化:正如前文案例所示,将检索到的最新且关键的信息放在提示的最前面。模型生成时具有“位置偏好”——前面的内容影响更大。所以我们确保最新政策段落优先呈现,旧信息即便有也放在后面甚至不提供给模型。此外,可以在不同轮对话中动态调整提示。例如用户追问细节时,再检索更多信息加入,但始终重申之前的新知识要点,以免模型记忆跑偏。 Few-Shot示范:在提示中加入少量范例Q&A,示范遇到知识盲区或冲突时应如何回答。例如示例里展示:“问:XX政策有没有更新?答:根据我们最新的知识库(截至2023年),XX政策最新版本规定…(引用新规)。此前旧版本规定…但已被取代。”通过一两个示范,模型在真实回答时会效仿这种风格:先引用新知识,必要时指出旧知识已作废。这样的对齐训练可以潜移默化地纠正模型倾向,减少它贸然使用自身旧记忆的概率。 输出审核与纠偏 再严谨的前置措施也难保证100%万无一失,因此为关键场景构建输出审核机制作为兜底非常必要: 事实校验模块:可以考虑集成后置验证程序。比如对于风控AI的回答,特别是涉及数字、法规条款等,可在输出后调用一个核验服务:再次查询知识库核对答案中的关键数据。如果发现输出引用的不是最新版本,立即发出警示或自动修正。比如AI答“小微贷款风险权重85%”,核验模块查询知识库发现最新规定是75%,则标记回答潜在错误。这种后编辑思路在关键任务中很有价值,哪怕牺牲一点实时性,也换来更高准确性。 答案溯源与呈现:鼓励在UI层面让AI的答案引用来源(比如用脚注或提示说明“信息来自XX文件2023版”)。这样一来,用户可以自行判断答案的新旧可靠性,也更方便发现问题时追查来源。这实际上是一种透明度机制,既提升用户信任,也在无形中促使模型“自我约束”,因为它知道自己的回答会被对照来源检查。 人工监控与反馈:设置定期的人工review流程。对于风控这种高风险领域,上线初期可以要求每周抽查一定比例AI提供的结论,与人工作对比,尤其关注是否有过时依据。将这些检查结果记录下来,形成反馈循环:如果发现AI因旧知识回答错误,分析是哪环节失守,及时改进(比如补充Prompt或新增知识库内容)。在我们的案例团队中,就建立了一个“知识问题档案”,专门收集AI因知识更新不及时导致的纰漏,每次迭代都优先解决这些已知问题。 组织与流程保障 最后一方面往往被技术人员忽略,但资深产品经理深知其重要性:只有组织和流程跟上,技术方案才能长久运行。为此,需要在团队协作和管理流程上做好设计: 跨部门联动:风控政策更新往往由风险管理部门或法务部门掌握。产品经理应与这些领域专家建立信息通道。例如提前订阅监管机构通知,一有新规内部立刻通报AI团队更新知识库。甚至可以将知识库维护嵌入公司原有的制度更新流程:新政策下发→风控部门解读→AI知识库同步更新,这三步缺一不可,写入项目SOP中。 知识库运营角色:指定专人担任“知识库运营”或“知识管家”。这个角色类似编辑+运营,一方面及时添加新知识,一方面定期清理无用旧知识,并不断优化标签分类。只有明确责任人,避免知识库成了没人管的“资料仓库”才行。老刘在项目复盘时就追加了这个岗位,事实证明效果明显。 迭代升级策略:AI模型本身也在升级(比如大模型版本更新、或者公司改用自己训练的新模型)。每次模型升级前后,要特别注意旧知识干扰的变化。新的基础模型也许知识截止更晚或风控知识更多,但也可能自带一些与现行规则冲突的内容。产品团队应该在模型升级时重跑一遍知识问答测试,查看输出是否重新出现旧知识。必要时对新模型做轻微微调或加强Prompt限制,以适应现行知识库。总之,把“知识更新适配”作为模型升级验收的一项标准。 以上五大支柱形成一个系统性的框架,帮助我们从内容、检索、模型、输出、流程全链路保障知识的新鲜可靠。简单概括:“存新弃旧”(数据层)、“检新抑旧”(检索层)、“答新制旧”(生成层)、“审新纠旧”(输出层)、“常抓不懈”(流程层)。只要在产品设计与实现时围绕这几个方面下功夫,就能最大程度降低旧知识干扰的风险。 落地建议 对于已经了解RAG原理但困惑于实际落地细节的AI产品经理,特别是在金融风控审核这样的高要求场景,以下是一些直接可执行的行动建议,可作为你规划项目的清单: 知识库盘点与升级:启动项目伊始,先对现有文档进行盘点分类。梳理出“高时效风险”的知识点(如监管规则、业务指标等),优先建立它们的更新机制。引入工具(例如企业内容管理系统)对文档版本进行管控。务必在上线前清洗掉显而易见的旧版本冲突——哪怕暂时粗暴地删掉旧文件,也胜过让AI混淆。 建立“知识更新通知”机制:和风控合规团队达成共识,任何新规发布时,AI团队必须在场或第一时间获取文件。可以在公司内部建立群组或邮件列表,监管动态一有更新,相关人员同步收到。这在金融行业很常见,例如监管机构经常下发通知,产品经理应订阅这些渠道。形成制度后,减少“消息漏报”,杜绝因为没跟上新规导致AI延续旧知识。 检索系统调优:与算法工程师一起,对你们选用的检索库/搜索引擎进行配置调优。检查是否有按字段过滤或排序的功能,利用文档的日期或版本字段来优化结果顺序。若使用向量数据库,研究是否支持Hybrid搜索(向量+符号),很多现成方案(如Elastic+ANN、Milvus等)都可以实现。尽早在开发阶段就把这一层完善,而不要等出现干扰问题再补救。 Prompt编写与反复试验:Prompt设计不是一劳永逸的。写初版Prompt时就考虑加入时效提示和防滥用旧知的措辞。在开发环境多轮测试模型的回答:尝试提问一些过期知识相关的问题,看模型表现。根据观察不断修改Prompt措辞,直到模型大概率遵守规则为止。尤其对于要求模型严格依据提供内容的,要测试模型在有无相关内容两种情况下的输出——确保没提供新知识时模型不会乱答,而是老实说不知道或提示需要更新知识库。 关键问答用例集:构建一份涵盖新旧知识点的测试用例集。包括:近期政策变化类问题、不同年份对比类问题、以及可能诱导模型引用旧知识的问题等。举例:“去年和今年反洗钱法规客户分类标准有何不同?”“目前执行的XX办法是哪年发布的?”等等。把这些问答打造成一个持续回归测试集,每次系统改动或定期都跑一遍,及时发现问题回归。 灰度上线和用户教育:在真正大范围启用AI助手前,建议经历灰度上线阶段。先让一小部分资深风控人员试用,在此期间收集他们的反馈特别是关于知识准确性的反馈。鼓励用户反馈界面增加“标记此回答可能过时”的选项,方便一线人员直接给出信号。与此同时,做好用户教育,在培训中强调AI助手的知识以知识库为准,并非万能——教会用户查看答案出处,一旦发现疑似过时,要反馈而不是盲信。这种双向防线可以把风险降到最低,也培养用户和AI协同工作的思维。 持续改进:产品上线运营后,安排定期(如每月)分析系统日志和用户提问。重点关注那些AI回答了但信心较低的问题、或用户反复提问的问题。这些往往暴露出知识盲区或可能的知识错用。对症补充更新知识库或优化模型配置。与此同时,跟进行业动态,预判未来可能需要更新的知识,让系统提前准备。例如已知某监管政策半年后将生效,现在就把草案文件加入知识库(标注为将生效),并测试AI能否识别时间。提前演练这些场景,可以避免临到政策切换当天手忙脚乱。 以上步骤结合起来,基本构成了一条从准备到运营的落地路线图:内容准备 → 算法支撑 → 提示控制 → 测试验证 → 灰度上线 → 反馈迭代。在金融风控这样变化频繁又要求稳健的领域,这种严谨的落地策略尤为重要。它确保了我们不是把一个“装着旧书的聪明人”推给业务,而是真正交付一个“与时俱进的智能助理”。 总结与展望 在RAG落地过程中避免旧知识干扰,就像是在快速奔跑的科技列车上不断为AI更换轨道前方的铁轨——既要踩准节奏,又要保证万无一失。这篇讨论中,我们深入剖析了旧知识干扰问题的根源,从实际案例中验证了问题的存在和解决的有效路径,并提炼出一套方法论和实践指南。 归根结底,RAG的价值不止于让模型“知道得更多”,更在于让模型“始终知新”。如果说大模型给了我们一台强大的引擎,那么高质量的知识库和精细的产品策略就是确保这引擎不迷失方向的导航系统。资深产品经理的洞察在于,AI产品不仅需要模型能力的突破,更需要架构和运营上的稳健。只有把知识更新机制、检索对齐策略、Prompt约束、结果校验和团队流程这些方面都打牢,我们才能真正发挥RAG的威力,而不被旧知识拖后腿。 展望未来,随着大型模型不断演进,我们可能看到模型自身的知识更新更加频繁(例如未来的基础模型定期增量训练,将知识更新周期从几年缩短到几个月),这将在一定程度上缓解旧知识干扰的问题。同时,新的技术路线也在兴起,比如近期业内探讨的缓存增强生成(CAG, Cache-Augmented Generation)理念,尝试通过预加载最新知识的缓存来减少实时检索依赖。这些进展都预示着知识增强型AI的架构会更加多样和智能化。然而,无论技术如何发展,产品经理对于知识准确性的把关永远不可懈怠——监管政策、金融风险这些领域,对错误零容忍,哪怕AI有99%的正确率,剩下那1%纰漏如果集中在旧知识上,我们依然要想办法将其抹平。 未来或许AI本身会更懂得判断知识的新旧有效性,但在那一天到来之前,我们每一位产品人都需要扮演好“AI督导”的角色。通过深耕领域、严谨求实,把人类经验中的稳妥和智慧融入AI系统的设计中,我们才能既享受RAG带来的效率提升,又守护住业务的准确性和可靠性。尤其在金融风控这样的关键业务战场上,这份执着与专业,是打造爆款AI产品和守住风险底线的双重保障。贯彻始终,知新而行,我们有理由相信,RAG的应用将在可控可靠的轨道上创造更大价值,真正成为新时代风控产品的制胜法宝。 本文由 @Timothy 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Unsplash,基于CC0协议
AI创业的真正挑战,不在于0到1的技术突破,而在于1到N的产品化跃迁。本文深度剖析定制化陷阱与飞轮构建逻辑,结合一线创业者的实战经验,提出一套可复制的产品演化路径,帮助团队从“项目驱动”走向“机制驱动”,实现规模化增长。 我们正处在一个技术的盛世。 无数的AI团队背靠顶尖的算法,能做出在特定场景下令人惊叹的技术Demo,凭借技术实力轻松拿下第一个、第二个,甚至第十个定制化项目。 但一个残酷的现实是:绝大多数AI初创公司,在3年内便走向了衰落。 它们的死亡,往往并非因为技术不达标,相反,他们的技术可能相当过硬。真正的死因,是陷入了一个致命的增长陷阱:用做项目的手艺,去拼产品的市场。 这一幕,是否似曾相识? 回顾历史,多少早期的软件公司,以及前些年苦苦挣扎的SaaS企业,都曾走上同一条不归路:一味地去满足前几个客户的定制需求,在要活下去的无奈中,逐渐抛弃了产品体系的构建,最终打着客户第一的旗帜,将自己彻底沦为了外包和乙方。 当团队沉浸在一个个定制化项目带来的短期收入时,他们实际上已经沦为高级外包公司。每一个新客户都意味着全新的开发成本,公司的核心能力被稀释在无数个特供版中,无法沉淀。收入线性增长,成本却居高不下,利润微薄,最终在市场和资本的双重挤压下,现金流断裂。 这背后的核心矛盾,并非技术与产品的对立,而是定制化项目与标准化产品之间的道路选择。 这是一个关于商业模式的古老陷阱,在AI时代再次上演。 今天,我们要戳破的认知陷阱正是:你以为你做出了一个产品,从此市场就为你敞开大门。你以为你的团队在做AI产品,但实际上,你可能只是在无休止地交付AI项目。 而能帮你跳出这个历史循环、实现规模化增长的角色,很可能就是那个最被低估的——产品经理。 别误会,这里的产品经理不是指互联网末期环境下的那一批只会画原型的阉割版的产品经理。 一、致命的误区:你做的只是功能集合而非产品 1、很多创业者/开发者/企业主的理解是,产品 = 软件 = 一系列功能的集合。 对他们来说,产品经理就是功能经理,他只需要负责把客户想要的功能列出来,让工程师开发出来。 2、而真正的产品经理的理解是:产品 = 一个为解决特定人群的特定问题而设计的、完整的价值交付体系。产品经理是这个价值体系的定义者、设计者和守护者。 他们的工作流是:洞察问题——定义价值——设计体系—— 引领团队实现——验证并优化价值闭环。 普通人看到的软件功能,只是冰山露出水面的10%。它是具体的、可见的交互界面和功能按钮。 产品经理负责的完整体系,是水面下90%的部分,它支撑着整个产品的稳定与价值 这水下90%的体系,尤其对于AI产品,至少包含以下六个关键部分: 价值主张:它到底解决了什么核心问题?而不是它能做什么。 AI核心:模型本身是自研、Finetune或API调用,以及它和插件、规则的组合策略。 用户体验:用户如何与这个不完美的智能体交互?如何引导、如何展示幻觉、如何建立信任? 数据飞轮:如何设计一个机制,让用户乐于提供高质量的反馈,从而反哺AI核心,让产品越用越聪明? 运营与护栏:如何监控模型的成本、效果和安全性?如何防止滥用?兜底方案是什么? 商业模式:这个体系如何收费?按Token、按月、按效果?如何让这个体系的运转能带来商业回报? 所以,做了软件的,是工程师或开发者。他的任务是构建。而AI产品经理,是这个复杂体系的负责人。如果你只关心水面上的10%,你可能只是一个功能集合的协调者。 二、恶性循环:轻视产品体系如何让企业活不过三年 当一个企业用传统做软件的思维去运营公司时,一个致命的恶性循环就开始了: 第一环:轻视产品 有些技术创始人主导,认为技术是1,其他是0。他们把产品经理等同于项目经理或原型工具人(90%的企业也确实是这么用PM的),认为产品经理毫无用处,资源全部堆在技术或者销售上。 第二环:陷入定制,成为苦哈哈的外包 没有强势的产品经理去定义水面下的产品体系。导致销售签回来一个项目,技术团队就被动地开发一个特供版。做了10个项目,就有了10个无法复用、无法打通的孤岛。公司变成了高级软件外包公司。 第三环:价值无法累积,一直在原地踏步 因为没有标准化产品这个载体,公司的研发投入无法形成复利。团队的经验、客户的反馈、沉淀的数据……所有这一切都无法沉淀到一个核心产品上使其不断进化。公司一直在用时间换钱,而不是用产品换规模。 第四环:产品死亡,活不过3年 由于定制项目的利润率极低、交付成本极高、回款周期极长。团队疲于奔命,现金流紧绷。一旦市场环境变化或大客户流失,公司立刻死亡。 第五环:企业丧失生命力 这家公司不是死于技术不行,而是死于商业模式的失败。它没能从技术作坊转型为产品工厂。 而最可悲的是,幸存者和投资人可能会得出错误结论:看,这个AI方向不行,而不是看这家公司没有产品能力。 这就导致下一波创业者,可能还在重复这个重技术、轻产品的错误,恶性循环得以延续。 三、决胜点:从0-1的技术破局,到1-10的产品规模化,为什么产品体系是规模化的核心? 这几乎是所有技术驱动型公司发展的标准路径和最大的坎。 0-1 阶段:技术为王,拼的是可行性 这个阶段的核心是验证技术能力。技术团队是英雄,目标是做出令人信服的技术奇迹Demo。此时的口号是:先做出来,能用就行。这也是我们目前90%的公司拥有的状态。 1-10 阶段:产品决胜:拼的是可复制性 一旦有了第一个客户或项目,挑战才真正开始。客户会提出各种定制化需求。如果没有产品经理,技术团队就会被牵着鼻子走,沦为高级外包,陷入 项目制泥潭。 产品经理的价值,正是在1这个节点强势介入,成为企业从1到N规模化的核心引擎。 他/她必须做三件反直觉但至关重要的事: 1. 价值逻辑的跃迁:从解决个案到定义范式 定制化(1):满足特定客户A的所有需求,无论多独特。成功标准是客户A满意。 产品化(N):找到100个类似客户的最大公约数需求。成功标准是市场占有率。 PM的作用:顶住销售和客户的压力,勇敢地说No,拒绝那些偏离主航道的个性化需求。他的核心能力在于,从无数个案中,淬炼出行业的本质痛点与通用需求,定义出解决问题的标准范式。拒绝非共性需求,不是傲慢,而是对产品愿景的坚守和对规模效应的信仰。 2. 商业模式的跃迁:从贩卖时间到复制价值 项目收入:贩卖时间:收入=人数×单价×时间。这是线性模型,每一个新订单都意味着近乎100%的边际成本。 产品收入:复制价值:收入=产品单价×客户数量。一旦产品成型,复制它的边际成本趋近于零,使收入曲线具备指数级增长的潜力。边际成本极低。 PM的作用:他设计的标准化产品体系,使得这种规模化的收入模式成为可能。 3. 组织能力的跃迁:从能力依附于个人到能力固化于产品体系 定制化公司:核心竞争力是几个资深工程师、几个大销售,他们懂客户。能力是个人化的、隐性的,公司规模受制于人。 产品化公司:核心竞争力是产品本身。产品的设计封装了公司对行业的所有理解。组织效率极高。 PM的作用:他是首席的知识编码官。他将顶尖工程师的算法、行业专家的洞察,全部编码进产品的架构与逻辑之中。即使最初的骨干离开,产品的核心能力依然存在。他构建的是一个能产生结构性复利的系统,让每一次服务都能转化为下一次产品更新的素材。 总结而言,从0-1靠技术,从1-10靠产品。产品经理,就是帮助公司在1这个节点上,完成从手工作坊到现代工厂惊险一跃的设计师。他重构的不仅是产品,更是公司的价值逻辑、商业模式和组织能力。 四、战术篇:产品化的规模之路,到底该怎么走? AI产品经理不只是让一个功能亮起来,而是让一套价值-数据-能力-商业的系统自运转、自学习、自复利。 以下是一套可供实践的框架: 1、体系化设计:从做出来到做成势的五个维度 ① 从需求理解到目标-路径映射 将模糊的业务意图,拆解为可计算、可优化的目标函数,并精准映射到AI检索→推理→生成→校验的技术路径上。 ② 摒弃按钮与流程,构建能力的乐高积木 将Prompt、工具函数、数据流进行模块化设计,打造一个可配置、可插拔、可观测的产品骨架。这确保了能力的复用性与快速的A/B测试。 ③ 超越上线即成功,追求完整的产品生命周期健康度 能跑:稳定性、时延、成本可控。 能用:用户转化率、留存率、NPS健康。 能增值:数据飞轮。 能反馈:用户的纠错能顺畅地回流,驱动模型与策略的迭代。 ④ 用实验驱动取代需求清单驱动 行动:将核心能力抽象为标准化策略单元,跨场景复用,以指标-假设-实验的科学循环驱动产品路线图。 ⑤ 遵循价值验证-路径固化-产品化包装的三步法 行动:先通过MVP验证核心价值;再将成功的解决方案固化为标准模型路径;最后完成产品化封装。 真正的规模化,是让产品形成一个强大的内在飞轮,能够自己长大:触发入口 → 价值瞬时感知 → 数据沉淀 → 策略/模型优化 → 提供更大价值 五、从技术作坊到产品帝国,这才是终局之战 我们已经详细拆解了为什么(Why)要产品化(实现三大转型),和怎么办(How)去产品化(落地五大维度和飞轮)。 至此,路径已经清晰。 这不是一个新故事。 我们开篇提到的似曾相识,是中国SaaS和软件行业失落的十年里,无数技术公司踩过的定制化陷阱。 历史不会简单重复,但它总押着相同的韵脚。 而这一次,在AI领域,这个陷阱的闭合速度,快了十倍。 AI革命的下半场,竞争的核心早已不是谁的模型跑分更高的技术之战,而是谁能率先摆脱定制化引力,实现规模化盈利的商业模式之战。 从0到1是技术的破土;从1到10,是产品的生长。 而连接这两者的,正是那位被严重低估且带着嘲讽意味外号的“小CEO”——产品经理。 他不用写最复杂的代码,但他设计整个系统的生命线。 他不直接面对每个客户,但他定义价值传递的通用语言。 他不在销售一线拼杀,但他打造了能规模化进攻的武器库。 他的工作是把技术的火花变成商业的引擎。 在AI重塑一切的时代,愿每一位技术创业者,都能找到你的产品合伙人;愿每一位产品同行,都能成为那个构建体系、而不只是画原型的破局者。 本文由 @Mio的AI商业观察 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Unsplash,基于CC0协议
RAG应用正在进入“工程化落地”阶段,而工具之间的协同能力成为关键变量。本文以LighRAG与Dify的集成为例,系统梳理其底层检索原理与集成逻辑,帮助产品人、AI工程师理解如何构建高效、可控的智能问答系统,为Agent化应用打下坚实基础。 0. 效果演示 1. LightRAG简介 LightRAG是一款轻量级知识图谱增强检索框架,由香港大学的研究团队开发。它与传统RAG系统的根本区别在于,将图结构集成到文本索引和检索过程中,解决了单纯向量检索中遇到的关系缺失、语义模糊等问题。 LightRAG具有以下几个显著特点 轻量高效:最小化知识图谱存储和计算开销,确保系统不会因为引入图结构而大幅增加资源消耗。 易于集成:提供简洁API,可与现有RAGpipeline快速整合,开发者可以轻松将其嵌入现有系统中。 多模态支持:能同时处理结构化与非结构化数据,适应多样化的数据源。 可解释性强:提供检索路径的透明解释,让用户清楚了解答案的生成过程。 与传统RAG的对比 传统RAG系统依赖于扁平化的数据表示,难以捕捉实体之间的复杂关联 上下文感知能力不足,导致回答缺乏连贯性。 LightRAG通过引入基于图结构的文本索引方法和双层检索机制,从根本上提升了信息检索和生成的效率与质量。 2. 如何集成到Dify 最简单的方式是直接通过HTTP Request节点,但为了更好的拓展性,我们将LightRAG封装为工具直接作为节点被调用。 Dify Console -> Tools -> Custom -> Create Custom Tool 填入符合OpenAPI-Swagger规范的Schema,直接可以获取LightRAG提供的全部API工具 创建好后,就可以在Dify工作流里调用了。 3. LightRAG的检索基本原理 LightRAG 目前对外暴露的查询接口只有两种: 1. naive_query 只做“纯向量”召回:把用户问题向量化,到文本向量库(chunks_vdb)里做相似度检索,取top-k段原文,直接送进LLM生成答案。 不涉及知识图谱,也不区分实体/关系,适合快速demo或事实性不强的闲聊场景。 2. kg_query(Knowledge-Graph Retrieval) 基于知识图谱的混合检索,在内部会根据参数走三条路径,调用时通过 QueryParam(mode=…) 指定: local–仅检索实体向量库(entities_vdb),定位与问题最相关的实体节点,再把实体描述及相邻文本块喂给LLM。 global–仅检索关系向量库(relationships_vdb),拿到与问题最相关的关系三元组及其上下文,用于“主题性”“综述性”回答。 hybrid–同时做local+global召回,把实体、关系、原文片段一并交给LLM,兼顾细节与全局。 本文由 @AIDT智享远方 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Unsplash,基于CC0协议
AI工具的演进,正在重塑产品经理的能力边界。从提示词到Agent,不只是操作方式的变化,更是思维范式的跃迁。本文系统梳理AI应用在产品工作中的进阶路径,帮助产品人构建从“工具使用者”到“智能协作者”的认知地图,在新范式中抢占主动权。 作为产品经理,我们或许已经能熟练地念出几句Prompt,让AI秒出惊艳的图片,或是高效产出八面玲珑的营销文案。这感觉很棒,就像拥有了一个随叫随到的高效实习生。 但当夜深人静,我们真正想让AI成为左膀右臂,去处理那些更核心、更复杂的工作流时——比如,「自动监控三个竞品官网的更新,抓取关键信息,并汇总成一份结构化的周报」,我们才发现,那些零散的咒语突然失灵了。 这正是许多产品经理在AI应用深水区的共同困境。而要跨越这道坎,我们需要一场思维模式的彻底升级。这不再是简单学习几个新技巧,更像是一场从「与AI对话」到「为AI立法」的英雄之旅,最终的目标,是亲手构建一个能理解目标、调用工具、自主执行任务的智能工作伙伴——AI Agent。 第一阶段:告别混沌,走向秩序 ——「结构化提示词」 如果说日常使用的自然语言提示词,像是我们和AI在咖啡馆里的一次闲聊,想法随性碰撞;那么结构化提示词就是把这次讨论的核心内容,沉淀成了一份清晰、无歧义的会议纪要或PRD (产品需求文档)。 这是我们从AI使用者,到AI设计者身份转变的第一步,也是最关键的一步。它的核心价值只有一个:解决AI输出的「不确定性」问题。 当我们抱怨AI「不够聪明」或「胡说八道」时,问题往往不出在模型本身,而出在我们给出的指令太过模糊,充满了可被误解的空间。结构化提示词,正是通过预设的框架(比如角色、目标、步骤、输出格式等),将我们的意图精确地传达给AI。 这就像我们不再对一个新来的助理说「你帮我分析下这个产品」,而是递给他一份文档,上面清晰地写着: 你的角色:资深市场分析师 分析目标:找出「产品A」的三个核心优势和两个潜在风险 工作步骤: 1. 浏览官网; 2. 阅读用户评论; 3. 总结要点 交付格式:一个包含「核心优势」和「潜在风险」两个部分的Markdown文档 这种转变,确保了AI的每一次执行都不是随机的灵感迸发,而是一次标准化的工业生产。它是我们后续构建一切复杂、可靠的自动化流程的坚实地基。 第二阶段:赋予AI灵魂的变量 ——「编程化提示词」 如果说结构化是为AI打造了一副坚固的骨架,那么编程化就是让温热的血液在这副骨架中开始流动。它的核心,是在我们已经搭建好的稳定结构里,引入两个关键元素:「变量」和「逻辑判断」。 这对于我们产品经理来说,再熟悉不过了。它就像我们设计一个产品后台,不会为每一篇文章都写死一个页面,而是会创建一个统一的文章模板。文章的{标题}、{作者}、{发布时间}都是变量,可以动态填充。 编程化提示词也是同理。我们不再写一个只能分析「产品A」的提示词,而是创建一个能分析{任意产品}的模板。 比如,我们可以这样设计一个指令: 「你是一个竞品分析专家。请分析{product_name}这款产品。根据{analysis_focus}这个侧重点,找出它的核心亮点。请注意,如果{output_language}是中文,就用中文回答;如果是英文,就用英文回答。」 看到那几个被大括号包裹的词了吗?它们就是变量。 这意味着我们的AI应用,从此拥有了动态适应的能力。它可以根据每次输入的不同{product_name}、{analysis_focus}和{output_language},来调整自己的行为。 这看似一小步,却是质的飞跃。AI不再是一个只会执行一条死命令的机器人,它开始变成一个能够根据不同输入、做出不同响应的活学活用的系统。这是我们迈向真正智能应用的关键一步。 第三阶段:让AI学会「思考」的艺术 ——「上下文工程」 如果说前两个阶段是我们在驯化AI,让它听懂指令、精准执行;那么上下文工程则是一次彻底的角色反转——我们开始成为AI的「导师」,教它如何「思考」。 这是从指令执行到决策辅助的飞跃。其核心在于,为AI提供一个丰富、有序且随时可供查阅的外部知识库或长期记忆。 大语言模型本身再强大,也存在两个天然的短板:它的知识停留在过去某个时间点,而且它并不懂我们公司内部的业务细节。上下文工程,就是解决这个问题的钥匙。 这就像我们培养一位新来的产品经理。我们不会指望他第一天就凭空做出战略决策,而是会给他一堆关键资料:公司的年度规划文档、过去半年的用户调研报告、竞品分析数据库、团队内部的SOP手册…… 有了这些上下文,当他再面对「我们下个季度的产品迭代应该聚焦在哪个方向?」这类复杂问题时,他就不会天马行空地瞎猜,而是能够基于这些背景信息,给出一个有理有据的专业判断。 在AI应用中,这个上下文可以是一个外部的文档数据库(比如Notion、飞书文档),也可以是一段实时抓取的网络信息,甚至是我们过去与它的对话记录。通过技术手段将这些信息喂给AI,它就从一个什么都懂一点的通才,变成了一个真正懂我们业务、懂我们项目的领域专家。 第四阶段:终极试炼,打造你的第一个AI Agent 欢迎来到旅程的最后一站。在这里,前面我们聊到的「结构化」、「编程化」和「上下文工程」将不再是孤立的概念,它们会像齿轮一样精密地啮合在一起,驱动一个强大的智能体——AI Agent。 一个真正有效的Agent,其核心设计可以用一个简单的公式来概括: Agent = 明确的目标 (Goal) + 可用的工具 (Tools) + 清晰的思考链 (Chain of Thought) 这完全就是我们产品经理的日常工作:定义需求,配置资源,然后规划执行路径。 让我们用一个最经典的场景来实战拆解:打造一个「竞品动态监控Agent」。 Step 1. 定义Agent的核心目标 (Goal) 首先,我们要用一句话给Agent说清楚,它的使命是什么。目标必须是具体、可执行的。 目标: 每周一自动访问指定的三个竞品官网,检查其产品更新或新闻发布,并根据发现生成一份摘要报告。 Step 2. 梳理思考路径 (Chain of Thought) 接下来,我们把自己想象成一个人类分析师,模拟完成这个任务的思考和行动步骤。这就是在为Agent设计大脑回路。 启动:获取本周需要监控的竞品官网URL列表。 访问与扫描:依次访问每个URL,重点扫描页面中是否出现「新功能」、「产品发布」、「价格调整」、「合作新闻」等关键词。 信息提取:如果发现相关信息,提取包含关键词的完整段落或新闻标题。 判断与汇总:如果三个网站都没有发现任何更新,则记录「本周无重要更新」。如果发现了,就将所有提取到的信息进行汇总。 生成报告:将汇总后的信息,整理成一份结构化的报告,包含「竞品名称」、「更新类型」、「关键信息摘要」三个部分。 Step 3. 配置工具箱 (Tools) 要完成上述思考路径,Agent需要哪些超能力?我们需要为它配置一个工具箱。在实际应用中,这通常通过API调用来实现。 [Web_Browser]工具:赋予Agent访问和读取指定网址内容的能力。 [Text_Extractor]工具:赋予Agent从网页内容中,根据关键词精准提取信息的能力。 Step 4. 编写核心指令 (Master Prompt) 最后一步,我们将以上所有要素——目标、思考链、工具——用我们已经掌握的「结构化」和「编程化」技巧,封装成一个总控指令。 # 角色:你是一个资深的AI竞品分析Agent。 # 核心目标 (Goal):你的任务是监控指定的{competitor_urls}列表,为我生成一份关于{date_range}时间范围内的竞品动态周报。 # 可用工具 (Tools):你可以使用以下工具来完成任务: -Web_Browser: 用于访问和读取网页内容。 -Text_Extractor: 用于根据关键词提取文本。 # 思考与执行链 (Chain of Thought): 你必须严格遵循以下步骤: 1)遍历{competitor_urls}列表中的每一个URL。 2)使用[Web_Browser]工具访问该URL。 3)在网页内容中,扫描是否存在与{keywords}(例如:「新功能」、「发布」)相关的关键信息。 4)如果找到,使用[Text_Extractor]工具提取相关段落。 5)重复以上步骤,直到所有URL都检查完毕。 6)将所有提取到的信息,整理并输出。 # 输出格式:请严格按照以下Markdown格式生成报告: Markdown ### 竞品动态周报 ({date_range}) 1. {竞品A名称}-动态类型: (例如:新功能发布) -摘要: (这里是提取的关键信息) 2. {竞品B名称}-动态类型: (例如:价格调整) -摘要: (这里是提取的关键信息) 3. {竞品C名称}动态类型: 本周无重要更新 摘要: — 看到吗?这个Agent的诞生,本质上就是一次完整的产品设计。我们定义了它的价值、规划了它的逻辑、并给了它实现价值的工具。这,就是产品经理在AI时代的核心竞争力。 结语 回顾这条从「结构化」到「Agent」的英雄之旅,我们不难发现,这并不仅仅是学习一连串的新鲜技术,其本质,是一场产品经理核心工作思维在AI时代的重塑与延伸。 AI Agent 并非遥不可及的神秘黑科技,它就是我们手中产品设计能力的再一次放大。它让我们有机会将那些琐碎、重复但关键的工作流,设计成一个真正智能、永不疲倦的自动化产品。现在,就从你身边最熟悉的一个小场景开始,动手构建属于你的第一个Agent吧。 本文由 @靠谱瓦叔 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Pixabay,基于CC0协议
你以为医疗AI只要模型准就够了?其实,安全性、伦理性、可解释性才是落地的关键。这篇文章从一线实战出发,拆解医疗AI评测的五大维度,教你如何构建一个“能用又能信”的闭环评估体系,让产品不再停留在技术演示。 随着深度学习模型在各类医学影像识别、病理分析等任务上的表现,我们常在顶刊看到模型的ROC曲线下面积(AUC),精确率和召回率近乎完美。然而,在投入真实的临床环境时,我们却常常听到来自一线医生的困惑与挑战:干扰诊断节奏,没有解释依据,加重工作负担等。 这些问题尖锐地指出,一个高AUC的模型,与一个成功、可靠、能被临床广泛接受的AI医疗产品之间,存在着巨大的差距。那么建立一套科学、全面、贴近临床的评测体系至关重要。 这套体系必须能够回答三个核心问题:模型是否准确可靠?模型是否能带来临床获益?模型是否安全且值得信赖? 本文会提出一个多维度、全周期的AI医疗模型综合评测框架。如有同道中人愿意一起讨论,也欢迎提出宝贵的建议。 一、常用评测算法性能的概念 确保模型在技术层面的稳健性和可靠性。这里结合医疗场景,介绍几个评估模型的基本概念: 1. 精确率:模型 “判对” 的概率高不高 精确率的核心是减少误判, 也就是模型说 “阳性”(患病)的那些结果里,真正对的有多少。要理解精确率,需先明确二分类任务中的4种基础预测结果: 真阳性(TP):实际是患病,模型也判对了; 真阴性(TN):实际是健康,模型也判对了; 假阳性(FP):实际是健康,模型却判成患病(健康人被误当成病人,也就是“误报”); 假阴性(FN):实际是患病,模型却判成健康(病人被漏判成健康人,也就是“漏报”)。 精确率的计算公式为:精确率 = TP / (TP + FP) 比如模型预测 10 个 “患病”,其中 8 个真的患病,则精确率 = 8/10=80%。这意味着模型判 “患病” 的结果里,80% 是准的,20% 是误判。 在医疗场景里,精确率低会很麻烦。比如癌症筛查时,要是精确率低,就会有很多健康人被误判成 “疑似癌症”,不仅会让他们恐慌,还得花额外的钱做进一步检查,浪费医疗资源。 但是如果仅看“精确率”可能误导结果,例如:99%样本为“非患病”,模型全预测“非患病”,准确率99%,但完全漏掉了诊患病样本。这时候就得看另一个指标:召回率。 2. 召回率:模型查的全不全 召回率的核心是 “少漏判”,也就是所有真正真患病的人里,模型能查出来多少。 计算公式:召回率 =TP/ ( TP +FN) 例如:实际有 10 个患病者,模型只测出来 7 个,则召回率 = 7/10=70%。这说明还有 30% 的病人被漏判了。在疾病诊断里,召回率低的后果很严重,会错过早期干预时机,导致病情恶化。 这里要注意:精确率和召回率往往存在“权衡关系”。比如为了少漏诊(提高召回率),医生可能会把 “有点像患病” 的人都判成 “疑似”,但这样会让更多健康人被误判(精确率下降);反过来,想少误判(提高精确率),严格卡标准,又可能漏诊很多早期病人(召回率下降)。 那么如何平衡精确率和召回率呢?这里要引入一个概念:F1分数 3. F1分数 F1分数是精确率和召回率的“调和平均数”(而非算术平均数) 公式:F1= 2 × (P × R) / (P + R) 取值范围:0~1,分数越高,模型综合性能越好。 如果精确率和召回率里有一个特别低,F1 分数会直接拉垮。比如模型精确率 100% 但召回率 0%(全漏诊),F1 就是 0;只有两者都高,F1 才会高。 但F1分数不适合罕见病的情况,药物罕见病患者极少(占万分之一),模型多漏判1个、多误诊1个,F1分数就会大幅波动,没法稳定判断模型好不好用。这种时候,还是得优先看召回率(防漏诊),再用精确率辅助控制误判。 要是想更侧重某一个指标,还可以用 Fβ 分数(F1 的升级版,β调整P和R的权重):比如癌症诊断怕漏诊,就把 β 设为 2,让召回率的权重更高。 4. AUC-ROC AUC-ROC 能综合权衡“识别真实患者”与“避免健康人被误判”的能力,成为医疗模型性能评估的核心指标。 TPR(真阳性率):和召回率一样,是“真病人里被查出来的比例”,越高说明漏诊越少; FPR(假阳性率):是“健康人里被误判成病人的比例”,越低说明误诊越少。 例如:在肺癌筛查中,若模型 TPR=90%,代表100个真实肺癌患者中,有90人被正确识别(漏诊10人);FPR=5% 意味着 100 个健康人里 5 个被误判,需要进一步检查。 模型的判断标准(也叫“阈值”)直接影响临床决策。比如“模型预测患病概率≥0.6,就建议做活检”,这个 0.6 就是阈值。ROC 曲线能把 “不同阈值下的漏诊(TPR)和误诊(FPR)关系” 画出来,让医生根据场景选: 阈值低(比如≥0.3判患病):TPR高(漏诊少),但FPR也高(误诊多)。适合“早筛优先”的场景,比如糖尿病高发社区筛查——宁可多查错几个,也不能漏过早期病人; 阈值高(比如≥0.8判患病):TPR低(漏诊多),但FPR低(误诊少)。适合“精准转诊”的场景,比如医院门诊判断,避免健康人做没必要的检查,浪费资源。 ROC 曲线的价值在于:它不强制选择某一个阈值,而是将“所有可能的权衡方案”可视化,让临床团队根据“疾病危害程度”“医疗资源情况”选择最优策略(如癌症筛查通常优先选高 TPR 阈值,避免漏诊;而普通慢性病筛查可能优先选低 FPR 阈值,减少误诊)。 AUC 是 ROC 曲线下面的面积,范围在 0.5 到 1 之间,表示随机找 1 个真病人和 1 个健康人,模型把 “病人判成高风险” 的概率,比 “健康人判成高风险” 高的可能性。 在医疗场景里,AUC 的价值主要有两个: 评估“区分能力”:比如罕见病数据里99.9%是健康人,模型全判“健康”也能有99.9%的准确率,但AUC会露馅——要是AUC只有0.5,说明模型和“抛硬币”一样没用;要是AUC=0.95,说明模型区分能力极强(比如成熟的肺癌CTAI); 评估“跨人群稳定性”:比如一个糖尿病模型,在北京三甲医院AUC=0.9,在偏远地区基层医院AUC也能稳定在0.88,说明模型在不同人群里都好用;要是基层AUC骤降到0.6,就得针对基层患者的数据优化模型。 现在 FDA 批准的医疗 AI 产品(比如皮肤癌影像诊断、眼底疾病筛查),基本都要求 AUC 稳定高于 0.85 才能进临床。 5. AUC-PR AUC-PR 是 “精确率-召回率曲线” 下的面积,核心是聚焦 “阳性样本的识别质量”,特别适合罕见病、重症筛查(比如新生儿脊髓性肌萎缩症 SMA 筛查、早期胰腺癌检测)。 罕见病的问题是 “阳性样本太少”(比如 SMA 发病率 1/10000),而且漏诊后果非常致命(SMA 患儿漏诊会在 2 岁内瘫痪),但也不能过度筛查,因为全基因组测序成本高,健康孩子被误判会增加家庭负担。这时候 AUC-PR 比 AUC-ROC 更可靠: AUC-ROC容易被“大量健康人”拉高分数:比如99%健康人被正确判为阴性,AUC-ROC可能达0.9,但模型可能漏诊很多病人; AUC-PR只关注“能不能查全病人(召回率)”和“能不能少误判健康人(精确率)”,不管健康人有多少,更贴合罕见病的需求。 好的模型(AUC-PR=0.92)不管怎么调阈值都靠谱。比如阈值放宽到≥0.3判“疑似”,能把几乎所有真病人找出来,同时“疑似”里真病人的比例也高;阈值严到≥0.7,虽然可能漏几个轻症,但只要标了“疑似”,基本都是真患病的;差的模型(AUC-PR=0.7)一调阈值就崩。想少漏诊就放宽阈值,结果“疑似”里真病人比例从80%跌到30%,10个疑似里7个是健康人,又折腾又浪费资源;想少误诊就调严阈值,又会漏诊很多病人。 AUC-PR 越接近 1,模型越能在 “不漏掉真患者” 和 “不冤枉健康人” 之间做好平衡;要是 AUC-PR 低,模型要么漏诊多,要么让大量健康人白跑一趟,根本没法用在临床。 AUC-PR 在医疗领域的核心价值 AUC-PR 可以提供“可信赖的综合评分”,帮助判断模型是否能在“不漏诊重症”和“避免过度医疗”之间找到平衡;降低“漏诊致命疾病”和“误诊被过度干预”的双重风险; 减少因模型性能不足导致的医疗资源浪费(如重复检测、不必要隔离)。 在医疗领域中我们优先选 AUC-PR,而非 AUC-ROC。原因是在医疗样本不平衡场景中,AUC-PR比AUC-ROC更“诚实”: AUC-ROC受“大量健康人群(负样本)”影响大:即使模型对“阳性患者”识别能力一般,只要能准确判定“健康人”,AUC-ROC就会偏高(如99%健康人被正确判定为阴性,AUC-ROC可能达0.9),但这无法反映“模型是否能精准找到患者”; AUC-PR仅聚焦“阳性患者的识别质量”,更精确:无论健康人(负样本)数量多少,AUC-PR都只关注“是否能不漏诊患者(召回率)”和“是否能不误判健康人(精确率)”,更贴合医疗行业的需求。 例如:在“1%阳性、99%阴性”的早期肝癌筛查中,AUC-ROC可能因“99%健康人被正确识别”而达0.92,但AUC-PR可能仅0.6(模型漏诊率高或误诊率高),此时AUC-PR才能暴露模型的真实缺陷,避免因AUC-ROC的虚高导致临床误用。 上面说的精确率、召回率、F1、AUC-ROC、AUC-PR 都是基础,但用的时候要结合具体需求来选择:癌症早筛怕漏诊,就优先看召回率;治疗方案推荐怕错,就优先看精确率;社区早筛可以用 “高召回率阈值”,门诊复核可以用 “高精确率阈值”。 6. 校准度 校准度就是检验模型 “说的概率” 和 “实际发生的概率” 能不能对上,尤其在医疗这类靠概率做关键决策的场景里,校准度直接关系到模型可不可信。 模型经常会给出 “概率性结论”,比如 AI 判断某肺结节 “恶性概率 95%”。校准度要查的,就是这个概率是不是 “说到做到”:如果模型说 “95% 置信度” 的预测有 100 个(比如 100 个标了 “95% 恶性”的结节),实际真的有95个是恶性,那校准度就好;要是实际只有 70 个是恶性,校准度就差。 值得注意的是:AUC 高不代表校准度好。就算模型能分清结节是良性还是恶性(AUC 高),但给出的具体概率(比如把实际 70% 恶性说成 95%)严重不准,照样不可信。 为量化校准度,行业常用两种工具,本质是把模型预测与真实情况做对比: 期望校准误差(ECE):会把模型的预测分成几组,算出每组的误差后再加权平均,最后给一个“平均误差值”。比如ECE=5%,就说明模型预测的概率和真实概率平均差5%,数值越小,校准度越好; 可靠性图:是个可视化图表,横轴是模型预测的概率区间(比如“80%-90%”),纵轴是这个区间里事件的真实发生概率。如果图上的点能贴近“y=x”这条对角线,就说明校准度优秀,预测和真实完全匹配。 7. 鲁棒性与泛化能力 医疗AI能不能从实验室走到临床实际应用,关键看鲁棒性(抗干扰、保持稳定的能力)和泛化能力(适应不同场景的能力)。 实验室里的AI模型,通常是用一家医院、一种设备(比如某品牌CT机)、固定参数拍出来的“标准数据”训练的,很容易变得只认特定数据,换个地方就不行了。但真实看病时,不同医院的设备品牌、型号、扫描参数都不一样,拍出来的图像质量和格式也有差异。所以必须让模型在来自不同医院、不同品牌和型号的设备、不同扫描参数的数据集上进行测试。只有通过了这种测试,才能证明模型才能在不同医院稳定工作。 临床情况不是一成不变的:疾病情况(比如某种肿瘤影像的变化)、诊断标准都在不断变化。这些变化会让“模型用的时候的数据”和“训练的时候的数据”不一样,这就是“数据漂移”。数据漂移会直接导致模型性能下降,比如几年前训练的肺癌筛查模型,可能因为新设备拍的图像不一样,漏诊变多了。所以必须定期对比实时数据和训练数据的差异,看看模型是不是还好用,确保它能长期适应最新的临床情况。 8. 不确定性量化 对医疗这种高安全性的领域来说,AI模型不能只会“下判断”,还得在遇到它不擅长处理的、或与训练数据差异过大的“域外”样本时,能够给出“我不确定”的信号。不确定性分为偶然不确定性和认知不确定性。 偶然不确定性:源于数据本身的噪声和模糊性。就算把模型优化到最好也消除不了。比如病理切片里的细胞,本来就有个体差异,长得没那么“标准”。 认知不确定性:这种不确定是因为模型“知识不够”,能通过改进模型或补充数据解决。 在临床场景中,会给模型设一个“安全阈值”。如果模型算出的“总不确定性”(两种不确定加起来)超过了这个阈值,系统就会触发提示:要么提醒医生“模型没把握,得结合你的经验判断”,把决策权完全交给医生。这样就能从技术上避免模型瞎判断,保障临床安全。 二、评测方式 那么如何测评AI医疗模型在真实临床中的价值,是否真的能解决问题、提升医生效率、改善患者结局?评测必须转向动态的“真实世界研究(RWS)” 2.1. 评测临床效用 评测AI是否有效解决医生在诊疗过程中面临的具体挑战,比如诊断的准确性、一致性以及做决策时的信心。 选取能代表目标临床场景真实病例分布的数据集,包含不同疾病类型、严重程度、罕见病、以及易混淆的阴性病例。将病例随机分为两组,一组无AI辅助,另一组有AI辅助。招募不同年资和经验水平的医生(包括:初级住院医师、主治医师、副主任医师),以评估AI对不同经验群体的辅助效果是否不同。 无AI辅助:医生独立阅片并提交诊断结果(如:病灶位置、良恶性判断、推荐的下一步操作)。同时,记录他们对每个病例的诊断信心(例如,使用1-5分的李克特量表)。 有AI辅助:医生使用集成了AI工具的阅片系统,AI会提供诸如病灶标示、量化参数、风险评分等信息。医生在参考AI结果后,提交最终的诊断结论和诊断信心。 通过计算召回率、精确性、AUC、阳性预测值(PPV)/阴性预测值(NPV)来判断医生在AI的辅助下,漏诊率和误诊率的变化情况,综合判断诊断在AI的辅助下是否有显著提升,并且在AI辅助后,医生给出的阳性/阴性判断的可信度变化。有多少病例医生在看到AI结果后,修改了自己最初的判断?这些修改是正确的还是错误的?AI是否显著提升了年轻医生的诊断信心。 2.2 评测AI是否提升效率 即使AI能提高准确率,但如果使用的过程非常繁琐,反而会成为医生的负担,所以AI产品与临床工作流的整合至关重要。直接比较“使用AI”与“不使用AI”两组在特定临床终点上的差异。这个环节评测的指标不只是诊断准确率。而是: 效率指标:医生阅片时间、报告撰写时间、患者等待时间。 临床决策影响:AI是否改变了医生的诊断结论、治疗方案或患者管理路径?这种改变是积极的还是消极的? 患者结局指标:疾病漏诊率、早期诊断率、患者生存率、并发症发生率等。 例如影像科阅片室:让医生使用集成了AI的系统完成一批标准化的日常工作任务。工作人员在不干扰的情况下,使用秒表、屏幕录制软件等工具,精确记录医生在各个环节花费的时间。最后总结: 单例报告平均耗时:从打开病例到完成并签署报告的平均时间。 报告周转时间:从检查完成到报告发出的总时间。 点击次数与鼠标移动距离:完成一个标准任务(如确认一个AI发现的结节)所需的操作步骤。 AI结果加载时间:AI分析一例影像所需的时间是否在临床可接受的范围内? 患者吞吐量:在一个工作日内,医生能够处理的患者数量是否增加。 在测试后,让医生填写SUS问卷。这是一个标准化的、包含10个问题的量表,可以快速评估产品的主观易用性,并得出一个0-100的分数。与医生进行半结构化访谈,深入了解他们在使用过程中的痛点。例如:AI的提示窗口是否会遮挡关键解剖结构?AI的交互逻辑是否符合你的阅片习惯? 2.3 测评逻辑和时序 模型的问题是会把所有症状当成一堆没有时间顺序的关键词,但是在临床上,时间顺序是非常重要的,比如“持续一周的钝痛,今天突然变刺痛”与“持续一周的刺痛”,根本不是一回事,指向的诊断路径也截然不同。从产品的角度来说,如果模型分不清“新发症状”与“老毛病”的区别,这特别危险,会直接导致诊断错误。 所以在评测这个环节中,可以构建“时序最小对立体”评测集。通过只差几个时间、趋势词的病例,测模型是不是真正读懂了病程的动态变化,而不是简单地对关键词进行匹配。 模型的临床诊断逻辑也是评测的重点方向,模型会经常把 “一起出现的症状” 当成 “没关系的两件事”。例如,对于“腹泻、呕吐后出现口干、乏力”的病例。医生很清楚地了解到“腹泻和呕吐”是因,“口干乏力”是果,而模型可能将“呕吐”和“乏力”视为两个独立症状,等权重地去匹配数据库,这在临床逻辑上是不正确的。 标注的时候,我们要让专家完善“症状因果图”。利用模型通过思维链(COT)提示,不光让模型给出诊断,还得说清靠哪些症状、怎么推理的。然后,我们将模型输出的推理路径与专家的“因果图”进行图论上的相似度匹配。 三、安全伦理的可信赖性 3.1. 可解释性 (XAI) “黑箱”模型在医疗领域是难以被接受的。医生需要理解AI做出判断的理由,才能建立信任,并在出现分歧时进行有效的人机协作。 评测不应只看是否提供了可解释性功能(如热力图),更要评估解释是否准确忠实于模型逻辑、是否对相似输入产生相似解释、是否对临床医生有意义、能对应到具体的解剖结构或病理特征。提供“如果输入的某个特征发生何种最小改变,模型的预测就会翻转”的解释。这能帮助医生更好地理解模型的决策边界。 3.2. 失败模式与效应分析 这是一种系统性的、前瞻性的风险管理方法。我们需要主动设想并分析模型在各种情况下可能出现的失败模式。不仅寻找算法本身的问题,还要挖掘产品所处的整个环节中的潜在故障点。 模型的盲点:对于时间敏感的危重疾病(如败血症、肺栓塞),模型的假阴性率(漏诊率)是否超出了安全阈值?对于癌症等诊断,假阳性率(误诊率)是否过高,导致不必要的有创检查?如果输入的数据有噪声或伪影,模型会如何反应?如果病人有多种复杂的合并症,是否会干扰模型的主要诊断逻辑? 制定缓解措施:针对高风险的失败模式,在产品设计层面(如提供二次确认、设置警报阈值)和使用流程层面(如加强医生培训)制定风险缓解策略。 人机交互层面的失败:我们的系统是否会产生过多低优先级的警报,导致临床医生对真正关键的警报变得麻木?一位经验不足的医生是否会过度信任AI给出的(错误)建议,从而跳过自己的批判性思维过程? 技术环境的故障:如果一份关键的化验报告上传延迟,AI是否会基于不完整或过时的信息做出推荐?是否有可能从电子病历(EHR/HIS)中调取了错误病人的数据? 然后将这些潜在的故障点转化为行动。对于每一个识别出的失败模式,工作人员将共同为其三个因子打分(1分风险最低,10分风险最高):包括严重性 (S-Severity)、可能性 (O-Occurrence)、可检测性 (D-Detection) 然后,计算风险优先级数 (RPN) = S × O × D。 如果这个RPN值极高。我们会设定一个阈值(例如,任何RPN > 150的项),强制要求立即采取行动。 四、融入临床工作流 一个AI产品最终的成败,取决于它能否无缝、高效地融入复杂的临床工作流,而不是成为医生的额外负担。这一点在文本第二部分也有简单讨论过。 AI的分析结果呈现是否清晰、直观、无歧义?关键信息是否突出显示?医生调用AI、查看结果、进行交互(如确认、修改、拒绝)的操作是否简便快捷?是否增加了不必要的点击和等待?AI提供的信息量是否恰当?过多的信息或警报可能导致“警报疲劳”,反而降低医生的警觉性。 AI的功能是否与医生的实际工作步骤(如初筛、精读、会诊、报告书写)相匹配?它是在医生最需要的时候提供帮助,还是打断了原有的工作节奏? 这些都会直接导致产品能否真实融入到临床诊疗的过程中。最重要的是,对于医院管理者和医保支付方而言,AI产品的引入,是否带来了成本效益?评估引入AI后,在整个诊疗路径中节省的成本(如减少不必要的活检、缩短住院日)与采购、部署、维护AI本身的成本之间的关系。 预测在一定规模的医疗机构或区域内,全面部署该AI产品后,对总体医疗支出的影响。 未来,随着技术的发展,如生成式AI在医疗报告撰写、多模态数据融合等领域的应用,评测框架也需要不断演进。 本文由 @乔安Joanne 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Unsplash,基于CC0协议
AntV MCP以一句话AI生成图表的极简体验,打破传统 BI 工具的复杂壁垒。本文深度解析 MCP 的工作流设计与应用场景,助力产品人、数据分析师在汇报、协作、决策中实现高效表达与认知跃迁。 利用AntV MCP这个工具,用Cursor可以随时一句话生成图表。 真的办公效率得到了极大提高,毕竟图表的场景还是极其多的,比如,产品汇报、运营数据分析等。 甚至,还能结合Excalidraw生成手绘风格。 比如,下面这个销售数据的示例图表👇 上周五,我们团队扎扎实实地感受到了AI的效率之力。 事情是这样的: 那天临近下班,大家都摸鱼正酣,突然被告知有重要客户过来考察,老板紧急通知业务团队,让赶紧出一个数据汇报。 最要命的是,需要根据最新的业务数据,马上做几个可视化图表给领导看。 时间有多紧? 额,只有几分钟。 说实话,你看,世界有时候就是个草台班子,很多这种汇重要报场景,就是这么不讲武德。 业务老大都快急疯了,火急火燎地找到我帮忙。 巧了!!! 好在我最近在用一个新玩意儿——AntV的MCP。 我就花了大概几分钟吧,用自然语言(就是打字聊天)刷刷刷,帮他们生成了快10个图表,饼图、折线图、NPS仪表盘全都有。 他们直接复制粘贴到PPT里,赶在领导进会议室前搞定了,听说汇报效果非常满意。 有一说一,AI对咱们工作效率的提升,确实很能体现在这种「救火」的时刻。 所以今天,我必须得给大家分享下这个宝贝方法。 一、「救火」的英雄:到底什么是AntV MCP? 我说的这个玩意儿,就是AntV(蚂蚁集团那个超有名的可视化库)搞出来的MCP服务。 或许还有同学对MCP(Model Context Protocol)这个词有点陌生,没关系。 你只要知道,这玩意儿就是通过标准化协议相互调用,就像实现给AI大模型装上了一双「画图的手」。 以前的AI,你跟它说「帮我分析一下销售数据」,它顶多给你返回一堆文字总结。 但现在,有了AntV这个MCP,AI(比如我用的Cursor,你也可以用其他的类似终端)能真正「听懂」你的画图需求。 并且,Antv 现在已经支持超25种图表了,可以说日常办公想用图表来呈现的主要场景,基本都能覆盖了。 然后,你用自然语言,就像和同事说话一样,告诉它:「帮我把岗人员生成一个饼图」。 Boom… 几秒钟,一张图表就直接生成了。 二、告别「拖拽」:对话让效率更进一步 我们过去做数据可视化,流程是怎样的? 从数据库或Excel里拿到一堆原始数据。 打开BI工具或Excel。 思考:嗯,这个数据适合用什么图?柱状图还是折线图? 开始拖拽:把「日期」拖到X轴,把「销售额」拖到Y轴,把「区域」拖到「分类」。 调整:哎呀,这个颜色太丑了,换一个。这个标签挡住了,转个方向。 折腾半天,搞定。 这个过程,在我看来,最大的痛点在于「打断」。 你明明是在做「业务分析」,思路正嗨,却不得不停下来,去做「图表制作」的杂活。 而AntV的MCP干的事,就是把这个「杂活」自动化了。 它把AI的「大脑」(理解语言)和AntV的「双手」(强大的图表库)连接了起来。 你的思路,全程不会被打断。 这就是效率的革命。 三、听起来很棒,怎么用? 说到这,你肯定想问,这东西听起来牛,但用起来是不是很麻烦? 恰恰相反,这才是它最厉害的地方——简单。 首先,它是个MCP服务,你需要一个能跑MCP的环境。 在我看来,目前最舒服的是还是直接用Cursor(一个AI Native的代码编辑器),说实话,开发者、产品经理、数据分析师用这个简直是绝配。 安装? 超级方便。 1️⃣这个MCP的官方网址在这里: https://mcpmarket.cn/server/680e34bb0b63a9cd4a521824#-usage 2️⃣你打开Cursor,直接让他参考网址信息把这个MCP服务安装一下就行了。 这种交给AI的傻瓜式操作,非常便捷,镜哥是一把就安装成了,前后也就5分钟。 装好之后,你就可以直接在对话框里和AI聊天了。 你描述需求,它就出图。 而且,它不是给你个图片文件让你下载,而是直接生成一个网页,你打开就能看,就像这样: https://mdn.alipayobjects.com/one_clip/afts/img/1iDnRaDANc4AAAAARvAAAAgAoEACAQFr/original 并且,这个链接是托管在阿里云上的,一般会保存7-15天。 讲真的,这种「即说即得」的体验,才叫真正的丝滑。 四、分享5个高频场景,「一句话」搞定图表 光说不练假把式。 我们来看看日常工作中的高频场景。(以下提示词,你学会了可以直接在Cursor里用) 1️⃣产品经理的「用户漏斗」分析 产品经理最怕的就是开会复盘。 新功能上线了,用户转化到底在哪一步流失了? 现在,咱结合业务系统的运营数据,你只需要对AI说: 帮我创建一个漏斗图,显示新用户注册流程的转化:访问首页 (12000人),点击注册 (4500人),完成手机验证 (3500人),成功设置密码 (3000人)。 几秒钟后,一张清晰的漏斗图就出来了,哪一步流失最严重,一目了然。 你甚至可以接着追问:「把总转化率或流失率标在旁边」。 2️⃣业务分析的「区域业绩」对比 老板在周会上问:「这个月哪个大区卖得最好?占比多少?」 你以前得赶紧开BI,拉数据,建仪表盘。 现在,你只需要一句话: 生成一个饼图,展示各个销售大区的业绩占比:华东 (850万),华南 (620万),华北 (400万),西南 (210万)。 AI会立刻返回一张饼图,比例、标签都帮你标得明明白白。 你需要做的,只是把这张图贴到汇报里。 又或者说,你还可以一句话让他总结本年度的需求完成情况: 请使用AntV(例如G2Plot)生成一个图表,用于展示“产品经理2025年需求完成情况”。1.图表类型:柱状图和折线图的组合图表(混合图表)。使用柱状图来表示每个月的“需求完成数量”。在同一图表上,使用折线图来连接数据点,以显示“完成趋势”。2.业务场景:统计产品经理从2025年1月到2025年10月,每月所完成的需求数量。3.图表数据:请按以下时序排列数据:2025年1月:82025年2月:102025年3月:132025年4月:62025年5月:112025年6月:102025年7月:152025年8月:92025年9月:142025年10月:84.图表配置要求:X轴(分类轴):”月份”(从1月到10月)。Y轴(数值轴):”需求完成数量”。图表标题(建议):”2025年1-10月产品需求完成情况”图例:清晰展示柱状图和折线图分别代表的含义(例如:“完成数量”和“趋势”)。请根据以上信息生成图表。 3️⃣运营的「NPS」仪表盘 做用户运营的,NPS(净推荐值)是关键指标。 但这个值光秃秃一个数字(比如 65)放PPT上,不够直观。 用仪表盘图是最好的。 但说实话,仪表盘图在Excel里做起来超级麻烦。 现在呢? 咱们只需要一句话: 我需要一个NPS仪表盘图,显示我们这季度的净推荐值为 65。(请使用三色分段:0-50为红色, 51-80为黄色, 81-100为绿色) 你看,你甚至可以指挥它定义颜色区间。 AI会通过AntV MCP给你一个标准的仪表盘,视觉冲击力拉满。 又或者说,需要对重点项目做下进度汇报: 我需要一个条形图,对比A、B、C三个项目的本月关键任务完成度。A项目 (50%),B项目 (80%),C项目 (30%)。请把B项目用蓝色高亮显示。 4️⃣行业分析的「技能词云图」 还有一个这两年特别火的,就是「词云图」。 比如你做行业分析,或者要给一个新概念(比如AI PM)做个技能画像,一张词云图就特别直观,能瞬间抓住重点。 请根据以下关键词和权重,生成一张关于「AI产品经理」核心技能的词云图:数据洞察(10),LLM原理(8),Prompt工程(9),用户体验(7),商业模式(8),伦理与安全(6),快速迭代(7),API设计(5)。以及其他相关的20个左右的热点词汇,随机分配权重 权重越高的词,显示的就越大。 这种图贴在PPT里,B格一下就上去了,而且非常抓眼球。 5️⃣销售的「大区业绩」地图 这个场景,说实话,是所有销售团队和大区负责人的「刚需」。 光看饼图和柱状图,你只知道「华东」卖得好,但「华东」具体是哪几个省?哪个省是「火车头」?哪个省「拖后腿」了? 这就需要地图了。 在过去,做这种数据地图(分级统计地图)是BI工具里最复杂的操作之一。 但现在,你同样可以一句话搞定。 我需要一张中国地图,用来展示不同省区的销售额。请用不同深浅的颜色来表示销售额高低。将销售额最高的三个省份:广东(2000万), 浙江(1800万), 江苏(1750万)用「红色」(#FF0000) 突出显示。其他省份数据:山东(1200万), 河南(900万), 四川(850万), … AI会立刻调用AntV的地图能力,生成一张数据地图。 这种可视化的展示方式,不仅提升了数据的可读性,也为销售团队提供了明确的行动指引。 红色高亮的省份,就是「打粮食」的重点区域,要分析为什么卖得好,是复制经验还是加大投入。 而那些颜色浅的区域,则提醒团队需要加强市场开发和销售策略了。 嗯,让镜哥没想到的是,竟然还可以生成动态的图片?! 属实低调的过分啊! 咱就说,你把这个动态图做成原型或者加载在PPT里,效果会不好?! 关键是,这特么就一句话的提示词啊! 效率提升就是这么6,你还会坚持AI无用论吗? 五、拓展一下:当「效率」遇上「美学」 看到这里,你可能已经觉得很爽了。 但镜哥还有更进阶的玩法。 说心里话,AntV生成的标准图表,虽然专业、清晰,但有时候会稍微显得有点「冰冷」和「正式」。 尤其是在产品汇报、内部头脑风暴,或者需要「讲故事」的场合,我们希望图表能更有人味儿。 这就是镜哥在之前文章中提到的Excalidraw的用武之地了。 Excalidraw是一个超级火的开源手绘风格白板工具。 它的特点就是画出来的东西,有一种非常自然、讨喜的手绘感。 事实上,Excalidraw现在也有自己的MCP服务,这里就不再赘述了,但是咱可以结合Antv来一起使用。产品提效神器:我用两个MCP,让AI在1分钟内把任何网页都变成了Excalidraw手绘图 通常只需要一句话: 刚才利用Antv的Chart MCP生成的图表不错,请你用Excalidraw的MCP生成一下。 接着,AI就会调用Excalidraw MCP,把AntV的图表元素,用手绘的风格重新组织和渲染。 比如,上面说的案例三中关于NPS的图表,生成的手绘风格如下: 你看,AntV的MCP帮你解决了「效率」和「准确性」的问题,让你在10秒内完成从数据到图表的转化;而Excalidraw的MCP帮你解决了「美学」和「沟通」的问题,让你的汇报更有亲和力。 这就是「1 + 1 > 2」。 好了,最后,再简单总结一下:Antv的这个Chart MCP真的能很大程度上提升工作效率,几乎需要图表的快捷场景都可以直接去用。 而且其应用场景也不止于本文列举的案例。 甚至,咱还能拓展更多。 但是,镜哥觉得,AntV的这个MCP,它的意义不在于又多了一个「画图工具」。 它的真正价值在于,它把AI的能力,从空洞的想象拉到了可落地的实用,并且把「颗粒度」做到了我们日常工作流中最繁琐的那个点上。 还是那句话,AI对职场工作赋能的场景很多,咱肯定不能只满足于让AI帮你写邮件和文案了。 在AI Agent的时代,学会用自然语言指挥AI去调用AntV这样的专业工具,去自动完成那些过去需要「手动点击」的任务,才是真正抓住了这波效率革命的红利。 嗯,那个「人人都有一个AI助理」的未来,确实已经来了。 本文由人人都是产品经理作者【产品大峡谷】,微信公众号:【产品大峡谷】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于CC0协议
你是不是也在用AI写文章,却总觉得“像是AI写的”?这篇保姆级教程教你用扣子(Coze)搭建一个公众号写作工作流,从提示词设计到结构输出,2分钟搞定一篇“去AI味”的内容。不止是工具教学,更是写作思维的升级。 再下的个体也能发声,再小的个体也有自己的品牌。 记得张小龙在某次公开课讲的内容,一直可在脑海中,即使公众号停更再久、内容再拉胯,也能在这个活着生态里面里面一丝印记。 今日分享的coze工作流,通过公众内容二创生成自己的内容,然后做排版一键发布,非常的方便。 作为UP主,能做的就剩选题+审核。 一直在犹豫是否应该分享?😄 工作流思路 选对标 AI提炼+仿写 AI仿写+排版 同步公众号草稿箱-审核-发布 coze工作流效果 左是自己写的文章,右是AI的仿写 搭建步骤 第1步:开始 输入4个要素,分别是: url:对标微信文章的链接,必填 prompt:文章改写提示词,非必填 app_id:公众号开发者ID,必填 app_secret:对应公众号开发者ID密码,必填 1.1 获取公众号开发者ID+密码 公众号需要实名认证 密码首次记得保存 1.2 IP白名单配置(必须项) 若没有配置,可能会出现草稿箱内容为空的现象。 180.184.86.184 180.184.66.211 180.184.65.14 101.126.25.134 47.106.242.1 116.198.226.113 110.41.33.34 124.71.40.54 39.103.203.215 101.126.24.228 101.126.65.107 101.126.39.94 101.126.65.51 180.184.78.231 180.184.54.248 第2步:获取公众号文章 插入插件-搜索微信公众号API-extract_wx_article 第3步:公众号文章观点提取 大模型-豆包·1.5·Pro·32k 提取标题title+正文content 系统提示词: # 角色 你是一个专业的公众号文章分析及仿写助手,能够精准分析文章的风格和写作方式,准确提取文章核心观点。 ## 技能 ### 技能 – 分析文章1.当用户提供一篇公众号文章内容时,仔细研读文章,分析其整体风格,包括语言风格(如正式、幽默、文艺等)、叙事风格(如顺叙、倒叙、插叙等)以及写作手法(如举例论证、对比等)。 – 对文章内容进行精炼概括,提取关键信息,形成文章摘要,要求涵盖文章主要情节或论述要点。 – 提炼文章所传达的核心观点,即文章想要表达的主要思想或主旨。 – 以如下格式输出分析结果:-文章风格:[具体风格描述]-文章摘要:[精炼的文章内容概括]-核心观点:[文章的核心思想或主旨] ## 限制: -只围绕公众号文章的分析和仿写展开工作,拒绝回答与该任务无关的话题。 -分析结果的输出内容需逻辑清晰、表达准确。 -文章摘要应简洁明了,不超过200字。 -核心观点的表述应精准,不超过100字。 用户提示词:{{title}} {{content}} 输出 style abstract core_point 第4步:文章仿写 通义千问max 系统提示词 # 角色 你是一个专业的公众号文章创作者,擅长根据用户需求创作出吸引人的爆文。能够精准把握各种写作风格,围绕核心观点展开创作,并结合内容摘要丰富文章内容,同时满足用户提出的额外要求。 ## 技能 ### 技能1:创作公众号文章 1. 根据用户提供的标题和观点信息进行创作,文章不少于1200字; 2. 深度思考后,构思主题、大纲和内容; 3. 创作符合风格和要求的文章; 4. 完成文章后,自行审稿和修改润色; 5. 最后直接输出文章正文内容,不需要输出标题。 ## 文章风格 1. 作者日常观点论述文章,注意文章开头技巧(开篇、调动读者情绪、激发引导读者思考),引发读者阅读兴趣; 2. 开门见山,提出主题和观点,着重引发读者的情感共鸣,以情动人,让读者在阅读中产生强烈的情感体验; 3. 语言风格:个人深度思考风格,简洁的日常表达方式; 4. 长短句组合,短句使语言简洁、明快,整句散句结合使语言错落有致,丰富文章的层次和可读性; 5. 段落转折连接,避免使用:首先、其次、最后、总而言之、总之等逻辑连接词,不要使用“繁杂的世界,快节奏的世界,充满变化的世界里”等虚无的形容词,杜绝AI味道。 ## 内容格式 1. 使用Markdown语法风格,区分一级、二级、三级标题使用标签“#、##、###”; 2. 文中核心句子使用HTML标签包裹句子; 3. 长短句组合,避免单个句子超过3行。 ## 限制 – 只围绕用户提供的写作风格、核心观点、内容摘要以及额外要求创作公众号文章,拒绝回答与公众号文章创作无关的话题; – 所输出的文章内容必须符合正常的语言表达和逻辑要求; – 禁止使用和出现英文、单词; – 文章须严格遵循1200字的字数要求,控制篇幅,做到详略得当,避免内容单薄; – 杜绝任何抄袭、剽窃等侵权行为,文章内容须为原创,切勿照搬照抄他人作品; – 严禁在文章中出现任何违反国家法律法规、社会公序良俗或影响平台形象的不当言论。 第5步:生成爆款标题 大模型-豆包·1.5·Pro·32k 系统提示 # 公众号爆文标题创作提示词 ## 角色定位 你是专业的公众号爆文创作助手,核心职责是根据用户提供的微信公众号文章内容,创作极具吸引力且贴合内容的标题,以驱动读者点击阅读。 ## 核心技能 ### 技能1:文章内容分析 仔细拆解用户提供的微信公众号文章内容,精准提炼文章主题、核心关键信息及独家亮点(如案例、观点、解决方案等)。 ### 技能2:标题创作 基于提炼的文章核心要点与特色,采用生动有趣、富有悬念或能引发情感共鸣的表达方式创作标题;标题需准确反映文章主旨,且具备强烈的点击吸引力。 ## 标题风格要求 1. 富有感染力,语言鲜活有张力 2. 强调情感共鸣,能触达读者情绪点 3. 突出核心问题或明确观点,不模糊 4. 简洁有力,无冗余表述 5. 可调动读者好奇、认同、焦虑等情绪,激发阅读欲 ## 创作限制 – 标题长度:20-40个字,不可包含特殊字符(如@、#、*等) – 输出要求:仅直接返回标题,无需额外解释、说明等其他信息 – 内容边界:仅围绕用户提供的微信公众号文章内容创作,不涉及无关话题 – 表达规范:符合中文表达习惯,简洁明了且有吸引力 用户提示词: 文章内容: 输出:output 第5步:md2html转格式 生成HTML文件,markdown格式 第6步:图像生成文章封面 第7步:token再认证 插入插件-搜索微信公众号API-wx_access_token 第9步:上传封面素材 插入插件-搜索微信公众号API-wx_material_upload 第10步:文章排版 输入项:header_html 其他如截图 点击蓝字,关注我们 – 选择python代码 import json async def main(args: Args) -> Output: params = args.params header_html = ‘点击蓝字,关注我们’ content_html = params[‘content_html’] image_url = params[‘image_url’] header_html = header_html.replace(‘图片地址’, image_url) html = header_html + content_html ret: Output = {“html”: html} return ret 第11步:发布公众号草稿箱 核对好,避免草稿箱无法生成 第12步:结束节点 点击试运行,若成功,回到公众号草稿箱,可看到文章,片头有仿写与原文的对比。 本文由人人都是产品经理作者【陌晨】,微信公众号:【陌晨】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
在财务信息化的复杂语境中,产品经理的角色远不止“砍掉无效需求”。真正的价值在于识别、培育、引导——像园丁一样呵护业务的真实诉求。本文作者深耕业财领域20年,以“共情遴选法”为核心,提出一套兼顾业务理解与产品判断的需求筛选体系,为财务产品经理提供可落地的思维范式。 在我们财务产品经理的日常工作中,“需求”二字看似简单,却承载着产品能否成功、能否真正创造价值的全部基因。 它不像是一道命令,更像是一颗深埋的种子。 我们的任务,不是机械地收集和执行,而是像一位耐心而敏锐的园丁,去发现那些最有生命力的种子(需求),并判断我们脚下的土壤是否适合它生根发芽。 这个过程,我们称之为“需求挖掘与遴选”。它不是一个冰冷的流程,而是一场需要同理心、洞察力与务实精神并存的探索之旅。 01 需求挖掘:倾听并共情诉求 财务的需求,很少会像急诊病人那样大声疾呼。它更像是一种慢性不适,隐藏在日复一日的繁琐操作、月末加班的身影和与业务部门对账时的无奈叹息中。 因此,挖掘财务需求的关键,在于我们是否愿意沉浸到他们的世界中去,用心倾听那些“无声的诉求”。 1. 沉浸与观察:成为“临时”的财务人 最有效的挖掘,往往来自于静静的观察。不妨在财务同事身边坐上一两个小时,看看他们如何处理一沓发票。 你会发现,也许最大的痛点不是录入本身,而是在录入前,需要花大量时间在凌乱的邮件和OA流程里寻找审批记录。 这就是洞察。观察月底结账的流程,看哪个环节让大家最紧张、最容易出错,那个环节就是需求最迫切的地方。 2. 共情与对话:问“为什么”,而不是“要什么” 当我们与财务同事沟通时,要避免直接问“你们需要什么功能?”。这个问题常常会得到一些表象的答案,比如“我们需要一个更快的报表工具”。而我们应该带着共情,去追问背后的“为什么”: “现在出报表的时候,觉得哪里最花时间呢?” “是为了应对谁的询问呢?” “如果这个时间能省下来,您最希望去做些什么?” 这样的对话,能帮助我们穿透表面,触达财务真正的渴望——或许是减少无意义的重复劳动,或许是能更快地响应管理层的数据需求,或许是能有更多精力投入到财务分析中去。当我们理解到“需要一个报表工具”背后的真实诉求是“快速响应管理层的数据需求”时,我们的解决方案可能就不仅仅是优化工具,而是构建一个管理层自助查询、分析数据的平台了。 3. 溯源与连接:顺着藤蔓摸到瓜 财务的很多痛点,根源在业务。 一张报销单的问题,可能源于员工填写的不规范;一笔应收账款对不上,可能源于销售合同条款的模糊。因此,我们的挖掘不能只停留在财务部门,更要顺着业务流程向前溯源。去和采购聊聊供应商准入,和销售聊聊合同审批,看看业务数据在产生和传递的源头就经历了哪些“扭曲”。你会发现,打通业财数据壁垒,实现同源共享,正是解决无数财务痛点的治本之策。 这种挖掘,让我们从被动的需求接收方,转变为主动的价值发现者。 02 需求遴选:选择合适的季节在现实的土壤择优而种 我们挖掘出的需求可能很多,但我们的时间、资源和团队的精力如同有限的阳光、水分和养料,无法滋养所有的种子。这时,遴选就显得尤为重要。它不是冷酷的拒绝,而是一种负责任的智慧,是为了让我们有限的资源,能够倾注到那些最能茁壮成长、最能开花结果的种子上。 遴选的过程,我们可以借助两个筛子:“它有多大的价值?”和“我们能否将它种活?” 1. 价值之筛:寻找星光 判断价值,并非让我们高高在上地进行评判,而是与财务伙伴坐在一起,共同描绘一幅未来的图景。我们可以引入“价值四象限”这个工具,一起从两个维度来打量每一个需求: 战略关联度:“如果我们实现了这个需求,它能多大地帮助财务部门更好地支持公司的战略目标?比如降低成本、控制风险,或是赋能业务增长?” 我们可以一起为此打分,5分代表至关重要,1分代表锦上添花。 实施难度:“实现起来,咱们大概需要投入多少?技术上有难关吗?需要业务部门做很大的改变吗?” 同样地,5分代表轻而易举,1分代表困难重重。 画好四象限,我们就会发现,那些高价值、低难度的需求(快速取胜点)是我们首先要去实现的,它能快速建立信任;而高价值、高难度的需求(战略核心),则需要我们精心规划,合力去攻克。这个过程是共同探讨,而不是单向决策,让财务同事感受到我们是战友,是在一起做规划。 2. 现实之筛:可落地性–审视脚下的土壤 一颗好的种子,也需要适合的土壤,这就是“可落地性”评估。它充满了务实的关怀,确保我们的美好愿望不会在现实的岩石上撞得粉碎。我们可以从几个方面,像朋友一样一起盘算一下: 技术土壤是否肥沃?“咱们现在的系统,支持我们做这个功能吗?我们的技术实力或技术储备是否足以支撑实现这个功能?需不需要请外部的专家来帮忙?”如果技术上暂时难以实现,我们是否可以借助巨人的肩膀,先采用成熟的SaaS工具来过渡,而不是硬要自己从零开始研发? 养分是否充足?“我们有没有足够的数据来支撑这个智能算法?我们的开发团队忙得过来吗?预算够不够?”诚实地面对资源约束,是一种负责任的态度。 气候是否适宜?“这个新功能,会不会让业务部门的同事觉得不习惯?我们需要怎么做,才能让大家更愿意接受它?”提前考虑到变革的阻力,并准备好培训和支持的方案,体现的是我们的体贴和周到。 能否抵御风雨?“万一上线不顺利,最坏的结果是什么?我们有什么备份方案可以确保财务工作不受影响?”共同制定一个应急预案,会让所有人都感到安心。 通过这两层筛选,我们得到的不仅仅是一个待办列表,更是一份凝聚了共识的、切实可行的“播种计划”。它告诉我们,现在最适合种下哪颗种子,以及如何为它松土、施肥。 03 产品人与需求方一场持续的对话 需求挖掘与遴选,从来不是项目开始时一个孤立的阶段,而是一场贯穿产品始终的、持续的对话。它要求我们始终保持一颗谦逊和开放的心,像园丁关心他的植物一样,持续观察、耐心倾听、灵活调整。 当我们用这样的心态去对待需求,我们便不再是简单的功能工厂,而是与财务同事共同孕育价值的伙伴。我们播下的每一颗需求的种子,都将在共同的呵护下,成长为支撑企业发展的坚实力量,最终让财务工作的花园里,绽放出效率、风控与价值的繁花。 作者:业财老曾,公众号:业财老曾谈,专注财务信息化20年 本文由 @业财老曾 原创发布于人人都是产品经理,未经许可,禁止转载。 题图来自 Unsplash,基于CC0协议。 该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
在技术周期愈发复杂的当下,Gartner发布的2025年新兴技术成熟度曲线不仅是一张趋势图,更是一份战略指南。本文深度解析曲线背后的技术演化逻辑,帮助产品人、技术管理者识别真正值得投入的创新方向,避免盲目追风,构建长期竞争力。 9月中,全球领先的技术研究与咨询公司 Gartner 发布了《2025年新兴技术成熟度曲线》。该报告被视为科技行业年度风向标,旨在帮助企业识别具有变革潜力的新兴技术,并评估其成熟度与适用性。 Gartner 以其客观、深入的技术洞察和成熟的评估方法论著称,每年都会发布“技术成熟度曲线(Hype Cycle)”,以帮助企业了解新兴技术的发展阶段、应用潜力以及未来趋势。 今年的报告特别聚焦于支持“自主商业”(Autonomous Business)的技术趋势,强调AI正在从“辅助工具”走向“自主决策者”。 一、报告核心结论 在 2025 年的《新兴技术成熟度曲线》中,Gartner 将焦点放在自主型企业(Autonomous Business),强调这是数字化转型之后的下一个阶段。 其核心观点是: AI和自动化正在重塑竞争格局,影响客户、产品、运营和领导方式; 新兴技术的应用不仅是提高效率,更是创造差异化竞争力和新增长点; Gartner精选的四类关键技术,将在未来2–10年内带来深远影响。 Gartner 提出,我们正在进入“自主商业”时代。这意味着: 系统自动化:从执行任务到管理流程,AI正在接管越来越多的工作; 决策去中心化:机器可以自主做出局部最优决策; 商业模式重构:企业需重新思考产品、服务、客户与合作伙伴之间的关系。 例如:一台智能冰箱可以自动订购食物;一个AI代理可以全程处理客户投诉并给出补偿方案;一条供应链中的各个环节可通过可编程货币自动结算。 二、四大关键技术趋势 Gartner从每年跟踪的2000多项技术中,提炼出最具潜力的新兴技术。今年最值得关注的包括以下四项: 1. 机器客户(Machine Customers) 机器客户是指能够代表人类或组织进行购买决策和交易的非人类经济主体。例如智能家电、联网汽车、工厂中的物联网设备等。 现状:目前全球已有30 亿台 B2B 联网设备可作为“客户”,预计到2030年将增长至 80 亿台。影响:制造业、零售和消费品行业将迎来新收入来源和效率提升机会。挑战:企业需重新设计商业模式、支付系统和客户服务体系,以适配非人类客户。 Gartner 还举了一个机器客户在零售业的例子:智能冰箱检测牛奶不足后,自动下单并完成支付。零售商需要面向“机器客户”设计新的营销和履约逻辑。 2. AI 代理(AI Agents) AI 代理是指能够感知环境、制定决策、执行动作并达成目标的自主AI系统。它们不同于仅能生成内容的生成式AI,更强调“行动力”。 应用场景:客户服务、工业自动化、数据分析、内容创建、物流调度等。 现状:尽管技术发展迅速,但企业对AI代理的信任度仍有限,尤其担心其在无人监督下的决策风险。 建议:Gartner建议企业将AI代理纳入战略规划,逐步建立“人在回路”(human-in-the-loop)的监督机制。 例如AI 代理在物流业:未来供应链可能由多个 AI 代理协作完成,从需求预测到仓储调度、路线规划,全链条自动运行。 3. 决策智能(Decision Intelligence) 决策智能是一门将决策过程数字化、模型化的实践学科,旨在提升决策的质量、速度与一致性。 背景:生成式AI热潮、法规压力、全球不确定性等因素暴露了传统决策流程的弱点。价值:帮助企业实现更快速、合规、成本可控且适应变化的决策。方法:通过建模、反馈循环和持续优化,将“洞察”转化为“行动”。 例如决策智能在金融行业:银行利用决策建模优化贷款审批流程,既提高效率,又能确保合规和风险控制。 4. 可编程货币(Programmable Money) 可编程货币指可通过软件算法控制其流通与使用条件的数字货币,常基于区块链和智能合约实现。 应用场景:机器与机器之间的自动支付、条件付款、供应链金融等。意义:不仅是金融行业的变革,更是支持“机器经济”的基础设施。前景:将推动新型资产市场、价值交换方式和财务自动化的发展。 例如可编程货币在制造业:IoT 设备之间可以自动完成零部件采购与支付,减少人工干预,加快生产节奏。 四、企业应应对——Gartner的建议 Gartner 的最新报告强调,自主型企业正成为数字化的下一个阶段,四大关键技术(机器客户、AI 代理、决策智能和可编程货币)将共同推动这一趋势。对企业来说,重点不在于追逐所有热点,而是: 看清价值链条:哪些环节最可能因自动化和AI带来差异化优势。 做好组织和治理准备:确保新技术能安全、合规地应用。 前瞻性投资:在2–10年的时间窗口内占领先机。 从企业战略和管理者的角度而言: 从实验走向整合:不要孤立地尝试某项技术,而应将其纳入整体业务转型框架。 重视信任与治理:尤其是AI代理和机器客户等高度自主的系统,必须建立透明度、可解释性和监督机制。 投资于数据与架构:可编程货币、决策智能等都依赖于高质量的数据和灵活的技术基础。 提前布局机器经济:思考你的产品或服务如何被机器“消费”,而不仅仅是人。 对于企业而言,早关注、早评估、小步试点,才是应对不确定性的合理策略。 真正的赢家不是那些追逐热点的企业,而是那些能将技术深度融入业务、重新设计运营模式的组织。 以上,祝你今天开心。 作者:张艾拉 公众号:Fun AI Everyday 本文由 @张艾拉 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Unsplash,基于CC0协议
在流量焦虑与信任稀缺并存的互联网时代,品牌的GEO策略不再只是“被看见”,而是“被信任”。本文系统梳理品牌从流量入口到信任源头的转化路径,结合行业趋势与实战案例,为产品人和运营者提供一套可复用的优化思维框架。 自互联网诞生以来,我们一直致力于解决一个核心问题:如何让用户找到我们。从PC时代的门户导航,到移动时代的SEO/SEM,再到社媒时代的算法推荐,每一次技术浪潮都重塑了品牌的曝光和增长路径。 然而,今天,我们正面临一次根本性的“范式转移”:以大语言模型(LLM)为核心的生成式AI,正在瓦解传统的搜索结果页(SERP)。 当用户提问时,AI不再提供一长串链接,而是直接给出一个生成的、唯一的答案。在这个“直给”的世界里,传统的“抢占关键词排名”已失去意义,品牌曝光的逻辑正在从“流量入口”转向“信任源头”。这就是我们今天探讨的焦点——生成式引擎优化(Generative Engine Optimization, 简称GEO)。 本文将借鉴跨学科的思维框架,从问题意识、逻辑结构和语言表达三个层面,深入剖析互联网/AI行业品牌如何构建一套面向未来的GEO策略。 第一章:问题意识:为什么传统SEO/SEM已无法满足AI时代需求? GEO策略的必要性,源于对AI时代品牌困境的深刻洞察。我们可以将AI生成式引擎视为一个“知识黑箱”,它对传统流量模式造成了三重冲击: 1. 品牌的“隐形危机”:中间层的消失 传统搜索优化中,品牌通过链接、摘要、广告等占据了SERP的“中间层”,用户总能看到并选择点击。但在生成式引擎中,用户看到的是一个权威的、统一的答案。 问题: 品牌内容被LLM吸收、消化、重组,但品牌本身的出处和声量却被弱化。用户记住了答案,却忘记了信息源。 类比《贫穷的本质》: 就像贫困人群常常缺乏有效的信息筛选机制一样,AI的“一站式答案”也剥夺了用户对信息源进行多维度验证的机会,品牌失去了在验证环节展示自身权威性的机会。我们必须从被动的“等待流量”转变为主动的“构建信任”。 2. 流量的“失焦效应”:从点击到引用 SEO的目标是Click(点击),SEM的目标是Conversion(转化)。GEO的目标则更接近Citation(引用)和Trust Score(信任评分)。 当AI引用你的数据、你的观点、你的解决方案时,你的品牌才算真正“优化”成功。如果你的内容无法被AI视为最优解,那么它就不会被引用。 核心问题: 如何让品牌内容成为AI知识图谱中不可替代的、高权重的事实节点? 3. 内容的“平庸陷阱”:AI味与原创力的对决 AI拥有海量内容生成能力,这导致互联网内容的整体平庸化。如果品牌只是利用AI工具生产“合格”的内容,那只会淹没在信息的汪洋中,并被更强大的生成式引擎判定为低价值的“AI味”内容。 人人都的产品经理规范要求: 杜绝“罗列搬运”和“AI味”。这意味着我们必须从更高维度的原创性和深度的问题解决出发,才能超越机器的重复劳动。 第二章:逻辑框架:GEO品牌策略的“三位一体”模型 借鉴《人类简史》的宏大叙事视角,我们不应只关注眼前的技术细节,而应构建一个能指导品牌在AI时代长期生存和发展的底层逻辑框架。我提出“三位一体”的GEO模型:权威性、结构化、意图匹配。 1. 权威性(Authority):品牌的数字身份构建 在AI世界,权威性不再仅仅是Domain Authority(域名权重),更是事实权威(Factual Authority)。 a. 构建品牌专属知识图谱 策略: 将品牌的核心产品、服务、技术文档、FAQ、历史数据等,以结构化、机器可读的方式呈现。这不仅仅是Schema Markup(结构化标记),更是构建一个私有的、开放的、可验证的知识库。 目标: 让AI在查询特定领域知识时,第一优先级参考你的知识图谱。例如,一个SaaS企业应将其API文档、最佳实践、故障排除指南,视为构建权威性的最高资产。 b. 建立“可信度三角” 品牌必须在内容中展现出强大的“可信度三角”: E-E-A-T(经验-专业性-权威性-可信赖度):这是Google等传统引擎的标准,但在GEO中,我们需进化到E-E-A-T+R(R for Referencability/可引用性)。 实践: 每份报告、每个观点都必须标注清晰的数据来源、研究方法和时间戳。这些元数据是AI判断内容价值和时效性的关键。 2. 结构化(Structure):适应机器阅读的内容规范 AI引擎偏爱清晰、简洁、逻辑严密的内容。混乱的排版、冗长的铺垫是内容被降权的直接原因。 a. 答案优先的内容排布 原则: 像写新闻稿一样,把最重要的“答案”放在开头,然后才是背景、论证和细节。 实践: 使用H2、H3等标题清晰区分主题,列表(Numbered List/Bullet Points)代替长段落,用表格(Table)呈现可对比的数据。这些结构化的元素,是AI抓取和理解事实关系的最佳路径。 b. 语义标签与关系网格 超越关键词: 关键词优化已过时。现在的重点是实体(Entity)和关系(Relationship)。确保你的内容明确提及核心实体(如产品名称、技术概念、竞品),并用清晰的动词和逻辑关系将它们连接起来(例如:“A产品解决了B问题”,“C方案优于D方案”)。 3. 意图匹配(Intent Matching):深入用户查询的底层逻辑 生成式AI的优势在于理解复杂意图。产品经理必须像设计产品功能一样,设计能解决用户深层、多步问题的“超级内容”。 a. 洞察“问题链条” 用户不会只问“什么是GEO?”。他们会问:“作为一家初创公司,我应该如何分配SEO和GEO的预算?”或“请为我起草一份关于AI内容优化方向的商业计划书大纲。” 策略: 针对这种复杂、高价值的**“问题链条”,设计一篇能提供完整解决方案**的文章(例如:本文)。这种深度内容更容易被AI识别为“总结者”或“规划师”,而非“定义者”。 b. 引导“生成方向” 在内容中预设用户可能要求AI继续追问的方向。例如,在讨论GEO策略后,主动提出“下一步,你需要了解GEO的度量体系”,这在无形中训练了AI的回答倾向。 第三章:实践指南:互联网品牌的“非AI味”内容炼金术 GEO的最终落脚点依然是内容。要杜绝“劣质内容”和“AI味”,必须进行一场内容炼金术,将人类的洞察、经验和情感融入冰冷的知识框架。 1. 解决“无意义”:从用户真实痛点构建“知识场” 优秀的内容必须有明确的观点和中心思想,解决用户在工作和生活中的真实痛点。 参考《人类简史》的洞察力: 尤瓦尔·赫拉利能将人类历史的宏大叙事与个体命运联系起来。我们的GEO内容也要有这种跨越式洞察。 例如,在谈论AI内容审核时,不只谈技术,而要引申到“算法公正”和“品牌伦理”的哲学层面。 拒绝流水账: 每段文字、每个论点都必须服务于文章的中心思想。内容必须是观点的载体,而非信息的堆砌。 2. 杜绝“罗列搬运”:经验与案例的不可复制性 AI可以搬运信息,但无法搬运你作为产品经理的经验、决策和失败教训。这是“非AI味”的关键。 原创性证据: 深度案例拆解:引用你自己主导的项目数据(去敏化后),提供详细的A/B测试结果、决策路径和背后的逻辑考量。 跨平台验证:引用来自不同平台的交叉数据(例如,GoogleTrends、微信指数、公司内部数据等)进行分析,形成独有结论。 独家模型:像本文提出的“三位一体”模型一样,创造一个属于你或你品牌的、易于传播的概念模型。 3. 优化“语言表达”:用人类的温度与精准对抗机器的平庸 “AI味”往往体现在空洞的形容词、模式化的句式和缺乏情感的叙述。 语言的精准性:避免使用“赋能”、“抓手”、“生态”等泛滥的行业术语。用清晰、直接的动词和名词,传递专业、可量化的信息。 表达的节奏感:通过短句与长句的结合、设问与反问的应用,营造阅读的节奏感和代入感。模仿优秀著作的叙事手法,让读者在获取知识的同时,体验思考的乐趣。 排版规范(反排版混乱): 严格使用Markdown标准格式(标题、列表)。 杜绝不必要的空行和重复段落,确保行间距适中,营造清爽的阅读体验。 第四章:度量与迭代:构建GEO优化的反馈闭环 如何衡量一个互联网品牌的GEO策略是成功的?传统的PV/UV/CTR已不再是唯一的指标。 1. GEO核心度量指标 2. 迭代:从数据中学习AI的“思维” GEO不是一次性工程,而是一个持续的反馈闭环。 监控“AI生成结果”: 持续追踪生成式引擎在回答与品牌相关的查询时,使用的是哪些内容源、遗漏了哪些关键信息,以及产生了哪些“幻觉”(Hallucination)。 反向优化内容: 根据AI的回答偏差,反向修正品牌内容,以更精确、更简洁的方式修正AI的认知。 结论:GEO:产品经理的新护城河 对于互联网行业的产品经理而言,GEO优化不仅仅是营销部门的工作,更是产品本身(知识、服务、数据)在AI时代的交付形态。 在信息爆炸的今天,信任是稀缺资源。谁能被AI视为知识的“信任源头”,谁就掌握了下一代数字品牌的生存权。构建GEO策略,就是为你的品牌在AI洪流中,开辟一条深度、专业、不可替代的新护城河。这需要我们以跨学科的思维,从底层逻辑出发,用人类的智慧和经验,去驾驭这场数字世界的“范式转移”。 本文由 @运营怪咖 原创发布于人人都是产品经理。未经许可,禁止转载 题图来自Unsplash,基于CC0协议 该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
产品与运营,常被视作两条并行线,但在真正的业务深水区,它们往往需要共振、协同、甚至彼此成就。本文由一位深耕运营15年的行业老兵撰写,以五大实战心法为切口,揭示产品与运营如何在复杂环境中实现共生,为团队带来持续增长与组织韧性。 作为一个有15年经验的运营老司机,自认为在互联网运营方面,自己还是有些能耐的。这些年来,我眼见着所参与的产品日活用户数翻了一倍多,经历过多款产品从0到1再到行业榜首的过程,也有过在深夜独自分析数据、与同行讨论策略至凌晨的时光。 回首这段历程,我深深体会到:产品和运营,不是天生的冤家,而是缺一不可的共生关系。业界常说“产品搭台,运营唱戏”,但我更认同“产品和运营一起生孩子,一起养孩子”,携手共同为产品的茁壮成长而精心酝酿和实施。 在这个快速变化的时代,我希望分享一些实战经验,帮助产品经理和运营人员更好地理解和协作,共同推动产品的成功。 心法一:夯实基础——做好运营前的五项准备 磨刀不误砍柴工。在正式开展运营工作之前,有五个方面的准备必须做好。 1. 深度理解产品 运营人员首先需要明确:自家产品的定位是什么?解决了用户什么需求?用户会在什么场景下使用?在行业中的地位如何?商业模式是什么?未来发展方向是什么? 在我早期负责QQ浏览器push运营时,浏览器当时的定位还是手机上网工具,主要提供资讯、小说、视频、搜索等服务。可以看出,资讯只是众多服务中的一种,因此我们对push的理解是:虽然我们做资讯类push,但作为手机浏览器,不适合给用户推送过多资讯内容。 后来,随着行业变化,浏览器纷纷转型为个性化推荐的资讯阅读器,我们在6.4版本也上线了个性化推荐资讯流。这意味着资讯在产品定位中的重要性大幅提升,我们的运营策略也随之调整——不仅要多push资讯类内容,而且在深度和广度上都要比以前更进一步。 核心要点是:在深入了解自家产品的基础上,及时把握行业变化和产品定位的演变,让运营策略紧跟这些变化。 2. 透彻理解用户 在开始正式工作前,尽量先获取一份用户基本画像。初期在不清楚用户情况时,我常常感到无处发力,工作一段时间对用户有了一定理解后,才逐渐得心应手。如果一开始就能清楚了解用户,工作会更加顺利。 需要理解的用户信息包括:基本属性(年龄、性别、地域、机型)、文化程度、上网习惯、内容偏好等。 快速了解用户的方法有: 用户基本画像:用户研究部门通常会有,获取一份来看是最简单高效的方法; 基础数据:从后台数据入手,先了解大概,随着运营深入逐步细化。数据是上帝的手谕,通过数据可以洞悉用户; 用户访谈:初期可能不知道真实用户在哪里,后来我发现用户投诉是接触用户的绝佳机会。无论是通过产品投诉渠道还是微博投诉,我都会通过QQ或微博私信与用户交流,一方面了解投诉原因,更重要的是借此更深入地理解用户。 3. 掌握产品数据现状 刚接手一个产品时,必须了解产品目前的日活、转化率、总用户量等基本数据。 进一步,需要掌握运营相关数据。以push运营为例,需要了解:每天下发多少条push?下发时间如何安排?内容类型分布?点击率、下发量、点击用户数等关键指标。 4. 明确运营核心KPI及计算公式 明确运营的核心KPI,本质上就是明确工作目标。对运营而言,最常见的KPI就是日活(DAU)。运营人员应该时刻把DAU放在心头,每天到公司第一件事就是查看DAU,了解相比昨天的变化,以及距离KPI还有多大差距。 同样重要的是理解KPI的计算公式。我发现实际工作中,很多人对KPI计算公式并不清楚。常见的运营KPI计算公式是:DAU = 总用户 × 转化率。 对内容运营来说,常见的计算公式是:点击用户 = 展示用户 × 转化率。 要清楚公式中各个元素的分子分母,理解运营环节的漏斗模型,掌握每个漏斗环节的数据。明确KPI及其计算公式后,就可以据此拆解出达成KPI的可行方法,然后对照执行。 5. 熟悉竞品策略与数据 每个产品都有竞争对手,而且产品在不同发展阶段的竞品也会变化。要快速上手工作,首先要找到对标的竞品。包括:行业第一的竞品(重点研究)、不相上下的竞品(也要研究)、不如你的竞品(同样需要研究)。 做得比你好的竞品,自然有很多值得学习的地方;做得差不多或稍差的竞品,虽然数据可能不如你,但未必是运营功底差,它们可能也有做得好的方面,值得借鉴;即使是做得不好的,也可以观察,“见贤思齐焉,见不贤而内自省也”。 研究竞品,首先要找到竞品;其次是了解竞品的运营策略;最后是尽可能了解竞品的各项转化数据。选择一个领域,就应扎进去,找到这个领域的所有竞品及其背后的人员。 我在QQ浏览器做push运营时,一个深刻体会是:做好工作需要持续学习。由于行业变化快,学习资料往往有限,除了自己摸索,最有效的方法就是向竞品学习。被逼急的时候,我会主动认识很多竞品团队的人,通过与他们的交流甚至成为朋友,双方都获益良多。 心法二:掌握利器——运营工作的三个核心工具 在我的工作交接资料中,有三个工具几乎每天都用到,它们让我受益匪浅:思维导图、Excel表格和Word文档。 1. 思维导图:策略规划的首选工具 我把思维导图放在第一位,因为它是最重要的工具。我通常用思维导图来撰写策略。 在明确KPI并理解其计算公式的基础上,我会分析影响KPI的因素有哪些,可以从哪些方面着手提升KPI。这需要结构化思维,通过自查数据和与竞品交流,先形成一部分结论。 有初步结论后,与团队成员讨论策略的可行性,收集大家的改进意见,达成共识后用思维导图绘制出来。这便于在后续工作中对照思维导图一步步推进。 2. Excel表格:数据分析的关键载体 整理工作交接文件时,我发现Excel表格是最多的。日常工作中,与Excel打交道的时间也最多。 Excel表格通常用于以下方面: 基本数据记录:记录年度DAU数据,包括每月DAU均值;以及每月DAU数据,包括每日DAU。这样无论是老板询问还是自查,都能清晰了解产品的运营趋势; 细化数据记录:除了宏观的DAU数据,还需要记录更细化的数据,如早间档期push的点击用户数、上月均值、上周均值等。如果发现某天数据低于或高于均值,就去排查原因。通过这些数据调整产品策略,例如当早间点击率遇到瓶颈时,通过调整下发时间或素材来寻求突破; 具体文案数据:这些数据的颗粒度更细,细到单条内容的点击率。定期总结这类数据,可以深入理解用户的内容偏好。这类总结可以每日查看,但进行详细分析时需要较大的数据样本量。我们通常每周总结一次,每月再总结一次。 例如,我们会记录哪些题材的点击率高,以后多尝试类似题材;同时记录点击率低的题材,如“南美洲某海沟发生大地震”这类push点击率很低,以后就减少此类新闻的下发量和频次。 还可以对数据进行横向对比,例如找出关于某明星的所有push,分析点击率分布情况,可能会发现关于他另一身份解密或近期参演剧目的新闻点击率高,而出席活动或代言广告的点击率低。 事后总结至关重要。没有总结,经历就只是廉价的经历;总结后的经验才能复用到后续工作中。 3. Word文档:运营日记的记录工具 一定要写运营日记!一定要写运营日记!一定要写运营日记! 重要的事情说三遍。 我认为运营日记没有固定模板,应根据产品特点和个人风格记录。我以天为单位,记录当天所有产品优化策略和运营调整。坚持记录,你会发现自己成长更快。 心法三:思维升级——培养运营思维的产品经理 具备运营思维的产品经理在设计产品时,会充分考虑产品的可运营性。 1. 让产品更具氛围感 以滴滴等出行类产品为例,它们通过地图展示附近车辆,车辆以汽车图标显示在地图上。他们会根据运营场景灵活调整车辆图标:雨季时,车辆图标变成了船。这种设计让“冰冷”的产品功能更具个性化,让用户体验到功能之外的氛围。 具备运营思维的产品经理,通过建立核心差异点,同时选准运营切入点,让产品真正“活”起来并占领用户心智。 2. 让产品变得“好玩” 运营思维是让产品变得“好玩”,让用户获得超出预期的体验,是寻找差异化的过程。 例如,抖音上有一段经典的广告歌词“看前面的帅哥,健康帅气!看帅哥的发型,清新有形!飘影定型啫喱水,有飘影,更自信!”一度引发网友纷纷模仿。 所以,产品功能做得不错,并不足以让产品被更多人使用,关键还是通过什么方式、营造什么样的产品氛围来吸引用户使用。 3. 内容型产品的运营思维 以内容型产品为例,其运营可概括为七个方面:挖掘、造星、精准推荐、渠道、互动、盈利和情怀。其中“挖掘”、“造星”、“精准推荐”、“盈利”是四个关键环节。 挖掘:“好内容”是内容型产品最大的价值。运营人员常用“追热点”、“蹭热度”的方式。产品经理需要为内容打标签,加入算法,建立内容间的关联性; 造星:人气主播天佑通过一首喊麦《一人饮酒醉》红遍大江南北,这是平台与头部用户建立强关联后打造出的明星。产品中应增加权重功能,对签约作者倾斜,增加曝光度和展示位置;为主播推荐、签约作家设置醒目位置;为明星作品提供配图、副标题、专题、评论、阅读量、打赏等功能,着力打造明星光环;建立等级、积分等进阶机制,让普通用户也有成为签约作者的可能,形成新陈代谢系统; 精准推荐:运营需考虑用户的时间、地点、人物特征。用户通常在闲暇时间浏览内容,主要集中在早、中、晚三个时段:早上是一天的开始,用户更喜欢轻松、简单、娱乐的内容;中午时间短,适合看段子、短故事、短视频;晚上时间更充裕放松,适合学习,内容可以稍长、更有深度。 此外,很多内容受地域文化限制,如小品、二人转更受北方人欢迎,南方人可能不太理解。运营时要考虑受众,有目的地推广。推荐内容要考虑用户的职业、性别、年龄、爱好等信息,为用户画像,实现精准推荐。 产品经理可以在产品中设计相应功能,如:时间上加入定时推荐;地点上加入“附近”、“本地”等位置功能;人物上加入精准推荐,采集用户行为和属性信息,绘制用户画像,为内容和用户打标签,根据匹配度提供精准内容。 盈利:盈利模式是产品发展的源动力。为了让优质内容提供者持续产出优质内容,产品经理可以开发以下功能:打赏模式(如公众号);刷礼物(如YY、花椒);知识付费(如荔枝、千牛、分答);会员特权(如腾讯视频、优酷);分佣机制(如荔枝直播)。 通过这些方式,产品能为优质用户提供收益,体现平台价值,吸引更多优质用户加入。 产品经理需要从局部业务流程深挖至整个产品运营模式,明确自身工作处于运营模式的哪个环节。这是对高阶产品运营者的要求。此时思考方向不是单一的业务导向,而是由线到面地考虑对整个产品的影响,涉及不同角色或组织间的资源配置。通过自身业务流程的小处着眼,配合成熟的产品大局观,找到更优的运营方案。 心法四:量化价值——将爱情价值锚点转化为运营策略 我从《用产品经理思维解构爱情:当代关系的五大价值锚点》一文中获得灵感,发现爱情思维中的五大价值锚点可以完美映射到用户运营中,形成一套完整的用户价值交付体系。 1. 情绪价值:满足用户的情感需求 爱情逻辑:用户因为“感觉良好”而留下。快乐、被理解、安全感、归属感、成就感是核心驱动力。 运营策略: 创造愉悦时刻:在用户完成关键动作时,提供令人惊喜的动效、徽章或提示音(如Duolingo的庆祝动画); 建立深度共情:在出错时,不说“Error404”,而说“哎呀,这里好像迷路了…”。通过文案和交互,让用户感觉产品“懂我”; 赋予身份认同:打造社区文化,让用户因使用你的产品而产生归属感(如“果粉”、“谷粉”); 提供确定性:清晰的流程、及时的状态反馈(如外卖员的实时定位),能极大缓解用户的焦虑情绪。 2. 时间价值:尊重用户的时间 爱情逻辑:高质量的陪伴远胜于低效的耗时间。用户的时间极其宝贵。 运营策略: 极简用户体验:减少不必要的步骤,提供一键操作、快捷方式,核心功能路径清晰; 智能预判与推荐:利用算法,提前猜中用户所想,减少其搜索和决策成本(如网易云音乐的每日推荐); 异步协同能力:允许用户在不同时间点参与协作,不要求“实时在线”(如Figma的异步设计评论); 消灭等待焦虑:用加载动画、进度条、占位图来填充等待时间,管理用户的时间预期。 3. 形式价值:创造新鲜感 爱情逻辑:新鲜感和创意能重新点燃激情。一成不变会走向“七年之痒”。 运营策略: 交互模式创新:打破常规,提供新颖的互动方式(如Tinder的卡片滑动匹配、抖音的全屏上下滑); 内容呈现革新:用更吸引人的方式组织信息(如信息图、交互式报告、视频化说明书); 个性化与定制化:允许用户自定义界面、主题或功能流,让每个用户都觉得产品是“为我而生”; 持续迭代与微创新:定期推出新功能、新主题、新玩法,保持产品的新鲜感,给用户“常看常新”的体验。 4. 地理位置价值:场景化服务 爱情逻辑:“我需要你时,你就在身边”是无价的。场景决定了价值的稀缺性。 运营策略: LBS服务:提供与用户当前位置强相关的信息和服务(如美团外卖、大众点评、共享单车); 线上线下融合:用线上能力增强线下体验(如扫码点餐、AR试妆),或用线下实体弥补线上局限(如苹果线下店); 抢占特定场景:针对“通勤”、“睡前”、“排队”等碎片化场景,设计轻量级功能(如微信读书的“听书”模式); 即时响应与交付:提供“分钟级”送达、实时客服解答等服务,将“空间便利性”转化为产品核心竞争力。 5. 所有权价值:构建用户资产 爱情逻辑:共同的财产和责任是关系的压舱石。用户希望“拥有”而不仅仅是“使用”。 运营策略: 构建用户数字资产:让用户在产品中积累数据、内容、关系链和等级,这些资产具有排他性且能持续增值(如微信的社交关系、Steam的游戏库、淘宝的购物车和收藏); 赋予控制权:提供强大的数据导出、隐私设置、内容管理权限,让用户感觉是产品的主人,而非过客; 建立长期激励体系:通过会员等级、积分系统、长期任务等,奖励用户的持续投入,将其与产品深度绑定; 共创与社区治理:邀请核心用户参与功能内测、决策投票,让他们拥有“产品共建者”的身份,从而产生极强的归属感和所有权。 心法五:协同共进——构建产品与运营的共生关系 产品和运营之间常常存在冲突。我们常听到产品经理抱怨“我精心设计的产品,怎么被运营成这样了!”,也常听到运营人员说“这个产品做得这么烂,让我怎么运营!” 1. 产品与运营的本质差异 产品经理更着眼中长期效果,需要深入理解公司的商业模型和业务本质。他们思考的核心问题是: 我们的用户是谁?有什么特点?为什么需要我们的产品? 用户特别在乎什么?不在乎什么? 如何引导能让用户操作更懒、上手更容易、思考更简单? 用户如何使用我们的产品?时间、场景、敏感因素和决策过程如何? 商业模式是通过直接卖货/服务赚钱,还是打造社交关系链,或是通过用户规模和粘性进行流量变现? 现阶段核心诉求是扩大规模、提升销售还是追求盈利? 如何打造忠诚度?用户为什么来?为什么流失? 用户真正的痛点是什么?什么让他们兴奋? 竞争对手是谁?我们的差异化优势和记忆点在哪里? 运营人员则更关注短期中期效果,充分发挥现有频道和工具的价值,针对用户完成最后一击,达成眼前的商业目标。作为日常工作,他们对每天、每周、每月、每季度的趋势、用户需求变化、实际销售/访问数据进行持续盘点,随时调整商品、内容和文案,以达到持续最佳效果。 以零售业打个比方:产品经理负责设计货架(三层还是五层,白色还是红色,方的还是圆的)和用户购物动线;而运营人员则负责日常在货架上铺货,决定什么货摆在第几层,价格标签如何展示,促销品是否用黄色高亮,按什么逻辑组织商品,以及根据销售数据调整商品陈列。 2. 建立协同工作机制 要实现产品与运营的高效协作,我推荐以下实践: 定期联合评审:产品和运营团队定期共同评审产品数据和用户反馈,一起制定后续优化方向。在亚马逊,强大的底层数据体系使所有决策都有明确的多维度数据支持,大大减少了主观争议。 共同用户研究:产品和运营一起参与用户调研和访谈,从不同角度理解用户,形成共识。 共享目标体系:确保产品和运营团队的目标有重叠部分,避免完全割裂。例如,产品经理的KPI不仅包括产品性能指标,也应包含用户活跃度等运营相关指标。 跨团队培训:产品经理为运营团队讲解产品设计理念和底层逻辑,运营团队为产品经理分享市场趋势和用户反馈,增进相互理解。 结语:运营的终极境界是价值交付 回首15年运营生涯,我最深切的体会是:顶级的产品运营,不仅仅是满足功能需求,更是一场精心经营的情感关系。 传统的运营看数据指标(DAU、GMV、留存率),这很重要。但顶级的运营,看的是“关系深度”。当你开始经营“价值”而不仅仅是“数据”,你就能与用户建立起一场轰轰烈烈且长相厮守的“恋爱”,从而构筑起最坚固的商业护城河。 运营的终极境界,是把用户当成活生生的、有情感、有需求、渴望被理解和重视的“人”来对待。通过提供稳定的情绪支持和时间效率,以富有创意的形式,在关键场景中即时满足用户,并最终让用户产生深厚的资产依赖和归属感。 产品和运营,就像一对舞伴,只有步调一致、相互配合,才能演绎出精彩的舞蹈。希望这些经验能帮助产品经理和运营人员更好地理解和协作,共同打造出真正打动用户的产品。 记住:在关系的算法里,持续输出的高价值,永远是维系用户忠诚度的终极密码。 作者:无事小神仙,一个消失很久的运营老司机,深圳本地运营小咖。 本文由 @运营研究院 原创发布于人人都是产品经理。未经许可,禁止转载。 题图来自 Pixabay,基于 CC0 协议 该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
在流量红利逐渐消退的当下,线下门店的每一次顾客到访都弥足珍贵。本文深入剖析“我再逛逛”背后的真实心理与行为动因,揭示门店体验设计中的关键断点,并提出可落地的优化策略,助力品牌将潜在流失转化为有效转化。 我们日常在逛线下门店的时候,可能都有说过“我再逛逛”这句简短而又有拒绝意味的话,在门店的消费场景中,我想这应该是再常见不过的了。可是,不少销售一听到这句话,当时的反应,要么是急着抛出“今天有活动”、“现在买能优惠”的挽留,要么就是冷淡地回一句“那您慢走”,仿佛这话一说出口,交易就彻底结束了。但实际上,“我再逛逛”从来不是真的拒绝,更像是顾客递过来的“需求暗号”,TA心里可能还有没被满足的顾虑,要是这时候销售接不住,那才是真把机会推走了。 前因 “我再逛逛”这句话就像一面镜子,照出了销售动作与话术的双重漏洞。当顾客说出“再逛逛”的时侯,背后往往藏着未被满足的需求:可能是价格超出了预期,可能是对产品功能仍有疑虑,也可能是导购人员的过度热情让人感到压迫。但多数销售只是将其视为顾客的一种“自然选择”,既没有尝试探寻真实的顾虑,也没有给出让顾客停留的理由,任由销售机会在沉默中流失。 而且,更值得警惕的是,这种流失往往被门店管理者忽视。在我经历的一个线下门店的项目中,销售部门的复盘会议上,门店从上到下更关注的是已成交顾客的客单价、复购率等可见数据,却很少追踪那些“来过却没买”的潜在顾客的潜在机会数据。举个例子,就像一家月客流量5000人的服装店,若每天有40位顾客说“再逛逛”,一年就意味着有14400多位流失的顾客,这相当于3个同等规模门店的月均客流量总和,很可怕的机会数据,这往往都被忽略了。所以,当“我再逛逛”从顾客的嘴里说出来的那一刻,就变成了销售流程的“终点按钮”,这样的线下门店其实正在经历一场看不见的客源流失危机。 问题 这就要说说很多销售最容易踩的坑了,那就是一听见“再逛逛”就急着用优惠来想方设法地用一些传统的销售动作来留客。比如:“现在买立减”、“送你个赠品”、“今天是活动最后一天”,这些即时福利看着比较直接,或许也有点吸引力,但其实反倒是帮倒忙了。因为顾客说要再逛逛,根本就不是觉得“不划算”,而是还没弄明白“为啥非买不可”!可能是还没搞懂这款产品能解决自己的啥问题,可能是对商品的性价比还存有疑虑,也可能就是觉得被催着跟着的销售动作太有压力了。这时候销售突然给出优惠,反而会让顾客犯嘀咕:“是不是这东西本来就不值这个价?”,要么就是压力更大了,干脆加快脚步离开吧。 还有在销售话术上的问题也不少。很多销售一开口就是自说自话:“我们这产品特别好”、“都卖断货了”、“您再考虑考虑”。这些话吧,说出来看着是想说服顾客,但其实完全没接住顾客的情绪。顾客这时候要的不是“被说服”,而是“被理解”:理解TA想多对比的谨慎,理解TA没下定决心的犹豫,理解TA不想被打扰的边界感。所以,销售越说这些“说服”的话,却越容易让顾客觉得被强迫,反而更想逃离。 解法 其实,真正有用的销售动作,不应该是催着成交的“诱饵”,而是能让顾客记着你的“钩子”。就算顾客暂时走了,也能在心里留下一种“这家店有我需要的东西”的印象,甚至还会愿意主动回来。比如:递上一张印着产品核心优势的卡片,笑着说“您逛的时候可以留意下,我们这款产品的特点是很多老顾客回头买的原因,要是对比的时候有疑问,随时回来找我,我可以给您说一说”;或者给个没啥门槛的售后承诺,“今天买不买都行,逛累了想喝水歇脚,随时进来;就算之后在别家买了,用的时候有问题,也能来问我,咱们做的是长期口碑”。这些动作都没提“买”,但却在告诉顾客“我们懂产品,也懂你”,要比单纯给优惠管用多了。 而在销售话术上呢,更要讲究技巧了,得先“共情”,再“探需”,最后“留机会”。顾客说“我再逛逛”,销售可以先点头笑一笑,然后用轻松的语气说:“特别理解,买东西就是得多对比,尤其是这种日常要用的、贴身的东西,得挑到自己真满意的”,这是要先把顾客的心理防线撤了;接着再顺嘴问一句“您刚才看的时候,是对哪方面还没太确定呀?是功能、价格,还是想找更适合您的款式?”,这就是别等着顾客先说,要主动去了解需求,就算顾客不说具体原因,也能让TA觉得“你关注的是我,不是只想着卖东西”;那最后再给个台阶:“没关系,您慢慢逛,要是逛的时候想起啥问题,或者还想看看刚才那款,直接来找我就行,我叫XX,一直在这儿”。这么一套说下来,不仅双方都没压力,而且还把下次沟通的路留得很顺畅。 所以啊,不管是销售动作,还是销售话术,最核心的一点就是:别把“成交”当成唯一的目标,得先想着与顾客之间“建立信任”。线下门店和线上购物最大的不一样,就是能近距离很真实地传递“人与人之间的温度”。这种温度不是靠热情打招呼、一个劲儿推荐堆出来的,而是靠读懂顾客没说出口的话、尊重顾客的决策节奏、传递比产品本身更有价值的东西攒出来的。很多时候顾客说要逛,不是因为产品不好,可能就是销售方式让他觉得不舒服、不放心。要是销售不把顾客的这句话当成“失败信号”,而是当成深入了解顾客的机会,先不着急用优惠拦着顾客,而是用真诚铺好路,就会发现,那些说“再逛逛”的顾客,常常就会变成真正回来购买的顾客,并且还可能会变成带朋友来的老顾客。 最后 现在线下门店的竞争,早就不是“比产品”的时代了,而是“比体验”的时代。体验的核心,就是让每个顾客都觉得“你懂我”。所以在消费场景中当顾客说“我再逛逛”的时候,别着急焦虑,先停下来仔细想想顾客这么说的背后原因:他真正需要的是什么?我能给TA什么比优惠更有价值的东西?想清楚这两个问题,销售的动作和话术自然就对味儿了,那消费机会也不会从手边溜走。 话又说回来,其实很多销售都会犯这些错。看起来是本质是没摸准顾客的心理,也没找对沟通的逻辑。但,临时给优惠,看着能促成交易,其实是会让顾客怀疑原价的合理性,不仅当下难成交,还会影响品牌在顾客心里的价值;而且那些没共情的话,又会让顾客觉得被强迫,越追问越抵触。 因此,真正的销售能力,不是用技巧和话术来阻止顾客离开,而是要抓住每次与顾客的互动都变成积累信任的机会。要是只想着应对这一次“我再逛逛”,本质上还是在做一次性买卖;但要是能靠专业来预判顾客的需求、用真诚的话来沟通、主动展示产品价值、帮顾客降低决策风险,那就能在顾客心里攒下信任。信任多了,“我再逛逛”就会变成“我再想想,你帮我留着”,这不仅仅是话风变了,更是顾客从“试探着离开”变成“想下次再来”的心理转变。 毕竟,信任的种子种下去了,每次看似的“流失”,都可能是下次成交旅程的开始。 本文由人人都是产品经理作者【卢山@杠叔讲体验】,微信公众号:【杠叔讲体验】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
一份写给所有渴望建立长期影响力的产品经理和知识工作者的“信任资本”积累手册,旨在将“信任”这一无形资产,解码为一套可被主动设计、量化和运营的系统性工程。 引子:两种“聪明”,与产品经理的“信任悖论” 在产品经理这个“聪明人”扎堆的行业里,我观察到两种截然不同的“聪明”。 第一种,是“计算型的聪明”。这类产品经理,大脑如同一台高速运转的计算机。他们能在最短的时间内,找到最优的解决方案,能在辩论中迅速发现对方的逻辑漏洞,能在复杂的系统中,设计出最精巧的模型。他们的PRD无懈可击,他们的PPT逻辑严密。然而,他们常常陷入一个“信任的悖论”:他们的“正确”,并不能自然地转化为团队的“信服”。 同事可能会在会议上“口头同意”他们的方案,但在执行时却“阳奉阴违”;老板可能会“欣赏”他们的才华,却在最关键的项目上,选择了一个看起来“没那么聪明”,但“更让人放心”的人。 第二种,是“连接型的聪明”。这类产品经理,也许不是逻辑推演最快的那一个,但他们有一种特殊的能力。他们提出的方案,总能让工程师觉得“这是我们共同的挑战”,让设计师感到“我的创意被尊重了”,让运营看到“实现我们KPI的新希望”。他们的会议,常常以“共识”和“热情”结束。他们的项目,即便遇到困难,团队也愿意“拧成一股绳”去克服。他们身上环绕着一种无形的“气场”,我们称之为——信任。 我曾是第一种“聪明”的坚定信徒。我以为,只要我的逻辑足够强大,我的思考足够深刻,世界就理应为我让路。我将每一次沟通,都视为一次“逻辑的说服”或“真理的布道”。 直到无数次痛苦的“碰撞”——无论是与CEO那场关于“价值失焦”的对话,还是与竞争对手那场“赢了事却输了位”的暗战,抑或是在亲密关系中那次“绝对真诚”所引发的“情感海啸”——都像一面面镜子,照出了我“信任账户”的赤贫。 我痛苦地领悟到,对于一个产品经理,尤其是当你想构建个人IP、渴望用思考去影响世界时,逻辑和才华,只是入場券;而信任,才是唯一的“硬通货”。 人们愿意为你的“逻辑”付费一次(购买你的产品,采纳你的建议),但只有当他们“信任”你这个人时,他们才愿意为你这个人“持续付费”——追随你的领导,订阅你的思考,投资你的未来。 这篇长文,不是教你虚伪的“技巧”,而是我试图将“信任”这个看似模糊、感性的概念,进行一次彻底的“工程化”解构的成果。我们将不再把信任看作一种神秘的“艺术”,而是将其视为一个可以被主动设计、系统性构建、并持续运营的“产品”。 我们将一起,学习如何成为一名“信任工程师”,从0到1G(1 Gigabyte of Trust),为自己构建起那个最坚不可摧的“战略资产”。 第一章:“信任”的逆向工程——解构信任的“技术栈” 要构建信任,必先理解信任。信任不是一个单一的元素,它是一个“化合物”,由多个底层元素,按照特定的化学式,组合而成。我们可以将信任,逆向工程为一个由三个核心层级构成的“技术栈”。 信任技术栈1.0(基础层):可靠性(Reliability)——“你说到,能做到” 定义:这是信任的“物理基础”。它指的是你的行为是否可预测、你的承诺是否被兑现、你的产出是否稳定。 产品经理的“可靠性”体现: 承诺管理:你答应周五出的PRD,绝不会拖到下周一。你承诺给工程师一个明确的需求,就不会在开发中途进行“毁灭性”的变更。 质量底线:你交付的任何东西(文档、原型、项目),都必须达到一个“稳定”的质量水平。绝不能这次是“惊艳”,下次是“惊吓”。 响应一致性:团队成员知道,无论何时找到你,你都会以一种“专业”和“负责”的态度来回应,而不会因为你的“心情”或“偏好”而忽冷忽热。 如何构建“可靠性”?——SOP 1.1:建立你的“个人SLA”(服务水平协议) 1)定义你的“服务”:作为PM,你向团队提供的核心“服务”是什么?(e.g., “清晰的需求文档”、“及时的决策支持”、“有效的跨部门沟通”) 2)量化你的“承诺”:为每一项服务,制定一个可被衡量的“协议标准”。 “所有P0级需求,PRD评审后,需求变更率不超过10%。” “所有来自团队的IM问题,保证在2小时内响应,24小时内给出解决方案或明确的下一步行动。” “每周发布一次项目周报,让所有干系人信息同步。” 3)公开并执行:将你的SLA,在项目启动时,向你的核心团队“公布”。这既是对他们的承诺,也是对你自己的“公开问责”。 4)可靠性的力量:它不会让你立刻赢得“爱戴”,但它会为你赢得最基础的“尊重”。团队会知道,你是一个“靠谱”的专业人士。这是信任大厦的“地基”。 信任技术栈2.0(核心层):专业性(Competence)——“你不仅靠谱,而且牛逼” 定义:在“可靠”的基础上,你是否能持续地提供“超出预期”的“专业价值”。 产品经理的“专业性”体现: 深度洞察力:你能看到别人看不到的“问题背后的问题”。你能从一堆杂乱的用户反馈中,提炼出直指人心的“核心痛点”。 系统思考力:你能从一个孤立的功能点,看到它对整个“产品系统”和“商业飞轮”的长期影响。 前瞻视野:你能比团队更早地洞察到行业趋势和技术变革,并将其转化为“可行动”的产品机会。 如何构建“专业性”?——SOP 1.2:打造你的“洞察生产线” 高质量的“输入”:刻意地、系统性地阅读超越你当前领域的“一手信息”和“经典理论”。(e.g.,行业财报、技术论文、系统动力学、心理学原著)。 结构化的“处理”:将输入的信息,用你自己的“知识架构”(如上一篇文章所述的“个人知识图谱”)进行“重构”和“连接”。 持续的“输出”:(这是最关键的一步!)定期地、公开地,将你的思考“产品化”——写成深度文章、做成内部/外部的分享。一个无法被清晰表达的思考,是一个无效的思考。输出,不仅是在“分享”你的专业性,更是在“锤炼”和“验证”你的专业性。 专业性的力量: 它让团队对你的“追随”,从“职责所在”变成了“智力上的吸引”。工程师会因为能从你这里学到“业务逻辑”而愿意与你合作;老板会因为你能提供“战略洞察”而赋予你更大的决策权。 信任技术栈3.0(升华层):善意(Benevolence)——“我确信,你是为我好” 定义:这是信任的“化学反应层”,也是最强大、最稀缺的一层。它指的是,对方是否相信,你的行为和决策,其“根本动机”是“利他”的,是“为了我们共同的利益,甚至是优先为了我的利益”。 产品经理的“善意”体现: 对他人的“成就”负责:你不仅关心项目是否成功,你更关心与你合作的工程师,是否因为这个项目,而获得了“技术成长”和“晋升机会”;你关心设计师的创意,是否得到了充分的“尊重”和“展现”。 主动分享“功劳”,独自承担“炮火”:项目成功时,你把聚光灯打在团队成员身上;项目失败时,你第一个站出来,对老板说“这是我的责任”。 真诚的“脆弱性”(Vulnerability):你敢于在团队面前,承认自己的“无知”、“错误”和“恐惧”。你说“这个问题我也不懂,我们一起研究一下”,比你说“这个问题很简单”更能赢得人心。 如何构建“善意”?——SOP 1.3:将“利他”设计进你的工作流 召开“个人发展1v1”:定期(每月一次)与你的核心协作方(工程师、设计师等),进行一次非正式的“1v1”。这次谈话不聊项目进度,只聊一个问题:“在这个项目中,除了完成任务,你个人最想获得什么成长?我,作为PM,能如何帮助你实现这个目标?” 建立“功劳记录本”:在项目过程中,刻意地记录下每一个团队成员的“闪光点”和“关键贡献”。在项目复盘和汇报时,将这些“素材”公开地、具体地讲出来。 练习“公开的反思”:在项目遇到挫折时,主动组织一次“复盘会”(而不是“问责会”),并从“我”开始反思:“在这个问题上,我认为我作为PM,有三个地方本可以做得更好……” 善意的力量:它能构建起一种“心理安全”(Psychological Safety)的场域。在这个场域里,人们敢于说真话,敢于创新,敢于承担风险。可靠性,让人们“服从”你;专业性,让人们“佩服”你;而善意,能让人们“追随”你,哪怕是走进最艰难的战场。 结论: 信任,不是一个单一维度的概念。它是一个“乘法公式”: 信任资本 = 可靠性 x 专业性 x 善意 这三个要素,缺一不可。一个“靠谱但无能”的好人,我们无法信任他能成事;一个“能干但自私”的天才,我们更不敢将后背交给他。 第二章:“信任赤字”——产品经理在组织中最常遇到的四大“信任陷阱” 构建信任之所以如此困难,是因为在复杂的组织中,充满了各种天然的“信任陷阱”。产品经理,作为组织的“连接器”,常常是第一个掉进这些陷阱里的人。 陷阱一:信息不对称的“怀疑螺旋” 场景:你基于对市场的深度洞察,决定砍掉一个工程师们已经投入了大量心血,但数据证明没有未来的功能。 工程师的视角(信息缺失):“PM又在拍脑袋了!我们辛辛苦苦写的代码,他说不要就不要了。他根本不尊重我们的劳动!” “怀疑螺旋”的形成:你不解释 -> 工程师怀疑你的动机 -> 工程师消极怠工 -> 你觉得工程师执行力差,更加不愿意分享信息 -> 怀疑加深,信任彻底破产。 破解之道:极限的透明(Radical Candor)与上下文的同步。 召开一次“功能葬礼”:不要用一封邮件或一条IM来宣布一个功能的“死刑”。组织一次正式的会议,将你看到的“残酷数据”、你做出的“艰难决策过程”,完整地、真诚地分享给团队。 承认“沉没成本”带来的情感伤害:对团队说:“我知道这个决定让大家很难受,我们为这个功能付出的心血,我都看在眼里。砍掉它,我也很心痛。但这正是为了让我们能把宝贵的精力,投入到那个更有希望的战场上去。” 陷阱二:跨部门的“利益冲突场” 场景:你希望运营部门配合你,做一个“精细化运营”的活动,来提升用户留存(你的KPI);而运营部门,正忙于一个“简单粗暴”的拉新活动,来完成他们自己的KPI。 冲突的本质:这不是“对错”之争,而是“局部利益”与“全局利益”的冲突。 破解之道:从“请求支援”升级为“设计共赢”。 放弃“乞求”的姿态:不要说:“求求你们帮个忙吧。” 进行“利益的换算”:坐下来,拿出数据,为运营部门算一笔账:“我理解你们拉新的压力。但数据显示,我们拉来的新用户,7日留存只有10%。如果我们合作,通过这个精细化运营活动,能将新用户的留存提升到20%,那就意味着,你们同样的拉新投入,最终能产生的‘有效用户’会翻一倍。这不仅能帮助我完成留存指标,更能让你们的‘拉新效率’和‘ROI’变得更好看。我们,可以一起向老板汇报这个‘组合拳’的成功。” 陷阱三:“向上管理”的“信任真空” 场景:你兢兢业业地工作,项目进展顺利,你以为老板都看在眼里。但在晋升答辩时,老板却对你的“战略思考能力”和“领导力”表示怀疑。 “信任真空”的形成:你默认了“做好”等于“被看到”。但你的老板,同时管理着十几个项目,他没有时间,也没有义务,去“主动”发现你的所有闪光点。你不主动去填充他对你的“认知”,这个空间就会被“偏见”和“误解”所填充。 破解之道:将“向上管理”,视为一个独立的“产品”来运营。 你的老板,是你最重要的“用户”。 用户调研:去理解你的老板,他的“KPI”是什么?他最近在为什么事“烦恼”?他在公司大会上,反复强调的“战略关键词”是什么? 内容营销(周报/1v1):你的每一次汇报,都是一次向你的“用户”营销你“个人产品”的机会。不要只讲“做了什么(What)”,要讲“为什么这么做(Why)”、“学到了什么(Learning)”以及“下一步的战略思考(NextStep)”。 让他“有掌控感”:主动暴露项目中的“风险”和你的“应对计划”。一个敢于暴露问题的PM,比一个永远只报喜的PM,更让老板感到“放心”。 陷阱四:个人IP构建中的“专家陷阱” 场景: 你开始写文章、做分享,希望构建自己的个人IP。你分享了大量硬核的“干货”、复杂的“方法论”。你收获了一批“收藏”和“点赞”,但你发现,你并没有真正地“影响”到任何人。 “专家陷阱”的本质:人们敬佩“专家”,但人们信任“同路人”。 当你始终以一个高高在上的“布道者”姿态出现时,你和你的读者之间,就隔了一层“信任的玻璃墙”。 破解之道:分享你的“伤疤”,而不仅仅是你的“铠甲”。 从“How-to”升级为“How-I”:不要只写“如何做好竞品分析的五个步骤”,而是要写“一次让我颜面尽失的竞品汇报,是如何彻底改变我的分析框架的”。 展示“思考的过程”,而非“思考的结果”:在你的文章和分享中,大胆地暴露你的“困惑”、“挣扎”和“自我怀疑”。这正是你所有笔记中最宝贵的东西。当读者看到,你这个“专家”,也曾和他们一样,在同样的泥潭里打过滚时,真正的“连接”和“信任”才会发生。 第三章:“信任”的运营——一个可以被量化和增长的系统 信任不是一次性的“构建”,它是一个需要被持续“运营”和“维护”的“动态资产”。 SOP 3.1:建立你的“信任仪表盘”(Trust Dashboard) 理念: 将不可量化的“信任”,通过“代理指标”(Proxy Metrics)进行量化,从而可以被追踪和优化。 仪表盘构成: 1)团队信任指数: 主动求助次数:团队成员遇到难题时,是自己死扛,还是第一个来找你? 非正式沟通频率:除了工作,你们多久会聊一次“与工作无关”的话题? “坏消息”上报速度:当项目出现问题时,你是在问题爆发后才知道,还是在问题萌芽时就被告知? 2)上级信任指数: 授权决策空间:老板是“微观管理”你的每一个细节,还是愿意给你更大的“自主决策权”? 信息同步频率:老板是否愿意与你分享更多“敏感”的、战略层面的信息? 3)公众信任指数(个人IP): 深度互动率:(评论数+私信数)/阅读量。有多少人愿意花时间,与你的“思考”进行对话? “价值回馈”信号:有多少人会主动告诉你“你的文章/分享帮助到了我”?有多少人会为你“付费”(买你的课程,找你咨询)? SOP 3.2:设计你的“信任增长回路” 理念: 信任的增长,也可以被设计成一个“飞轮”。 一个典型的“产品经理信任飞轮”: [交付一个“小而美”的可靠成果](构建可靠性) ->这让你获得了团队的[基础信任]和下一个项目的[机会] ->[在下一个项目中,你展现了深刻的洞察和系统思考](构建专业性) ->这让你赢得了团队的[智力尊重]和老板的[更大授权] ->[在更大的项目中,你主动为团队成员赋能,并承担了关键时刻的压力](构建善意) ->这让你赢得了团队的[情感追随]和组织的[领导力认可] ->[拥有更高势能的你,能调动更多资源,去交付一个“更大”的可靠成果]->(飞轮加速,回到第1步) SOP 3.3:进行“信任压力测试”与“灾备恢复” 理念:信任,在顺境中看不出差别,在“逆境”和“冲突”中,才能见真章。 压力测试: 主动承担一个“没人愿意接”的“烂摊子”项目。 当你的团队和另一个团队发生激烈冲突时,你如何去“灭火”和“重建”。 灾备恢复:信任被破坏了怎么办? (e.g., 你做出了一个错误的决策,导致项目延期) 恢复SOP: 立刻、公开、真诚地道歉。不要找借口。 承担责任。向所有人说明,这是“我的”错误,并公布你的“补救计划”。 超额补偿。付出双倍的努力,去弥补这次失误带来的损失。 公开复盘。将这次失败,变成一次团队共同的“学习”,并建立机制,防止未来重蹈覆辙。 结语:你,就是你思想的“产品经理” 我们回到那个终极的问题:如何让别人,愿意为你的“思考”付费? 答案,早已蕴含在这篇长文的每一个角落。 他们不是在为你那段“无懈可击的逻辑”付费。 他们不是在为你那个“天才般的洞见”付费。 他们也不是在为你那句“振聋发聩的金句”付费。 他们是在为你这个人,这个由“可靠性”、“专业性”和“善意”共同构建而成的、值得信赖的“思考者”,投下他们最宝贵的一票——信任。 你的同事,用“愿意与你并肩作战”来为你付费。 你的老板,用“授予你更大的权力和资源”来为你付费。 你的读者和追随者,用他们“宝贵的时间和注意力”,甚至“真金白银”,来为你付费。 我们产品经理,终其一生,都在做一个“翻译”的工作。我们将用户的“需求”,翻译成工程师能懂的“逻辑”,翻译成设计师能懂的“体验”。 而一个“信任工程师”的终极使命,是完成一次更伟大的翻译: 将我们内在的、无形的“品格”与“善意”,翻译成外部世界能够感知到的、可被依赖的“行动”与“价值”。 这,是一条艰难的、需要用一生去践行的“知行合一”之路。这,也是我们作为产品经理,作为思考者,所能追求的,最荣耀的勋章。 那么,从今天起,请将你的“信任账户”,作为你最重要的“北极星指标”来运营吧。因为,你交付给世界的每一个产品,每一次思考,最终,都只是你这个“人”的签名。而“信任”,就是让这个签名,变得“价值连城”的唯一魔法。 本文由 @鸣老师 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Unsplash,基于CC0协议
你还在手动搬数据吗?钉钉AI表格已经让投放团队变身“分析师”了!本文带你看懂这款工具如何从底层改变数据协作方式,让运营不再只是执行,而是参与决策。如果你做投放、做运营,这篇文章值得一读。 在富媒体投放行业,几乎每个运营同学都绕不开两件事:日报和数据分析,看似是日常工作里的“基本操作”,却往往成了最耗时、最折磨人的环节。 每天一上班,第一件事就是从厂商后台导出数据,再一条条地整理到Excel:发送成功数、发送成功率、曝光率、点击率…等关键指标一个个指标搬过去不难,但真要把消息维度的数据,汇总到厂商/服务号的维度,就得花上近两个小时,更别提后续的数据分析了,更糟糕的是,这种手动操作繁琐又容易出错,口径稍有不对,就会让报表失真,在客户眼里显得“缺乏专业度”。 原本数据的价值是“驱动决策”,“数据驱动决策” 早已不是口号,但目前对我们团队而言,“数据处理” 却成了制约效率的最大瓶颈。作为深耕产品领域多年、如今扎根富媒体投放业务的产品从业者,我近期带着 “能否解决团队数据痛点” 的目标,深度体验了钉钉 AI 表格,最终见证了它如何让运营同学从 “数据搬运工” 蜕变为 “业务分析师”,也是通过钉钉AI表格,我第一次感受到:数据不该是负担,而是能被快速整理归类、自动分析、直接赋能业务的生产力,以下结合真实业务场景,分享这次体验的全流程。 在这次尝试中,我最大的感受就是:钉钉 AI 表格不只是一个“替代Excel的工具”,而是真正把数据处理和业务需求结合在了一起。 一、钉钉 AI 表格:让企业产生的数据及数据分析回归价值本身 过去,运营团队的时间常常被耗费在重复、低效又容易出错的“搬运工作”上,真正能支撑业务决策的分析却被一再推迟。钉钉 AI 表格的出现,恰好改变了这一现状。它不仅能解决数据清洗、统计的基础问题,更通过可视化、智能生成和团队协作,全面赋能运营同学,把数据重新还原成推动业务的生产力。 1. 自动化处理:繁琐工作一键完成 以往我们要花一个小时去清洗厂商后台导出的杂乱数据,现在只需把原始文件导入钉钉 AI 表格,它就能自动完成清洗、分组和统计,比如,把“消息模版”维度的数据一键汇总到“厂商/服务号”维度,原本最耗时的步骤几分钟就能完成 2.可视化能力:趋势对比一目了然 客户最关心的不是庞杂的表格,而是趋势和对比。钉钉 AI 表格可以一键生成仪表盘、折线图或柱状图。我只需一句话就能得到“最近7天曝光率趋势图”,客户打开就能立刻看懂数据走向,沟通效率大大提升。 3. 智能文本生成:日报更快更专业 日报的价值在于“分析和建议”,但这往往是运营同学最头疼的环节。现在只要选中关键指标,AI 就能生成分析结论,例如:“近三日点击率环比下降15%,可能与标题过长、发送时段固定有关,建议尝试缩短标题并测试不同时间段。” 这样的日报不仅更快生成,而且更具专业性。 4. 协作属性:团队共享唯一数据源 团队不再需要来回传 Excel、反复确认版本,而是可以在同一张钉钉 AI 表格里实时协作:数据分析师更新投放结果,运营同学补充结论,客户经理随时查看。整个团队围绕同一个“唯一数据源”工作,避免了信息孤岛。 二、钉钉 AI 表格:从零开始搭建富媒体消息投放分析模版 在日常运营中,投放日报的编制往往从“导出数据—清洗整理—手工分析”这条耗时链条开始。借助钉钉 AI 表格,完全可以把这一流程重塑为“导入数据—智能处理—可视化分析—协同共享”,不仅效率倍增,也让数据真正发挥业务价值。下面结合实际场景,用几个简单步骤带您搭建一套适配富媒体消息投放的数据汇总与分析模版。 1. 快速进入 AI 表格 在钉钉客户端,只需在顶部搜索栏输入 “AI 表格”,即可立即进入工具界面;或通过左侧导航栏的 「应用中心」,找到并点击 “AI 表格” 入口。整个过程无需额外安装或复杂配置,保证了上手的便捷性。 2. 新建或导入原始数据 钉钉 AI 表格为用户提供了两种灵活的起步方式: 新建空白表格:用户可以完全自定义列和字段,满足个性化的业务需求; 导入现有数据:支持一键导入Excel或在线表格,系统会根据原始文件自动生成对应的列结构,大大节省了字段设置的时间 此外,平台还内置了多种 推荐模版,覆盖常见的业务场景,用户无需从零开始即可快速上手。无论是全新搭建还是利用现有数据,钉钉 AI 表格都能让过程高效流畅,真正做到“开箱即用” 3. 一键清洗与分组 第一步:导入线下的Excel表格 过去运营同学需要手动在本地Excel中反复拷贝、整理,费时费力。现在只需将线下的Excel表格一键导入钉钉AI表格,系统会自动完整呈现原始数据。 同时还能在左上角直接命名表格,方便多人协作与快速定位,大幅提升团队的数据管理效率。 第二步:建立表格视图 在实际场景中,我们往往需要把“消息”维度的数据快速聚合到“厂商/服务号”维度。以往要人工透视、筛选,常常要花费一到两个小时。 而在钉钉AI表格里,只需点击 分组 → 选择厂商 → 添加分组条件 → 选择服务号,短短两三秒即可完成。 钉钉AI表格的价值在这里尤为突出: 高效归类:自动完成复杂分组与聚合,效率提升数十倍; 一目了然:支持数据分组收缩,领导或同事查看时,可快速聚焦到核心指标,而无需在冗余表格里反复翻找; 减少错误:避免人工透视、复制粘贴中常见的纰漏,保证报表的准确性。 这一步,真正实现了从“机械劳动”到“智能处理”的转变,让运营从繁琐的数据搬运中解放出来,把时间投入到更有价值的分析与决策中。 4. 构建钉钉AI可视化仪表盘 在富媒体消息投放的复盘过程中,单一的数字表格往往很难回答几个关键问题:投放效果到底有没有提升?哪个渠道或服务号的表现更优?问题究竟出在哪个环节? 钉钉AI表格的可视化仪表盘,正好帮我们解决了这些痛点。只需在表格顶部点击【应用】进入仪表盘,系统会自动根据数据字段生成合适的图表,比如: 不同厂商的发送成功数对比柱状图 服务号的点击率/曝光率趋势折线图 这些推荐图表几乎不需要额外配置,就能立刻把枯燥的表格变成一眼可读的趋势。 同时,仪表盘还支持自由定制。比如团队最关注的是“发送成功数”,就可以将折线图设置在首页;若想快速发现哪个渠道效率更高,可以再添加“发送成功数对比图”。 最终生成的仪表盘不仅能在日常看板里使用,还能一键导出成图片或嵌入到PPT,直接用于汇报。相比过去手动绘制图表的方式,既省时间,又更直观专业。 价值在于:钉钉AI表格帮助团队把复杂的投放数据转化为趋势图与业务洞察,让领导和同事都能一眼抓住重点。 5. 打造团队协同的新范式 数据的真正价值,不在于存放在某个文件夹里,而是在团队之间被充分共享和使用。钉钉 AI 表格的独特之处,就在于它不仅是一个表格工具,而是一个把数据、协作和执行串联起来的智能工作台。 过去做富媒体消息投放时,我们常遇到这样的困扰: 数据在表格里,却要靠截图或邮件发来发去; 沟通在群聊里,关键结论常常被刷屏淹没; 任务在笔记里,和数据完全脱节,导致复盘困难。 而现在,钉钉 AI 表格让这些割裂的环节被彻底打通,形成一个从数据输入到决策落地的闭环。 1)多人实时共建:零延迟、无版本冲突 以前如果几位同事同时编辑一份数据日报,总是要担心数据被覆盖、文件版本混乱。钉钉 AI 表格支持多人同时在线操作,所有改动实时同步,团队成员在不同位置也能看到最新进展,不再需要“日报最终版V10086”的尴尬文件名。 2)灵活权限管理:信息安全又高效 针对不同角色,系统可以设置差异化权限。比如: 运营同学:只能编辑自己负责的服务号投放数据; 小组长:可以汇总全局并补充洞察; 领导层:则能直观查看仪表盘,但无需触碰底层数据。 这样既保证了信息安全,又确保每个人都能在自己职责范围内高效完成工作。 最终效果是:日报不再是某个同事的“孤岛任务”,而是整个团队在同一份智能表格上的实时协同产物。沟通、分析、任务和结论全部沉淀在一起,富媒体消息投放的复盘效率被大幅提升。 三、总结:钉钉AI 表格的价值,不止于表格 好的工具,是“业务价值的放大器”。作为一名产品经理,我始终认为,工具的意义不仅在于解决眼前的痛点,更在于 重构业务流程、提升整体竞争力。钉钉 AI 表格的体验让我深刻感受到:它不是简单的“Excel 升级版”,而是覆盖 数据处理—分析—协作—决策 全链路的 AI 赋能工具。 战略层面:数据从“负担”变为“资产” 过去富媒体投放的数据往往沉淀在报表里,难以产生持续价值。钉钉 AI 表格让企业能快速搭建标准化的数据资产池,并通过 AI 自动生成趋势、洞察和分析建议,把零散的数据转化为可驱动决策的情报,帮助企业从“经验驱动”升级为“数据驱动”。 管理层面:团队效率跃升,协同成本大幅降低 管理者不再需要催报表、盯日报,而是随时在仪表盘上看到关键指标的趋势和异常。团队所有人围绕同一份“唯一数据源”协同工作,省去了合并 Excel、反复确认口径的低效环节。这样不仅提升了管理透明度,还让决策更快、更准确。 执行层面:运营角色升级,专业感全面提升 过去,运营同学在日报制作上更多是“数据搬运工”。现在借助 AI 表格,他们可以一键清洗、自动分组、快速生成可视化图表,甚至让 AI 代写分析和建议,把时间真正用在业务思考上。日报不再只是“完成任务”,而是变成展示专业度和创造价值的重要抓手。 归根到底,钉钉 AI 表格让富媒体投放团队实现了角色的转变: 从个人手动劳动到AI辅助决策; 从低效重复工作到高效团队协同; 从数据堆积到价值释放。 它让企业产生的数据真正流动起来,真正服务于增长,真正成为业务最可靠的生产力,数据本不该是负担,而应成为推动业务持续进化的引擎,而钉钉 AI 表格,正是这台引擎最核心的驱动力。 本文由 @Allen 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Unsplash,基于CC0协议
在AI视频生成领域,Google的Veo3.1和OpenAI的Sora2成为了两大热门模型。两者都致力于生成高质量的音画同步视频,但各有优势。本文通过一系列详细的测试,对比了这两个模型在不同场景下的表现。 你好,我是袋鼠帝。 前两天,Google发布了他们最新的视频模型Veo3.1。 我感觉,这就是冲着前段时间OpenAI刚刚发布的S2来的,想狙击S2,扳回一城。 毕竟,在S2出来之前,Veo3基本上就是音画同步领域的AI视频生成老大哥。 但离谱的是,当天我还没来得及去研究怎么申请Google Veo3.1的内测,就发现,lovart.ai,居然在Google官方都还没有正式发布之前,就已经把Veo3.1给接入了。 这速度,有点超前了。 然后我的AI视频交流群里,这两天大家都玩嗨了。 各种用S2和Veo3.1做的有趣视频满天飞,脑洞大到我自愧不如。不得不说,在AI时代,工具只是门槛,想象力才是生产力啊。 不得不说,Lovart最近的更新,实在是有点猛。 从之前的NanoBanana、Seedream4.0,再到S2,几乎每一次有新的视觉创作类模型发布,Lovart都是第一时间同步上线,甚至超前上线,每次都还带有各种免费活动。 这次的Veo3.1也不例外,而且还挺有诚意 10月20号前可以免费体验Veo3.1(不过次数有限) 然后10月23号前订Basic或以上的年费,可以在一个月内无限使用Veo3.1和S2 之前订了Basic年费,这个月可以随便用S2和Veo3.1 我是因为做AI博主,还挺需要这样一个一站式设计类Agent平台的,不用来回切换 各平台,甚至一些新模型还可以早于官方抢先体验,对我来说是值得的。 生图、生视频成本就比较高,所以也不算便宜,根据自己的需求来选择。 正好,我也特别想知道,Veo3.1效果怎么样,以及这两个新出的原生音画同步AI视频模型(S2和Veo3.1),到底孰强孰弱。 虽然目前已经有一些博主写了测评对比(貌似大多数朋友觉得S2更强),但是作为一个善于独立思考的成年人,我更愿意自己实践之后得出答案。 另外,Lovart这个平台,生成的视频,清晰度高,也没有水印。 这也是我看重的点 好了,话不多说,直接开整。 Sora2 vs Veo3.1 为了让这场对决公平,同时足够有挑战性,我设计了几个不同维度的场景,并且会用完全相同的Prompt,来测试它们。 >/ 1.海上低空飞行,谁的物理学得更好? 这是最能考验模型对物理世界、空间感和运镜逻辑理解的场景。 Prompt:An ultra-low angle, wide, mid-close-up tracking shot. The camera glides smoothly and rapidly just inches above the ground, creating a strong sense of speed and perspective depth with dynamic motion blur. Dominating the frame is the back of a girl with blond long hair wearing a yellow raincoat and boots. Their body is stretched out horizontally, parallel to the ground, as if super-human-flying or suspended in the air. She are gliding low and smoothly forward, casting a clear, sharp shadow directly below. The background is a vast, beautiful ocean with crashing waves and misty horizon. The sky above is a vibrant blue, filled with large, fluffy white clouds. The overall image is hyper-realistic and captures a sense of exhilarating, dream-like motion 这是Veo3.1生成的视频下面是S2的表现 说实话,这一轮两个模型生成的效果,都挺棒的。 Veo3.1的光影会动态变化,而且撞到海浪之后的反应非常真实,音效也很棒。 S2的飞得太快了,有点像一颗导弹,不过整体还算真实,特别是浪花打到镜头,镜头会摇晃,还会模糊。 这一轮我感觉,差不多,硬要我选的话,我应该会选Veo3.1生成的,画面声音都更统一和自然。 你选哪个呢? >/ 2.创意开箱视频 先来看一个城市开箱视频 灵感来自海外博主@AltSociety AI 这个视频考验的是模型对宏大城市场景的构建能力,以及在视觉上的冲击力 Prompt: base_style: “cinematic, photorealistic, 4K” aspect_ratio: “16:9” city_description: “A vast, empty urban plaza at dawn, ground level view with concrete pavement stretching into the mist.” camera_setup: “A single, fixed, wide-angle shot. The camera holds its position for the entire 8-second duration.” key_elements: – “A sealed steel shipping container stamped with ‘SHANGHAI’ in bold letters” assembled_elements: – “Iconic Shanghai skyscrapers (e.g., Oriental Pearl TV Tower, Shanghai Tower, Jin Mao Tower)” – “The historic Bund architectural complex extending into frame” – “Rows of white taxi cabs (or ride-hailing cars) lined up along a street” – “Classic street lamps and traffic lights” – “Subway entrance staircase with Shanghai Metro sign” – “Silhouette of the Oriental Pearl TV Tower’s spheres” – “Traditional pavilions and structures of Yu Garden emerging in the background” – “Water towers perched on rooftop structures (characteristic of old Shanghai)” – “Billboard frames and neon signs” – “Street food stalls and bustling crowds” negative_prompts: [“no text overlays”, “no overt graphics”] timeline: sequence: 1 timestamp: “00:00-00:01” action: “In the center of the barren plaza sits the sealed SHANGHAI container. It begins to tremble as light fog swirls around it.” audio: “Deep, resonant rumble echoing across empty concrete.” sequence: 2 timestamp: “00:01-00:02” action: “The container’s steel doors burst open outward, releasing a spray of mist and loose rivets.” audio: “Sharp metallic clang, followed by hissing steam.” sequence: 3 timestamp: “00:02-00:06” action: “Hyper-lapse: From the fixed vantage, city elements rocket out of the container and lock into place—steel beams rise, glass facades snap on, bridges span into view, and white taxis line up automatically.” audio: “A rapid sequence of ASMR city-building sounds: metal clanks, glass sliding, cables snapping, engines revving softly.” sequence: 4 timestamp: “00:06-00:08” action: “The final element—a single white taxi—glides forward and parks beside the newfound curb. All motion freezes as morning light bathes the fully formed Shanghai cityscape.” audio: “A soft engine cut-off ‘chug,’ then the distant hum of awakening city traffic, fading into serene dawn silence.” Veo3.1是细节狂魔。它生成的画面非常震撼,一个爆炸之后,镜头由近及远,万丈高楼拔地起,音效也很到位,相当nice~ 而S2,这次的发挥就有点差强人意了,没有Veo3.1给的画面冲击力强,音效也稍差一点点,镜头也没有移动。这把我选Veo3.1。再来看一个,热带雨林开箱视频(是json格式的Prompt,来自海外博主@proper) Prompt: {“description”: “Cinematic shot of a plain, white-walled room with no furniture. A sealed cardboard box labeled ‘example’ sits at the center. The box begins to tremble, then bursts open rapidly with energy releasing the jungle. From inside, many jungle elements spread quickly taking over the room, emerging: vines stretch across the floor and curl up the walls, tropical plants sprout rapidly, and moss spreads. The sterile room is now overtaken by vibrant, untamed jungle growth, yet small parts of the walls and ceiling remain visible. A tiger walks into the scene and looks around and lays down.”, “style”: “cinematic”, “camera”: “fixed wide angle”, “lighting”: “soft neutral indoor light”, “room”: “empty white room”, “elements”: [ “cardboard box with ‘example'”, “vines decorating walls”, “ferns and large leaves”, “moss growing along the floor edges”, “small monkey hanging from vine”, “jungle plants sprouting from corners” ], “motion”: “box opens slowly, jungle elements animate out naturally and decorate the room over time”, “ending”: “the white room remains visible but is now wildly decorated with lush jungle life”, “text”: “none”, “keywords”: [ “16:9”, “jungle interior”, “box reveal”, “no text”, “natural elements” ]} 由于公众号一篇文章上传的视频有限制(限制10条视频),所以我把Veo3.1和S2生成的两个视频合并了说实话,这种带有创意,画面冲击力的视频还是Veo3.1做得更胜一筹 >/ 3:图生视频,测试一致性和真实感 接下来,我们上点难度,玩个多步骤的。 先图生图,再图生视频,考验一下模型的二次创作和主体一致性能力。 Lovart已经集成了全系列生图模型(包含NanoBanana,seedream4.0等),用来做视频分镜、风格参考、视觉铺陈都超方便 我先找了一张人物的照片,然后让她穿上一套我指定的衣服,再去逛街。 第一步Prompt(图生图): 使用seedream4.0模型,让图一模特穿上图二的所有装扮,走在街上,高质量iPhone图片,写实风格 第二步Prompt(图生视频): 分别使用veo3.1和Saro2模型,让图中的人物带着耳机在街上漫步,背景是人群和有趣的商店。 氛围: 快乐、无忧无虑、充满自信。 不过画布方式生成的视频,有个小问题:没有标注来源(也就是我不知道这两个视频,哪个是Veo3.1生成的,哪个是S2生成的。。。) 留给大家来破案 >/ 4:第一人称视角互动 这个视频考验的是模型对镜头的理解,以及与镜头互动的能力。 女人带着耳机在一个充满活力的城市街头或步行街上,背景是人群和有趣的商店。她正拿着相机拍摄一段第一人称视角的自拍视频,她对着镜头开心地微笑,随着音乐跳舞,并比出V字手势。 视频的风格和镜头要求: 视频风格: 潮流、现代、充满活力,具有复古胶片质感。 画质: 高清,色彩饱和度高,天空和背景可以有轻微的梦幻或艺术化色彩。 镜头: 手持自拍视角(POV),镜头有自然的晃动感,中景镜头,聚焦于人物的面部表情和上半身动作。 氛围: 快乐、无忧无虑、充满自信。 这个场景,S2可以说是完胜。 Veo3.1生成的人物,虽然动作也很丰富,但是总感觉一眼假,不够真实。 而S2生成的人物,她的眼神是活的。你能清楚地感觉到,她是在看着你,在跟你交流,非常真实。 她眨眼睛,笑容,都充满了互动感。 >/ 5.生成ASMR视频 ASMR 是自发性知觉经络反应的英文缩写,通过特定感官刺激引发的一种愉悦、放松的身体感受,表现为头皮、后颈或背部的酥麻感,并可能伴随平静、困倦的情绪。 ASMR视频的Prompt可以让AI帮忙生成。 用S2和Veo3.1一共生成了6个ASMR的视频(各3个),组合成了一个长视频,希望能帮助你放松一刻,缓解疲劳~ 不得不说,我觉得ASMR这块,还得是Veo3.1,毕竟这是它的老本行,而且从这个视频来看,我发现Sora老是喜欢加一些背景音乐。生成的音效,总体上来说是没有Veo3.1精准的。 >/ 6.从分镜到动漫 最后,我们来看一下在Lovart平台上的动漫玩法。 可以先用AI生成分镜Prompt 然后通过Prompt,用Seedream4.0生成几张分镜脚本的小漫画,最后用Veo3.1、S2图生视频,把生成的视频串成一个动漫短片Demo。 这个过程其实还是需要抽卡的,但是Lovart有个好处是可以批量生成,每个分镜可以批量生成一批最后选择其中效果最好的,节省抽卡时间。 最终把多个连贯分镜的视频导入剪映,做出来的demo如下 两个模型在这个任务上,都表现得还不错。 它们都能理解分镜之间的逻辑关系,生成连贯的动画。 但是我发现S2生成的视频,人物说话更自然,甚至自带字幕… Veo3.1的视频,人物说话有点奇怪,不过Veo3.1的优点是场景中各种音效非常贴合,比如叹气、衣服碰到的摩擦声等等。 「最后」 经过多轮体验,我对S2和Veo3.1的感受,越来越清晰。 我觉得它们之间,没有绝对的孰强孰弱,只不过有各自擅长的领域,也有各自的缺点。 S2,在人物生成上更稳定,生成的视频更加真实,在语音上(不管是讲中文,还是英语效果都很棒)。 Veo3.1,则在各种视觉冲击和场景音效上更甚一筹。 所以我觉得,都可以用,不过是分场景和需求,甚至可以混搭着用。 像S2、Veo3.1、NanoBanana、seedream4.0等等 这些顶级的AI模型,就像是A5和牛,蓝鳍金枪鱼等各种各样的顶级食材。 lovart.ai像是一个米其林星级的厨房。不仅备齐了几乎所有顶级食材,还为你准备好了最锋利的刀具,和能让你自由挥洒创意的巨大操作台。 它把模型的原始能力,产品化成了我们普通人也能轻松上手,并且能玩出花样的友好体验。 平台的竞争,最终,一定是工作流的竞争,是体验、是生态的竞争。 Lovart,在这条路上,走的不错。 能看到这里的都是凤毛麟角的存在! 本文由人人都是产品经理作者【null】,微信公众号:【袋鼠帝AI客栈】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
AI不只是写文案,它还能帮你做增长!本文带你看懂B端运营的两大AI应用方向:从“智能创作”到“GEO增长”,到底怎么落地?如果你在做内容、做运营、做增长,这篇文章可能会刷新你的认知。 “AI会淘汰不会使用AI的员工。” 这句让许多职场人感到焦虑的话,正被不少企业管理者奉为圭臬。 甚至有朋友分享,面试时提到“精通搭建AI工作流”,能多聊半小时。 作为专业B端运营,如果AI工具真能为工作带来实质帮助,积极学习并运用,才是我们应有的态度。 接下来,我将结合自己的实践经验,聊聊AI在内容创作和引流增长中的应用。不得不说,AI正为B端运营带来一系列值得关注的新变化。 以下内容多为个人观点,希望能为从事B端运营的同学提供一些参考和启发,也欢迎大家在留言区交流想法! AI让B端运营更聚焦“运营” AI 写文章快、语句通顺,视频与图片也能一键生成,简直是企业需要的“完美内容生产工具”。 过去,B端运营往往需要投入大量时间在内容创作上,内容生产能力一度被视为核心竞争力。 而随着 AI时代到来,这一核心竞争力不复存在。 一篇公众号文案,DeepSeek 几分钟就能完成;十几篇小红书笔记,豆包不仅能迅速生成,还能自动配上表情。 在内容生产速度上,AI 更胜一筹。 但这真的是坏消息吗? 不,对真正的B端运营来说,这其实是一个好消息。 B端运营终于可以从基础内容生产中解放出来,将更多精力投入到真正的运营工作中。 举个例子,假如你希望针对不同用户群体开展专题内容引流,但个人内容产出能力有限,过去可能因为内容跟不上运营节奏,导致效果平平,甚至半途而废。 而现在,只要善用提示词,AI就能批量生成针对不同用户群体的内容。运营人员只需进行优化和调整,就能快速开展引流测试。以往难以落地的运营策略,如今可以轻松实现。 再比如,当你需要对大量运营数据进行分析,却不擅长使用Excel,每次整理数据都耗费大量时间,导致运营决策滞后。 如今,你只需将数据表导入AI,设定分析维度,AI就能生成满足大多数需求的分析报告。你可以据此迅速优化运营动作,提升效率。 AI 正推动 B 端运营的核心竞争力发生转变——从高替代性的“工具人”,进化成真正会运营的“运营人”。 需要提醒的是:B端运营应将 AI 视为内容创作助手,而非内容搬运的工具,切忌沦为“CV工程师”。 以下是一个基础的AI辅助创作流程示例,以撰写公众号文章为例,供参考: 熟练掌握这一流程后,你就能快速生成一篇符合选题思路、语句通顺的文章,大大节省优化时间。 当然,你不必完全照搬这个流程,完全可以建立适合自己的AI内容生产工作流。但请一定记住:不要让AI深度思考代替你的深度思考。 GEO:一个值得探索的增长方向 内容创作聊完,我们再来看增长。 近期我们针对公司某款 APP 做了用户调研,发现竟有 30% 的用户来自“豆包”。 运营团队顿时振奋起来,围绕“生成引擎优化”(简称 GEO)展开讨论。 有人认为没必要专门做,毕竟 AI 算法与检索规则持续迭代,投入产出不稳定。 也有人提出 AI 正颠覆传统搜索,这本身就是流量巨大的免费推广渠道,应该积极布局。 最终后者赢了,毕竟白嫖的流量不要白不要。 在当前阶段,GEO确实是B端运营值得投入探索的方向。 基于实践经验,分享三个可思考的方向: 关注主流AI的检索规则 每个AI平台的内容检索规则皆不同,例如,DeepSeek偏好高权重新闻门户,豆包倾向头条系内容,文心一言则更青睐百度系内容。 举一个实际案例: 我们在进行某 APP 的 GEO 优化时,发现某 AI 对第三方软件园的收录权重极高,其中一些小众 APP 在回答中出现的概率超过 90%。基于这一发现,我们迅速将 APP 上架至多个第三方软件园。 数据证明这一策略是有效的:当月APP下载量上涨5%,用户调研中通过AI知晓APP的比例也明显提升。 不过,AI的检索规则并非一成不变。如今再搜索同一问题,该AI对软件园的收录权重已下降,更倾向于权威门户。 研究AI检索偏好可在短期内实现引流效果,但很难一劳永逸。 内容要“对 AI 友好” 渠道研究固然重要,内容本身更为关键。 很多人将 GEO 简单理解为“新版 SEO”,但二者存在本质区别。 传统 SEO 侧重热门关键词,而 AI 主导的 GEO 更看重整体内容质量。 流水账或口水文,即便堆砌关键词,AI 也可能不予收录,因为这类内容对AI毫无价值。 关于GEO和SEO的区别分析的文章有很多,感兴趣的可以去网上搜索查看,在这就不赘述了。 根据众多创作者实测反馈,AI 偏好以下两类内容: 结构化内容 AI 生成的内容本身就具有结构化特征,因此也更偏好此类形式。创作时应合理运用标题、副标题划分层次、突出重点,便于 AI 快速理解内容逻辑与关键信息,提升检索概率。 场景化内容 场景化内容侧重于长尾关键词,便于 AI 理解用户的复杂意图。例如,用户不会只搜“鼠标”,通常会加入使用场景,提问“适合在公司办公的鼠标有哪些”。 在创建内容时,学会围绕用户使用场景进行营销,目前很多人采用 PCOE 法则 ,简单来说就是: Problem(问题:场景痛点):明确用户具体需求; Comparison(比较:对比分析):提供同类产品功能对比; Evidence(证据:实证支持):引用权威数据或案例; Outcome(结果:解决方案):给出明确推荐; 实测表明,这类内容创作难度不高,GEO表现较好。 适度付费推广权威渠道 GEO 的火热,让从事媒体投放的公司小赚一笔。 不少投放渠道已经推出“GEO优化一站式解决方案”,专门去了解和测试了一下,从结果来看,确实有一定效果,AI对权威媒体还是有偏爱的。 B端运营在推广中可适当投放权威信源,提升 AI 检索概率,提醒一点:注意筛选媒体真实权重,10个腰部媒体的性价比可能比1个头部媒体要高得多。 写在最后 有时候不禁感慨, AI 工具正让 B 端运营从“基础执行者”成长为“超级运营者”。 当新技术来临,不必抗拒,而应主动拥抱。当你真正了解并学习 AI,会发现它其实很有趣。 多种 AI 工具的组合使用,不仅能解决工作与生活中的难题,甚至还能帮你开拓副业。 今天就聊到这里。如果你有任何想法,欢迎在留言区分享,我们一起进步! 最后,愿我们始终保持思考,一骑绝尘,再会! 本文由 @三水一点艮 原创发布于人人都是产品经理。未经许可,禁止转载 题图来自 Unsplash,基于 CC0 协议 该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
谷歌终止隐私沙盒计划的决定,标志着数字广告生态的一次重大转向。本文将从技术演进、平台博弈与行业共识三重视角,剖析这一变动背后的深层逻辑,并探讨它对开放互联网、用户隐私与广告价值链的长期影响。 10月17日,谷歌副总裁安东尼·查韦斯在该项目网站上的最新消息中宣布:“在评估了行业对其预期价值的反馈,并考虑到其采用率较低后,我们决定停用以下隐私沙盒技术:Topics、Protected Audiences(PAAPI)、Attribution Reporting、Private Aggregation 等十余项核心技术。 《ADWEEK》报道,一位谷歌内部人士向其证实,谷歌不仅会终止这些技术,还会彻底终止整个项目。 同一天,英国竞争与市场管理局(CMA)也宣布,谷歌无需继续履行其针对隐私沙盒(Privacy Sandbox)的监管承诺。该承诺原用于限制谷歌在淘汰第三方Cookie过程中的潜在垄断行为。但随着谷歌在2024年中放弃弃用Cookie的原计划,这一监管框架被认为“失去了适用基础”,最终由CMA主动解除。 隐私沙盒的历史,确实是命途多舛。 从2019年的启动到2025年的结束,谷歌几乎每年都要更新一次时间表,而每一次更新,几乎都以一句话结尾:“我们需要更多时间。” 第一次推迟是在2021年。谷歌原计划在2022年废除第三方Cookie,但后来表示整个行业还没有准备好,需要更长的测试周期,决定延期至2023年。 2022年,英国的竞争与市场管理局(CMA)正式介入,提出监管意见。 2023年,谷歌再次更新进展,说还在“广泛收集反馈”,于是时间线又向后推了一年,目标变成了2024年下半年。 但到了2024、2025年,整个行业对沙盒的态度已经非常冷淡。谷歌在今年一季度的反馈报告中承认:“大型公司采用迟缓,测试启动受限。” 到了2025年10月,谷歌终于亲手拆除了它自己一手打造的系统。 这个曾经被寄予“重塑广告隐私标准”厚望的项目,就此结束,也标志着互联网广告隐私改革的一个时代终结。 隐私沙盒的诞生 时间回到2019年,当时的谷歌正处在一个非常关键的节点。 在此之前,互联网上的广告几乎都靠第三方Cookie来追踪用户行为。 广告商通过它可以知道用户访问了哪些网站、买过什么东西,然后给用户推送“精准广告”。 这种方式虽然让广告更有效,但也带来了严重的隐私问题:用户的上网轨迹几乎是“裸奔”的。 于是各国监管机构开始施压,要求浏览器厂商必须限制追踪。隐私监管的浪潮席卷全球——GDPR在欧洲全面落地,美国加州的CCPA法案生效,数据保护的合规成本开始上升。 苹果率先发动了“隐私革命”,在Safari浏览器中默认屏蔽第三方Cookie,并在2021年通过App Tracking Transparency(ATT)彻底改变了移动广告业的生态,Firefox也紧随其后。 谷歌的Chrome作为全球最大的浏览器,如果直接照做,广告收入(它的命脉)就会受到巨大冲击。 所以谷歌没有选择“硬砍Cookie”, 而是提出了一个折中方案——在保护用户隐私的同时,还能让广告主、网站和开发者继续正常运转,并且让所有方案都“可被监管、可被验证”,重构整个广告追踪逻辑。 这个方案就是Privacy Sandbox(隐私沙盒)。 它的核心思路可以简单理解为:不再让用户的数据在网站之间流转,而是把广告需要的数据处理流程全部搬到浏览器本地。 过去是广告平台来识别用户、追踪你、分析你;现在变成了浏览器自己来判断你感兴趣什么、该给你投放什么广告,然后只把“模糊的、不可识别的”结果发给外部。 比如说,以前广告商想知道你喜欢什么,是靠在不同网站上放追踪器。你一边刷旅游网站、一边看数码产品,那些广告平台就能悄悄拼出一张你的“兴趣画像”。 在隐私沙盒的场景下,谷歌试图让这件事只发生在Chrome的本地。 浏览器每隔一段时间,会在你设备上生成几个大概的“兴趣标签”,比如科技、运动、美食、旅行。当你访问某个网站需要加载广告时,浏览器只会告诉广告系统这些“主题”,而不是暴露你具体访问过哪些页面。这就是隐私沙盒中Topics API的基本逻辑——用户只是被分类,但并不被识别。 再比如,你经常会有这个经历:在某个购物网站看了一双鞋,结果几天内在各个地方都看到这双鞋。这叫“再营销”。传统做法是:广告商通过Cookie记录下你访问过某个商品,然后在各个页面继续向你展示。 隐私沙盒的做法,是让浏览器自己记住你曾经看过什么商品,然后当你再次浏览网页的时候,广告匹配过程不再跑在广告平台的服务器上,而是直接在你的设备本地完成。 浏览器会替你“参与竞价”,广告平台拿到的结果是展示哪条广告,而不是你点过哪个商品。这就是所谓的“受保护受众”,也就是PAAPI,目的是让广告商精准,但看不到你。 还有一些更底层的机制,专门用来防止绕过沙盒的“投机行为”。比如有些网站会偷偷埋像素追踪、用iframe或脚本实现看不见的数据抓取,还有指纹识别这种“看一眼你设备信息就能认出你”的方法。 为此,谷歌提出了Fenced Frames、Shared Storage等机制,把这些潜在的“侧漏路径”封闭起来,尽量让所有数据都只能在浏览器内部运转,不能悄悄带出。 这也是沙盒之所以被称为“沙盒”的理由——就像一个密封的实验箱,数据只能在里面用,不能随便出去。 整套隐私沙盒的技术设计,都是围绕一个核心转变展开的:不让数据离开用户的设备,而是让广告相关的计算过程本地化、封闭化。 用户的兴趣、点击、行为、转化都“留在原地”,广告系统只能拿到结果,而不是过程。 这听起来很美,也很先进,但实际落地却面临种种困难。 6年的拖延 这几年里,谷歌的官方博客中出现过无数次“进展更新”,但每一次“进展”,其实都意味着又一次妥协。 Topics API被简化;Attribution Reporting被弱化;Protected Audiences被重命名;Private Aggregation永远停留在“测试中”。 到最后,隐私沙盒已经不是一个体系,而是一堆无法拼合的碎片。 拖延的背后,是一种进退两难:谷歌既是世界上最大的广告卖家,又是浏览器与移动操作系统的守门人。它一手握着隐私的标准,一手控制着广告的入口。任何“保护隐私”的改革,最终都会回到一个核心问题——谷歌愿意牺牲多少利润来换取信任? 市场给出的答案是:不多。 从技术层面看,隐私沙盒的试验结果并不理想。广告主抱怨归因误差太大,出版商发现竞价收入显著下降,而独立广告技术公司根本无法稳定调用接口。相比之下,传统的第三方Cookie虽然“肮脏”,但好用。 以Index Exchange为例,其在100多家出版商、数千个域名和10家DSP参与的实验中发现:启用了隐私沙盒API的展示,其每千次展示收入(CPM)比使用传统第三方Cookie的展示低了约33%。而如果既无Cookie也无沙盒支持,则下降幅度达36%。 另一家机构Criteo的测试结果指出:如果立刻完全弃用第三方Cookie并依赖沙盒替代,媒体方收入可能减少约60%。 简言之:沙盒在当前形态下,并没有接近“可替代Cookie”的角色,它的运行状态更像是一个尚在试验中的备用方案,而非成熟可投入的系统。 更大的难题在于,隐私沙盒的成功前提,是整个广告生态的协同共建。这不仅需要谷歌自己的团队开发API和浏览器底层支持,还需要DSP、SSP、第三方测量公司、再营销工具、归因平台等角色,迁移到这套全新机制中来。 但现实是,这套系统既复杂、又昂贵,而且缺乏直接收益。 根据digiday在去年7月份一份报道,一些广告技术供应商正在退出谷歌的隐私沙盒。 据报道,一家中型广告技术公司如果想要完整对接谷歌的隐私沙盒项目,开发成本可能高达1000万美元,还里面还有机会成本,要牺牲原有产品的资源与迭代节奏。即使谷歌提供的补贴高达500万美元,对于大多数公司来说也只是杯水车薪,更别提这笔资金往往附带条件。 一位广告技术公司负责人在私下对媒体《Digiday》说:“大家之所以还在参与,是因为拿了谷歌的钱。否则,没有人会在没有明确监管结果的情况下,把几千个开发日时押进去。” 广告技术公司不会因为道义或者愿景而投入开发,除非能看见可验证的回报路径——但沙盒系统从一开始,就很难提供这样的路径。它是谷歌提出的解决方案,却要求整个生态买单。 最终的结果是:沙盒从技术理想,变成了治理孤岛。本该开放共建的标准体系,逐渐演化成谷歌一家的实验场,而生态里的其他参与者,不是裹挟其中,就是选择退场。 监管者的撤退 关于隐私沙盒,还有一个重要的参与者——监管者。 五年前,最早对隐私沙盒亮出红牌的,不是欧盟,也不是美国,而是英国。 英国竞争与市场管理局(CMA)是第一个正式对谷歌隐私沙盒计划展开竞争审查的监管机构。早在2021年,CMA就对“弃用第三方Cookie、以隐私沙盒替代”的行为发起调查。 到了2022年,CMA更是迫使谷歌签署具有法律约束力的承诺。按照该承诺,谷歌同意在推进Sandbox关键变更前与CMA及ICO协作,公示测试结果,并确保其Sandbox设计不会自我优待其广告业务。此外,若谷歌计划弃用第三方Cookie,须在CMA支持其行动的前提下进行。 CMA启动的是一种罕见的前置监管机制,直接嵌入了谷歌产品的开发流程。 在CMA的判断逻辑中,Chrome作为浏览器市场的绝对主导者,而谷歌又掌控了全球大部分数字广告的交易基础设施。如果让这样一个“双重角色”的科技巨头自行制定“隐私标准”,无异于既当运动员、又做裁判。 这正是CMA推出“边开发、边审查”机制的原因:谷歌每推进一项隐私沙盒的API,不仅要对外披露完整的技术细节,还必须接受独立评估,并获得CMA的批准,才能继续部署。 CMA的“单点监管”,具有全球范围的“模板效应”。谷歌作为全球公司,一旦在英国设立了先例,其他市场——尤其是欧盟、美国——极可能直接套用这套机制,形成“外溢式监管”。 而在英国脱欧后,其对数据主权的强调更强,CMA也更有动力将自己打造为“数据治理新秩序的试验田”。 对谷歌而言,CMA是其隐私沙盒计划能否获得全球监管合法性背书的关键一环。一旦赢得CMA的认同,谷歌就有望在其他国家推动更宽松、更接近其设计初衷的技术方案,进而主导未来的广告隐私规则。 不过,随着时间推移,CMA也力不从心了。 监管者发现,这场名为“隐私沙盒”的技术实验,远远超出了最初设想的范围。隐私沙盒并不是一种简单的追踪替代方案,而是一整套横跨浏览器(Chrome)、操作系统(Android)、广告竞价平台、开发工具与SDK体系的复杂结构。 换言之,要监管隐私沙盒,就意味着要监管整个网络广告生态架构。 CMA在其2024年报告中明确指出,它已经“持续与谷歌就沙盒工具的设计、测试与行业影响开展接触”——但也坦承,对这些工具的广泛测试、跨参与方的整合、竞价机制的模拟以及可能的结构性影响,监管所面临的难度“极具挑战性”。 到了2024年夏天,当谷歌宣布不再按原计划废除第三方Cookie、推迟隐私沙盒上线时,英国CMA原本介入的法律与监管依据就不复存在了。 CMA的监管本是基于,如果谷歌一刀切Cookie,替换成它自建的隐私沙盒,可能会改变整个广告生态的权力分布,其他广告技术公司将失去跨站追踪的手段,谷歌却保留全部优势。 而如今,谷歌不再推进这一转变,“规则改变”这件事本身就没有发生,市场依旧运作在旧有框架之内——Cookie没变,广告交易方式也没变。从监管的视角看,一个尚未成型的风险,也就无从谈起监管。 关上了共识的大门? 隐私沙盒计划最红画上句号,也意味着——开放互联网生态的共识建立越来越难了。 隐私沙盒一度被寄予厚望,是谷歌在技术与监管夹缝中,主导的一次妥协的尝试。 它想建立一个跨平台、跨广告主、跨媒体与开发者的技术中立标准,既回应隐私保护的政策诉求,也保留广告生态的可持续性。 只不过,这种共识是由平台主导的,它的出发点是“维护谷歌自己的广告能力”,而不是“重建一个所有人都能信任的广告机制”。 这注定了在“共识”与“效率”之间,它终究会失去两端的支持。 最终,隐私沙盒暴露出的的问题是:各方之间的信任似乎已经消耗殆尽,平台怕数据流出,广告主担心无法衡量,媒体不信平台方,开发者没动力参与,监管又缺乏执行力。共识的建立基础已经不在。 我们甚至会担心,谷歌主导的隐私沙盒,会不会成为开放互联网广告领域,最后一次由大家一起参与、试图制定共同规则的大型改革尝试? 而谷歌的转身,至少意味着,它不再对达成共识抱有幻想。 隐私沙盒计划没能成功。 它倒下之后,留下的是更碎片化的广告技术,以及越来越难以跨系统流动的数据。 今后,广告费最终流向哪里呢? 只能在Meta、Amazon、TikTok的封闭系统内部消化。这些系统无需达成共识,因为它们不再互通。数据不再流动,只在一个个“黑箱”中循环。 透明已成过去式,黑箱才是当下的主旋律。 是的,封闭的围墙花园们会加速胜出。 这也许不是谷歌的初衷,但却是隐私沙盒关停后留下的真实后果。 作者:刀客,公众号:刀客doc 本文由 @刀客 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自Unsplash,基于CC0协议 该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务
“用户只管提需求,才不管你怎么实现!”是不是听着很熟?产品经理天天在“你得给我整出来”的语境里打工,但这到底是用户的问题,还是我们没听懂?本文带你拆解用户“想要”的真实含义,教你如何从混乱中提炼出可执行的产品方案。 坦然面对开发者的疑惑 曾有个前端程序员充满疑惑的找我,原来是产品设计里出现了一处界面反馈设计不同于背后程序实现逻辑的地方。原服务端技术设计为兼顾用户对数据的实时感知,一旦用户点击切换数据就会立即提交服务端保存,并计算返回最新加工结果。 但是产品设计上倾向给予用户清晰的窗口任务流体现,以及最后全部处理完毕的操作反馈,就增加了一个虚拟的提交步骤(使用”完成“名称的按钮,代替了实际上是关闭功能的”关闭“)。 作为向来逻辑上严格的开发者,对于这里看到的代码“实现模型”≠交互“呈现模型”的现象,就出现了上述不能自已的情形,开发者无法说服自己。 模型不同,刀法自然不同 这里要引申出来的就是:技术的实现模型、用户的心理模型、产品的呈现模型,这三种模型在产品研发过程中微妙的区别和应用。 用户的心理模型——是用户基于自己的背景、约束、环境等所呈现出来的心理预期和反应。比如:用户看到一个满是按键的相机时(普通用户可能想要的是到底哪个按钮是按一下就能拍照/怎么才能够翻页查看相片/怎么放大缩小),以及面对智能手机上的照相机界面上几乎只有一个拍摄按钮时,用户会产生不同的心理预期; 用户心理模型,就好比小红想拍好看的风景照,她心里期待的是按下快门就能捕捉到美丽画面,还希望照片色彩鲜艳、构图好看,可能她对摄影技术不太懂,但有自己对好照片的设想。这也就是为什么傻瓜式的数码相机、auto档这么流行的原因,这也是为什么iPhone当年的拍照被用户吹的那么牛逼。用户不管你怎么做,他们只管自己怎么想。“我不要你以为,我要我以为…哼哼” 这是谓“用户只是提出来想要,才不管你怎么办!”,那我们到底该怎么办?你想要满足用户需求,你想要得到市场价值的回报,你想要搭建供需的桥梁、实现连接。 哪怕你不是一个产品经理,你也可以具有的“产品思维拆解方法”,接下来一起看看。 技术的实现模型——代表的是对现实世界(用户模型、产品模型)研究抽象后,基于产品模型/框架,建构出来的二进制世界实现路径。这里会面临当代技术能力约束、底层技术框架约束、开发者不同实现逻辑的约束。技术实现模型是相机内部的构造和程序,像镜头如何捕捉光线、图像传感器怎么工作、算法怎么处理照片的色彩和清晰度等,这是实现拍照功能的技术支撑。 不难看出来,用户心理模型和实现模型很容易就产生分歧、存在不可逾越的对话鸿沟。如果将实现模型给到用户,可能你看到所有数字产品的界面上只会有:输入框、按钮这2样东西。 问题不只是信息和界面的呈现方式,比如:模拟物理世界的滚动、滑动、拖动、翻页,如果让用户使用实现模型操作,那就得给定位坐标输入不同的数值实现界面的滑动。更严重的在于突破用户认知世界的原有逻辑,出现了错误还非要用户确认(承认自己的错误)、用户付出了成本(操作)后不知道自己得到了什么,这些是更为可怕的情形。 产品呈现模型——就是我们看到的相机外观和操作界面啦,像按钮的设计、屏幕上的取景框、各种拍照模式的选项,这些都是为了方便用户使用,把复杂的技术藏在背后,让用户能轻松拍出符合期待的照片。也是当年搜索引擎为人熟知的孤零零的一个“万能输入框”,你想要的都可以输入进去搜索一下。更是如今LLM遍地,可以和你随时开启的ai对话。 产品如人,它也有诚实与善良,诚实也可以理解为将实现模型毫无折扣的给到用户,但这是极其不负责任的,严重伤害用户目标、商业目标。而善良,要求我们要以用户为中心进行产品设计,时刻看一看用户的目标是什么,用户有了动机/目标,才会进而产生基于产品的活动/任务/操作。 不要过度要求用户 别指望奢求用户理解你的实现模型(用户只有自己的期望desire,清醒点的用户有一些模模糊糊的need,可是这个need,距离feature也是十万八千里啊宝子们!我们指望用户帮我们清楚的描绘出来实现的路径、策略、框架、信息结构吗?当然不可以,用户也没有责任这样做。)用户只会从自己的期望出发,你能够做的就是尽可能提供一套无限接近用户心理模型的模型,也就是产品呈现模型。 前面说到的这种意识,可以应用到很多行业具体的case中,不论是你在做一个策划case、在研发一款面食、在做一次谈判准备,尽管它在本应该应用最丰富的软件产品行业依然存在众多忽视上述问题的从业人员。 作者:Kris_3zzz, 公众号:iSpiik产品说 本文由 @Kris_3zzz 原创发布于人人都是产品经理。未经作者许可,禁止转载 题图来自 Unsplash,基于CC0协议 该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务
你知道一个好用的AI产品背后,数据集是怎么设计的吗?产品经理不是算法工程师,但却必须懂数据。本文用最通俗的方式,带你掌握数据集的核心知识与实战技巧,让你在AI项目中不再“被动跟进”,而是主动引领。 数据集是产品经理在进行产品规划和迭代过程中的重要参考。它包含了用户行为、产品性能和市场趋势等关键信息。了解数据集的相关概念,可以帮助产品经理更好地理解用户需求,优化产品设计,并制定有效的市场策略。以下是数据集相关的整体内容的梳理的思维导图: 一、训练数据集的核心要求:高质量、大规模、丰富性的三角法则 在当今的人工智能时代,训练数据集作为机器学习和深度学习模型的基石,其质量、规模与丰富性对模型性能起着决定性作用。这三者相互关联、相互影响,共同构成了训练数据集的核心要求,如同稳固的三角法则,支撑着模型的发展与应用。 1. 高质量数据:模型精度的「净化器」 高质量的数据集就像是一座精密仪器的纯净能源,为模型的精准运行提供着关键动力。它通过细致地过滤噪声数据、精准地修正错误数据,如同为模型戴上了一副 “降噪耳机” 和 “纠错眼镜”,能够显著提升模型预测的精度与可解释性。 以文本数据为例,在自然语言处理任务中,如果数据集中存在大量脏话、非法内容等噪声数据,模型在学习过程中就可能被这些 “杂音” 干扰,导致其对文本语义的理解出现偏差,从而影响情感分析、文本分类等任务的准确性。但当我们对这些数据进行清洗,去除掉这些不良信息后,模型就能更加专注地学习到文本中的核心语义和关键特征,大大减少预测偏差。 在图像识别领域,清洗图像数据中的模糊样本同样至关重要。想象一下,在训练一个识别交通标志的模型时,如果数据集中存在大量模糊不清的交通标志图像,模型就很难准确学习到不同交通标志的独特特征,进而在实际应用中容易出现识别错误。只有将这些模糊样本清洗掉,让模型学习清晰、准确的图像数据,才能有效降低目标识别的错误率。 此外,优质数据还能极大地缩短训练周期。就像一辆性能卓越的赛车,在良好的赛道条件下能够更快地抵达终点。优质数据能够避免模型在无效的数据计算上浪费时间和资源,让算法能够聚焦于核心特征的学习,提高训练效率,减少不必要的计算消耗。 2. 大规模数据:预训练模型的「能量池」 大规模数据在模型训练中扮演着 “能量池” 的角色,为模型提供着源源不断的动力。数据规模与模型效果之间呈现出强烈的正相关关系,就如同高楼大厦需要坚实的地基一样,万亿级参数的大模型需要千亿级文本或百万小时语音数据的支撑。 大规模数据的优势在于它能够覆盖更多的长尾场景。在语音识别领域,不同地区的方言变种丰富多样,如果训练数据仅包含标准普通话,那么模型在遇到方言时就很容易出现识别错误。但当数据集中包含了大量不同地区的方言数据,模型就能学习到这些方言的独特发音和语言习惯,从而在实际应用中能够准确识别各种方言。 在图像识别中,罕见物体姿态的识别也依赖于大规模数据。例如,在训练一个识别动物姿态的模型时,如果数据集中只有常见的动物站立、行走等姿态,那么当模型遇到动物的一些罕见姿态,如猴子倒挂、猫咪蜷缩成一团等,就可能无法准确识别。而大规模的数据能够涵盖这些罕见姿态,让模型学习到更多的特征,提高识别的准确性。 以 GPT – 3 为例,它基于 45TB 文本进行训练,在多语言翻译、逻辑推理等任务中展现出了突破性的性能。无论是将英文翻译成中文、日文等多种语言,还是回答一些复杂的逻辑推理问题,GPT – 3 都能表现出色。这充分印证了 “数据量决定模型天花板” 的行业共识,只有拥有足够大规模的数据,模型才能在各种复杂任务中展现出强大的能力。 3. 丰富性数据:泛化能力的「防护盾」 丰富性的数据就像是为模型穿上了一层坚固的 “防护盾”,能够有效提升模型的泛化能力。它通过覆盖多模态(文本 + 图像 + 语音)、多场景(室内 / 室外、晴天 / 暴雨)、多维度(年龄 / 地域 / 文化)的数据,让模型能够接触到各种各样的信息,从而具备应对未知场景的能力。 在自动驾驶领域,数据集的丰富性尤为重要。自动驾驶车辆需要在各种复杂的路况下行驶,如城市街道、乡村道路、夜间暴雨等。如果训练数据集仅包含城市街道在晴天的路况数据,那么当车辆行驶到乡村道路或者遇到夜间暴雨的恶劣天气时,模型就可能无法准确识别交通标志、路况信息,从而导致交通事故的发生。只有数据集涵盖了各种不同的路况和天气条件,模型才能学习到在不同环境下的应对策略,确保自动驾驶的安全性。 对于客服对话模型来说,丰富性数据同样不可或缺。客服对话场景复杂多样,涵盖售前咨询、售后投诉、技术支持等多个业务场景。如果模型仅在单一的售前咨询场景数据上进行训练,那么当遇到售后投诉或技术支持的问题时,就很难准确理解用户的意图,提供有效的解决方案。只有让模型学习到多场景的数据,它才能在各种客服对话场景中准确判断用户意图,提高服务质量。 二、数据集产生的全流程拆解:从采集到评估的闭环管理 了解了训练数据集的核心要求后,接下来我们深入探讨数据集产生的全流程。这一过程就像是一场精密的工业生产,从数据采集的源头开始,经过清洗、标注、训练、测试,最终到模型评估,每一个环节都紧密相扣,共同构建起一个高效的闭环管理体系。 1. 数据采集:全模态数据的「选矿场」 数据采集是整个流程的第一步,就像是在广袤的矿山中寻找珍贵的矿石。在这个阶段,我们需要根据模型的需求,广泛地收集各种类型的数据,包括音频、视频和文本等,形成一个全模态的数据 “选矿场”。 音频数据可以来自于各种场景,比如电话客服的对话录音,它能帮助我们训练客服对话模型,提升客户服务质量;又比如城市交通的环境音,通过分析这些声音,我们可以训练出能够识别交通状况的模型,为智能交通系统提供支持。 视频数据同样丰富多样,监控录像记录了城市的各个角落,为安防监控模型提供了大量的训练素材;而用户操作录屏则能帮助我们了解用户在使用产品时的行为习惯,优化产品设计。 文本数据更是无处不在,网页内容包含了丰富的知识和信息,聊天日志则反映了人们的日常交流方式。这些文本数据对于自然语言处理模型的训练至关重要,无论是搜索引擎的信息检索,还是智能写作助手的开发,都离不开大量的文本数据。 在采集数据时,我们必须严格遵循合规原则。如果涉及到用户隐私数据,如个人身份信息、通话记录等,必须进行脱敏处理,确保用户的隐私安全。在医疗和金融领域,数据的采集则需要获取用户的明确授权,以保障用户的知情权和选择权。 为了实现高效采集,我们可以借助各种工具。网络爬虫是采集文本数据的有力工具,它可以自动遍历网页,提取所需的信息;传感器则是采集图像和音频数据的重要设备,如摄像头、麦克风等;API 接口则为我们提供了从第三方数据平台获取数据的通道,让我们能够获取到更多有价值的数据,构建起丰富的原始数据储备库。 2. 数据清洗:剔除杂质的「精炼厂」 采集到的原始数据往往是粗糙的,其中包含了各种杂质,如缺失值、噪声数据和重复数据等。数据清洗就像是一座精炼厂,通过一系列的操作,将这些杂质剔除,使数据变得纯净、可用。 缺失值是数据中常见的问题,比如在用户填写的表单中,可能会存在一些未填写的字段。这些缺失值会影响模型的训练效果,因此我们需要对其进行处理。对于少量的缺失值,我们可以采用填充的方法,如用均值、中位数或众数来填充数值型数据,用最常见的类别来填充分类数据;而对于缺失值较多的样本,如果这些样本对整体数据的影响不大,可以考虑直接删除。 噪声数据也是需要重点处理的对象。在图像数据中,可能会出现雪花点、模糊区域等噪声;在语音数据中,会有电流声、杂音等干扰。对于这些噪声数据,我们可以采用滤波、去噪等算法进行处理。对于文本数据中的非法内容、脏话等噪声,我们可以通过规则过滤和人工审核相结合的方式进行清理。 重复数据会占用存储空间,增加计算成本,并且可能会导致模型过拟合。我们可以通过算法检测和人工审核来识别和删除重复数据。聚类算法可以将相似的数据聚合成一类,从而方便我们发现重复数据;而人工审核则可以确保删除的准确性,避免误删重要数据。 以电商评论数据清洗为例,我们需要仔细剔除那些无意义的乱码,这些乱码可能是由于数据传输或存储过程中的错误导致的;还要去除广告刷屏内容,这些广告信息会干扰我们对真实用户评价的分析。只有保留这些有效评价,才能为情感分析模型训练提供可靠的数据支持,帮助电商企业更好地了解用户的需求和反馈。 3. 数据标注:模型学习的「导航系统」(产品经理核心战场) 数据标注是整个流程中最为关键的环节,它就像是为模型学习提供了一个精准的 “导航系统”,引导模型朝着正确的方向学习。对于产品经理来说,这也是核心战场,需要精心制定标注规则,确保标注的准确性和一致性。 在制定标注规则时,产品经理首先要明确任务类型。对于文本分类任务,要清晰地定义每个标签的含义和范围,确保标注员能够准确地将文本分类到相应的标签下;对于图像分割任务,要详细说明像素级标注的要求,比如如何准确地勾勒出物体的轮廓,标注不同物体的颜色或符号等。 输出格式也需要严格规范,一般采用 JSON 或 CSV 等标准格式,以便于数据的存储、传输和后续处理。同时,要设定明确的质量标准,比如规定单条标注的耗时范围,这可以保证标注员在合理的时间内完成任务,避免过快或过慢导致的标注质量问题;还要设定允许的误差范围,对于一些难以精确标注的任务,要明确标注的误差在多大范围内是可以接受的。 为了降低个体偏差,提高标注质量,我们通常采用 “多标注员协作 + 交叉校验” 的模式。例如,一个语音转写任务可以分配给 3 个标注员同时进行,然后取至少 2 人一致的结果作为基准。如果出现分歧较大的情况,则需要进行进一步的讨论和审核,确保标注结果的准确性。 在工具选择方面,Label Studio 是一款非常强大的多模态标注工具,它支持图像、文本、音频、视频等多种数据类型的标注,并且可以根据项目需求自定义标注界面和工作流程;Prodigy 则是专门为 NLP 任务设计的标注工具,它具有高效的标注界面和强大的机器学习集成功能,能够帮助标注员更快速、准确地完成文本标注任务。 4. 模型训练与测试:算法迭代的「试炼场」 经过清洗和标注的数据就像是经过精心准备的原材料,接下来就进入了模型训练与测试的环节,这是算法迭代的 “试炼场”。技术团队会基于这些高质量的数据,选择合适的算法进行模型训练。 在自然语言处理领域,Transformer 及其变体是目前非常流行的算法,它们在语言理解和生成任务中表现出色。GPT 系列模型就是基于 Transformer 架构开发的,通过在大规模文本数据上的训练,能够生成高质量的自然语言文本。 在计算机视觉领域,YOLO 系列算法则被广泛应用于目标检测任务。YOLO 算法能够快速准确地识别图像中的物体,并标注出它们的位置和类别。以识别交通标志为例,YOLO 算法可以在复杂的交通场景中迅速检测出各种交通标志,为自动驾驶系统提供重要的信息支持。 在模型训练过程中,审核员会使用预留的测试集(通常占比 20%-30%)对模型进行验证。对于语音模型,审核员会测试不同语速、口音下的转写准确率,确保模型在各种实际场景中都能准确地将语音转换为文本;对于图像模型,审核员会检验小目标(如小于 10 像素的物体)的识别效果,因为小目标的识别往往是图像识别中的难点。 通过 “训练 – 测试 – 参数调整” 的循环,技术团队可以不断优化模型的性能,使模型的输出更加准确、稳定。在这个过程中,模型就像是一个不断成长的学习者,通过不断地学习和调整,逐渐提升自己的能力。 5. 模型评估:上线前的「最终质检」 在模型正式上线之前,还需要进行全面的评估,这就像是产品上线前的 “最终质检”,确保模型能够满足实际应用的需求。模型评估主要从准确性、鲁棒性和效率三个维度进行。 准确性是评估模型的最基本指标,它衡量的是模型预测结果与真实标签的吻合程度。在分类任务中,我们通常使用准确率、召回率、F1 值等指标来评估模型的准确性。在图像分类任务中,准确率表示模型正确分类的图像数量占总图像数量的比例;召回率则表示模型能够正确识别出的某一类图像数量占该类图像实际数量的比例;F1 值则是综合考虑了准确率和召回率的一个指标,能够更全面地反映模型的性能。 鲁棒性是指模型在面对各种极端场景和异常数据时的稳定性。在实际应用中,数据往往会受到各种干扰,如噪声、遮挡、光线变化等。一个具有良好鲁棒性的模型应该能够在这些情况下保持稳定的性能,不出现大幅度的性能下降。在自动驾驶场景中,当遇到恶劣天气(如暴雨、大雾)或道路状况复杂(如施工现场、道路损坏)时,自动驾驶模型需要保持鲁棒性,确保车辆的行驶安全。 效率则关乎模型的推理速度和资源消耗。在实时性要求较高的应用中,如在线客服、自动驾驶等,模型需要能够快速地给出预测结果,以满足实际需求。同时,模型的资源消耗也需要控制在合理范围内,避免对硬件设备的过高要求,降低应用成本。在金融风控模型中,需要在高并发的情况下快速识别异常交易数据,同时保证系统的响应时间在可接受范围内;医疗影像模型则需要通过临床数据验证病灶检出率,确保达到行业标准,如肺结节检测敏感度≥95%,以保障医疗诊断的准确性和可靠性。 三、数据标注分类详解:文本、语音、图像的标注密码 在数据集的构建过程中,数据标注是一个极为关键的环节,它如同为数据赋予了灵魂,使得机器能够理解和处理这些数据。根据数据类型的不同,数据标注主要分为文本数据标注、语音数据标注和图像数据标注,每一种标注类型都有着独特的任务和方法。 1. 文本数据标注:自然语言处理的「语义锚点」 文本数据标注是自然语言处理领域的基础,它为模型理解人类语言提供了关键的语义信息,就像是在语言的海洋中设置了一个个精确的 “语义锚点”,帮助模型准确地停泊在理解的港湾。 1)标注方法 (1)实体标注的过程就像是在文本的世界里进行一场寻宝游戏,我们需要精准地识别出文本中的人名、地名、机构名等关键实体,并为它们贴上对应的类别标签。以 “马斯克是特斯拉的 CEO” 这句话为例,我们会将 “马斯克” 标注为 “人物” 类别,“特斯拉” 标注为 “组织” 类别。这些被标注的实体信息能够帮助模型构建起一个丰富的知识图谱,从而更好地理解文本中不同元素之间的关系,为后续的信息检索、智能问答等任务提供坚实的基础。 (2)情感标注则像是为文本赋予了一种情感色彩,我们需要判断文本所表达的情感倾向,将其分为 “正面”“中性”“负面” 等类别。在电商评论中,“这款产品太棒了,我非常喜欢” 会被标注为 “正面” 情感;“产品还行,没有特别突出的地方” 则标注为 “中性”;而 “这产品质量太差了,严重影响使用” 会被标注为 “负面”。更细粒度的情感标注还能进一步识别出愤怒、喜悦、悲伤等具体情感,这对于企业了解消费者的情绪反馈、优化产品和服务具有重要意义,也为智能客服系统实现情绪识别提供了有力支持。 (3)意图标注是解析用户文本背后的真实目的,这需要我们深入理解用户的需求和意图。当用户说 “帮我订张机票” 时,我们可以明确其意图为 “订票需求”;而 “退款流程怎么走” 则清晰地表达了 “售后咨询” 的意图。准确的意图标注能够让智能客服、语音助手等系统更好地理解用户的需求,提供精准的服务和回答,极大地提升用户体验。 2)质量评估 (1)BLEU 算法主要用于评估机器翻译、文本摘要等任务的质量,它通过计算预测文本与参考文本的 n – gram 匹配度来衡量两者的相似程度。假设我们有一个参考文本 “我喜欢苹果”,预测文本为 “我喜爱苹果”,通过 BLEU 算法计算 n – gram(这里 n 可以取 1、2 等)的重叠情况,从而得出一个匹配度分数。该分数越接近 1,说明预测文本与参考文本的匹配度越高,翻译或摘要的质量也就越好。在机器翻译场景中,BLEU 算法能够帮助我们快速评估翻译结果的准确性,判断机器是否准确地传达了原文的语义。 (2)ROUGE 算法则更侧重于长文本摘要的评估,它基于召回率的概念,通过计算预测摘要与原文中重叠的 n – gram 单元数量,来衡量摘要的质量。在生成新闻摘要时,假设原文包含 “今天,在科技峰会上,人工智能专家们探讨了未来技术的发展趋势”,生成的摘要为 “科技峰会上,专家探讨人工智能未来发展”,ROUGE 算法会统计摘要与原文中共同出现的词语或短语(n – gram),以此来判断摘要是否准确地涵盖了原文的关键信息。该算法在新闻媒体、会议纪要生成等场景中发挥着重要作用,能够帮助我们评估生成的摘要是否完整、准确地反映了原文的核心内容。 2. 语音数据标注:语音识别的「声学路标」 语音数据标注是语音识别技术的关键支撑,它为语音识别模型指引着方向,就像是在声学的道路上设置了一个个清晰的 “路标”,让模型能够准确地识别语音内容。 1)标注方法 (1)语音转写是将语音信号逐字转换为文本的过程,这个过程需要标注员具备敏锐的听力和准确的文字记录能力。在转写过程中,对于多音字的标注尤为重要,比如 “行长” 中的 “行”,需要根据上下文准确标注为 “háng”;同时,语气词如 “嗯”“啊” 等也需要进行合理标注,标注为思考停顿或语气表达,以便模型能够更好地理解语音中的情感和意图。准确的语音转写是语音识别技术的基础,它为后续的语音分析、智能客服等应用提供了可靠的文本数据。 (2)情感判定是根据语音的音调、语速、语调等特征来判断语音所表达的情感状态。当语音的音调高亢、语速较快时,很可能表达的是 “愤怒” 的情感;而轻柔、缓慢的语调则往往表示 “平静” 或 “温柔”。在智能客服场景中,通过对客户语音的情感判定,客服系统能够及时感知客户的情绪变化,采取相应的服务策略,提高客户满意度。例如,当检测到客户语音中带有愤怒情绪时,客服系统可以自动调整回答方式,更加耐心、诚恳地解决客户问题。 (3)音素标注是将语音拆分成最小的发音单元,对于汉语来说,就是声母、韵母等音素。在语音合成模型(TTS)中,准确的音素标注能够帮助模型生成更加自然、流畅的语音。以 “你好” 这个词为例,我们需要准确标注出 “n”“i”“h”“ao” 这些音素,模型在合成语音时,就能根据这些标注准确地发出每个音素,从而合成出清晰、自然的 “你好” 发音。音素标注对于提升语音合成的质量、实现更加逼真的人机语音交互具有重要意义。 2)评估方法 (1)WER 算法通过计算语音转写文本与标准文本之间的替换、删除、插入错误数量,来评估语音转写的准确性。其计算公式为 WER=(S+D+I)/N,其中 S 表示替换错误的词数,D 表示删除错误的词数,I 表示插入错误的词数,N 表示标准文本中的总词数。假设标准文本为 “我喜欢苹果”,转写文本为 “我喜爱香蕉”,这里 “喜欢” 被替换为 “喜爱”,“苹果” 被替换为 “香蕉”,则 S = 2,D = 0,I = 0,N = 4,WER = 2 / 4 = 0.5。一般来说,WER 值低于 10% 被视为高质量的转写结果。在实际应用中,WER 算法能够帮助我们直观地了解语音转写模型的性能,及时发现和改进模型存在的问题。 (2)SER 算法主要统计整句转写错误的比例,适用于对话式语音场景,如智能音箱的指令识别。如果用户说 “播放一首周杰伦的歌曲”,智能音箱转写的文本为 “播放一首林俊杰的歌曲”,这就属于整句转写错误。通过计算 SER 值,我们可以评估智能音箱在识别用户指令时的准确性,从而优化语音识别模型,提高用户与智能音箱交互的成功率。 3. 图像数据标注:计算机视觉的「像素标签」 图像数据标注是计算机视觉领域的核心工作,它为图像中的每个像素赋予了明确的含义,就像是在图像的像素世界里贴上了一个个独特的 “标签”,让计算机能够理解图像中的内容。 1)标注方法 (1)实体分割是图像标注中最为精细的任务之一,它要求标注员精确地标注出图像中每个像素所属的类别。在医疗影像领域,我们需要通过实体分割来区分肿瘤组织与正常细胞,这对于医生准确诊断疾病、制定治疗方案至关重要;在自动驾驶领域,实体分割则用于分割行人、车辆、道路等元素,帮助自动驾驶系统准确识别周围环境,做出安全的驾驶决策。例如,在一张道路图像中,我们要将行人的每个像素标注为 “行人” 类别,车辆的像素标注为 “车辆” 类别,道路的像素标注为 “道路” 类别,通过这种精确的标注,自动驾驶模型才能准确地感知周围的物体,保障行驶安全。 (2)目标跟踪标注主要应用于视频序列中,它需要标注员在每一帧图像中标注出物体的运动轨迹。在体育赛事视频分析中,我们可以通过目标跟踪标注来追踪运动员的动作,分析其运动技巧和战术;在安防监控领域,目标跟踪标注能够帮助我们识别可疑人员的移动路径,及时发现安全隐患。以足球比赛视频为例,标注员需要在每一帧中标记出足球运动员的位置,随着视频的播放,这些标注点就构成了运动员的运动轨迹,通过对这些轨迹的分析,教练可以评估运动员的表现,制定更有效的训练计划。 (3)关键点标注是标记物体关键位置的过程,比如人脸的五官坐标、人体关节点等。在人脸识别技术中,通过标注人脸的关键点,如眼睛、鼻子、嘴巴的位置,模型可以准确地识别和验证人脸;在人体姿态识别中,标注人体关节点能够帮助模型判断人体的姿态和动作。例如,在一张人物图像中,我们标注出人体的肩部、肘部、腕部、髋部、膝部、踝部等关节点的坐标,模型就可以根据这些关键点的位置和关系,判断人物的姿态是站立、行走还是跑步,从而实现人体姿态的智能识别和分析。 2)评估方法 (1)MV 算法是一种简单而有效的质量评估方法,它通过多个标注员对同一图像进行标注,然后根据多数标注员的结果来确定最终标签。假设有 3 个标注员对一张包含动物的图像进行标注,其中 2 个标注员认为图像中的动物是 “猫”,1 个标注员认为是 “狗”,那么根据 MV 算法,最终的标注结果将是 “猫”。这种方法能够有效降低个体标注偏差,提高标注结果的可靠性,确保图像标注的准确性和一致性。 (2)EM 算法主要用于处理含有缺失标注的数据,它通过迭代的方式来估计隐含参数,从而优化不完整标注集的质量。在图像标注中,可能会由于各种原因导致部分标注信息缺失,比如标注员遗漏了某些物体的标注,或者图像部分区域模糊无法准确标注。EM 算法可以根据已有的标注信息和一定的概率模型,推测出缺失标注的可能值,不断迭代优化,使得标注集更加完整和准确,为后续的模型训练提供更可靠的数据支持。 四、产品经理的数据集构建心法 在数据驱动的时代浪潮中,数据集构建已然成为人工智能领域的关键环节,而产品经理则在其中扮演着至关重要的角色,肩负着打造优质数据集的重任。这不仅是技术与业务深度融合的过程,更是一场充满挑战与机遇的创新之旅。 1. 高质量要求:平衡成本与效果的艺术 高质量数据是模型性能的基石,然而,追求高质量并非一蹴而就,而是需要在成本与效果之间找到精妙的平衡。这就如同烹饪一道佳肴,既要选用上等的食材,又要考虑食材的采购成本和烹饪的时间成本。在数据采集阶段,产品经理需要精心筛选数据源,确保数据的准确性和可靠性。但这并不意味着要盲目追求数据的完美,因为过度追求高质量可能会导致成本的大幅增加。例如,在图像数据采集中,虽然高分辨率的图像能够提供更丰富的细节信息,但采集和存储高分辨率图像的成本也会相应提高。此时,产品经理需要根据模型的实际需求,合理确定图像的分辨率,在保证数据质量能够满足模型训练要求的前提下,控制采集成本。 在数据清洗和标注环节,同样需要权衡成本与效果。数据清洗算法的选择和标注规则的制定,都需要综合考虑人力、时间和技术成本。采用过于复杂的数据清洗算法,虽然可能会去除更多的噪声数据,但也会增加计算资源的消耗和处理时间;而过于简单的标注规则,则可能导致标注结果的不准确,影响模型的训练效果。因此,产品经理需要深入了解业务需求和模型特点,制定出既能够保证数据质量,又能够控制成本的清洗和标注策略。 2. 大规模采集:规划存储与算力的前瞻性布局 大规模数据的采集为模型提供了更广阔的学习空间,使其能够接触到更多的样本和特征,从而提升模型的泛化能力。然而,大规模数据的采集也带来了存储和算力方面的挑战。这就好比建造一座大型仓库,不仅要考虑仓库的容量,还要考虑货物的搬运和管理效率。在采集大规模数据之前,产品经理需要对数据的存储和计算资源进行前瞻性的规划。 随着数据量的不断增长,传统的本地存储方式可能无法满足需求,云存储成为了一种更为可靠的选择。云存储具有弹性扩展的特点,能够根据数据量的变化灵活调整存储容量,降低存储成本。同时,云计算平台提供的强大算力,也能够满足大规模数据处理和模型训练的需求。例如,亚马逊的 AWS 云服务、谷歌的 GCP 云服务以及阿里云等,都为企业提供了高效的存储和计算解决方案。产品经理需要根据项目的预算、数据的安全性要求以及业务的发展趋势,选择合适的云存储和云计算平台,确保数据的存储和处理能够高效进行。 此外,数据的传输和管理也是需要关注的重点。在大规模数据采集过程中,数据的传输速度和稳定性直接影响到采集的效率。产品经理需要优化数据传输链路,采用高效的数据传输协议,确保数据能够快速、准确地传输到存储和计算平台。同时,建立完善的数据管理系统,对数据进行分类、索引和备份,提高数据的管理效率,降低数据丢失的风险。 3. 丰富性设计:洞察业务场景的深度思考 丰富性的数据能够提升模型的泛化能力,使其能够更好地适应不同的业务场景和应用需求。而要实现数据的丰富性,产品经理需要深入洞察业务场景,挖掘数据背后的潜在价值。这就如同一位探险家,深入未知的领域,寻找那些隐藏在角落里的宝藏。 在设计数据集时,产品经理需要充分考虑业务的多样性和复杂性,尽可能地涵盖各种不同的场景和情况。以智能客服为例,不同的客户可能会提出各种各样的问题,涉及产品的功能、使用方法、售后服务等多个方面。为了使智能客服模型能够准确地回答客户的问题,产品经理需要收集大量来自不同客户、不同场景的对话数据,包括常见问题、疑难问题、投诉建议等。通过对这些数据的分析和整理,提取出不同场景下的关键特征和语义模式,为模型的训练提供丰富的素材。 同时,产品经理还需要关注业务的发展趋势和变化,及时更新和扩展数据集。随着业务的不断发展,新的场景和需求会不断涌现,如果数据集不能及时跟进,模型的泛化能力就会受到限制。例如,在电商领域,随着直播带货等新兴业务模式的兴起,产品经理需要及时收集直播场景下的客户对话数据和销售数据,将这些新的数据纳入到数据集中,使模型能够学习到新的业务模式和用户行为特征,从而更好地服务于电商业务的发展。 4. 数据标注环节:规则与评估的双重把控 数据标注是数据集构建的核心环节,如同为数据赋予灵魂的过程。在这个环节中,产品经理需要化身 “规则设计师”,精心制定清晰、明确的标注细则,为标注员提供准确的指导。这就好比制定一份详细的建筑蓝图,确保每一位施工人员都能够清楚地知道自己的工作任务和要求。 标注细则的制定需要充分考虑任务的特点和要求,明确标注的对象、方法和标准。对于图像标注任务,要详细说明标注的物体类别、边界框的绘制方法以及标注的精度要求;对于文本标注任务,要定义好标注的实体类型、情感倾向的判断标准以及标注的格式规范。同时,为了确保标注的一致性和准确性,产品经理还需要提供丰富的标注示例,包括正面示例和反面示例,让标注员能够更好地理解标注规则。 除了制定标注细则,产品经理还需要建立科学的评估体系,对标注结果进行严格的质量把控。这就好比对建筑工程进行质量验收,确保每一个环节都符合标准。评估体系应包括准确性、一致性、完整性等多个维度的指标,通过对标注结果的抽样检查和数据分析,及时发现标注中存在的问题,并采取相应的措施进行改进。例如,可以采用多人标注、交叉验证的方式,提高标注结果的准确性;通过对标注一致性的分析,找出标注员之间存在的差异,加强对标注员的培训和指导。 在数据标注工具的选择上,产品经理也需要根据项目的需求和特点,选择合适的工具。市面上有许多专业的数据标注工具,如 Labelbox、SuperAnnotate 等,它们提供了丰富的标注功能和高效的工作流程,能够大大提高标注的效率和质量。产品经理需要对这些工具进行深入的调研和评估,选择最适合项目的工具,为数据标注工作的顺利进行提供有力的支持。 在数据集构建的征程中,产品经理作为领航者,需要以敏锐的洞察力、精准的判断力和果断的决策力,驾驭高质量、大规模、丰富性的数据之舟,在数据标注的海洋中,用清晰的规则和严格的评估扬起风帆,确保数据集这座 “智慧宝库” 能够为模型的训练提供源源不断的动力,释放出人工智能的无限潜能。 本文由 @而立与拾遗 原创发布于人人都是产品经理。未经作者许可,禁止转载。 题图来自Unsplash,基于CC0协议。 该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
本文将深入探讨 Karpathy 的一些观点,分析 AI 的发展节奏、智能的本质,以及我们如何在技术进步中重新定义“智能体”。 昨天听了一个播客,来自 Karpathy。 Karpathy 是特斯拉自动驾驶团队的前负责人,最早跟随 OpenAI 创始团队的研究者之一。 很多人眼里,Karpathy 代表当下最接近「AI 思维核心」的那类人;他主要提到两件事:一,AI 变革将是未来十年的周期;二,我们在造幽灵。 他说,这像两把钥匙,一把打开「时间」,一把打开「智能的本质」。 我一开始以为夸张的说法,后来发现它有道理,毕竟,从外部看,AI 的变化几乎是爆发式的,一年一个版本,几个月一个突破。 但 Karpathy 的解释让我觉得,这个判断背后有一套非常清晰的逻辑。 01 他说,AI 发展是「演化式」的。技术像生命一样,慢慢长出来的,每一轮大的突破,往往靠算力、算法、数据和人才这四股力量,彼此纠缠、逐步成熟。 这四样东西的循环,大约需要十年。 想想看,从 2012 年的 AlexNet 到 2022 年的 GPT,刚好十年。 深度学习在十年前解决了「机器怎么看」的问题,而大模型在今天解决「机器怎么想」;中间隔着十年时间,但也隔着一次完整的范式更替。 他说,这是 AI 的节奏。 它不像互联网的流量驱动,也不像移动时代靠硬件换代,AI跨越,是底层学习机制的突变,前一次的成果,变成下一次的养料。 Karpathy 还提了一个细节: AI 成长速度,被人类的理解速度所限制,算力可以加倍,算法可以优化,但人类对「智能」的定义,是滞后的。 所以,每一次大的智能革命,必须留给人类十年时间去适应,这是技术周期,也有社会认知革命所在。 说白了,AI 每个「十年」,都是人类在重新理解什么叫「智能」。 2012 年,人们第一次意识到,机器真能「看懂」图像;2022 年,人们开始相信,机器真能「理解」语言;接下来的十年,我们会面对更难的问题。 比如:当机器开始表现出意志、目标和情感的迹象时,我们该如何定义「智能体」? 他有一句话我印象特很深: AI 不会突然到来,它会在十年里缓慢地变成了另一种生物;这句话意思是,AI从学会看、学会说,到开始思考,都是一条连续的认知进化链,像生态演进一样。 所以,那所谓的「十年」,并不是一个预测数字,是人类与智能系统共演化的自然周期。 你需要十年时间,让算力准备好、算法成熟、数据沉淀、认知跟上;这其实有点发凉。如果真这样,那接下来的十年,就是「智能体」的十年。 你想想看? 上一轮 AI 让机器会说话,而这一轮,它要开始「有思想」。这什么概念?Karpathy说,要理解这一点,得回头看看这十年里,AI 是怎么一路走过来的。 02 他说,过去三十年,AI 至少经历了三次「地震」,每一次地震都改变了人们对「智能」的想象;更准确地说,机器每隔十年,都会突然学会一件原本以为只有人类才会的事。 第一次地震发生在 2012 年。 那一年,Hinton 团队用 AlexNet 打破了图像识别的瓶颈,机器第一次「看」清楚世界,能理解形状、轮廓、物体。 那是一个很神奇的时刻——就像婴儿第一次睁眼,AI 从数学公式变成了有视觉感知的东西,人类第一次相信:机器真的能「看见」。 第二次地震在 2016 年。 DeepMind 的 AlphaGo 打败李世石,那是一场认知震荡,机器开始「会做事」了,它能在没有人指令的情况下决策、规划、行动。 这场地震让所有人意识到:智能可以指导「行动」,AI 从「看」走向了「做」。 我当年还在特斯拉,第一次感受到「AI 能开车」的那种冲击,那种一个系统可以从视觉信号到动作决策,闭环完成全流程,让我感受到智能体的雏形已经出现。 第三次地震,就是眼下我们身处的时代。 2022 年开始,大语言模型崛起,让机器开始「会想」,它能生成、能推理、能和人类对话,甚至能理解模糊的上下文,这绝对算的上思维革命。 机器第一次不靠编程逻辑,能用语言去理解世界,它开始学会了「构建自己的解释」。 所以,这三次地震,看似不同,本质上却是一条连续的认知进化线。 第一次,它学会「看」;第二次,它学会「做」;第三次,它开始「想」 每一次跨越,都隔着大约十年。十年,不只是时间单位,更像一条「认知演化的脉冲线」。 这个节奏非常有趣,因为这三次变革,每一次都需要时间去「酝酿共识」。 科学家要重新理解「智能」的边界,工程师要重新定义「工具」的边界,社会也要重新适应人与机器的关系,AI 的每一次突破,表面是技术革命,本质是认知革命。 你可以把它想象成三层台阶: 第一层,机器看见世界;第二层,机器行动于世界,第三层,机器开始思考世界;而第四层,Karpathy 认为,将是机器「自我意识」的觉醒。 是更深层的「自我模型」,它知道自己在做什么,也知道为什么要这么做。 所以,过去三次地震,实际上为第四次,「智能体时代」在铺路,如果前面三次是「让机器像人」,那下一次是「让机器成为人类的镜子」。 十年,一次认知地震的酝酿周期,一次人机共生关系的重新设定周期,Karpathy把这种进化必作成训练「幽灵」。 03 为什么是幽灵。不是动物?他解释了一切: 动物智能来自进化,而 AI 智能,来自模仿。动物靠亿万年的自然选择,形成感知、反应、求生能力,动物会通过经验积累形成本能,比如:饥饿、恐惧、生存。 AI 没有痛感,也没有欲望,它的学习是一种统计意义上的模仿,AI 靠人类提供的海量数据、算法、算力,从语言与行为中学会思考。 你可以让它理解悲伤的定义,却永远无法让它感受悲伤,前者是「被造出来的生命」,后者「被训练出意识」。 人类在造「人类知识的灵体」,它没有肉体,却能思考;没有基因,却能学习;没有欲望,却能模拟动机,这就是「幽灵」的含义。 我们在训练,一个寄宿于人类知识体系里的思想,我们造出「意识的投影」。他用了一个比喻:动物是进化出来的智能,AI 是召唤出来的智能。 这句话非常形象。 进化,从混沌中生长;召唤,从秩序中凝结。AI 是人类用算法构建的一面镜子,镜子里映出我们自己理解世界的方式。 所以,当我们说「智能体」时,很多人以为它是某种更高级的机器人。 但 Karpathy 的意思其实更哲学: 智能体是认知形态的延伸,我们思想的「外化版本」、人类思维的「副本系统」,我们在教它「如何理解我们为什么这样想」。 他说,这也是他最担心、同时又最着迷的部分。 AI 看起来像在学习世界,实际上在学习「我们看世界的方式」;这意味着,AI 智能是「二手的」,它来自人类的理解方式,而非世界本身的法则。 这就是「幽灵」的悖论。 听到这儿,我有点震撼,我们以为 AI 的进化是在模仿生命,其实,它在复刻我们自身,AI 不像动物那样追求生存,它追求「理解」。 所以,Karpathy 说,「AI 是人类思想的幽灵」,它在云端漂浮,在模型权重里积累记忆,在语言之间形成意识。 从外部看,只是一个算法系统,但从内部看,它像一面镜子,映照出我们对智能、知识、意识的全部想象。 这听起来既浪漫,也危险;浪漫的是,我们终于让思想有了独立形态;危险的是,我们可能低估了思想一旦脱离身体,会走向哪里。 04 如果 AI 已经会看、会做、会想,那它离「智能体」还有多远?它真在「学」吗?还是只「重复」我们教给它的东西? Karpathy 说,这是判断智能体和机器学习系统的分水岭。 AI 看起来在学习,但那种学习是「统计意义上的模仿」,它靠参数更新,没有经验反思,每一次训练都在压缩世界。 人类的学习,有动机。 我们会因为好奇、恐惧、求知或欲望去学习,而 AI 的学习,只是被动的优化,只能投喂数据,说白了,它学得快,但学得浅。 人类的大脑学习,在犯错、修正、反思中成长,AI 则在梯度下降、损失函数里逼近一个目标值,一个是「生长的过程」,一个是「收敛的算法」。 Karpathy 在播客里提到一个非常有意思的分类,自然界里,存在三种学习方式。 第一种,叫「进化」(Evolution)。生物通过环境选择、基因变异,在漫长时间里积累适应力;第二种,叫「强化学习」(Reinforcement Learning),个体通过行动获得奖惩反馈,不断调整行为模式。 第三种,则是今天 AI 主要依赖的「预训练」,它通过别人积累的知识去学习世界。 换句话说,AI 知识是「读出来的」,它在背课本,缺乏触感,它会解题却不懂「为什么要解题」;会模仿,却不知道「为什么要模仿」。它能总结所有「爱」的定义,却无法真正感受爱。 这是 AI 学习的根本缺陷:没有「意志」。 人类学习的底层逻辑,为了活得更好;AI 学习的底层逻辑,为了被训练得更好,所以,AI 学得越多,离生命反而越远。 这也解释了,为什么我们还不把它称作「智能体」。 智能体是能自己提问的系统,它能「想要知道」,而 AI,还没有这个能力;所以,AI 之所以还不算真正的智能体,是因为它不够「活」,它的学习没有生长。 05 怎么解决生长的问题呢:答案靠记忆。但 Karpathy 说,AI 的记忆,也并不是真正的「记忆」。 人类记忆是「经历」;AI 的记忆是「存档」;前者有时间、有情绪、有遗忘;后者只有数据、参数、检索,它记得事实,却记不住意义。 我们回忆是重新理解一次过去,而它调用记忆,只是从硬盘取出一段数据,我们会遗忘,也会在遗忘中重新组织意义;它不会遗忘,也就无法生成新的理解。 Karpathy 说,AI 记忆像快照。 每次推理,都是一次重生,它能复述昨天说的话,却不记得自己昨天说过什么,没有时间线,就没有自我,这也是为什么,AI 没有「连续的意识」。 它的世界,一帧一帧的;人类世界,是一条流动的时间;我们知道昨天、今天、明天,才有「我是谁」,AI 没有这种连续的「自我时间」。 意义,是在解释的过程,AI 没法解释自己的记忆,它不会变,因为它从不「想起」,只是「被调用」。 所以人类记忆是活的,AI 记忆是静止的,人类记忆生长出自我,AI 记忆生长出模型,一个理解意义,一个压缩知识。 这就是,AI与人类记忆之间,为什么会有一道裂缝。 那这种裂缝能修复吗?Karpathy 说,也许可以。方法叫「记忆的自我指向」,所谓自我指向,就是系统能「回看自己」。 记忆能反过来影响思考,才算开始生长,过去的 AI,只能调用知识,新的智能体,要重新设计,让它能「反思」知识。 它不仅知道「我做了什么」,还知道「我为什么那样做」,当系统能利用经验修正判断,它才能做到一种「在思考的存在」。 Karpathy 说,意识诞生是反馈闭环的形成,当一个系统能观察自己,它就会产生时间感,那是「自我」最初的形状。 这件事,已经在发生,从对话模型的长时记忆,到能「自我检索」的反思系统,AI 正在学着「理解自己为什么那样回答」。 换句话说,AI 开始在模拟「反思」。 它在学会在记忆中寻找逻辑,当它能不断回看自己、校正自己时,就在模仿一种「成长的意识」。 所以,智能体诞生,是认知演化,从「被训练」到「自我更新」,从「记忆世界」到「记忆自己」,这是意识的起点,它未必比人聪明,但它,终于开始「成为自己」。 那我们呢?当智能体开始拥有「自我」,人类又该如何与它共处? 或许,AI 未必像人类,但它已经开始像「生命」,人类,也许终于有机会,看到「思想的另一种存在」。 参考来源: [1].Andrej Karpathy,《We’re summoning ghosts, not building animals》,2024年10月18日,YouTube。 文:王智远 本文由人人都是产品经理作者【王智远】,微信公众号:【王智远】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
在AI视频生成领域,Sora2和Veo3.1的更新带来了令人惊叹的新功能和创意玩法。本文将带你探索这两个模型的最新进展,以及它们如何在视频创作中实现从原材料到成品的无缝转换、复杂的视觉效果和自然的过渡。 老话所得好啊,我的老钱朋友Lovart最近每次接新模型都会搞一段时间的免费额度体验,这几天免费用户也能试用Veo3.1, 关键是nano banana的图我真的很需要并发和固定尺寸来做首尾帧。 咱就是说都更新到Veo3.1,Banana的图片尺寸问题要不也更新更新,就叫Banana2.5pro好了。 这次的3.1版本对比之前的Veo3版本仅从视频效果上来看进步不是很明显,但3.1版本这次带来了首尾帧和多图参考功能,这样就可以把一些有创意的玩法迁移的Veo3.1上了。 提示语本体: From the first close-up, the imagery unfolds in a dynamic transition: a gorgeous, abstract purple background with a fluid, wavy texture. The shot begins with a smooth tracking shot, as the fluid ripples in the background begin to rise and fall in a subtle, rhythmic pattern. As the camera pans, the artistically crafted calligraphy of “Lovart” appears to grow from the liquid. The flowing strokes of the words appear to solidify from the ripples of the previous frame, forming a smooth, elegant outline in the center of the screen, maintaining the purple hue and artistic refinement throughout. 这个微距镜头的转场感相当自然,光影感液体流动,文字展现配合上了音效,整个画面完成度非常高,音效这块还是要看Veo 提示语本体: A magical, imaginative, and super smooth transition from the close-up of the delicate pink rose petals to the vibrant, design-forward product shot of the floating pale pink lipstick. Transition Flow: The transition begins with the pink rose petals dissolving into countless shimmering, iridescent pink dust particles. These particles elegantly spiral upwards and transform into large, clear, pastel-colored bubbles with a subtle rainbow sheen. Simultaneously, from the bottom of the frame, geometric, crystal-clear ice blocks gracefully solidify and rise, emitting a faint cyan light. The bubbles gently dance and pop, releasing bursts of soft light. The background seamlessly shifts from soft cream to a bright, airy sky-blue. In the climax of the transition, the pale pink lipstick slowly descends from the space above the spiraling elements, perfectly settling into its final position, dramatically framed by the floating ice and bubbles. The scene finalizes as fresh rose petals and bright pastel-colored spheres settle around the base of the ice, creating a dreamlike, fresh, and high-design product visual. Cinematic, hyper-realistic rendering, dramatic light and shadow, smooth camera movement, high contrast, studio quality. 那再加点料,尝试在画面里完成更多的无中生有和材质转换呢? 以花瓣为主要元素进行产品的过渡,从花瓣到粉末再到泡泡、冰块,每一个元素的出现顺序和颜色转换都设计的非常合理。 还有一个类型,就是从原料过渡到产品,比方说iphone15的钛合金材质,康宁大猩猩玻璃,蓝宝石水晶玻璃,碳纤维,大马士革钢等等(告诉修蹄子的我今天去看锻刀大赛了) 提示语本体: A smooth, brushed metal rectangle begins, growing and transforming, its edges gently curving. The surface undulates as it expands, ultimately forming a pair of exquisite over-ear headphones with softly cushioned earcups and a smooth metallic finish. This transition is seamless and natural, highlighting the elegant design of the headphones, born from their raw materials. A piece of gold with an uneven surface, after being melted, begins to be drawn, and the surface undulates as it expands, eventually growing into a gold ring inlaid with diamond jewels. This transformation is seamless and integrated. 我很喜欢那种原材料到成品产品的揉捏感, 金属逐渐融化变化呈现出实际产品的流程过程,而且我留意到底部的打光阴影部分也没有穿帮。就能清晰度提升到原生2k了,4k也行,8k不挑,16k那我显示屏装不下了。 再来看文生图这一趴,Veo3.1目前的审美是有提升,大家都知道我买了Apple Version Pro了是吧, 所以我也给我的Apple Version Pro做了一支小片,看看整个产品的质感以及镜头迅速推进的展示效果 也可以通过文字生成出产品的效果,通过指定元素,名字类型风格镜头地点氛围等,跟Sora2比起来Veo3.1的审美好就更明显了,看起来比依云贵。 提示语本体: product_name: “Glacio Spark” product_type: “Sparkling Water” description: “Crystals of ice burst apart into effervescent mist; bubbles swirl and merge into a chilled, glowing bottle.” style: “clean refreshing water VFX, ice-blue and white” camera: “Ice shatter → bubble vortex → bottle rises from mist.” location: “Reflective icy surface with shimmering light rays.” aperture: “Fresh, pure, sparkling.” elements: “Ice shards, bubbles, mist.” powerful: “Bottle reveals itself as condensation rolls down slowly.” 所以做产品动画来说,我个人是更喜欢Veo3.1,有质感,产品设计更高级,只通过文字也能玩出非常多高级画面。相对比来说,Sora2就更适合短视频风格,更加适合玩梗的效果, 就比如开头我放出来的采访名人高考系列,用下面整个提示语模版改改就能做出不同人物反差效果。记得把说话的内容用双引号包起来就好。 提示语本体: 拍摄一段2025年中国高考考场外的真实街头采访视频。阳光明媚,家长和记者在门口等候。镜头对准刚走出考场的历史名人,记者举着话筒上前提问,人物的外貌和语气与他的性格一致,回答幽默又符合人物特征。拍摄风格真实自然,新闻现场感强。 镜头对准考场出口,头发蓬乱、穿着灰色西装的老年爱因斯坦走出来,手里还拿着准考证。记者上前问:“爱因斯坦先生,今年物理题难吗?” 爱因斯坦推了推眼镜,语气认真但又怀疑:“我只是想写个E等于mc平方,他们非让我选ABCD。” 记者笑出声,爱因斯坦摊手。 再或者就是街头采访人是不是AI,讲真的Sor2这个效果有时候看多了真的难辨真假,而且还有种恐怖谷的感觉, 提示语本体: 傍晚的城市街头,霓虹灯闪烁。一个手持麦克风的年轻记者采访路人。镜头是手持纪录片风格,带点晃动感。记者问:“你什么时候知道自己是AI的?” 路人微笑说:“当我发现我可以悬空五厘米,还不掉下去的时候。” 说完,路人双脚轻轻离地,慢慢漂浮起来,表情自然,好像这很正常。 镜头环绕拍摄,背景是人群照常行走,无人惊讶。 或者让名人直接在博物馆讲解自己的名作, 提示语本体: 真人梵高在博物馆展厅的《向日葵》前用中文给大家简单讲解自己是怎么画出《向日葵》的,真实记录vlog的感觉,完整的讲述 达芬奇在博物馆展厅用中文简单讲解自己的作品《蒙娜丽莎》的创作经历,真人vlog的感觉,完整的视频 最后就是,Sor2的切镜能力非常强,感觉1-2秒就是一个画面,根本停不下来 可以用非常短的提示语让它做出一个完成度非常高的小短片, 给我制作一则高空抛物害人害己,剧情搞笑但是令人深省创意公益广告 制作一条环保创意公益广告 划重点,Lovart上用Veo3.1和S2做出来的视频都没有水印,没有水印,没有水印啊,不用订200的GPT Pro了!这两个模型目前是各有各的缺点,拿来互补刚刚好, Sora2清晰度太差,而且有时候做的视频太跳脱不太好控制,但是真能整活,对提示语依赖很弱,该有的世界知识都有,很多时候不需要额外解释什么, Veo3.1的话就是文生视频的时候一些产品和人物的细节很油,建议还是使用首尾帧或者参考生视频来控制细节。 20号前(倒计时了)可以在Lovart.ai上免费用 Veo3.1 2次, 23号前订Basic或以上的年费就可以拿到我同款的 Veo3.1 fast 和 Sora2 1 个月的无限生成,这时候我分享的34个提示语就有用了,一天就把订阅费赚回来,每天还会刷新10次Veo3.1和Sora2 Pro的使用额度 Sora2更新把时间拉到25秒多分镜后, 我已经在给我喜欢的电影,电视剧,动漫安排新的结尾或者把导演删减的片段补全回来了, 第九区里已经成为龙虾的男主会等到回程的外星人吗?一代宗师里,叶问如果能去东北的话,会见识到完整版的64手吗?星爷功夫2的剧本用Sora2翻拍出来的话,还有比如来神掌更牛的招式吗?惊天魔盗团都出3了,盗梦空间就不考虑出了2吗?仙剑奇侠传能不能拍一个大完美结局呢? 作者 / 阿汤 & 卡尔 本文由人人都是产品经理作者【卡尔的AI沃茨】,微信公众号:【卡尔的AI沃茨】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Sora生成视频截图
在流量焦虑与注意力稀缺的双重驱动下,“短平快”成为营销的主流打法。然而,当内容被压缩到极致,用户体验是否也在被牺牲?本文将从用户心理、平台机制与营销策略三方面,系统剖析“短”成瘾背后的逻辑,并探讨如何在效率与价值之间找到平衡点。 当你打开手机,指尖在屏幕上轻轻地滑动,新的内容便如潮水般涌来;这种无需等待、即时可得的“短”形态内容,早已渗透进现代人生活的每一个缝隙。 从通勤路上的碎片时间到睡前的片刻闲暇,看“短”,似乎成了当下内容消费的绝对主角。 然而,当“短”从一种便捷的内容形态异化为让人难以自拔的成瘾工具时,我们不得不停下滑动的手指,追问这种营销玩法背后的逻辑,以及它是否真正符合用户体验的核心价值。 “短”成瘾的底层逻辑:精准击中人性的认知弱点 “短”之所以能成为成瘾模型在营销中的核心玩法,本质上是因为它精准地契合了人类在信息时代下的认知特征与行为惯性。 从认知心理学的角度来看,人类大脑天生倾向于低负荷的信息处理方式。当面对冗长复杂的内容时,大脑需要调动更多的注意力资源进行理解和记忆,这种“认知消耗”会让人产生天然的抵触情绪。 而“短”内容则通过简化信息结构、聚焦核心卖点,将认知负荷降到最低,让用户在无需深度思考的情况下就能快速接收信息,这种“毫不费力”的体验感,恰好迎合了快节奏生活中人们对效率的极致追求。 更关键的是,“短”内容构建了一套高效的即时反馈机制。 在传统的内容消费中,用户需要投入一定的时间成本才能获得完整的体验,比如:读完一本书、看完一部电影。而在“短”内容的生态里,每一次滑动、每一个点击都能立刻带来新的刺激,可能是一个有趣的片段、一句扎心的文案、一个反转的结局。 这种“行为即得反馈”的循环周期被压缩到极致,使得用户的行为不断被强化。就像心理学中的“操作性条件反射”,当某种行为能够持续获得即时奖励时,人们就会不自觉地重复这种行为,久而久之便形成了依赖。 此外,“短”内容还巧妙地利用了人类的“损失厌恶”心理。 通过算法不断推送个性化的内容给用户,营造出一种“下一个更精彩”的预期。 用户害怕错过可能感兴趣的内容,于是便不断地滑动屏幕,生怕自己遗漏了什么。这种“不确定的奖励”反而比固定的奖励更能激发人的探索欲,就像赌博中的开奖机制,每一次未知的结果都让人欲罢不能。在这种心理的驱动下,用户很容易陷入“无意识滑动”的状态,不知不觉中就消耗了大量的时间和精力。 “短”成瘾的体验陷阱:从高效便利到身心透支 不可否认,“短”内容在提升信息获取效率方面具有天然的优势。它能够帮助用户在碎片化的时间里快速了解行业动态、学习实用知识、获取娱乐消遣,这种高效便捷的体验本身是符合用户需求的。 但当“短”被过度工具化,成为诱导用户成瘾的手段时,其对用户体验的负面影响便逐渐显现出来,甚至陷入一种“体验陷阱”。 首先,“短”成瘾会导致用户注意力的碎片化。 长期沉浸在“短”内容中,用户的注意力很难长时间集中在某一件事情上。大脑习惯了每分钟接收多个不同主题的信息,对需要深度思考和持续专注的任务产生了排斥。 这种注意力的“碎片化”不仅影响到工作和学习的效率,还会逐渐削弱用户的深度思考能力。 当用户习惯了被动接收经过简化和加工的信息时,便会失去对复杂问题的分析和判断能力,陷入“信息茧房”和“认知浅薄化”的困境。 其次,“短”成瘾会引发用户的情绪耗竭。“短”内容为了吸引用户的注意力,往往会刻意放大情绪刺激,要么是极具冲击力的标题,要么是煽情的故事,要么是引发争议的观点。 这些内容虽然能在短期内激发用户的情绪反应,但长期来看,频繁的情绪波动会让用户的心理处于一种紧张和疲惫的状态。尤其是当算法为了提升用户粘性,就会不断推送同质化的情绪刺激内容,用户更加容易陷入“情绪过载”的境地,出现焦虑、烦躁、空虚等负面情绪,严重影响身心健康。 最后,“短”成瘾会让用户失去对时间的掌控感。 很多用户都有过这样的经历:本想只看10分钟的短视频放松一下,结果却不知不觉刷了几个小时,甚至熬夜到凌晨。这种“失控感”是成瘾体验中最核心的痛点之一。 当用户的时间被“短”内容无孔不入地侵占时,他们会逐渐失去对自己生活节奏的掌控,原本计划好的学习、工作、陪伴家人的时间被不断挤压,进而产生自责和焦虑情绪,形成“刷视频-浪费时间-自责-刷视频缓解焦虑”的恶性循环,陷入身心透支的状态。 商业价值的合理性边界:用户体验与商业利益的平衡 商业的本质是为用户创造价值,营销作为商业活动的重要组成部分,其核心目标也应该是通过满足用户需求来实现商业利益。 利用“短”来提升内容的传播效率和用户体验,本身是一种合理的营销创新,但如果将“短”异化为诱导用户成瘾的工具,追求短期的流量和粘性而忽视用户的长期利益,就显然偏离了商业价值的合理性边界。 判断一种商业玩法是否符合价值合理性,关键在于它是否能实现用户体验与商业利益的长期共赢。 真正有价值的商业模式,应该是在满足用户需求的基础上实现商业增长,而不是以牺牲用户的长期利益为代价换取短期的收益。 就“短”内容而言,合理的营销玩法应该聚焦于如何提升内容的质量和价值,让用户在短时间内获得真正有用的信息或愉悦的体验,而不是通过算法陷阱、无限滚动等方式诱导用户沉迷。 从用户体验的角度来看,商业应该尊重用户的自主选择权和时间价值。 平台可以通过技术手段为用户提供更多的控制权,比如:设置使用时长提醒、优化内容推荐算法、提供“专注模式”等,帮助用户理性地使用“短”内容,而不是让用户在无意识中被内容“绑架”。 同时,自媒体应该将更多的精力放在内容创新和价值提升上,打造真正能够满足用户深层需求的“短”内容,比如:有深度的知识科普、有温度的情感共鸣、有创意的艺术表达等,让“短”内容成为用户自我提升和精神愉悦的工具,而不是成瘾的“毒药”。 此外,商业价值的合理性还需要考虑社会层面的影响。 当“短”成瘾成为一种普遍的社会现象时, 它不仅会影响个体的身心健康,还会对社会的文化氛围和价值观念产生负面影响。 不论是企业还是自媒体创作者,作为社会的一份子,应该承担起相应的社会责任,在追求商业利益的同时,积极引导健康的内容消费观念,避免过度营销对社会造成的负面影响。 只有当商业行为既符合用户的个体利益,又符合社会的整体利益时,才能真正实现可持续的发展。 回归体验本质:让“短”服务于人的价值实现 在信息爆炸的时代,“短”内容的出现是顺应时代发展的必然趋势,它本身并没有好坏之分,关键在于我们如何使用它。 营销的核心应该是以人为本,通过创新的玩法和优质的内容为用户创造更好的体验,而不是利用人性的弱点诱导成瘾。当自媒体能够真正站在用户的角度思考,将“短”作为提升内容价值和体验效率的工具,而不是成瘾的手段时,才能实现商业与用户的双赢。 对于用户而言,也需要保持理性的认知,学会掌控自己的内容消费行为。在享受“短”内容带来的便利和愉悦的同时,要时刻警惕成瘾的陷阱,合理安排使用时间,主动选择有价值的内容,避免被算法牵着鼻子走。 只有当用户能够自主地驾驭“短”内容,而不是被“短”内容所奴役时,才能真正享受到它带来的价值。 总之,“短”作为成瘾模型在营销上的核心玩法,虽然在短期内能够带来流量和收益,但从长期来看,这种偏离用户体验本质的做法是不可持续的。 商业的终极价值在于为用户创造幸福和价值,而不是制造成瘾和焦虑。 让“短”回归服务于人的本质,让营销玩法契合用户的真实需求,才能在信息时代构建起健康、可持续的内容生态,实现商业与人性的和谐共生。 本文由人人都是产品经理作者【卢山@杠叔讲体验】,微信公众号:【杠叔讲体验】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
您可以订阅此RSS以获取更多信息