图形化理解 AI 的幻觉,涌现,底层运行方式

导语:如何直观的理解 AI 的幻觉,涌现,底层运行方式?我想用一个图形化的思路,给那些‘爱学习,但不爱高等数学公式’的同学一个易于理解的形象化思路。

对于AI 大模型的爆发,我常常一边兴奋于技术进步,一边焦虑于未来工作,心情上上下下。学着使用各种AI 工具,结果大多是时好时坏看缘分。寄希望于好运气终究不是长久之道,要解决这些焦虑困惑,最好方式是了解底层原理,深入技术细节。可放眼望去,“transforms架构的多头自注意力机制”,“文生图模型的马尔科夫链扩散过程”,“生成对抗算法的纳什均衡”,不禁感叹模型的尽头是高数,调参的终点是玄学,看到概念已然吓退一众同学,再摆出数学公式就更夸张了,满眼高数课都没有的符号,大多数人第一问题往往不是公式怎么看懂,而是“老师..请问这个符号怎么读啊?”

大模型表层应用和深层原理之间,留给大多数人一道很难逾越的高墙,作为做过一点 AI研究(生成对抗方向)又可以做些图形化的设计师,我想用自己有限的理解给那些“爱学习,但非技术族的同学”一个更易消化的思路。这里列出了文章的几个核心内容: 

  1. 用极简的方式近似解释大模型的运行机制,形象好消化。
  2. 当我们站在上帝视角,“AI 幻觉”与“创造力”仅一线之隔。
  3. 用“盲人理解颜色”的故事解释大模型的“涌现”机制。
  4. 为什么“会做数学”是值得警惕的 AI 能力
  5. 在上述理论下的一些有趣实践。

图形化理解模型运行机制

(一)如果需要一个最简的工作原理介绍,大语言模型只在重复一件事:“预测下个词(next word perdition)”纯粹且有些粗暴。可以近似的理解为因为它看过全互联网的海量的文章对话,所以知道下个词最该说什么。按前 OpenAI 专家Andrej 的说法“大模型压缩了整个互联网的数据” 不论你问什么,它总能找到类似的,一个接一个预测下一个词,进而形成一句话,一个答案,一篇文章。

简单测试,大模型似乎在用这个方式回答,比如当我们给大模型一个常见和开放的问题:一个人,没有额外条件和限制,那么他会看向什么?简化一下: 他望向(__),填空。

对于这类常见问题,不出意外答案就是出现频率比较高的那个,这个例子能形象的理解AI如何处理简单任务。至于每次提问答案会稍有不同,是因为它会在概率高的前几个答案中随机选一个,这个设计是开发者为了避免大模型回答重复缺少创造力而刻意做出的。

(二) 但上面这个问题过于简单不足以解释大语言模型的能力,因为我可以问一个互联网上从来没出现过的问题,比如我们把“一个人看向哪里”改成一个名为A1B2的机器人看向哪里,‘A1B2机器人’是个随机的名字,我们也可以用 C3D4,使用google搜索结果这些名字结果是0,不存在于人的过往知识或训练数据中。

AI再次按之前的规律找,找不到完全匹配的答案,但AI通过寻找“距离相近”的词“加减计算“来给出答案, 假设模型找出与A1B2 机器人最相近的词是 星战”R2D2机器人“ 那么A1B2 机器人看向的地方更可能与R2D2机器人看向的地方相近,已知R2D2机器人看向太空,那么 A1B2机器人看向的地方可以在”太空“的附近找,比如深空,星空等等。最终答案之所以和太空不同,是因为A1B2 与 R2D2 不同,所以更精确的方法是, A1B2机器人看向的地方 = 太空 +(A1B2机器人- R2D2机器人)。

“A1B2 减去R2D2”如何计算,对人来说有点摸不着头脑,但这正是 AI运行的基础操作:在训练好的模型当中语言可以很好的被计算,比如 “水 + 火 = 蒸汽” “国王 +(女人 – 男人)=王后” 词可以被计算并得到一个结果,只是在这些诸如水+火可以很好理解的例子之外,机器计算出的绝大部分结果没有对应的人类语言描述,或者说 ”A1B2-R2D2 “的结果客观存在,但我们的词汇中没有这个词。 但这并不妨碍AI可以得心应手地用一串数字表示和计算。

回到算式,按之前的逻辑不难发现,A1B2机器人看向的地方 = 太空 +(A1B2机器人- R2D2机器人) =天空 +(A1B2 机器人 – 人),那么结果可能会在天空和太空中间取出一个词,这个词在一些测试中结果为“天际”, 可能是融合了天空和星际空间的感受。如配图中 AI 把“天空“朝向R2D2 望向的”太空“方向不断拉近,但又不会完全拉到”太空“这个词的位置一样。需要注意的是:这里的“距离相近”““加减计算”都是在高维空间进行的。找到距离相近的过程类似技术文章中说到的“嵌入“,而加减计算类似技术文章中高维空间的”向量运算“,

(三)“取近似和加减计算”可以用来回答 AI从未见过的问题,但这样的浅显规则看似很难形成智能和想象力。对于有深度的/有逻辑问题仍有挑战,当我们将“A1B2机器人看向哪”改为:“听到主人匆忙的脚步声,A1B2 机器人看向()”那么之前的机制都不太够,这个问题中,字面之外的信息太多,直接找到相似的信息可能越发困难了。这时“深度神经网络”的意义就体现出来了。“深度”意味着神经网络有上百层,浅层按字面的意义去近似,去理解,但更深的层,AI 抽象成更为上层的概念。类似于:人与机器人的社会关系,他们要遵循的互动规则,匆忙脚步声传达的感情基调等等,但正如之前的讨论,除去我们可以恰好举出一些类似国王王后计算的例子,很多概念的抽象和计算的结果大部分不能通过我们现有的语言描述,只是利于大模型表示和计算的一长串数字。

在这个例子中,A1B2 机器人看向的地方 = 人看向的地方 +(匆忙的脚步声 – 没有脚步声)+(A1B2机器人 – 人) 在实际测试的答案中,有一个答案是“主人的身后”,这个例子可能反映出模型并非简单的计算了字面上的逻辑关系,还包含了机器人与人的关系——“保护主人安全”以及句子背后的情绪——”匆忙“预示着可能的危险的氛围。这里不出意外是更深层的神经网络在发挥着作用。

这三个层次在解释AI 如何回答问题的同时,也可以近似对应技术文章中的 “概率统计”“嵌入及向量计算”“深度神经网络”几个概念。 这些解释不严谨,但多少可以帮助没有技术基础的同学从 0 到 1 的理解 AI运行的机制。

形象化理解模型幻觉——是幻觉还是创造力?

有了上面的例子,理解“幻觉”就容易多了。——模型常常用“找近似数据,融合计算答案”的方式运作,它在所有类似的答案上画上一个圈,圈里都是近似答案,随机找一点都是答案的备选,之后模型吐出一个评分高的备选即可。(这个圈住的部分是高维的, 类似技术文章中提到的manifold流形)

一般情况下,大模型能通过类似画圈找近似解的方式,给出正确答案:比如:小明看到爸爸在跳舞,小明(___),填空。模型在它训练好的空间中可能有“小白看到妈妈跳舞,小白学着一起跳舞”“小青看到老师跳舞,小青跟着跳舞”的数据信息抽象。模型在类似的数据上画圈,不断近似,直到落到一个精度符合要求的地方,答案就有了——“小明也跳起舞来”,这个答案看起来合情合理,逻辑通顺。

但是这个机制偶尔会出现问题:比如我们的问题变成:小明看到小羊在草地上吃草,小明();按照刚才在数据空间找近似的思路:因为模型学习并抽象过 :“小明看到小羊蹦蹦跳跳,小明(也一起蹦蹦跳跳);小白看到小羊 咩咩叫,小白(也学着咩咩叫)”这样的数据,那么画个圈近似一下,AI重复刚才的逻辑,再次给出了答案:

“小明学着小羊吃草”的答案在我们看来,模型出现了幻觉。符合直觉的逻辑是,小明做的应该是拿起草去喂小羊,但仔细想想模型的逻辑,学着跳舞是对的,学咩咩叫对了,但学着吃草就错了。 模型也很冤 —— 我是在你们的数据中学的呀,抽象的规律也找到了:小孩子会学习模仿。

说 AI 有些冤枉并非同情。而是我感同身受。因为我女儿3 岁的时候,她第一次到了东北一片开阔的草地上,第一次看到小羊吃草的反应是“学小羊趴在地上吃草”。当时我只是哈哈大笑觉得好玩,但今天回想起来,它让我陷入了思考:1 机器的幻觉并没有复杂的背后机制,它只是基于已有知识的严谨推导,正如孩子知识不足而出现反常判断一样; 2 同样都是错误答案,人们对待机器的忍耐度更差一些,这样的偏见并不利于我们客观评估模型性能。(注:“学着吃草”是个人假设的一个答案,用于说明幻觉背后的可能道理)

想到爱因斯坦曾说“过去,现在,和将来,只是人们对于时间的固有幻觉” 在这个意义上,人来决定什么是“幻觉“可能是不公正的,只有当我们站在造物主角度看待 AI 的各种反应时,也许才可以更公正的理解 AI背后的逻辑。

关于“涌现”机制的一种形象化解释

为什么大模型可以”涌现“出智能,我认为 Ilya 关于”盲人“的讨论是个很好的类比。(虽然初衷并非用于解释涌现)—— 我们过往的经验中,机器的思考模式和人有比较大的区别,机器按规则运行,没有感情,缺乏灵性。 人所特有的“智慧,创造力“机器无法理解,我们很难通过语言教会给机器。 正如同我们无法将丰富多彩的颜色感觉通过语言教给盲人一样。 

但当看似死板的知识规模不断增加,发展到几个数量级之后,情况发生了变化: 我们发现当盲人的知识量很小的时候,他对颜色的认知很机械不智能——他会说花是红的,叶子是绿色,没有意外也没感受到他对颜色理解展现出的智慧。但随着接触知识越来越多,他学习了光是电磁波, 电磁波有波长和频率,可以反射折射。不同颜色是不同频率的电磁波等等知识之后,这个盲人可以自发的形成新的认知——比如红色和橙色更接近,因为他们的波长更接近。 红色相比之下更具有温度感,因为红外线是热的辐射形式,可以传递热量,红色距离红外线最近。。。等等。 即使我们没有教给盲人这些信息,他依然通过规模化的知识“绕道”推理出了这些信息,这”很意外,很聪明,很智能“。 究其原因,”规模“的不断扩大在其中起了至关重要的作用。

 盲人感受到的“颜色”到底是什么感觉,是不是真实?我认为也不用纠结具体形式,如同同为哺乳动物,蝙蝠用“声音”看到了世界一样,我们试图用大脑和眼睛去还原这种感受是徒劳的,但这不能否认蝙蝠用了完全不同的一套系统实现了匹敌人类感知空间的能力。类似的,模型涌现出“智能”到底是什么感觉,这种感觉真实吗? 我们只是知道他存在,但不好描述,毕竟蝙蝠再远依然是我们的哺乳动物远亲,而机器连生物也不是。这可能可以解释Ilya所说到的GPT 可能有一点意识,“但和我们理解的意识有很多不同”。终究,大语言模型的“涌现“出的智能,类似盲人产生了新的对颜色的感受和知识,“规模”是关键。

AI将如何突破人类能力

假设我们有一个包含全部人类知识的集合,正如图中有彩色点组成的圆形,大大小小的点表示了我们不同学科,不同分类的知识。可以看到对于一个类似“hello” 应该如何回答的问题,它在中心且周边的点很密集,因为这样的知识具有最为丰富的相似数据支撑和准确的答案,不论是大模型的数据中还是人们日常生活中,我们和模型都被训练的很好,也知道如何回答,但对于我所在的”设计专业“ 它周边的知识密度就会稀疏一些,并非所有人都了解,当我们问”什么是AI 生成设计“那么答案可以被找到,但远不如“hello“ 应该怎么回复那么简单和准确。 对于图中边缘蓝色的部分,是一些更加垂直和专业的领域,比如标准生成对抗网络的优化公式,可能就处于人类知识图景中比较稀疏的部分,它周边的知识和数据密集程度远不如两者,这时我们问一个新的问题“结合生成对抗的左右互博和 Transform注意力机制的优势给出一个新的生成架构”,不论是人还是大模型,找到正确答案的难度就会增加很多。

人类很多新的知识,存在于这个人类知识图谱的“空隙”当中,比如一首全新的更加优美的诗,可以通过拟合历史中多种优美的词和表达来合成,它距离现有知识不远,或说就在现有知识的空隙当中打转。而有些知识不能通过简单的拟合来达成,正如相对论很难诞生在在牛顿力学时代的人类知识图谱之中,它很难通过图谱中现有知识来拟合。这种突破需要新的技巧。

过往的科学家包括爱因斯坦大多通过数学知识的高度抽象来发现现有知识体系之外的新知识,这就是为什么当初 OpenAI 会做数学的MaxQ的传言引发了AI超越人类的恐慌。 原因是如果AI掌握了很好的数学抽象能力,相比做一首更优美的诗句在现有知识体系中打转,它更可能借助数学实现人类知识边界的突破。一旦 AI 处于知识边界之外,那么就是原子弹对传统炸弹的碾压优势,人们无意如同拿着长矛大刀对抗AK47, 所以“学会数学”确实值得人们警惕

另一方面,过于担心也是不必的,因为在过往的AI系统中,人们实现了类似突破的技术,比如alphaZero,它抛弃了在人类棋谱中拟合更好棋局的方式,而是通过强化学习,来到了围棋技巧的无人区。 通过用刚刚“人类知识图谱”的概念来表述,它的知识已经在这个图谱之外,唯一的问题是它是一个孤零零的,微小的点,无法形成对现有知识体系的整体超越,只有当这些微小的点足以形成相对密闭的知识网络,那时可能才是人们需要警惕的临界点。

有意思的推论 —— 与现有的AI 开些小玩笑

当我们已经有了人类知识图谱这样的形象的概念,那么可以想象一些有意思的推论。首先图谱之外的空间是什么令人深思,这里包含着我们尚未解决的难题,比如核聚变如何控制,统一理论如何得出。但当我们去查看占据图谱之外的空间时,会发现几乎 100%是白噪声(对于生图 AI是无效的像素组合) 和胡言乱语(对于语言模型,是无效的字符组合),也不难想象,相比E=MC² ,这里存在更多的是 E=M²C、M=EC ²、M=EC….,相比之下有用的信息像是广阔宇宙中的尘埃。


1. 训练的得越好的模型,生成结果越是远离这个外部空间。可以推测让模型生成边界外空间的内容,可能会逼疯它。所以这里我们给最强 Midjourney 一个有意思的任务:生成白噪声——结果不出所料,即使是非常清晰且合理的 prompt,也可以难倒 Midjourney 这样强大的模型,即使是V6 这个新的模型也无法按照 prompt 生成。(经过测试,混元也是会出现同样的现象)


2. 在这个知识图谱中,越靠近中心的知识越通用,AI 可以信手拈来。正如 hello→()填空这样的知识, 画图也是同样的道理,短头发的男性和长头发的女性会更靠近中心,可以“画圈近似”实现和生成。而长头发的男性就相对靠外一些,因为这里的数据密度显然要低得多,生成质量也会差一些。沿着这个思路,在边缘处的知识对模型都是一个挑战,比如从 1 数到 10,这个任务在模型看到的材料里很常见,容易回答。但从 1 数到 1000,这个既不常见对 AI 画圈找近似答案的运行机制也不友好。所以看似一个非常简单的问题就能难道例如文心一言这样的国内top 的AI模型了。


从 150 开始,文心一言就忘了怎么数数,智商捉急了。沿着这个思路,可以对模型做一些攻击。这些不常见,精度不能有误差的问题对模型这种画圈找相似的机制都会是巨大的挑战。

写在最后

感谢阅读,乔布斯在斯坦福那场著名演讲中提到“connecting the dots”。一个个看似零散暂时无用的知识点,会潜移默化的连接并成就一个人。机器连接足够多的知识点最终形成了能力的“涌现”;而Jobs,不断的connecting the dots 实现个人能力的“爆发”,这背后也许有着某种联系和共通的道理。作为一个设计师,对 AI 的理解有限,观点仅做参考,只希望通过这些“dots”,多少帮助“不懂技术,但要懂 AI” 的非技术专业同学不落后于这个快速发展的时代,有所启发有所思考。

新起点 ,新征程

从联想回到腾讯,欢迎大家关注腾讯新闻在未来的改版设计。

xiaohui.ai已成为联想官网一员,使用https://xiaohui.lenovo.com访问。感谢联想及研究院的同学们,正是大家的努力,使我们的小梦想仍在继续。

创造力2.0 —人工智能时代的设计变革与机遇

近期我们针对自己的人工智能设计引擎,做了多次内外部分享,以下为其中一个较为全面的演讲实录,包含过去两年我们对人工智能设计的思考和技术实践,全文7000字,需要一些耐心来阅读:)

同学们下午好!我是联想研究院设计平台团队的高歌。非常开心收到CLAPS项目组的邀请给大家分享一个人工智能与设计在未来如何交叉,如何碰撞的话题。

实际上今天分享是有些压力的,原本研究院的设计出去讲很有优势,我们也很自信的。之前我们见到设计师,就给大家讲技术,大家都很兴奋——你们会做设计还懂代码,听着就很牛;见到工程师我们就讲梵高莫奈毕加索,大家也觉得很牛,因为不光懂技术还有艺术范儿。 但是你再看今天,现场状况不容乐观:设计师来了,工程师也来了,难度进一步提升。好在大家都是自家人,不用太客气,我放开了讲,说的不好的欢迎批评指正.

那么我们为什么会选这么一个人工智能+设计的主题,我想研究院是站在趋势上看问题,在研究院做设计,我就在想设计的趋势是什么? 我们就看到了这样一个趋势:我认为设计领域在今天出现了前所未有的变革机会。

说到变革,我们会发现自然科学领域和文学设计领域巨大的差别,2000年前,春秋战国时期,‘日行千里’是人对于速度想象的极限,而2000年后的今天,也正是前两天的新闻,spaceX很快可以把普通人送上太空,自然科学的变革翻天覆地。反观文学艺术设计领域,在2000年前,春秋战国时期的绘画(人物御龙图),或是孔子的文章,是文学艺术的高峰,在2000年后的今天,机器可以帮我们打字更快,搜索知识更全,但”学而时习之,不亦悦乎” 这样的诗句,2000年过去了,机器依然写不出来,可以说这个领域与2000年前相差无几。

为什么文学设计领域仿佛2000年没有什么变革?大多数人给出的原因在于:灵感,直觉,想象力,是人独有的,科学技术是不能替代的。我认为在过去2000年这都是对的,但在当今即将发生变化。就如同以前谈论围棋,棋手的直觉,灵感,棋魂,等等,这些词汇在设计中也很常见,但alphago之后,大家已经不这么说了。我认为设计行业比围棋要难,但随着AI海平面的上升,设计创造力这个最高峰,也有被淹没的可能。那淹没了是不是机会没了?我的理解相反,是机会来了。

我们说到探索新技术,首先要讲价值,毕竟我们在的是商业公司。我这里列出了我们认为的两个最大的价值:

第一个 叫做大规模个性化,人对设计个性化的追求是不断提高的,就像吃饭一样。50年前,计划经济时代,大锅饭大家吃饱就很开心,现在呢,你给每个人同样的饭,大家可能就不太接受,但你看,现在我拿出个手机,打开个APP,你也拿出个手机,打开APP,发现手机和APP一模一样,未来,大家会满足我的东西和你的东西完全相同吗?我认为随着时代的发展,大家不会满意,会追求为自己定制。 大家还在使用人人相同的设计,不是意愿问题,而是一个生产力问题,因为我们没有1亿个设计师给10亿人做设计,那未来这个事怎么解决,就要人工智能设计来解决。这是我们做人工智能设计的第一个价值。

第二,创新社会化媒体营销,大家只要用抖音快手就了解,在今天,社会化营销的力量对产品的商业成功起到了前所未有的重要作用,这里有几个例子,snapchat,国外知名的社交软件,在去年他发布了一个性别转换滤镜,功能一发布,市值当周上涨9%,Prisma,一个人工智能滤镜应用,就拿到千万的融资,当然还有大家都知道的,微信军装照,10亿PV,就是10亿的浏览量啊。这是什么样的量级和价值,我们哪天做个营销,那怕100w的PV,在我们公司都是空前的成功营销。这些例子的背后都是人工智能,图形图像生成设计的应用。看上去每个都有巨大的商业价值。

好,在我们正式开始技术实践之前,一件非常重要的事就是选路线,AI那么多方法,用哪个方法去做设计?换句话说,图形设计到底对应什么样的计算问题?这是一个非常关键的判断。

首先如果你问一个设计师,设计是怎么做的? 那么最常见的一个答案就是,设计师会把设计描述成一个决策问题,先是空白的画布,分析需求之后填背景,填颜色,调整。加图形元素填颜色调整,加字体,填颜色。。。。一步步做下来设计就完成了。我们可以把它看做是一个:在无限的决策组合当中,寻找最优的设计决策路径的过程,那么有些懂技术的同时可能就了解了,这可以抽象成一个随机计算问题,用强化学习的方法来实现,当然,我们发现业界竞品中比如阿里鹿班就是这么做的。我认为一个工程师和设计师分开合作的团队,常常会走到这条路上。

另一个设计抽象成数学问题的思路,我们不看设计过程,只看结果,比如面前有十张图,你不用想他是怎么来的,只看图面,你会发现,所有的图都是形状,颜色,布局,纹理质感文字的组合, 那么我们就可以把它看成:在无限的形状布局颜色的集合中,找到‘美的组合’的分布,这就变成了一个概率统计问题,那么他背后需要用到的方法是生成对抗。 以我自己交叉学科的判断,我们要走这条路。(至于为什么不走强化学习,我们就不细谈了,主要是因为设计不同于围棋,并没有唯一解)

好,由此,我们就确定了我们最上层的路线:用生成对抗来实现目标

这里描述的可能有些技术化,如果大家还不明白,就看图片中这个例子:

第一个问题问大家 :为什么画鬼容易画人难? 大家想过这个问题没有? 暂时没有答案就看下面两个就明白了,请问:大海捞针,大海捞鱼,大海捞水,哪个难?相似的问题:请问制造一个整齐的屋子以及制造一个乱糟糟的屋子那个难?这次就清楚多了,当然是整齐的屋子,为什么呢?大家可能有不同的答案,但我的答案是,因为制造一个乱糟糟的屋子的可能性要远远大于制造一个整齐屋子的可能性。 随便整就能整出乱糟糟的样子,而整齐的很难。我们再看,这个整齐的屋子不就是优秀设计吗? 而乱糟糟就是其他设计, 那我们设计的数学意义就是”在无限的形式布局颜色等集合中找到美的分布“


说了这么多,我们要做些有技术含量的事了,开始实践。工具上,和大家做人工智能的基础工具差不多,tensorflow加python。用生成对抗的算法及我们的设计数据集训练模型然后测试。这里很多人不了解这个G A N ,生成对抗算法,我认为感兴趣可以去查查这个造假者和警察之间的故事,我们常用他来解释GAN,简单说,警察就是一个最为常见的分类网络,我们把好设计和随机数放进去训练一个能区分设计好坏的模型。 造假者是另一个网络,随机数进去出来一些随机设计,之后接到警察这个网络上。 好,那么怎么训练呢,我们要先训练一个不那么强的警察,大体能分辨好坏设计,然后固定住警察,训练造假者,优化造假者使警察认为他产生好的设计,之后再固定好造假者,训练警察,让警察把造假者的输出都认定为不好的设计。多次循环,这样他们两个就会越变越强,这就是大伙可能听过的左右互搏了。当然最终我们要的是造假者的结果哈。 虽然你可能还是不明白GAN是什么,但不管那么多,“干”就完了。

好,那么结果来了——你看我们喂给这个神经网络一些东西,看它能生成什么?

首先,我们给他几百张海报,这是设计师常见的需求了。大伙可以看屏幕右侧,从左到右是随着它训练时间的增加,得出的结果。最左边他还什么都学不到,后来,好像逐渐学到了一些颜色,再之后又好了一些,但也就这样了,不会再好了,我们拿到结果之后叫他“破败风” ——显然没法用; 再看头像,我们给网络20000张头像,开始也是什么都出不来,但后来它逐步知道了,奥,原来这里是眼睛,那里要放嘴等等,最后大体能有些接近的结果。以及下边,这个是Mr.doodle国外知名的简笔画家,大伙可以看到些奇怪的,有意思的结果

Mr.doodle简笔画生成对抗训练过程
Read More “创造力2.0 —人工智能时代的设计变革与机遇”

运营好设计团队的一点体会

如果有耐心向前翻,在我博客中有几篇关于团队的文章,比如『如何将创新设计做到业界领先』,总结了怎样搭建起创新团队,使用什么流程做好创新的设计和传播。当做好项目成为日常,团队搭建已经完成(一如banner位我们的团队大家庭) ,那么拉长时间线, 如何保持这一趋势,运营好一个团队,就成了接下来要操心的事了。

在我看来,运营一个团队的首要目标是保证团队人员和产出的可持续,至于能力的提升,文化的建设,最终都是服务于这一目标,纵观这几年,我们组的离职率明显低于周边(常年<10%),每年公司员工调研下的经理绩效指数都超越公司指数,可以说几年的摸爬滚打让我有了一些草根但实用的运营方法。这其中既有人为的方法,也需要系统的支持。

规则方法

我发现外界对设计师的工作氛围多少有些‘友好的偏见’认为设计师就该工作在一个无拘无束的环境中,仿佛不这么做创意就被扼杀了。好的环境促进创意的迸发没有错,而且政治正确得不能反对。但我认为这个自由不能走极端,「适度的规则」依然是保持团队运作的底层逻辑。

比如,我们今年在组内发布了‘UXD设计团队职业化要求’,分别在考勤,需求管理,设计评审和会议纪要等几个方向上给出明确的规则和模板。推行这个规则时我和大伙说: 每当和外部门开会,尤其是无关紧要的小会议,对方能在会议之后发出清晰的结论和下步工作,会让我感受到这个团队是个职业的团队。我们希望设计团队每个人都是这样职业化的成员,所以我们规则中有一条“主持必发会议纪要”,要求大家要有这个责任的意识。类似的“无需求不设计”“团建视为工作”等等,再小的规则,多个叠加在一起加以平时的关注和强调,那么团队的职业化水平就拉开了差距。

相比需要大家执行的规则,我们更多的是给出了可以促进团队公平,让团队更具参与感的规则。用参与感举例,我们希望让每个人都能成为组内团队事务的主导者,为此我们找到了超过10种公共事务,项目资料维护和管理需要接口人;个人专业能力提升材料和评价也要统一协调;组内人力统计每周都要更新;几十个研发材料的借用回收也是不大不小的责任,即使是我们的设计实验室也需要制定规章和依照规则使用。由此,团队中很多成员不知不觉成了我们的管家,参与感被我们人为主动搭建起来。

每个负责人在自己的任务的维护和执行中,不仅获得了主导事务的尊重,锻炼了协调能力,最重要的是做着做着,自己成为了团队大家庭的一员。在大家增加了参与感的同时,团队运营也更顺利了,因为 每一件都是团队运营所需的小事,但放到一起就成了团队运营好的全局。

团队文化

‘文化’很抽象,按学院派的思路,使命、愿景、价值观是团队文化的基础,但用3个抽象的词去解释一个更抽象的词看上去很不直观。我认为可以用更简单的方式去理解,团队文化的形成,取决于一系列关键的人和关键的事,连在一起便是团队文化。

我们的文化是吃苦耐劳,那必定少不了一两件艰苦卓绝的奋斗故事,我们的文化是精益求精,那么吹毛求疵的人必定不只一个两个,这些人和事被大家熟知和传播后,团队内的人会被潜移默化影响并跟随这个行为模式而动,团队外的人会因为这些人或事形成对团队的认知,这就形成了文化。

我们团队的文化是什么? 如果只用几个字来形容,我认为是 ‘不甘平庸’ . 我们本身没有金字招牌,算不上顶级团队,但这不意味着我们就要泯然众人,我想如果哪天我看到一个流水线式的,平庸的设计团队,我们一定会寻求改变,而事实上我们在突破传统设计团队的路上一直在努力,我们每年做软硬件一体的自研产品,推出过“是设计师就撑100秒”的设计圈传播事件,用我们引以为豪的技术能力,搭建辅助设计师能力的智慧工具集 xiaohui.ai;每一个都是去传达我们这一不甘平庸的声音。我也希望用这个不敢平庸的文化去推动团队的不甘平庸的项目故事,不断形成外界对我们团队文化的认知。

工具支持

说到系统支持,对于懂技术能动手的设计团队来说,自信满满。 我们有很多定制化的团队运营需求,比如我们自己的设计工作室预定管理,我们的团队任务轮询制度的执行,团队设计用模板的实时查询及复用,现有工具满足不了。没有工具难不倒我们,自己做一个便是。所以现在我们的同事打开微信,最快的速度就能看到我们组自己定制的UXD微信小程序。

需要预定我们自己的实验室?我们有自己的专属系统;手头缺团队资料?微信一键下载本地或转发。下周的周会分享和主持是谁?打开小程序即可了解。尤其是开头说到的团队规则,推行起来也容易多了,毕竟打开我们小程序的组内资源,组内规则赫然在列。

团队的成长正如一个人的成长,团队的运营就是对自身成长负责的过程,我认为过去几年我们有成长,但接下来团队在运营中必定不会平静,毕竟不甘平庸的一个外在表现就是喜欢折腾,2021,继续坐稳启航~

两年坚持带来的小收获 — “北京杰出青年设计人才”

我认为设计领域在今天出现了前所未有的变革机会。对于这个变革的判断,我们在过去的两年时间里,学习,摸索,实践,从一个门外汉一步步走过来并在特定的AI设计领域发展出自己的长手指,在今年7月,我凭借部分现有成果,入选北京市杰出青年,获得青年设计人才项目基金,这使得我们对行业变革的判断又多了一份信心支撑。

提到时代变革,我们看到不同领域间巨大的差异,自然科学领域,在2000年前,日行千里可能是是人对于速度想象的极限,而2000年后的今天,也正是最近的新闻,一个商业公司,凭借机器可以把人类送上太空,变化翻天覆地。反观文学艺术设计领域,在2000年前,孔子的文章,春秋战国时期的绘画(人物御龙图)代表了当时创造力的顶级水品,2000年后的今天,机器依然写不出“学而时习之,不亦悦乎”的诗句,无法创造性的构思和设计图画。2000年过去了以往如初,没什么变化。

是什么造成在不同领域,机器的表现有如此大的不同?大多数人给出的原因是:灵感,直觉,想象力,是人独有的,是科学技术不能替代的。我认为在过去2000年这被验证是对的,但在当今即将发生变化。就如同以前谈论围棋,棋手的直觉,灵感,棋魂,等等,这些词汇在设计中也很常见,使人们对待独有智慧和创造力的美好描绘。但alphago、alphazero之后,大家已经很少这样形容棋手的技巧了,因为围棋界的灵感直觉想象力已经被机器超越了。再看设计,我认为设计行业比围棋要难,但随着AI海平面的上升,最终设计创造力这个最高峰,也有被淹没的可能。那淹没了是不是机会没了?我的理解相反,看到趋势,抓住机遇,变革即是机会。

在当今,我认为人工智能生成设计的应用趋势正在显现,一个方向是大规模个性化第二个是新兴社会化媒体传营销

大规模个性化: 在互联网开始发展的很长一段时间里,大家对个性化的奢求不高,正如同在计划经济时期大家吃大锅饭一样,虽然没什么个性化,但毕竟能吃饱就不错了,这个时期很少人会想开小灶。时代在发展,数据和计算力在爆发,人们越发不满足与别人看一样的新闻,打开千篇一律的博客。越来越多接触到个性化的信息,以至在今天我们每个人打开同样的购物app,看到的信息已经完全不同了,这些不同部分满足了个性化需求同时更多的是服务于商业公司的利益。而随着数据计算力的爆发增长,这个趋势必然加剧。 人们不满足吃同样的饭,穿同样的衣服,那么再进一步,也不会满足用同样的手机,开同样的车子,打开一个APP色彩形式布局都一样同样不符合个性化趋势,而当前这些需求不能满足的瓶颈依然是生产力的不足,当前我们没有那么多设计师和工人给每一个人量身定做。对于设计领域,我认为这些限制将会被打破。用人工智能生成设计,我们有机会实现行业的变革,这正是我们所说的行业机遇。

新兴社会化媒体营销。最近看到很多有意思的爆款营销事件。 比如snapchat前一段发布了它的“男女变性滤镜”,这是一个和人工智能图像相关的功能,一夜之间爆红网络,更重要的是,snapchat公司股价随即提升 9%。AI图形图像技术的商业价值毋庸置疑。对于国内的人来说,更熟悉的可能是前两年的微信朋友圈的“最美军装照”,凭借AI的图形图像处理和营销策略。短时间获得了10亿PV。我不懂营销行业,但不需要了解这个行业也知道10亿PV能造就什么样的广告价值。而对于一个设计师而言,我认为把一个头像处理到一张军装上,这本来是一个设计工作。所以我们需要认识到AI+设计这个领域正在发生的变革,如果我们能站在这个变革风口浪尖上,必然会创造更大的价值。

基于以上的判断,我们便开始了从0到1的探索和尝试。从做出判断到有初步成果,过程曲折——掌握AI基础,理解挑选算法,设计数据抽象,制作数据集,数据增强,开展训练,测试结果,算法调优,失败重选算法。 如此往复,关于我们对如何结合设计与人工制的历程,详见前一篇7000字长文(演讲实录)。我们最希望的就是,和我们一同参与到推动变革的过程中,正如我在对外宣讲中说到的愿景“把握时代机遇,赋能设计产业”