learn-tech/专栏/技术领导力实战笔记/206邵浩:人工智能新技术如何快速发现及落地(下).md
2024-10-16 06:37:41 +08:00

67 lines
9.7 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

因收到Google相关通知网站将会择期关闭。相关通知内容
206 邵浩:人工智能新技术如何快速发现及落地(下)
你好,我是狗尾草科技合伙人,人工智能研究院院长邵浩。在上篇文章中我们聊了一些人工智能技术在落地过程中的难点痛点。今天,我们接着这个话题,继续聊聊在新技术层出不穷的情况下,技术管理者如何快速发现可应用的新技术,并将其落地到实际产品中。
新技术层出不穷,如何发现新技术
如果有关注arxiv网站的读者会感觉到算法在近年来的迭代速度非常快速。以语言模型Language Model预训练方法为例代表性方法有TransformerELMoOpen AI GPTBERT以及最新的GPT2。其中Transformer于2017年6月被提出。ELMo的发表时间是2018年2月刷新了当时所有的SOTAState Of The Art结果。不到4个月Open AI在2018年6月基于Transformer发布了GPT1方法刷新了9个SOTA结果。又过了4个月横空出世的BERT又刷新了11个SOTA结果。到2019年2月Open AI最新发布的GPT2包含15亿参数刷新了11项任务的SOTA结果。
因此,可能我们还在尝试验证一个算法的时候,另一个新算法已经刷新了原有算法的指标。那我们如何能够保持对技术的敏感度呢?以下是我的几个建议:
首先优秀论文英文为主是必须要跟进的尤其是阅读算法的原文对于复现和修改算法细节非常有必要。其中axivhttps://arxiv.org/ )是一个非常重要的平台,虽然没有同行评审,会带来良莠不齐的问题,但鉴于论文更新速度快,很多重要的成果都会在此进行预发布。一般来说,优秀的论文引用量都比较多,英文苦手也不用担心翻译问题,因为网络上会有很多业内高手对好论文进行解读,通过中文解读可以初步了解算法的性能和工程化的可能性。
其次高质量的微信公众号也是了解新技术的一个快速通道。通用类公众号比如机器之心、将门创投细分领域比如paperweekly就是带你读论文都是快速接触新概念新技术的途径我没有收取广告费LOL
然后对于工程化项目而言GitHubhttps://github.com是一个不可或缺的代码源工程师经常戏称GitHub是全球最大的同性交友网站。在这里可以直接获取大量优秀算法的开源代码还有经典论文的算法复现可以在issue中提问和解答细节问题还可以参与完善算法。
最后,要找机会参与圈内的活动。参加国内的一些圈内会议,不仅可以了解目前的技术进展,同时还可以和来自高校和企业界的朋友互通有无。尤其是一些大型会议,对公司的招聘和技术宣传也都是非常好的途径。机器学习、计算机视觉、语音技术、自然语言处理、知识图谱等都有专门的会议,这里就不再一一列出了。有兴趣的读者可以关注中国计算机学会的学术会议排名来进行选择。
新技术如何从理论到落地
在上一篇文章中,我们讨论了人工智能技术落地难的问题,接下来,我希望和你简单讨论下如何将优秀的技术进行落地的话题。
首先,从业务的角度来看,需要审视公司的主要竞争力是什么,不能为了用新技术而偏离了公司的核心价值。因为新技术通常是锦上添花,而不是雪中送炭的。在业务中,需要根据自己的产品做选择,用了人工智能技术,能不能给产品带来显著的提升,公司能否负担起人力成本和数据成本,甚至包括深度学习所需的硬件成本?
举一个简单的例子机器学习中有一个子领域是分类Classification在深度学习还未兴起的时候针对不同的数据进行分类需要根据数据的分布特点选择不同的适用算法例如SVMLR决策树等。即便是在今天传统的算法未必就比深度学习方法要差。我有一次面试一名头部大厂的高级算法工程师他整个过程中只谈LR的方方面面对于其他的算法不关心也不熟悉好像是LR弄好了就能打遍天下的感觉。不可否认这些传统分类算法在大量问题上都有优秀的表现但有了效率更高的模型也有必要去测试并判断它们能否用于实际产品中。
比如FastText这个算法发布之初就得到了广泛支持在自然语言分类问题上不仅速度快性能提升也相当明显。因此经过一整套测试流程之后我们将其作为了主分类模型。后来又出现了BERT同样经过测试之后我们发现其性能超越了FastText百分之一到百分之二。但这时候由于其时间消耗远大于FastText并不能作为主模型来用我们仅将其作为并行处理中的一种参考方法与若干传统机器学习方法一起来做stackingStacking是一种集成学习方法感兴趣读者可以阅读其他资料进行了解
因此算法好不好用能不能落地需要综合考虑各方面因素。比如说在做文本匹配的时候有大量深度学习方法可以使用理论性能也都是SOTA水准但根据产品需求来看有时候96%的准确率和95%的准确率产品体验并没有多大差别但投入的研发成本却要高出许多反而用ESElasticSearch自带的BM25算法又快又好那就完全没有必要使用深度学习方法了。
同样的对于感知技术目前技术的成熟度也非常高。比如说人脸识别如果和产品不是重度耦合直接使用大厂的API或SDK就行了。但如果是自己的核心产品需要搭配人脸识别模块就可以考虑在已有成熟的开源的算法上进行二次开发甚至搭配自己的芯片从而打造自己的核心竞争力。别忘了确认算法的商用条件以免陷入版权纠纷
其他需要注意的点
1.技术和产品的权衡
正如前文提到的技术成熟度曲线,有些技术,在现阶段的确没有达到人类的期望值。这个时候,一个可选的解决方案是通过产品设计来补偿。
比如说大量“弱智”的聊天机器人产品可以利用产品设计来弥补技术缺陷。那该如何去做呢关键在于我们要让用户不要重点关注其技术表现而是对产品的体验有一种惊艳感发出类似“天哪这样都可以“的赞叹。比如我们狗尾草科技提出的聊天机器人的虚拟生命形态这个概念之前日本的Gatebox公司也提出过。基于这个概念诞生的琥珀·虚颜就是我们推出的一款结合了AI+AR+IP以及GAVE引擎Gowild AI Virtual Engine的虚拟生命产品它搭载holoera硬件平台及360°全息投影创造了一个有情感、可养成、可进化的虚拟存在但这种存在又可以和周边世界进行多模态真实互动并针对用户行为习惯形成不同的性格体系。同时人物还可以换成二次元角色和真实的明星进一步提升用户体验和粘性。
有一句话说的好,技术不够产品来凑,产品不够运营来凑。用户接受才是硬道理,技术可以加分,但过硬的还是产品本身。
2.小公司和大公司
我接触过一些创业公司一开始就期望做一个人工智能开放平台虽然在前两年拿到不少融资但最近大多数都销声匿迹。做平台型的事情没有大量的人员和资金支持是无法实现的。我们可以看一下国内的人工智能研究院且不说百度腾讯的换帅事件很多中小型公司的研究院也由于没有办法进行工业级产出导致了大量资本投入换来的只是Demo和论文。
所以,对于中小型公司而言,需要做的事情是借助利好,顺势而为。同时精耕细作一个细分领域,在大公司无暇顾及的垂直行业杀出一条血路。无论是后期被收购还是能够独立壮大,都是比较好的结果。切忌大而全,什么都想做,做自己擅长的才是最重要的。
写在最后
大家现在都在谈人工智能技术而且很多人都会把人工智能和AlphaGo以及深度学习划上等号。其实人工智能涵盖的学科范围是非常广泛的包括心理学、神经科学、哲学、认知科学等等。我们目前看到的大量成果都只是深度学习和大数据的化学反应。而且大量的人工智能应用还都是人工+智能,离真正的认知智能差距甚远。如何利用技术赋能产品,得到用户和资本的认可,才是最重要的。
参考文献:
Radford, A., Narasimhan, K., Salimans, T. & Sutskever, I. (2018). Improving language understanding by generative pre-training
作者简介
邵浩TGO鲲鹏会会员日本国立九州大学工学博士。现任上海瓦歌智能科技有限公司总经理深圳狗尾草智能科技有限公司合伙人人工智能研究院院长带领团队打造了聊天机器人产品“公子小白”及AI虚拟生命产品“琥珀•虚颜”的交互引擎。中国中文信息学会青年工作委员会委员中国计算机学会YOCSEF上海学术委员会委员。研究方向为人工智能共发表论文40余篇出版了业内第一本聊天机器人著作主持多项国家级及省部级项目曾在联合国、WTO、亚利桑那州立大学、香港城市大学等任访问学者。