新闻是有分量的

为什么智能金融的机会并不在于“帮人挣钱”?

2018-08-28 10:48栏目:投资
TAG:

  2018年3月7日,美国智能投研公司Kensho被标普全球以5.5亿美元收购,

  Kensho模式将给国内智能金融行业带来怎样的启示?「甲子光年」特此采访了被认为对标Kensho的智能金融公司文因互联创始人鲍捷博士。他以Kensho为切入点,阐述了自己在金融科技领域摸索两年后的深度思考。

  一直以来,智能金融行业的一个痛点是,智能投资、投顾和投研,被证明并不能直接提高交易的“回报率”,即不能直接帮客户挣更多钱。高预期和实际情况之间的落差,影响了客户的付费意愿。

  两年前,一个总资产千亿人民币规模以上的资管公司总经理曾问鲍捷:第一,你现在立即、马上就能帮我挣钱吗?第二,你立即、马上,就能帮我比市场上其他人挣更多的钱吗?

  在这篇文章中,鲍捷博士则将细致阐述一种反常识的新思路——智能金融的切入点,一定不是股票交易,离交易越远越能落地。

  他认为,Kensho 不会取代任何交易员、投资人或分析师,想坐在Kensho这类智能系统上躺着赚钱是不切实际的。

  智能金融系统目前真正的价值,不是直接帮投资人挣更多钱,也不是省钱,而是通过人工智能建立起金融机构的大规模自动化系统,让监管、银行、投资机构等决策行为减少对个人经验的依赖,从而减少人员流动对机构的冲击,建立新型的协作系统。

  智能金融当下在中国真正的合理路径是:由零件的标准化导向“大工业金融”,其本质是金融信息处理过程的(部分)标准件化。把金融信息和数据资产化,才是智能金融系统最大的价值所在。

  鲍捷,文因互联 CEO。从1998年开始从事人工智能研究,曾在图灵奖得主Tim Berners-Lee实验室工作。2011年,鲍捷基于语义和社交数据的基本面分析所撰写的论文,获得了IEEE金融工程和计算智能会议最佳论文。2013年,鲍捷在硅谷创立文因互联,并在2015年后开始专注智能金融业务。成果有基于知识图谱的基本面分析、金融问答引擎、财务报告自动化提取、自动化监管等。

  2013年,Daniel Nadler创立了Kensho;2014年kensho与高盛合作,并获得高盛的1500万美元投资;2017年,获标普国际领投的B轮5000万美元融资,估值达5亿美元;其核心产品是金融决策引擎“warren”,曾成功预言英国脱欧后的英镑走势,及2017年美国科技股的强势上涨。

  *以下内容系文因互联CEO鲍捷博士智能金融沙龙23期演讲,向甲子光年独家提供。

  人工智能到现在已有60年的发展历史,经历过几次低谷,我入行20年以来,也已经历过两个小低谷。总体来说,人工智能总是处在媒体的两极分化中:一会儿说人类要毁灭了,一会儿又说人工智能是骗子。尤其是去年,“人类要毁灭”了的新闻到处都是,但从今年以来,各种反思乃至否定的文章也开始出现。

  以下的新闻是几个神化人工智能的例子:一个是说高盛的交易员要被人工智能取代了。

  要判断一个应用是否具有AI属性,不考虑科学论证的严谨性,一个直观的判断标准,看里面是否有机器学习、知识图谱、自然语言处理等成分,如果没有,其实它更多的是传统的自动化。

  回过头看这三个新闻,第一个并不是人工智能。因为交易本身是一种执行,并不涉及策略的形成。当然交易也分低级、高级,现在真正被替代的是一些机械的,已经既定的策略。与其说是人工智能替代了这些人,不如说是数据库和网络替代了这些人。

  第二个技术其实是会计的自动化 。德勤等很多会计事务所都推出了过程的自动化、财会的自动化,这些技术很难说是人工智能。

  最后一条关于Kensho,Kensho的的确确是人工智能。从数据层到表现层,最后到策略层,是人工智能的一个综合应用,比如Kensho有一个很大的知识图谱部门。

  大约从2013年、2014年开始,新一代真正的人工智能系统开始应用在金融领域,所以人工智能确实是在改变这个世界,改变这个行业。

  Kensho 是一个日语词,意思是“见性”,明心见性——大彻大悟,醍醐灌顶。

  大数据领域兴起后,其核心想法是,与其去发现因果性,不如把数据积累起来,寻找事件和资产之间的相关性,以及事件对价格、特别是价格长期趋势的影响,这就是 Kensho 提供的主要服务。

  Kensho 推出的最主要应用,是 Warren 搜索引擎,或者说决策引擎。它能在一分钟内,完成过去分析师要做几个小时甚至几天的工作。

  首先, Kensho 的底层是一个很大的数据库。两年前,它是9万个数据集的数据库,在此基础上有各种事件、价格和基本面。

  下图是一个ETF(Exchange Traded Funds 指数基金)的基本面研究,数据包括:ETF里包含哪些资产、各类资产比例、它们最近的趋势……像这样的数据,Kensho有成千上万个。

  在这之上,Kensho要做一个趋势性研究,即判断一些特定事件和资产价格之间的长期相关性趋势。以下图为例,是在讲欧洲的整个资产相对于英国的贸易之间的相关性,这是一个很长的图,下图只截取了前面一段讲述相关性指标的部分。

  第二个例子是原油(见下图),在某一种价格变动后,WTI原油的表现一周内会发生什么变化?这也是各种指标和指标之间的相关性。所以Kensho里不仅有股票,也有各种大宗资产、期货。

  第三个例子是事件影响分析,下图描述了2000年以来,春节对资产的影响,由此可以决定我们的策略。“事件影响分析”也是 Kensho 在新闻里最常见的一个卖点。

  第四个例子是长期趋势分析,下图描述了2010年美股恢复以来,每年9月三大指数(标普、纳斯达克、道琼斯)的表现。Kensho有非常多的数据切片的分析。2016年美国大选结束后第二天Kensho就推出一个图,预测共和党总统上台后,会对资产有什么长期影响。各种相关性的比较,可以想象出无穷种组合。

  第五个例子是一个策略:如果在原油价格超过50美元一桶后买入,5天后卖出,从历史预期来看,能得到什么样的回报率?像这样的简单策略,也有无穷多种组合。

  对一个初级分析师来说,要做以上这些事,他要去收集数据、整合数据、自己做相关性分析,还要画图。Kensho 则可以一分钟内完成这些以前要几小时,甚至几天才能做完的事。从这点来讲,华尔街有些人会“人神共愤”,是可以理解的。

  以上几段截图有些是取自电视节目,这是因为在 Kensho早期,它的商业模式之一就是给媒体提供分析。另外一个模式是为高盛这样的机构提供获客、留客服务。因为券商作为一个服务机构,会通过向客户提供投研能力,吸引更多交易发生在自己的平台上,从而提高分仓佣金,Kensho 从当中可以分得收益。这个模式在中国能不能复制成功?到目前为止还没有先例。

  上个礼拜,Kensho 以5.5亿美元被标准普尔收购。我认为5.5亿美元是一个合理的价格。

  其实两三年前,大家对 Kensho 的预期远远高于5.5亿美元。三年前的一个报道指出,如果广泛加以应用,那么 Warren可能会撼动长期以来,被彭博社、汤森路透所垄断的260亿美元的金融数据市场。

  看好Kensho的观点认为:如果Kensho 的产品最后能够研发成功,金融机构的分析师和研究人员将面临灾难,面对更快、更好的机器人分析师,他们毫无胜算。

  Kensho创始人在一次访谈中提到,在推出Kensho 系统后,有人给他打电话:你这个叛徒,如果你发现了这种关系,你就用这种关系去交易,但你不要公开它,你公开它,就导致大家都没法交易了。

  但创始人很坚定地说,我们自己不下水做交易,我们要做成千上万家金融机构决策的提供商。

  我也找到了一些针对Kensho的反方观点,这些观点不一定正确,但是非常值得思考。

  第一个说法是,彭博可以很容易地复制Kensho,而且可以做得好100倍。我在咨询彭博的同学后,感受是,彭博在短期内,还做不出Kensho。

  第二个观点来自高盛的朋友。有一段时间,Kensho与高盛有密切合作,但高盛的朋友说,这些年来,他并没有看到 Kensho 做出什么牛逼的东西,也没见高盛内部人用过Kensho,更多是高盛的客户在用。

  第三个质疑是,Kensho 提供了相关性,但统计过去的事件对股票的影响,对针对未来的操作有指导意义吗?胜算有多高?

  Kensho 这种大杀器,到底它能不能让人挣钱?能不能让普通人挣钱?这两个问题,在目前还没有明确答案,至少现在还都不是肯定的答案。

  那为什么Kensho还能值5.5亿美元?虽然5.5亿美元,在某些情况下看是个小数字,但已经是近年来最大的一笔人工智能公司的并购了。

  在人工智能领域,一般来说,常见的并购额是1亿到2亿美元:Siri的收购价格是2亿美元;微软在几年前收购 Powerset 时,花了2亿美元;最便宜的是亚马逊智能音箱背后的搜索引擎True Knowledge,2600万美元。

  相比之下,Kensho卖了5.5亿美元,可以说是给人工智能公司打了一针兴奋剂。对某些投资机构,也是一个利好。

  其实从底层技术来看,不管是在中国还是在美国,想复制出 Kensho的确不容易。自从我回国以来,我听到不下10个团队试图复制 Kensho,也有一些非常大的国家级机构想做这种东西,但到目前为止,还没有一个做成的。

  Kensho包含三个比较困难的组成部分,这三块目前在中国的基础都还不到位。它们分别是:底层的结构化数据库、中间层的金融领域知识库和前端的问答技术。

  第一个部分是结构化数据库。如果我们简化一下 Kensho,可以不精确地认为 Kensho 是给高盛的结构化数据库做了一个自然语言的前端。如果让 Kensho 从头把所有的结构化数据库做出来,那一两年绝对不够,十年也不一定行。高盛在过去20年多少万人的积累,才创造出来这样一个底层数据库,比如SecDB,现在应该远远不止9万个数据集了,在此基础上才可能有 Kensho。有了上述的基础设施以后,在上面做自然语言的前端,才水到渠成。

  Kensho的产生也依赖于过去 10年,美国整个数据生态系统的发展。2009年奥巴马上台时,曾发布一个总统令,要求美国所有政府部门都开放数据,其中也包含了大量金融部门,包括 SEC。美国所有基础证券的信息,各个细分领域的国民经济政府数据都是开放的,所有人不需要任何申请就能拿到。到目前为止,美国政府已开放了上百万个这样的数据集。

  而在中国,这样开放的数据基础近乎于零。现在连基础证券的数据,包括新三板或者主板的 XBRL 数据,还不能让所有人免费、公开地访问。这个数据生态的差距是以光年来计算的。

  第二个是金融领域的知识库,在做金融统计时,会有各种关联分析、回归分析和细分子领域的分析,比如产业链、财务模型、行业模型,宏观模型、投资模型等等。

  以财务模型为例,美国有 GAAP 模型,中国有 CAS 模型,这都是成千上万条不同的会计准则,有了这些准则后,我们才能做财务的一致性校验。

  在产业链领域,国内也有一些公司在做。美国的Capital IQ公司,很早以前就把产业对标做得很透了。而国内,还远远没有做好给公司打标签,或对标研究这件事。行业模型、宏观模型、各种投资模型,现在也都是方兴未艾。我们如果想做好上面提到的 Kensho的几个案例,逃不掉这些模型。而要做这些模型,需要协调各领域、各分支的专家,整合各种各样的专家知识。目前在中文领域,这一块还比较缺失。

  第三块,从技术上来说是更有挑战的东西,就是前端问答技术。前几天,我在知乎上回答了一个帖子,有人问:Kensho 能不能复制?复制的核心技术要点是什么?我回答,前端问答是其中的一个大挑战。一位读者留言说:问答技术没那么了不起,现在搜索引擎公司早就解决这个问题了。

  但这是一个误区,像小冰这样的问答机器人,大家看起来已经很智能了,但这种技术很难用在 Kensho上,因为这是两种完全不同的技术路线。

  小冰本质上是一种基于检索的技术。它是从一大堆文本里头,找到过去存在的相似问答,再做答案和问题间的匹配。用术语来说,是用端到端的深度学习的模型来做训练。但这样的模型,有两个问题:第一,它无法精确地理解这个问题是什么,就是说它无法进行语义解析;第二,它的答案很难被构造出来。比如,像上述Kensho 例子中一些各种不同切面的切分,各种不同指标的组合,我们可以设想出无穷多种的组合,但用深度学习技术,却无法生成无穷多种答案。

  如果想做到这一点,我们必须要做语义解析,也就是真的理解用户说的话,理解他说的词是什么意思,词和词之间是什么关系,这可能是这个问题最难的一点。到目前为止,这还不是一个完全被解决的问题。具体要做语义解析,又要涉及大概十几种非常专业的技术。小冰的技术是没有办法用到 Kensho 这样的强知识性问答中的。

  回顾了这三个关键点后,我们可以说,想建立Kensho 这样的系统,要依赖于很多先决条件,包括数据基础、领域知识库基础和前端问答基础,这三块都很有挑战。对专业人士而言,这不是一个令人吃惊的结果。因为在过去40年的专家系统开发中,这些问题一直都困扰着整个知识工程界,只是现在在金融领域,我们再次遇到了这些拦路虎。

  所以我要为 Kensho 团队点赞:他们做得非常好,Kensho团队现在是600多个人,他们技术部门是100多人,用100多个技术人员,就能把这样高复杂度的问题做到现在的结果,非常难,非常不容易。

  但我同时认为,智能金融,不必复制Kensho的模式,我们要跳出Kensho思考智能金融。

  第二,建设智能金融,不能直奔摇钱树而去,即不必把思维局限在做交易这一件事情上面。

  我认为,Kensho不会取代任何人,它不会取代任何交易员,不会取代任何投资经理,不会取代任何分析师,甚至未必会取代任何实习生。因为它所要做的事情和我们对它的期望,其实有很大距离。

  现在做智能金融,大家会直接说:我要去提高交易效率,或者挣更多的钱,或者打败这个市场。这个模式是不是应该追求的?经过两年多的探索后,我认为未必,或者说智能金融应该有一个更大的途径,而不仅仅是追求 Kensho 这一个途径。

  大概两年前,我去一个资管公司,他们有千亿以上的资产规模。总经理问了我两个问题:第一,你现在立即、马上就能帮我挣钱吗?第二,你是不是立即、马上,就能够帮我比市场上其他人挣更多的钱?

  这个想法在那时很普遍,是一种非常高的预期。但最近这两年跟大家沟通,越来越少听到这样的想法了。包括2017年,我们跟多家机构合作时,都找到了更小的落地切入点,大家不再追求非理性的目标了。

  仔细想一想,如果一家公司有3000亿,它还有持久地高于市场的回报率,最终结果是什么?这种事真能发生吗?市场打败了不了市场本身。

  我们不应该追求替代交易员或者投资经理,我们也做不到。我们也不应该追求跑赢市场,因为市场本身不能打败市场,当所有人都追求跑赢市场时,没有任何人能够跑赢市场。从人工智能角度来说,我们不应该去追求通过图灵测试,大家对于像 Kensho 这样的金融问答系统的期待是,在远期来看,希望它能达到人的水平,那就是通过图灵测试,但这是很难做到的。

  智能金融的新路径,我认为应该是通过零件的打造,逐步走向所谓大工业的金融。

  就目前这几年时间,比较合理的目标和路径,是把信息处理过程中一部分的过程标准件化。自动化、标准化、工业化,这三块是相互影响的。

  信息工业影响金融工业,不是今天才发生的。前两天我读《美国金融业史》,里面讲了电报的例子:美国在早年有很多交易所,这些交易所的交易规则全不一样,后来电报改变了这一切,所有的交易所都死了,只留下纽约的交易所。因为信息传播速度的上升,使得各种信息的披露、交易规则都标准化了,分裂的市场变成了一个统一的市场,其他的市场都没了。

  之后,电话、互联网,每一次都带来了类似的变化。比如个人消费信贷,在没有电话之前是一个情况,二战后,我们通过改造电话线,有了信用卡网络,完全激活了一个新市场。

  现在也是类似的,如果我们狭义地看标准化本身,第一个阶段我们看到的,只是我们做某件事情的效率提升了。当电话进入金融机构时,大家可能只能想到,电话实现了实时双向语音通话,改进了一点效率,但并不一定让人激动。但是当我们发现电话上面加一点东西,可以催生出个人信贷新形式时,这就有意思了。所以很多底层平台的标准化会带来完全意想不到的新应用。大部分情况下,我们无法预言这是什么,但首先我们要提供这种标准化,提供这种通用工具。

  我把现在的金融信息服务业分成四大类:农业、矿业、手工业、大工业,我们要努力去创造的新生事物——大工业。

  信息农业是什么?就是从金融的“自然资源”里刨数据。我以前跟华泰联合的一位前辈聊,他说十几年前,他们每天看《中国证券报》,从报纸里扒数据,看并购标的的情况。后来进步了,有各种各样金融终端,但这依然没有改变这件事的农业本质——基本模式都是一样的,就是在人力成本较低的地方,找一帮小弟小妹,通常是几百人,人肉摘录数字。

  农业其实是一个很好的产业,如果农业能够经营得当,利润率50%是没有问题的。但是农业的最主要困难,是它很难规模化。很多信息农业,他们在主板时代做得很好,但在新三板时代,扩大就很成问题,因为我们的主体,已经不是1000家、2000家公司了,而是1.5万家公司。原来做产业链研究,招几十个人就可以做,现在要招几百个人来做,要手工处理所有1.5万家公司的财报、公告的话,则需要几千几万人。规模化是信息农业最大的问题。

  信息矿业,就是在已经有了结构化数据,比如工商数据时,改进结构化和半结构化数据的可用性。这也是一种很好的模式,但如果没有深度加工能力,壁垒并不高。

  第三种就是信息手工业。传统的金融决策过程,大部分是手工业的过程,个人通过大量阅读、学习,建立起对世界的认知,然后把认知变现。这涉及到个人经验,也涉及到人脉。我们去采访一些金融界的年轻人,他就告诉我,感觉他自己的能力跟老板也没区别,但就因为老板认识一些人,所以他在那个位置上,自己在这个位置上,他就愤愤不平。如果一件事本身是依赖于个人经验的,确实就会这样。所以当VC或者是券商的某些部门大到一定程度,里面的人成熟以后,他就愤愤不平,他一定会走,连着他的经验和人脉都带走,因为这是一个个人的不可复制的资产。

  最后一种是大工业。大工业的特点,并不依赖于个人的经验和人脉,也不依赖一些现有的自然资源。它是基于一种可复制的技术和系统,建立起一种协作关系,从而制造出千千万万种有质量保证的产品。如果说矿业是开采石油,那工业就是制造塑料——中东产油国虽然能够生产很多石油,但是他们可能连一支笔上的塑料都造不出来,因为他们不具备这种工业能力。

  金融信息服务业,在美国是260亿美元的生意,在中国还是规模非常小的,是不到100亿人民币的生意。是不是有一天,中国也达到260亿美元,或者说2000亿人民币?甚至比美国更大呢?完全是有可能的。但如果走到这一天,一定不是靠农业,一定是通过技术建立起金融数据大工业,从而连带整个金融产业发生一些大的变化。而且这些变化并不是像 Kensho 这样,我有了一个变魔术的机器,从而能赢得比市场更多的回报率。

  如果我们往前走的话,我认为中国金融在今后十年内,会发生一个很大的变化,它会超越现在的手工业金融,出现更大的标准化生产。我相信每一个投资人都有自己的EXCEL表格,每个人都有自己的分析模型,每个人都有自己积累的一些小技巧。其实在早期的手工业里面,也能看到,造个轮子或造个碗,每一家都会有这样的小技巧,每一家都把自己的小技巧藏着掖着,担心其他手工业者抢他们的饭碗。但最后这些手工业者都被大工业给干掉了,这样的事情会不会在金融界也发生?我相信会的。

  所以,最关键的事情,不是现在这个阶段,大家都去追求超出市场收益率的投资决策,如果我们大家想用 Kensho 就能坐着数钱,这件事情永远都不会发生,现在不会发生,再过10年不会发生,再过100年也不会发生。

  我们应该追求的合理的目标,是建立起一个金融信息处理的协作系统。或者更现实一点讲,并不一定是要去跑得比整个市场快,有时候跑得比旁边的人快就行了。

  智能金融在不同部门里会有不同的落地形式。前两天我跟一个机构的IT部门负责人聊,他说以前在上投研工具时,领导没什么动力,因为在领导来看,无非是省了点钱,在整个公司的三张表里,它是放在费用里,而不是放在收入里的。

  我们已经讲了,长期来看,通过这种投研工具提高收益回报率是不切实际的,但如果仅仅是省钱,又不是一个足够性感的目标。但另一件事对机构有吸引力——就是在一个基金里,研究员是不停流动的,比较有意义的目标,是让整个投研不再依赖于个人。其实金融就是信息和数据,把这些信息和数据资产化,才是上这个系统最大的价值所在。

  我觉得这是一种非常正面的思路,不再是传统的、狭隘的,一个个人提高投资回报率的过程,而是从系统角度,去建立一个协作体系,从而提高整个组织的资产(assets)。

  智能金融的本质就是:金融信息处理过程的(部分)标准件化。在投行、银行这些行业都已有类似案例。

  另一个值得关注的问题是监管,从去年十九大以来,整个金融监管对科技,特别是对人工智能的关注度一下子上来了。从股票、基金、债券,包括新三板的合规性检查,还有下面的评估、评级,和整个宏观风险的监控,目前国家的投入非常大。

  这是一个特别值得关注的宏观方向,它会一层一层传导下来。前天我看到一个券商的高管在朋友圈里抱怨,说以后没法再做了,一罚罚50个亿。其实这就代表,关注投资时,不能仅仅只看收益或者是金融创新,现在这个阶段,更重要的是如何规范化。中国新金融会有一个传导周期,国家机构可能会在整个产业最上游,最先把最核心的技术应用起来,然后一步步传导到券商,再往下传导到上市公司,上市公司的子公司、连带公司,一级一级传导下去。这个传导周期,可能会有好几年,但是我相信大家在未来都会逐渐感受到。

  做好 Kensho 有很多拦路虎。我们不应该一下子就去追求做这样的系统,不管是智能投研系统、智能投顾系统,还是智能投资、智能投机系统,可能在短期内都是做不到的。

  通常人工智能系统都是一个非常复杂的系统,要几百个人几年才能做到。不管你做语音也好、做图像也好、做文本也好,如果你一开始就搞一个很大的平台,一下子砸10个亿、砸100个亿,基本上一定会失败。最典型的就是日本的五代机,日本在80年代时,想做第五代计算机,说是人工智能计算机,举国之力,没有做成,目标太大。

  这可能是大型系统普遍的规律,它不是设计出来的,它是生长出来的,它是一点一点地通过一些很小很小的组件,一点一点地逐渐地碰撞、组合,慢慢生成的。这件事很难通过一下子砸100个亿就能达成,直奔这个平台而去,基本上会收获100%的失败。

  最早时,也有人给我建议,说你跟客户谈钱就好了,说我能帮你挣更多的钱。可能一开始刚刚进入智能金融行业时,很多人最直接的想法都是这样:我要造一个系统,能够持续帮我挣钱,躺着都能挣钱,睡觉都能挣钱,但这真的做不到。如果奔着摇钱树而去,最终真是长不出树,也长不出果子。

  在智能投资方面,打败市场是困难的,最重要的是打败自己。每个人都是非理性的,所以仅仅通过数据不可能形成正确的决策。在前几年时,曾经有一个很火爆的东西,叫大数据指数基金。2010年时,印地安纳大学的一个教授提出了这个理论,他自己开了一个公司,两年后公司就破产了。过去这几年,所谓的大数据指数基金基本上回报率都很低。在此基础上,跟它相关的智能投顾,整个回报率也低于市场回报率。

  另外一点就是规模,脱离规模谈策略都是耍流氓。我们经常会遇到有人说量化有用,人工智能有用,但是你要问他一个问题,你是在多大的钱上有用?

  在几十万上是一个事,在几千万上是另一个事,如果在一个亿以上,那还能做得到,那真是非常非常厉害。在座的很多人应该身家过亿,或者管理的资金规模超过1个亿。在这个基础上,每个策略能够做什么事,它对市场产生的影响是什么,是不是一旦有效就变得无效?我相信很多人都有这方面的体会。

  智能投顾也是一样。投顾技术分成几大块,一块是底层的资产配置,这里没有多少人工智能。另一块是用户画像,这方面现在用到了很多机器学习。从去年年中开始,越来越多的也人开始关注智能投顾的投后。

  最开始,智能投顾之所以能够吸引这么多钱,有两个原因:第一是机构对人工智能有期待,期待它能打败市场,获得更好的回报率。但目前市场表现证明,这一点很难做到。第二个原因是,机构的客户本身对人工智能有期待,某只基金只要说我用人工智能了,是智能投顾了,就会有很多人买,一买就买上百亿,用这种方式来获客,但资产新规出来后,这条路也被关上了。所以智能投顾往后走得开发新的东西,特别是和投后相关的东西,在智能陪伴这一点上,人工智能也可以帮助投资人。

  第三点,智能投研。在投顾、投资或者投机里头都是需要投研的。市场上已有很多投研产品,包括帮助投资者更好地看公告、看研报,更好地看数据的产品。但是不是智能投研只能用在传统场景?会不会新兴场景、新兴应用、新兴机构才是投研更能发挥作用的地方?

  在中国,我们看传统投研——券商有几千人,买方分析师、投资经理有几万人,加在一起可能不到5万人。如果智能投研只服务这5万人,就是严重低估了这个技术,也许有5000万人都需要这项技术。

  其实上面这几点一直都在讲,我们构造智能金融系统,不必把我们的思维局限在做交易这一件事情上面,很多环节都可以用到,而且我们不一定要从一个所谓的大的系统开始做这件事。

  用历史眼光来看,整个金融IT建设的历史,可以分为四个阶段:信息化、大数据化、自动化、智能化。

  第一个阶段是信息化,或者说是电子化,就是开始使用各种信息化系统。大概从十年前,我们开始大数据化,比如银行有各种云,把分散的各个部门数据汇总在一起。这两年开始有了自动化,包括自动化报表、自动化服务。从去年开始有了智能化的需求。每一步都依赖于前面的一步。

  在我看来,现在这个阶段,最重要的是自动化,前面那一步已经做得挺好了,经过过去近10年的实践,银行、券商的大数据化都做得相当不错了。银监会刚发布一个文件,要求各个银行加强内部数据治理,以后要有数据治理标准。

  我们最近刚刚和一个银行交流,他们在做了内部数据治理后,有了比较好的机构化数据,接下来马上就会有新东西出现:各种自动化需求,自动化匹配、自动化报表、自动化研究。我还认识一个券商资管部门的研究员,他们现在用各种EXCEL表来做资产配置,这种事以后肯定会自动化,不会再用EXCEL表格来做了。

  核心就是自动化,怎么做到自动化?怎么做到人工智能化?要把底层数据结构化,底层的这些东西,就是要一层一层的从零件开始做。我们要从投研的各个不同的环节开始做零件、打造工具,先做解决方案,再做系统。

  举个例子,瓦特其实不是蒸汽机的发明者,而是改良者,他发明了热力学某某定律吗?他发明了一种新的热机循环的方法吗?都不是。瓦特对蒸汽机效率提升的最大贡献,是在零件层面上的:他发明、改进了分离式冷凝器、行星式齿轮、平行运动连杆机构,有了十几个这样零件层面的改动,才导致了后面系统的变化。

  再举个例子,很长一段时间内,法国汽车比美国汽车造得更好,产量更高。但等福特发明了流水线之后,这一切全变了。一直到第一次世界大战之前,法国一年只能造4万辆汽车,因为要手工打造每一辆汽车,流水线的标准化改变了所有这一切,这就是零件的标准化能带来的价值。

  要打造一个智能金融系统,我们已经能造其中的一部分零件了,有一百多种,但这还不是所有的零件。我相信未来的金融大工业会需要比这多得多的零件,但我们可以从这些零件开始,来做一些现在、立即、马上,就能做的事。

  如果我们去构造一个智能金融系统,可能得要1000万、2000万。但如果我们从现在就能做的小事开始,不需要这么多钱,也许20万就能启动,很多事可能没有想象得这么难。

  用人工智能打造新金融需要新金融人,我们要把我们脑子里面很多原有的想法给清掉。很多业务未必要通过原有的做法向外推,我们需要一种新的适应大工业时代的协作方法。

  最后,我就希望大家记得一句Take-home message:智能金融的路径是由零件的标准化导向大工业金融。智能金融就是标准化和大工业这两件事。