预测不准确?数据还是太少了

技术有其逻辑

?

个人信息保护法已经来了,但是已经没人抱有希望,该拿到的都得到了,不该拿到的也悄悄留下了。

画个像,录个音,慢慢开启摄像头,记录下你的路径,保存下你的输入历史,真正做到了百花齐放。

海量的数据养育了人工智能,那人类的角色究竟是什么?

答案呼之欲出,人肉干电池,喂养数据培育巨头,献完青春献子孙,忠贞不二爱国情。

今天就好好跟大家唠唠我们为啥会变成人肉干电池。

我想先给大家说几个人名,图灵、香农、贝塔朗菲和维纳。

图灵在二战破译德军密码的时候搞出了图灵机,香农阐明了信息论,告诉我们信息是如何流动的,贝塔朗菲发展了系统论,也就是认为工程需要复杂条件和要素的合理配置,维纳是控制论的代言人,信息流通也好,复杂计算也好,都不是无目的的狂想,而是奔着某种目标去的。比如钱学森老先生,就是工程控制论的行家里手。

正是在这些人的鼓捣下,我们今天的计算机、互联网媒体才真正发展起来,但是因为他们的理论门槛过高,长时间里这些人和事并不为人所知,也只有图灵因为图灵计算机科学奖还算盛名在外。

而今天我们说到大数据和人工智能,好像都是非常fashion的概念,2016年阿尔法狗战胜李世石真正让AI成为人尽皆知的新名词,而这些大师和他们的所学好像更是非常久远的存在。

其实这是错觉,第一届人工智能大会是在1956年于英国达特茅斯召开,基本上和大师们是同时代的存在。

☉图灵死于毒苹果,原因就不多说了

理论是理论,现实中计算机组成的集大成者,采用的都是冯·诺依曼架构,这位老兄在参加曼哈顿工程的时候就意识到,当时的计算机结构有点问题,主要是不通用。

这里的不通用的意思就是以往的计算机是特定类型的计算工具,而且用途单一仅是用于计算的机器,比如今天的超级计算机,功能很强大,但要是拿来打游戏显然是不太行的。

就这么理解吧,超级计算机就是算盘的终极态。

而冯诺依曼架构简单来说,就是分门别类,把计算机各部分该干啥都预先设计好,需要哪块就用哪块,管输入就专管输入,计算就靠CPU(中央处理器),比如文字处理,一般就用CPU就够,但要是打游戏或者画图,最好还是配块GPU。

所以现代的计算机不单单是用于计算的机器,这也是现代计算机可以通用化的真正原因,个人PC、芯片制造商也就此发家。

☉手机、电脑和超算,基本都在这个框架下各自发展。

机器总归是要帮助我们处理信息完成工作的,这时候需要召唤二进制。所有的信息和数据,不管文字还是视频从底层来说,都是0和1组成的,所以Word文档能和虚幻引擎在一台电脑上共存。

也有不信邪的,比如苏联老大哥搞过三进制,0和1,还有个-1,1958年造出过三进制计算机Сетунь,但是老大哥市场化动力不足,最终项目无疾而终,起了个大早,赶了个晚集。

至于那些量子计算机、光学计算机等奇形怪状,先挖个坑,有空再唠。

到这个阶段,计算机算是发展的明明白白了,在技术的推动下,人类进入了互联网文明,发展出了互联网经济,工业时代需要的是电力和石油,而信息时代需要的是数据。

大自然当然是长不出数据来的,唯一能“供电”的,就是你我以及诸位了。所以不要觉得是大数据时代我们的个人隐私才具有价值,它们一直都是宝贵的财富(生产要素),只是大数据和人工智能让这一切变得更显性和便捷了。

从计算机走向消费品的那一刻起,就注定会有这么一天,这是技术发展的自生逻辑,不因我们的个人意志而改变。

孩子大了

现代计算机和人工智能起源于20世纪中叶,到现在已经是长大成人,按照冯诺依曼的架构原理,需要处理的内容是越来越多,那就加模块。

水多了加面,面多了加水。

第一次注水,是GPU的出现,原名叫做 Graphics Processing Unit,直译为图形处理器,俗称显卡,是CPU发展到一定阶段出现的补充物。

CPU一般负责通用计算,简单理解就是算数,但是随着计算机的发展,尤其是Windows系统的攻城略地,图形化界面(GUI)以及立体模型的需求越来越多。这其实也符合人性,DOS系统和原生Linux那种对着命令敲代码的电脑用法,绝对不如直观的东西看着舒服,普通老百姓显然不会喜欢。

有需求就有市场,1999年英伟达发布GeForce 256,而且GPU这个名字也是从此开始大规模运用。具体参数就不报了,今天看来就是玩具,重要的是它开创了GPU这个概念。

今天在电脑上配有独立显卡还能当个卖点,但是手机一般就会搞集成设计,比如SoC,高通、海思家的产品都是如此,这是因为手机空间有限,一寸空间一寸金,能省就省。

另一个原因就是手机是纯图形化的,对于GPU的运算需求更普遍。我想大家没见过拿着手机敲代码的吧。

现在,还是英伟达,花了69亿收购了以色列Mellanox后推出了新的数据处理单元DPU,即Data Processing Unit,产品名BlueField-2、BlueField-2X,英伟达这次目的很明确,再复制一把GPU的辉煌。

☉人类的本质是复读机,有需求就造一个

先别激动,成不成还两可呢,数据时代肯定会到来,巨头们都在跑马圈地,但未必DPU就会是最后的赢家,因为入局的实在是太多了。

CPU/GPU/NPU/TPU/DPU,把这一堆放到你眼前,让你猜一猜他们都是干啥的,谁又能在数据时代笑到最后呢?

现在机器学习CPU也能做,但是数据吞吐量很有限,学生学习还好说,真正搞研究和工程应用,比如把用户数据拿到了怎么分析,一般还是要上GPU。CPU干一天的活,GPU几个小时就搞定了。

而到了人工智能要具体落地的时刻,比如麒麟810要应用神经网络,华为的策略是开发自己的嵌入式神经网络处理器,实际上就是NPU,neural-network processing units,专门负责有关图像视频等内容的学习。

如果你是华为手机用户,那么相册中图片中分类功能就是由NPU来完成的,一般宣称不用上传云端即可实现,靠的就是NPU本身的强大。

还有iPhone最新的A14芯片,里面也包含神经运算单元,苹果称之为神经引擎(Neural Engine)和机器学习矩阵加速器(machine learning matrix accelerators)。每秒可以执行11万亿次算术任务,最新制程5nm,16个核心,基本上可以说是目前的手机处理器的算力巅峰了。

☉像Intel挤的牙膏?

而谷歌还有自己的TPU,中文名为张量运算单元,Tensors Processing Unit,是专门用于机器学习的处理器,配合自家的TensorFlow机器学习框架有奇效。

总算是说清楚这一堆PU是什么东西了,本质上他们都是数据处理模块,只不过用的频繁,各个厂家给独立出来了。

大数据时代真的要来,但叠床架屋还适合时代发展的要求吗?

现在厂家还在思考这个问题,但是Intel、高通等已经联合起来反对英伟达收购ARM,顾虑的就是万一英伟达控制手机+电脑端的数据处理芯片,那时候大家都得听英伟达。

而我们的角色是人肉干电池。不管怎么说,数据是人工智能真正的关键所在,因为深度学习的数学原理依旧是黑箱状态,现在可行的路径就是堆数据,本质上是对概率的预测,而不是逻辑的推演。数据不够多的话,预测就容易不准确了。

这个孩子要长大,需要喂养更多的奶水,我们多刷手机也算是为人类做贡献了。

本回完