汽车技术型是什么意思「车辆技术性能是什么意思」


你能分辨照片上是不是有只猫吗?即便三岁小孩这都不是啥问题(照片特别离谱的除外) 。
可你能教会一台机器辨认一只猫吗?好像有点难度 , 我们得先告诉机器啥是猫 。机器和人的思维毕竟不太一样 , 我们教小朋友认猫 , 只要告诉他那个喵喵叫的就是猫 , 他很快就能记住 , 并且能举一反三 , 但这个方法显然不适合人机器学习 。而现在就有一大群人正在做类似的事 , 其中一批就是教自动驾驶汽车认路的工程师 。
摄像头为何能坐稳自动驾驶感知的头把交椅
近几年来 , 高阶辅助驾驶甚至自动驾驶的概念越来越被频繁的提及 , 而自动辅助驾驶技术也在快速的发展 。我们平时开车需要用眼睛观察路况 , 而自动(辅助)驾驶便是通过感知硬件来感知周围的路况 。目前汽车上应用到的感知硬件包括但不限于:摄像头、毫米波雷达、超声波雷达、激光雷达以及V2X相关硬件等 。
对于自动驾驶感知 , 纯视觉路线与多传感器融合路线之争由来已久 , 融合路线中激光雷可以精准的还原周遭环境的三维特征;毫米波雷达对恶劣天气有着更强的适应性 , 且能够同时探测被测物体的距离与速度;高精度地图能够让车辆提前对沿途道路有更精确的了解;V2X能够借助旁人获知视野之外的情况……
但不论哪种路线 , 都不会把摄像头排除在外 。摄像头是目前最主流的自动驾驶感知硬件 , 类似人眼看世界 , 系统算法会自动分析图像并找出其中的各种事物 。双目摄像头还可以像人眼一样通过夹角分析出前方障碍物的距离 。即便视觉感知也有自己的弱点 , 其十分依赖算法 , 而算法需要海量的数据进行训练 , 对于后来者有极高的门槛 。此外 , 摄像头受逆光、能见度等环境因素影响颇大 , 识别准确率在不同环境下会有较大波动 。
因为自动驾驶汽车 , 也终究是要在为人类设计的交通体系之中 。而人类的感知环境 , 凭借的就是眼睛的成像 , 摄像头刚好就是为了还原人眼看到的世界而设计的 , 因此要让自动驾驶汽车看到人类驾驶员在路上看到的所有信息(包括颜色、文字、标线等) , 摄像头自然是不可或缺的 。所谓纯视觉路线与多传感器融合路线之争 , 争论的焦点其实只是“只有摄像头够不够”的问题 。
奠定摄像头在自动驾驶感知系统中坚实地位的 , 除了前面提到的可以获取与人眼一样多的信息外 , 还有很重要的一点 , 人类自己能看到的东西 , 才能更有效的“教”给机器 。自动驾驶近年来的飞速进步 , 依赖的是人工智能技术近年来取得的突破性发展 。而人工智能近年来应用进展最为迅速的领域 , 一个是语音识别 , 一个是图像识别 , 刚好对应人类的“听”和“看”的能力 。下面我们就从人工智能的发展史 , 聊聊自动驾驶视觉感知背后的算法 。
人工智能的两轮高潮和低谷

我们还是先说猫 , 想教机器认识猫 , 可以把猫的一些特征告诉机器 , 比如橘猫是橘色的 。后果可想而知 , 橘子、抱枕、金毛 , 甚至一些不可描述的东西都可能会被误认为是猫 。显然颜色并不靠谱 , 那我们再加一些特征 , 比如猫有尖尖的耳朵、一对黑眼睛、四条腿、长长的胡须等等 。终于 , 机器认识了一只橘猫 。
可一不小心 , 老虎、狮子、兔狲等等也都被认成了猫 。而一些角度非常规的猫的照片 , 又莫名其妙被开除了猫籍 。很显然 , 我们输入的条件太过笼统又不够细致 。那是不是只要输入足够多、足够细的条件 , 机器就能认识所有的猫了?很长一段时间 , 人工智能专家也是这么认为的 。
二十世纪五十年代中期 , 人工智能诞生之初 , 部分学者便创造了“规则式”人工智能 , 后来定名为“专家系统”(expert systems) 。他们用定制的逻辑规则来教计算机怎么思考 , 专家系统很快让计算机在跳棋等游戏中击败了人类高手 , 甚至直接摸到了这类游戏的天花板 。
可近二十年的发展高潮 , 人工智能都没有什么能落地的应用 , 让人工智能在七十年代中期陷入第一次寒冬 。直到1980年卡耐基梅隆大学发明的软件XCON投入使用 , 这个帮助顾客自动选配计算机配件的软件程序 , 包含了设定好的超过2500条规则 , 在后续几年处理了超过80000条订单 , 准确度超过95% , 每年节省超过2500万美元 , XCON和同时期的其他实用专家系统 , 揭开了人工智能的第二次高潮 。

推荐阅读