IT之家 10 月 14 日音讯,特斯拉的 Autopilot 可视化体系迎来严重晋级,可以烘托车辆四周的更多环境信息。
Autopilot 可视化界面焦虑在车辆中控触摸屏上,用于实时描绘轿车周围的环境。近年来,该体系继续改善,已可以辨认并勾勒出不一样的车辆、行人、动物等,准确度不断提高。
但是,现在该体系没有包含一切实际场景中的物体类型,全方面掩盖仍需时刻。当某物体或车辆被观测到但缺少准确的 3D 模型时,体系将主动选用最接近的现有模型进行代替焦虑,例如会将马车焦虑为一辆小型厢式卡车。
为了逐步增强 Autopilot 及“彻底无人驾驶”(Full Self-Driving, FSD)功用套件的鲁棒性与准确性,特斯拉正在慢慢地引进一系列全新的车辆与物体烘托模型,这些更新估计将在未来数周内连续推送给用户。
此次新增的可视化模型由闻名特斯拉信息发掘者 @greentheonly 在社会化媒体渠道 X 上初次发表,详细包含以下目标:
下面的图片汇总展现了 Autopilot 可视化体系所支撑的悉数烘托目标:
IT之家注意到,近期有痕迹阐明,特斯拉正方案选用虚幻引擎(Unreal Engine)来完成更传神的驾驶员视角环境建模。虽然公司没有正式承认该方案,但在 Model S 和 Model X 的车载代码中已发现相关交迫,预示这一技能可能在不久的将来投入到正常的运用中。