Это Может Убить Tesla

    Гипотеза Флориди.

    Tesla сейчас терпит полное поражение. Здесь, в Великобритании, компания в отчаянной попытке привлечь клиентов вдвое снизила цены на лизинг, но даже при этих безумных скидках никто не покупает их машины. Думаю, мы, британцы, просто не хотим ассоциироваться с этими «нео-наци-мобилями». Но проблемы Tesla куда глубже, чем падающие показатели продаж. Единственная причина, по которой Tesla ещё хоть как-то имеет ценность, заключается в надежде инвесторов, что компании удастся совершить прорыв в автоматизации. Эти надежды серьёзно подорваны ужасным запуском Robotaxi, который лишь доказал, что их система Full Self-Driving (FSD) абсолютно провальна. Но этот пустой нарратив может быть полностью уничтожен благодаря гиганту в мире цифровой этики, профессору Лучано Флориди, который, похоже, доказал, что это в принципе не может работать.

    «История в деталях» — телеграм канал для тех, кто любит видеть прошлое без прикрас, через неожиданные факты и забытые мелочи. Погружайтесь в историю так, как будто вы там были. Подписывайтесь!

    Чтобы понять это, нужно разобраться, чем FSD отличается от других систем автономного вождения.

    Практически все автономные автомобили работают примерно по схеме Waymo. Машины оснащены массивом камер, ультразвуковых сенсоров, радаров и лидаров, которые фиксируют окружающий мир. Также они используют несколько параллельных систем, работающих на этих сенсорах. Например, автоматическая система торможения может работать отдельно от основного ИИ и опираться на лидар, радар или ультразвуковые датчики. Иногда работает несколько ИИ: один использует камеры и компьютерное зрение, другой — лидар. Но эти ИИ полагаются не только на сенсоры: они используют подробные 3D-карты района эксплуатации, чтобы понять, где находятся, и какие действия необходимо предпринимать. Это значительно снижает нагрузку на ИИ в части «чтения дороги» и выбора действий. Все системы объединяются, компенсируя аномальные действия, ошибки сенсоров или «галлюцинации» ИИ. Такие уровни резервирования и «жёсткие» системы безопасности (например, отдельное автоматическое торможение) делают машину безопаснее и одновременно снижают требования к точности ИИ, упрощая и удешевляя разработку.

    Tesla полностью отказалась от идеи резервирования и страховочных систем. FSD использует куда более «голый» подход.

    Их автомобили имеют всего девять камер и систему компьютерного зрения для восприятия окружающего мира. И всё. Нет отдельной системы автоматического торможения. Нет лидара или радара, которые могли бы подстраховать камеры при плохом освещении. Tesla также не использует 3D-карты для облегчения задачи ИИ. Он должен «читать дорогу» полностью самостоятельно. Это дешевле в установке, но отсутствуют и резервирование, и страховки. Чтобы это было хоть сколько-то безопасно, ИИ должен быть почти на 100% точным. И даже в этом случае остаётся риск, что погодные условия или освещение сделают камеры бесполезными.

    Встаёт вопрос: способен ли вообще кто-то, тем более Tesla, создать ИИ, который будет абсолютно надёжен в столь широкой задаче, как вождение?

    Может показаться, что вождение довольно ограничено правилами. Но это не так. Существует огромное количество «краевых случаев» — уникальных ситуаций, с которыми ИИ никогда не сталкивался. На дороге мы имеем дело с погодой, другими людьми, плохими дорожными знаками и даже с дикими животными. Всё это делает задачу чрезвычайно широкой. ИИ должен уметь хорошо справляться с множеством факторов одновременно.

    И вот здесь вступает в игру гипотеза Флориди (о которой мне рассказал профессор Дж. Марк Бишоп).

    Лучано Флориди — профессор Йельского университета и основатель Центра цифровой этики. Он отлично понимает возможности и ограничения ИИ. В своей недавней работе он выдвинул гипотезу: системы ИИ могут иметь либо широкую область применения при низкой надёжности, либо узкую область применения при высокой надёжности. Ключевое утверждение: ИИ не может одновременно обладать и широтой, и надёжностью.

    Иными словами, чем шире задача для ИИ, тем меньше его точность и тем больше вероятность аномальных результатов («галлюцинаций»). Эта идея основана на математике работы нейросетей.

    Я уже писал о том, что «граница эффективности компьютеров» делает улучшение ИИ сизифовым трудом и лишает подход Tesla смысла. Но гипотеза Флориди полностью уничтожает обоснованность FSD.

    Возьмём, к примеру, систему экстренного торможения. У Waymo и других беспилотников она выделена отдельно от основного ИИ и использует сенсоры «жёсткого» типа (лидар, радар, ультразвук), не требующие интерпретации. Это узкая задача, которую можно оптимизировать и сделать надёжной — ключевой шаг для выхода автономных машин на дороги.

    У Tesla же эта функция возложена на основной ИИ, которому приходится интерпретировать данные камер. Это слишком широкая задача, которая, по гипотезе Флориди, никогда не сможет быть полностью надёжной. А ведь надёжное экстренное торможение — обязательный элемент безопасности.

    Использование 3D-карт и множества сенсоров у конкурентов сильно сужает задачу для ИИ — меньше интерпретаций, меньше вариантов. А значит, по гипотезе Флориди, система может быть более надёжной. Tesla же оставляет ИИ слишком широкий спектр задач, что делает его принципиально менее надёжным.

    И вот самое важное: гипотеза Флориди утверждает, что никакое количество данных, тренировок и оптимизаций не позволит обойти этот компромисс между широтой применения и надёжностью.

    То есть, сколько бы миллиардов Маск ни вбухал в разработку FSD, из-за отсутствия ограничений задач система всегда будет давать ошибки, оставаться ненадёжной и в конечном счёте небезопасной.

    Это огромная проблема. Текущая капитализация Tesla держится исключительно на фантазии, что они создадут автономное вождение и захватят рынок. Но если оценивать Tesla только как автопроизводителя (по продажам и марже), компания стоит меньше, чем её долги. Если «пузырь» FSD лопнет, Tesla грозит крах. И гипотеза Флориди может привести именно к этому.

    Некоторые задают вопрос: доказывает ли гипотеза Флориди халатность Tesla, ведь она подразумевает, что Маск продаёт смертельно опасный продукт? Но в суде это вряд ли сработает. Да это и не нужно: уже есть десятки случаев, когда FSD приводила к гибели людей, потому что Маск и Tesla рекламировали её как полностью безопасную автономную систему, хотя это было ложью. Более того, до прихода Трампа к власти Министерство юстиции США готовилось предъявить обвинения Tesla в мошенничестве и даже непредумышленном убийстве. Кто знает, может быть, теперь, когда Трамп возненавидел Маска, это расследование возобновят.

    Суть в том, что нам не нужна гипотеза Флориди, чтобы обвинить Tesla. Но она доказывает, что Маск — идиот, ничего не понимающий в науке об ИИ и, в духе эффекта Даннинга–Крюгера, ведущий Tesla в тупик.




Джон Девисон Рокфеллер

Кто весь день работает, тому некогда зарабатывать деньги.