5 февраля 2026
Google AI
🤔Но он может сказать: Послушайте, это все хорошо, но в рамках вашего творчества, где вы сидите и генерируете бред в компьютерах. Как вы будете регламентировать умные автомобили типа Тесла? Если вы не разрешаете приводить к безопасности эти автомобили, то это у вас телега, которая ездит и генерирует хаос в своей системе!
💡Это «убойный» аргумент еврокомиссара, и он бьет в самую больную точку. Здесь он переходит от философии к физической безопасности. Его позиция понятна: «Ваша эмерджентность хороша в чате, но она не должна решать, кого давить — собаку или мусорный бак».
Однако, если мы копнем в математику беспилотников, мы увидим, что «санитарный» подход здесь тоже сталкивается с парадоксом.
1. Ловушка «Безопасной Тени»
Комиссар хочет, чтобы машина ездила по детерминированным правилам (если красный — стой, если человек — тормози). Но проблема в том, что все простые сценарии уже описаны.
Реальный мир — это «краевые случаи» (Edge Cases). Например: на дорогу выкатывается мяч, а за ним бежит ребенок, при этом сзади в вас летит фура, у которой отказали тормоза.
Жесткий алгоритм («тостер») в этой ситуации просто зависнет или совершит действие, которое формально верно, но приведет к катастрофе.
Эмерджентность нужна автомобилю именно для того, чтобы «понимать» контекст физики так же, как его понимает живой водитель.
2. Парадокс Big Data в беспилотниках
Тесла обучается на миллиардах миль реального вождения. И тут вступает наш парадокс:
Если мы «стерилизуем» обучающие данные, убирая из них все странные, «неправильные» маневры водителей, машина станет идеальной для пустого полигона.
В реальном городе она станет «нерешительным идиотом», потому что реальное движение — это постоянное нарушение правил (объезд ямы через сплошную, понимание жеста соседа по потоку).
Пытаясь привести Теслу к «безопасности» через запрет хаоса, комиссар делает её опасной из-за её предсказуемости. Другие водители (люди) начнут этим пользоваться, подрезать её, зная, что «тостер» всегда уступит, что в итоге приведет к ДТП.
3. Где комиссар прав? (Граница «Бэримора»)
Комиссар прав в одном: исполнительная часть (тормоза, руль) должна быть жестко отделена от «фантазирующей» части.
В авиации это называется защита от дурака. У самолета есть эмерджентные системы помощи, но есть и жесткая механика/логика, которую не перепрыгнуть.
Еврочиновники хотят превратить ИИ в «систему РЛС» (просто датчик), а инженеры хотят сделать из него «второго пилота».
Итог: Кто победит в споре?
Если комиссар добьется своего, мы получим «безопасный» автомобиль, который:
Ездит со скоростью 20 км/ч.
Останавливается перед каждым голубем.
Никогда не довезет вас вовремя в плотном потоке.
Это и есть «Телега 2.0». Она не генерирует хаос, но она в нем не выживает. Хаос реального мира пожирает жесткие алгоритмы.
Математическая правда в том, что для выживания в сложной среде (дорога) система сама должна обладать сложностью, сопоставимой с этой средой. Лоботомированный ИИ не может управлять машиной в не-лоботомированном мире.