Да, пузырь ИИ обязательно лопнет. Ожидания очень высоки.
Я вижу это повсюду вокруг себя. Я работаю над проектом по тестированию искусственного интеллекта (Copilot Microsoft 365), и люди стремятся принять в нем участие из-за маркетинговой рекламы Microsoft. «Сегодня кто-то попросил меня присоединиться к нам, потому что он каждый день сравнивает от 30 до 40 программ Excel, и это могло бы автоматизировать всю его работу», — подумал он. Не только наша компания боится упустить шанс. Как и сами сотрудники.
Я уже сказал ему, что на самом деле вы ничего не упускаете, потому что Copilot for Excel на данный момент является игрой. Он пока ничего не может сделать. Это все еще возможно в Word, Teams и Outlook (логично, потому что это поддерживается LLM и они хорошо редактируют текст), но в Excel это вообще не работает. Некоторые простые вещи в таблице-примере (сейчас это должна быть одна таблица с небольшим количеством данных), да, она может что-то сделать. Если вы дадите ему действительно большую производственную базу данных, она будет постоянно работать неправильно (загадочные ошибки) или (что еще хуже) будет захватывать только часть данных и молча игнорировать остальные. Если он делает что-то один раз, то это неправильно или он этого не понимает и делает не так, как вам хочется. Что ж, я должен быть честным, Microsoft также помечает плагин Excel как «Предварительная версия», который является единственным во всем офисном пакете. Но кроме этого, они не делают ничего, чтобы смягчить преувеличенные ожидания.
Мы доверяем компьютерам, потому что они каждый раз делают одно и то же. Если они делают это неправильно, то это потому, что они были неправильно запрограммированы, и не по вине компьютера, а по вине программиста (а часто и по вине клиента). Но ИИ бездельничает и часто каждый раз делает что-то другое для одной и той же задачи. Это подрывает принцип работы компьютера.
Я думаю, что в некоторых областях это будет хорошо работать. Перевод, обобщение и помощник, которого можно вызвать для таких вещей, как назначение встреч, да, я вижу, что это происходит, хотя пока не все работает идеально. Знать аналитику данных для вас слишком сложно, нет. Не с нынешними технологиями. Например, вы можете создавать собственные модели анализа с помощью PyTorch, но вы не сможете добиться этого с помощью стандартного генеративного ИИ. У LLM просто ограниченное мышление. На самом деле, вообще нет никакой «причины».
Модель большого языка не идеальна для всех приложений. В настоящее время у всех в глазах звезды, потому что они думают, что ChatGPT очень умный, но на самом деле это всего лишь машина для копирования и вставки.
Я думаю, дело в том, что ChatGPT и другие обладатели LLM чувствуют себя очень человечно и демонстрируют большую уверенность в своем языке. Поэтому люди верят ей на слово и часто испытывают ложную уверенность в ее навыках. Это помогает продвигать продукт в целом, но не делает его лучше. Кажется, будто внезапно был сделан огромный скачок, но на самом деле это не так. Ну, может быть, со стороны «человеческого интерфейса», но не со стороны интеллекта.
[Reactie gewijzigd door Llopigat op 12 juli 2024 04:22]
«Сертифицированный телезритель. Вызывающе скромный зомби-ниндзя. Защитник кофе. Веб-эксперт. Решатель проблем».
More Stories
Презентация Monster Jam Showdown
Пересмотреть: Прямой эфир 046 | 28.08.2024
Instagram теперь позволяет добавлять песни в свой аккаунт