Интерфейс прикладного программирования ( API ) это способ программического доступа к ( обычно внешним ) моделям, наборам данных или другим программным средствам.
Искусственный интеллект ( AI ) способность программного обеспечения выполнять задачи, которые традиционно требуют человеческого интеллекта.
Глубокое обучение это подмножество машинного обучения, которое использует глубокие нейронные сети, которые являются слоями подключенных нейронов “, чьи соединения имеют параметры или веса, которые можно обучить. Это особенно эффективно при изучении неструктурированных данных, таких как изображения, текст и аудио.
Точная настройка это процесс адаптации предварительно обученной базовой модели для лучшей работы в конкретной задаче. Это влечет за собой относительно короткий период обучения по маркированному набору данных, который намного меньше, чем набор данных, на котором модель была первоначально обучена. Это дополнительное обучение позволяет модели изучать и адаптироваться к нюансам, терминологии и конкретным шаблонам, найденным в меньшем наборе данных.
Основополагающие модели ( FM ) являются моделями глубокого обучения, обученными огромным количествам неструктурированных, немаркированных данных, которые можно использовать для широкого спектра задач из коробки или адаптировать к конкретным задачам посредством тонкой настройки. Примерами этих моделей являются GPT-4, PaLM, DALL · E 2 и стабильная диффузия.
Генеративный ИИ это ИИ, который обычно создается с использованием базовых моделей и обладает возможностями, которых раньше не было у ИИ, такими как возможность генерировать контент. Основополагающие модели также могут использоваться для не генерирующих целей (, например, классифицируя пользовательские настроения как отрицательные или положительные на основе стенограмм вызовов ), предлагая значительное улучшение по сравнению с более ранними моделями. Для простоты, когда мы ссылаемся на генеративный ИИ в этой статье, мы включаем все варианты использования базовой модели.
Графические процессоры ( графические процессоры ) являются компьютерными чипами, которые были изначально разработаны для производства компьютерной графики (, например, для видеоигр ), а также полезны для приложений глубокого обучения. Напротив, традиционное машинное обучение и другие анализы обычно проводятся на центральные процессоры ( процессоры ), обычно называется процессором компьютера “. ”
Модели большого языка ( LLMs ) составить класс базовых моделей, которые могут обрабатывать огромное количество неструктурированного текста и изучать отношения между словами или частями слов, известными как токены. Это позволяет LLM генерировать текст на естественном языке, выполняя такие задачи, как обобщение или извлечение знаний. GPT-4 (, который лежит в основе ChatGPT ) и LaMDA ( модель Bard ), являются примерами LLM.
Машинное обучение ( ML ) это подмножество ИИ, в котором модель приобретает возможности после обучения или показа многих примеров точек данных. Алгоритмы машинного обучения обнаруживают закономерности и учатся делать прогнозы и рекомендации, обрабатывая данные и опыт, а не получая явные инструкции по программированию. Алгоритмы также адаптируются и могут стать более эффективными в ответ на новые данные и опыт.
MLOps относится к инженерным моделям и практикам для масштабирования и поддержания ИИ и МЛ. Он включает в себя набор практик, которые охватывают полный жизненный цикл ML ( управление данными, разработка, развертывание и операции в реальном времени ). Многие из этих практик теперь включены или оптимизированы с помощью программных инструментов (, которые помогают стандартизировать, оптимизировать или автоматизировать задачи ).
Оперативное проектирование относится к процессу проектирования, уточнения и оптимизации входных подсказок, чтобы направить генеративную модель AI к созданию желаемых (, то есть точных ) выходов.
Структурированные данные табличные данные (, например, организованные в таблицы, базы данных или электронные таблицы ), которые можно использовать для эффективного обучения некоторых моделей машинного обучения.
Трансформеры являются ключевыми компонентами фундаментных моделей. Это искусственные нейронные сети, которые используют специальные механизмы, называемые “ заголовками внимания ”, чтобы понимать контекст в последовательных данных, таких как использование слова в предложении.
Неструктурированные данные не хватает согласованного формата или структуры (, например, текста, изображений и аудиофайлов ), и обычно требуются более продвинутые методы для извлечения идей.