Ссылки на источники — различия между версиями
Nsa (обсуждение | вклад) (→RAG) |
Nsa (обсуждение | вклад) (→RAG) |
||
Строка 11: | Строка 11: | ||
* [https://habr.com/ru/articles/817173/ Векторные БД vs Точность — часть 2] | * [https://habr.com/ru/articles/817173/ Векторные БД vs Точность — часть 2] | ||
* [https://habr.com/ru/companies/globalsign/articles/822169/ Построение надёжных систем из ненадёжных агентов] | * [https://habr.com/ru/companies/globalsign/articles/822169/ Построение надёжных систем из ненадёжных агентов] | ||
+ | |||
+ | --- | ||
+ | |||
+ | |||
+ | * [https://habr.com/ru/companies/raft/articles/864334/ Что побуждает LLM врать и как этого избежать в своих продуктах] | ||
==== Cotype Nano ==== | ==== Cotype Nano ==== |
Текущая версия на 13:38, 7 января 2025
Содержание
В данном разделе собираются все ссылки[править]
По поиску[править]
RAG[править]
- Что такое Retrieval-Augmented Generation (RAG) в языковых моделях и как оно работает?
- RAG (Retrieval Augmented Generation) — простое и понятное объяснение
- Русский LLM-помощник (saiga) с кэшем, используя RAG (Retrieval-Augmented Generation)
- Векторные БД vs Точность — часть 1
- Векторные БД vs Точность — часть 2
- Построение надёжных систем из ненадёжных агентов
---
Cotype Nano[править]
Остальное[править]
- Увеличение точности больших языковых моделей с помощью расширенной поисковой генерации
- Большие языковые модели для поиска информации Англ
- Яндекс запустил Нейро. Рассказываем, как он работает
По дронам[править]
- harshiniKumar/Drone-Detection-using-YOLOv3
- Классификация, позиционирование и отслеживание дронов с помощью HMM с использованием формирования луча акустической круговой микрофонной решетки
- Искусственный интеллект и нейросети помогут распознать БПЛА
- Распознаем беспилотники малых размеров с помощью ИИ
Материал для размышления[править]
Большие языковые модели (LLM) могут использоваться в качестве продвинутой поисковой системы. Нейросеть способна ответить на множество запросов пользователя, предоставить ссылки на разнообразные материалы. 2
Для увеличения точности и актуальности генерируемых ответов LLM интегрируют с технологией расширенной поисковой генерации (RAG). Она предполагает двухэтапный процесс: сначала выполняется поиск по ключевым словам из запроса пользователя для извлечения релевантной информации, затем полученные данные используются для генерации ответа с помощью LLM. 3
Также для расширения возможностей LLM в качестве поисковой системы используют систему Retrieval-Augmented Generation (RAG). Она включает компоненты поиска (retriever) и генерации (generator): 4
Компонент поиска отвечает за поиск и извлечение наиболее подходящей информации из внешних источников. Он анализирует запрос и находит фрагменты данных, которые могут быть полезны для точного ответа. 4 Компонент генерации использует найденную информацию для создания ответа. В отличие от традиционных моделей, которые полагаются только на предобученные знания, этот компонент может включать актуальные и релевантные данные, улучшая качество ответа. 4 Оценить ответ
5 источников
1
- serverflow.ru https://serverflow.ru/blog/stati/bolshie-yazykovye-modeli-llm-prosto-o-slozhnykh-tekhnologiyakh/
2
- cyberleninka.ru https://cyberleninka.ru/article/n/uvelichenie-tochnosti-bolshih-yazykovyh-modeley-s-pomoschyu-rasshirennoy-poiskovoy-generatsii
3
4