В области искусственного интеллекта большие языковые модели, такие как ChatGPT OpenAI, были обучены на огромных объемах данных из Интернета через набор данных LAION, что сделало их способными понимать и отвечать на естественном языке.
Однако, если вы заинтересованы в использовании этих языковых моделей с вашими собственными личными данными, опасения по поводу потенциальной утечки данных могут заставить вас задуматься.
Но вот интересная мысль:
Что, если вы можете общаться со своими документами без подключения к Интернету, используя возможности ИИ. 100% конфиденциальность, никакие данные не покидают вашу локальную машину в любой момент.
Здесь в игру вступает PrivateGPT.
Что такое PrivateGPT?
PrivateGPT — это революционное технологическое решение, которое решает именно эту проблему. Это позволяет использовать чат-ботов с искусственным интеллектом для приема ваших личных данных без риска их раскрытия в Интернете.
В этой статье я проведу вас через процесс настройки и запуска PrivateGPT на вашем локальном компьютере.
Что вам нужно
Для начала вам необходимо установить несколько предварительных условий в вашей системе.
Шаг № 1: Настройте проект
Первый шаг — клонировать проект PrivateGPT из его проекта GitHub. После клонирования вы должны увидеть список файлов и папок:
Шаг 2. Загрузите требования
После клонирования проекта следующим шагом будет установка необходимых зависимостей. Для этого откройте терминал в каталоге проекта и выполните следующую команду:
pip install -r requirements.txt
Это установит все зависимости и требования.
Шаг №3: Загрузите языковую модель
PrivateGPT предназначен для работы с различными языковыми моделями с открытым исходным кодом. Некоторые из доступных вариантов включают в себя:
Хотя все эти модели эффективны, я рекомендую начать с модели Vicuna 13B из-за ее надежности и универсальности.
После загрузки модели скопируйте и вставьте ее в папку проекта PrivateGPT. Вам также потребуется обновить файл .env
, чтобы указать путь к модели Vicuna и другие соответствующие настройки.
PERSIST_DIRECTORY=db MODEL_TYPE=LlamaCpp MODEL_PATH=models/ggml-vic13b-q5_1.bin EMBEDDINGS_MODEL_NAME=all-MiniLM-L6-v2 MODEL_N_CTX=1000
Теперь ваша файловая структура и переменные среды должны выглядеть так:
Шаг 4. Добавьте документы
Скопируйте любой документ, который вы хотите, в папку «source_documents». Поддерживаются следующие расширения файлов:
Поддерживаемые расширения:
.csv
: CSV-файл.docx
: Документ Word.doc
: Документ Word.enex
: Эверноут.eml
: Электронная почта.epub
: EPub.html
: HTML-файл.md
: Уценка.msg
: Сообщение Outlook.odt
: Открыть текст документа.pdf
: переносимый формат документа (PDF).pptx
: Документ PowerPoint.ppt
: Документ PowerPoint.txt
: Текстовый файл (UTF-8)
Вот пример:
Чтобы получить данные из файла документа, откройте терминал и выполните следующую команду:
python ingest.py
Если загрузка прошла успешно, вы должны увидеть это сообщение в своем терминале:
Шаг № 5: Запустите приложение
Теперь, когда вы выполнили все подготовительные шаги, пришло время начать общение!
Внутри терминала выполните следующую команду:
python privateGPT.py
Это загрузит модель LLM и позволит вам начать общение в чате.
Потрясающий!
Последние мысли
В заключение, PrivateGPT — это не просто инновационный инструмент, а революционный инструмент, который призван революционизировать то, как мы взаимодействуем с ИИ, обращаясь к важнейшему элементу защиты конфиденциальности.
Представьте, что вы владелец бизнеса, который осознает огромный потенциал чат-ботов с искусственным интеллектом в улучшении обслуживания клиентов, оптимизации внутренней коммуникации и повышении общей операционной эффективности. Однако вы не решались внедрять эти технологии из-за риска раскрытия ваших конфиденциальных бизнес-данных. Вот тут-то и появляется PrivateGPT.
Будьте в курсе последних новостей и обновлений в сфере творческого ИИ — следите за публикацией Генеративный ИИ.
Пожалуйста, поддержите мою работу на Medium и получите неограниченный доступ, став участником по моей реферальной ссылке здесь. Хорошего дня!