Nâng tầm
ChatGPT với Azure Functions và LangChain

Xây dựng ứng dụng AI đàm thoại thông minh và linh hoạt trên nền tảng Azure.

☁️Triển khai dễ dàng trên Azure
🔗Tận dụng sức mạnh của LangChain

Bắt đầu Giới thiệu về tích hợp LangChain và Azure OpenAI

Bài viết này sẽ hướng dẫn bạn cách kết hợp sức mạnh của LangChain, Azure OpenAI và Azure Functions để tạo ra các ứng dụng ChatGPT mạnh mẽ. Chúng ta sẽ tập trung vào việc xử lý yêu cầu từ người dùng thông qua HTTP Get hoặc Post và tạo ra các chuỗi hoàn thành sử dụng các mẫu và đầu vào từ người dùng.

Đây là điểm khởi đầu tuyệt vời để xây dựng các chuỗi ứng dụng phức tạp hơn. Hãy cùng khám phá cách tận dụng các công cụ này để tạo ra những trải nghiệm AI đàm thoại tuyệt vời.

Chuẩn bị Các bước cần thiết

Để bắt đầu, bạn cần đảm bảo rằng bạn đã cài đặt các công cụ sau: Python 3.8+, Azure Functions Core Tools và Azure Developer CLI. Các công cụ này sẽ giúp bạn xây dựng, triển khai và quản lý ứng dụng của mình trên nền tảng Azure.

Tiếp theo, hãy tạo tài nguyên Azure OpenAI cần thiết bằng cách chạy các lệnh thích hợp trong terminal. Lưu ý giá trị của biến môi trường (thường nằm trong file .env) vì bạn sẽ cần nó sau này. Thêm file .env vào thư mục gốc của repo để đơn giản hóa quá trình phát triển cục bộ. Thay thế giá trị placeholder bằng giá trị thực tế từ bước trước. Bạn cũng có thể chọn một mô hình triển khai khác trong ./infra/main.parameters.json.

LangChain giúp đơn giản hóa quá trình xây dựng ứng dụng AI đàm thoại mạnh mẽ.

OpenAI Expert

Khám phá thêm

Các tài nguyên hữu ích để bạn bắt đầu

📚

Tài liệu LangChain

Truy cập tài liệu chính thức của LangChain để tìm hiểu sâu hơn về các tính năng và cách sử dụng.

🤖

Azure OpenAI Documentation

Tìm hiểu cách sử dụng Azure OpenAI để tạo ra các mô hình ngôn ngữ tiên tiến.

Triển khai và thử nghiệm ứng dụng

Sử dụng Azure Dev CLI để triển khai ứng dụng một cách dễ dàng. Mở repo này trong GitHub CodeSpaces để có AZD tooling đã được cài đặt sẵn. Để cấp phép và triển khai, hãy chạy các lệnh được cung cấp.

Mã nguồn chính để thực hiện việc prompting và completion nằm trong function_app.py. Hàm và route mong đợi một prompt được gửi đến trong phần thân POST bằng cách sử dụng HTTP Trigger tiêu chuẩn trong Python. Sau khi các biến môi trường được thiết lập để cấu hình OpenAI và LangChain thông qua function, chúng ta có thể tận dụng các khía cạnh yêu thích của LangChain trong hàm (ask). Trong ví dụ đơn giản này, chúng ta lấy một prompt, xây dựng một prompt tốt hơn từ một template và sau đó gọi LLM. Theo mặc định, việc triển khai LLM được xác định trong ./infra/main.parameters.json, nhưng bạn có thể thử nghiệm với các mô hình khác và các tính năng khác của Langchain.