Tổng quan Giới thiệu AzureAIChatCompletionsModel
AzureAIChatCompletionsModel là một lớp (class) trong thư viện `langchain_azure_ai.chat_models.inference`, được xây dựng trên nền tảng Azure AI Chat Completions Model. Nó cung cấp một giao diện chung để tương tác với hầu hết các mô hình được triển khai trên Azure AI.
Lớp này đặc biệt hữu ích cho các ứng dụng yêu cầu khả năng hoàn thành chat, hỗ trợ nhiều mô hình khác nhau được liệt kê trong tài liệu của Azure AI Inference API. Ví dụ, bạn có thể sử dụng nó với các endpoint serverless chạy một mô hình duy nhất (trong trường hợp đó, tham số `model_name` có thể được bỏ qua).
Tính năng Các Nổi Bật và Cách Sử Dụng
**Tùy chỉnh tham số mô hình:** Bạn có thể truyền các thuộc tính bổ sung cho mô hình cơ bản, bao gồm `temperature`, `top_p`, `presence_penalty`, v.v. Điều này cho phép bạn tinh chỉnh hành vi của mô hình cho phù hợp với nhu cầu cụ thể của ứng dụng.
**Quản lý phiên bản API:** Đối với các mô hình Azure OpenAI, bạn có thể cần chỉ định tham số `api_version`. Nếu không được chỉ định, phiên bản mặc định của Azure AI Inference SDK sẽ được sử dụng. Hãy tham khảo tài liệu của mô hình để biết phiên bản API phù hợp.
**Gỡ rối:** Để chẩn đoán các vấn đề với mô hình, bạn có thể bật ghi nhật ký gỡ rối (debug logging).
**Tích hợp LangChain:** `AzureAIChatCompletionsModel` triển khai giao diện `.runnable` tiêu chuẩn của LangChain, cung cấp các phương thức như `.invoke`, `.batch`, `.stream`, v.v.
“AzureAIChatCompletionsModel mang đến sự linh hoạt và sức mạnh vượt trội cho các ứng dụng AI hội thoại.
Nhóm phát triển Azure AI
Khám phá thêm
Tìm hiểu sâu hơn về các tính năng và khả năng của AzureAIChatCompletionsModel.
Tài liệu Azure AI
Truy cập tài liệu chính thức của Azure AI để biết thêm thông tin chi tiết.
Ví dụ tích hợp LangChain
Xem các ví dụ thực tế về cách tích hợp AzureAIChatCompletionsModel với LangChain.
Lưu ý quan trọng về streaming
Cờ `disable_streaming` cho phép bạn kiểm soát hành vi streaming của mô hình. Nếu đặt thành `True`, streaming sẽ luôn bị bỏ qua. Nếu đặt thành `'tool_calling'`, streaming sẽ chỉ bị bỏ qua khi mô hình được gọi với đối số từ khóa `tools`. Điều này rất hữu ích khi bạn muốn thay thế một mô hình hiện có bằng một mô hình khác không hỗ trợ streaming đúng cách.
Phương thức `ainvoke` biến đổi một đầu vào duy nhất thành một đầu ra. Phương thức `astream` thực hiện streaming, cho phép nhận kết quả từng phần, cải thiện trải nghiệm người dùng.