Compartir a través de


Uso de herramientas y modelos de IA en Azure Functions

Azure Functions proporciona recursos de proceso sin servidor que se integran con la inteligencia artificial y los servicios de Azure para simplificar el proceso de creación de aplicaciones inteligentes hospedadas en la nube. En este artículo se presenta un panorama sobre la amplitud de escenarios, integraciones y otros recursos relacionados con IA que puede usar en las aplicaciones de función.

Algunas de las ventajas inherentes al uso de Azure Functions como recurso de cómputo para las tareas integradas en IA incluyen:

  • Escalado rápido controlado por eventos: tiene recursos de proceso disponibles cuando lo necesite. Con determinados planes, la aplicación vuelve a reducirse a cero cuando no es necesaria. Para más información, consulte Escalado controlado por eventos en Azure Functions.
  • Compatibilidad integrada con Azure OpenAI: la extensión de enlace de OpenAI simplifica considerablemente el proceso de interacción con Azure OpenAI para trabajar con agentes, asistentes y flujos de trabajo de generación aumentada de recuperación (RAG).
  • Amplia compatibilidad con lenguajes y bibliotecas: Functions le permite interactuar con la inteligencia artificial mediante su elección de lenguaje de programación, además de poder usar una amplia variedad de marcos y bibliotecas de INTELIGENCIA ARTIFICIAL.
  • Funcionalidades de orquestación: mientras que las ejecuciones de funciones no tienen estado inherentemente, la extensión durable Functions le permite crear el tipo de flujos de trabajo complejos requeridos por los agentes de IA.

Este artículo es específico del lenguaje, por lo que debe asegurarse de elegir el lenguaje de programación en la parte superior de la página.

Escenarios principales de integración de IA

La combinación de enlaces integrados y amplia compatibilidad con bibliotecas externas proporciona una amplia gama de escenarios potenciales para aumentar las aplicaciones y soluciones con la eficacia de la inteligencia artificial. Estos son algunos escenarios clave de integración de IA compatibles con Functions.

Generación aumentada de recuperación

Dado que Functions puede controlar varios eventos de varios orígenes de datos simultáneamente, es una solución eficaz para escenarios de inteligencia artificial en tiempo real, como los sistemas RAG que requieren una rápida recuperación y procesamiento de datos. El escalado rápido controlado por eventos reduce la latencia experimentada por los clientes, incluso en situaciones de alta demanda.

Estos son algunos ejemplos de referencia para escenarios basados en RAG:

En el caso de RAG, puede usar SDK, incluidos, entre otros, Azure OpenAI y los SDK de Azure para crear sus escenarios. En este ejemplo de referencia se usa la extensión de enlace OpenAI para resaltar OpenAI RAG con Azure AI Search.

Muestra cómo crear un bot de chat descriptivo que emite mensajes sencillos, recibe finalizaciones de texto y envía mensajes, todo en una sesión con estado mediante la extensión de enlace de OpenAI.

Llamada a funciones de asistente

Las llamadas a funciones de asistente proporcionan al asistente de IA o al agente la capacidad de invocar funciones o API específicas dinámicamente en función del contexto de una conversación o tarea. Estos comportamientos permiten a los asistentes interactuar con sistemas externos, recuperar datos y realizar otras acciones.

Functions es ideal para implementar la llamada a funciones de asistente en flujos de trabajo agente. Además de escalar de forma eficaz para controlar la demanda, las extensiones de enlace simplifican el proceso de uso de Functions para conectar asistentes con servicios remotos de Azure. Si no hay ningún enlace para el origen de datos o necesita un control total sobre los comportamientos del SDK, siempre puede administrar sus propias conexiones del SDK de cliente en la aplicación.

Estos son algunos ejemplos de referencia para escenarios de llamada a funciones de asistente:

Usa la extensión de enlace de OpenAI para habilitar la llamada a funciones personalizadas con el desencadenador de aptitudes del asistente.

Usa características de llamada de funciones para agentes en los SDK de Azure AI para implementar llamadas a funciones personalizadas.

Servidores MCP remotos

El Protocolo de contexto de modelo (MCP) proporciona una manera estandarizada de que los modelos de inteligencia artificial se comuniquen con sistemas externos para determinar sus funcionalidades y cómo pueden usarse mejor los asistentes y agentes de IA. Un servidor MCP permite que un modelo de inteligencia artificial (cliente) realice estas determinación de forma más eficaz.

Functions proporciona una extensión de enlace MCP que simplifica el proceso de creación de servidores MCP personalizados en Azure.

Este es un ejemplo de este proyecto de servidor MCP personalizado:

Proporciona una plantilla de servidor MCP junto con varios puntos de conexión funcionales, que se pueden ejecutar localmente y también desplegar en Azure.

Flujos de trabajo de agentes

Aunque es habitual que los procesos controlados por inteligencia artificial determinen de forma autónoma cómo interactuar con modelos y otros recursos de IA, hay muchos casos en los que se requiere un mayor nivel de predicbilidad o donde se definen bien los pasos necesarios. Estos flujos de trabajo agente dirigidos se componen de una orquestación de tareas o interacciones independientes que los agentes deben seguir.

La extensión durable Functions le ayuda a aprovechar las ventajas de Functions para crear operaciones de ejecución prolongada y de varios pasos con tolerancia a errores integrada. Estos flujos de trabajo son perfectos para los flujos de trabajo orientados a agentes. Por ejemplo, una solución de planificación de viajes podría recopilar primero los requisitos del usuario, buscar opciones de plan, obtener la aprobación del usuario y, por último, realizar reservas necesarias. En este escenario, puede compilar un agente para cada paso y, a continuación, coordinar sus acciones como un flujo de trabajo mediante Durable Functions.

Para obtener más ideas sobre escenarios de flujo de trabajo, consulte Patrones de aplicación en Durable Functions.

Herramientas y marcos de inteligencia artificial

Dado que Functions le permite crear aplicaciones en su lenguaje preferido y usar sus bibliotecas favoritas, hay una amplia gama de flexibilidad en lo que las bibliotecas y marcos de inteligencia artificial puede usar en las aplicaciones de funciones habilitadas para IA.

Estos son algunos de los marcos clave de Inteligencia artificial de Microsoft de los que debe tener en cuenta:

Marco/biblioteca Descripción
SDK de Azure AI Services Al trabajar directamente con los SDK de cliente, puede usar toda la amplitud de la funcionalidad de los servicios de Azure AI directamente en el código de función.
Extensión de enlace de OpenAI Integre fácilmente la eficacia de Azure OpenAI en las funciones y permita que Functions administre la integración del servicio.
Kernel semántico Permite crear fácilmente modelos y agentes de INTELIGENCIA ARTIFICIAL.

Functions también permite a las aplicaciones hacer referencia a bibliotecas y marcos de terceros, lo que significa que también puede usar todas sus herramientas y bibliotecas de IA favoritas en las funciones habilitadas para IA.