Si estás construyendo funciones de IA para salud en tu aplicación Next.js y has buscado en Google 'is OpenAI HIPAA compliant' más de dos veces este mes, la respuesta finalmente está lo suficientemente resuelta para tomar decisiones de arquitectura. La versión corta: OpenAI firma BAAs para la API y ChatGPT Enterprise; Anthropic solo los firma en el plan Enterprise; Azure OpenAI está cubierto por BAA por defecto en el Acuerdo Empresarial de Microsoft para entradas de texto. Las modalidades de imagen y audio aún tienen vacíos. La versión más larga explica exactamente cuáles tipos de llamadas son seguras hacer desde tus Server Actions de Next.js y cuáles te harán recibir multas.
Anthropic cruzó la línea de meta de SOC 2 Type II + HIPAA en marzo de 2026, eliminando la última objeción de procurement que había empujado a los equipos hacia Azure para IA en salud. Los tres proveedores ahora están efectivamente a la par en la historia del BAA — las diferencias están en el precio, en cuáles modalidades están cubiertas, y en cómo el alcance del BAA maneja los datos de entrenamiento. Elige el incorrecto para tu caso de uso y envías una violación de HIPAA en tu primer prototipo.
El marcador de BAA 2026 para IA en aplicaciones de salud
- OpenAI API — BAA disponible vía baa@openai.com. Cubre solo endpoints de retención cero de datos. Correo electrónico, respuesta dentro de 1-2 días hábiles. Los BAAs de ChatGPT Enterprise y ChatGPT for Healthcare son gestionados por ventas.
- Claude de Anthropic — BAA disponible solo en el plan Enterprise gestionado por ventas. El tier Enterprise de autoservicio NO incluye el BAA. Los precios de Enterprise comienzan alrededor de $50K/año mínimo, más típicamente $170K-$2.2M TCO en el primer año dependiendo del consumo.
- Azure OpenAI Service — BAA incluido por defecto en Microsoft Enterprise Agreements y acuerdos CSP. Las entradas de texto están cubiertas. Las entradas de imagen (DALL-E, visión) NO están cubiertas a mediados de 2026. La cobertura de audio GPT-Realtime aún no se ha anunciado.
- AWS Bedrock (Claude, Llama, Titan) — cubierto bajo el BAA estándar de AWS. AWS firmará para cargas de trabajo de salud. La puerta de enlace del modelo Bedrock está incluida; los proveedores de modelos subyacentes se abstraen.
- Google Cloud Vertex AI / Gemini — cubierto bajo el BAA de Google en Vertex. La API Gemini directa en AI Studio NO es elegible para BAA.
- Microsoft Copilot, ChatGPT consumidor (gratis o Plus), suscripciones consumidor Claude.ai — ninguno de estos soporta BAAs. Usarlos para PHI es una violación.
OpenAI para aplicaciones de salud: la ruta API con retención cero de datos
Si tu aplicación Next.js llama a OpenAI directamente, la única configuración compatible con HIPAA es la API con retención cero de datos habilitada, limitada a endpoints elegibles para BAA, con un BAA firmado de baa@openai.com. Envía un correo al equipo de BAA con los detalles de tu empresa y el caso de uso; espera una respuesta en 1-2 días hábiles, y el BAA llega como un acuerdo click-through o DocuSign según el tamaño del contrato.
Qué significa realmente retención cero de datos
Con retención cero de datos, OpenAI no almacena tus datos de prompt o completion después de que se devuelve la respuesta. Sin entrenamiento, sin registros, sin retención de monitoreo de abuso. La captura: solo ciertos endpoints califican. La API Chat Completions en modelos insignia es elegible. Algunos endpoints especializados más nuevos no lo son. Revisa la lista de endpoints elegibles en tu BAA — enviar PHI a un endpoint no elegible anula el acuerdo para esa llamada.
ChatGPT Enterprise y ChatGPT for Healthcare para casos de uso sin API
Si tu equipo necesita ChatGPT-el-producto (la interfaz de chat, no la API) para investigación clínica, redacción o trabajo de conocimiento que toque PHI, ChatGPT Enterprise y ChatGPT for Healthcare ambos soportan BAAs a través del equipo de ventas de OpenAI. Los precios son personalizados; espera un rango de $60-100/asiento/mes con compromiso anual. El nivel específico para Salud llegó en febrero de 2026 e incluye BAA-por-defecto además de controles mejorados de retención.
Anthropic Claude para aplicaciones de salud: Solo Enterprise y qué cuesta
Claude alcanzó preparación HIPAA en marzo de 2026 junto con SOC 2 Type II. El BAA está bloqueado detrás del plan Enterprise gestionado por ventas — el nivel Enterprise de autoservicio NO incluye el BAA. Usar Claude para salud significa una llamada de ventas, negociación de contrato sobre cantidad de asientos y consumo de API comprometido, y precios que comienzan alrededor de $50K/año mínimo. El TCO total del primer año está entre $170K y $2.2M dependiendo de la escala, según la orientación publicada por Anthropic.
Si las funciones de IA de tu app de salud dependen mucho del análisis de documentos de contexto largo (notas clínicas, autorización previa, resumen de historiales médicos), la ventana de contexto de 500K tokens de Claude justifica el precio. Si tu IA es chat o generación de contenido de formato corto, el camino con la API de OpenAI es significativamente más barato con la misma postura de cumplimiento.
Azure OpenAI: el camino que la mayoría de equipos enterprise de salud eligen por defecto
Azure OpenAI está cubierto por BAA por defecto para clientes con Microsoft Enterprise Agreements o arreglos CSP. Las entradas de texto son elegibles para HIPAA sin negociación de BAA separada — el BAA de Microsoft está integrado en los términos estándar de EA. La configuración requerida es no trivial: redes virtuales (VNet), puntos de conexión privados, control de acceso basado en Azure AD, RBAC, y Acceso Condicional, todo lo cual tu equipo de Microsoft ya debería saber cómo desplegar.
Qué está y qué no está en alcance
- Entradas y salidas de texto en Chat Completions: en alcance bajo el BAA de EA. La PHI en prompts y respuestas está cubierta.
- Embeddings (text-embedding-3-large, etc.): en alcance. La PHI puede ser incrustada para búsqueda vectorial.
- Entradas de imagen (modelos de visión, DALL-E): NO en alcance a mediados de 2026. La documentación de cumplimiento de Microsoft excluye explícitamente las modalidades de imagen. No envíes imágenes médicas a los puntos finales de visión de Azure OpenAI bajo supuestos de PHI.
- API de audio en tiempo real de GPT: alcance de BAA aún no anunciado. Evita para cargas de trabajo con PHI hasta que Microsoft publique orientación, esperada en el ciclo de auditoría de principios de 2026.
- Comportamiento predeterminado: Azure OpenAI no almacena indicaciones ni completaciones para entrenamiento, mejora de productos ni telemetría, y los registros de la plataforma no recopilan PHI. Este es el comportamiento predeterminado, no un opción que requiera activación, pero es configurable, así que verifica la configuración de manejo de datos de tu tenant.
El patrón de Server Actions de Next.js para llamadas a IA compatibles con HIPAA
Cada llamada a IA desde tu app de Next.js debe estar detrás de un Server Action o un Route Handler con estas propiedades: nunca llega al cliente con PHI sin procesar en el cuerpo de la solicitud, registra una fila de auditoría sin PHI antes y después de la llamada, usa un SDK de proveedor inicializado con tu configuración de retención cero, y tiene manejo explícito de errores que elimina PHI de cualquier error lanzado antes de que llegue a Sentry o tu logger de errores.
La estructura viable mínima
- El Server Action recibe un payload de solicitud sanitizado que ha sido prevalidado por tu RLS o verificación de rol vinculada a sesión.
- Fila de registro de auditoría escrita: user_id, action ('ai_call'), model, timestamp. Nunca el contenido del indicador.
- Llamada a IA realizada a través del SDK del proveedor con encabezados de retención cero explícitamente establecidos (OpenAI: 'X-OpenAI-Beta: zero-data-retention' o a través de tu configuración a nivel de proyecto).
- Respuesta recibida, analizada, devuelta al Server Component que la llamó o al cliente. La respuesta en sí es PHI; trátala como cualquier otra lectura de PHI.
- Fila de registro de auditoría actualizada con estado (success, error, content_filter_triggered) y la cantidad de tokens de la respuesta. Nunca el contenido de la respuesta en sí.
- En caso de error: elimina PHI del mensaje de error antes de registrarlo. El hook beforeSend de Sentry es el lugar estándar para hacer valer esto.
Des-identificación: cuándo puedes evitar el BAA por completo
La arquitectura de IA compatible con HIPAA más económica es aquella en la que no envías PHI a la IA en primer lugar. El estándar de des-identificación Safe Harbor de HIPAA elimina 18 identificadores específicos: nombres, fechas más granulares que el año, unidades geográficas más pequeñas que el estado, números de cuenta, IDs biométricos, fotos de rostro completo, y 11 más. Si tus prompts pueden construirse a partir de datos des-identificados, el proveedor de IA nunca recibe PHI y no se requiere BAA para esa ruta de llamadas.
Patrón práctico: una Server Action recibe la solicitud vinculada al paciente, busca el contexto des-identificado en tu base de datos, construye el prompt sin identificadores, envía al proveedor de IA, recibe la respuesta, y luego re-adjunta el contexto del paciente en el lado del cliente o en un Server Component posterior. La llamada a IA solo ve el contenido clínico. Este patrón funciona para soporte diagnóstico, redacción de documentación clínica, escritura de cartas de autorización previa, y la mayoría de casos de uso de LLM que no requieren la identidad real del paciente.
Dónde falla: cualquier cosa donde la IA necesita realizar una acción vinculada a la identidad del paciente (reservar una cita, enviar una notificación, buscar un registro de paciente específico). Para esos casos de uso, se requiere la ruta BAA.
Dónde la IA en aplicaciones de salud sigue fallando en 2026
- PHI en registros de errores: Sentry, Datadog, PostHog, LogRocket. Incluso con su nivel HIPAA, tu ruta de error de IA necesita limpiar PHI antes de que el error se dispare. La mayoría de los equipos descubren esto en su primera auditoría, no antes.
- Respuestas de streaming sin registro de auditoría de respuestas parciales. Si haces streaming de tokens al cliente y la conexión se cae, tu registro de auditoría necesita saber qué se envió y qué no. La mayoría de las implementaciones de IA con streaming de Next.js omiten esto.
- Tuberías de embedding que golpean un proveedor de embedding sin BAA. Voyage, Cohere, y la mayoría de servicios de embedding de terceros NO tienen BAA por defecto. Si insertas PHI para búsqueda vectorial, la llamada de embedding necesita llegar a OpenAI (con BAA) o Azure OpenAI (con BAA de EA), no a los proveedores especializados más económicos.
- Function-calling y tool use que reintroducen PHI en una ruta de herramienta sin BAA. Si tu tool-call de Claude u OpenAI invoca una API de terceros para la respuesta de la IA, ese tercero también necesita un BAA en tu stack.
- Vector stores que no son elegibles para HIPAA. Pinecone tiene un nivel HIPAA; Weaviate Cloud lo tiene en Enterprise; la ruta de auto-hospedaje de código abierto en AWS es tu responsabilidad bajo el BAA de AWS. Si insertas PHI en un vector store sin HIPAA, la capa de almacenamiento es la violación independientemente de la conformidad de la API de embedding.
FAQ
¿ChatGPT cumple con HIPAA?
ChatGPT de consumidor (Gratuito, Plus, Pro) no cumple con HIPAA en ninguna configuración y no puede aceptar PHI. ChatGPT Enterprise y ChatGPT for Healthcare son productos gestionados por ventas que admiten un Acuerdo de Asociado de Negocios y pueden usarse para flujos de trabajo con PHI una vez que el BAA está firmado. La OpenAI API es un camino separado: BAA disponible vía baa@openai.com, respuesta en 1 a 2 días hábiles, pero solo los endpoints de retención cero de datos son elegibles.
¿OpenAI cumple con HIPAA en 2026?
Sí, con un BAA firmado y retención cero de datos habilitada, en endpoints de API elegibles. Envía un correo a baa@openai.com para solicitar el BAA — respuesta típica 1-2 días hábiles. ChatGPT Enterprise y ChatGPT for Healthcare también admiten BAA a través del equipo de ventas de OpenAI. ChatGPT de consumidor (gratuito o Plus) no es elegible para BAA y no puede usarse para PHI.
¿Claude de Anthropic cumple con HIPAA?
Sí, solo en el plan Enterprise gestionado por ventas. El nivel Enterprise de autoservicio no incluye el BAA. Los precios Enterprise comienzan alrededor de $50K/año como mínimo. Anthropic logró SOC 2 Type II y preparación HIPAA en marzo de 2026, por lo que el camino de adquisición ahora es claro, pero el piso de costos es significativamente mayor que la ruta de OpenAI API + BAA.
¿Azure OpenAI cumple con HIPAA por defecto?
Las entradas de texto están cubiertas por defecto bajo el BAA del Acuerdo Empresarial de Microsoft — no se requiere negociación de BAA separada. Las entradas de imágenes (DALL-E, visión) NO están cubiertas a partir de mediados de 2026. GPT-Realtime de audio aún no está en alcance. Los clientes deben configurar aislamiento de VNet, endpoints privados, autenticación de Azure AD, RBAC y Acceso Condicional para que la implementación sea defensible desde HIPAA.
¿Puedo enviar PHI a Claude.ai o ChatGPT de consumidor?
No. Las suscripciones de Claude.ai de consumidor y ChatGPT de consumidor (gratuito, Plus, Pro) no soportan BAAs y no son compatibles con HIPAA bajo ninguna configuración. Enviar PHI a estos servicios es una violación de HIPAA sin importar tu nivel de suscripción. Usa la ruta de API con BAA, ChatGPT Enterprise con BAA, o Claude Enterprise con BAA.
¿Necesito un BAA si primero des-identifico los datos?
Si tus datos cumplen con el estándar de des-identificación Safe Harbor de HIPAA — 18 identificadores específicos removidos — los datos ya no son PHI bajo HIPAA, y no necesitas un BAA con el proveedor de IA para ese flujo de datos. La des-identificación debe ser defensible: la mayoría de equipos sub-des-identifican y asumen Safe Harbor cuando en realidad no han removido los 18 identificadores. El método Expert Determination es la ruta alternativa para casos donde Safe Harbor destruiría demasiada utilidad.
¿Qué base de datos vectorial soporta HIPAA de forma nativa?
Pinecone tiene un nivel elegible para HIPAA en su plan Enterprise con un BAA firmado. Weaviate Cloud soporta HIPAA en Enterprise. Supabase pgvector es elegible para HIPAA en el plan Team o Enterprise con el add-on HIPAA de $350/mes. Los vector stores auto-hospedados en AWS o Azure heredan el BAA del proveedor de nube. Evita servicios vectoriales de terceros que no publiquen un nivel HIPAA — usarlos para embeddings de PHI es una violación.
Lecturas relacionadas
Aplicaciones compatibles con HIPAA en 2026 — Next.js, WordPress, o JotForm $99 — el post principal que cubre las tres rutas arquitectónicas para aplicaciones de salud. — the parent post covering all three architectural paths for healthcare apps.
Supabase + Vercel compatible con HIPAA: la configuración de $700/mes — la capa de base de datos y hosting para todo lo descrito arriba. — the database and hosting layer for everything described above.
Pilas de hosting que realmente firman un BAA de HIPAA en 2026 — la comparación más amplia de hosting si AWS, Azure, o GCP está en tu panorama. — the broader hosting comparison if AWS, Azure, or GCP is in your stack picture.
WordPress Stack Advisor — pega tu URL, obtén una recomendación de stack personalizada. Útil si estás evaluando si realmente necesitas una característica de IA en tu aplicación de salud. — paste your URL, get a tailored stack recommendation. Useful if you are weighing whether you actually need an AI feature in your healthcare app at all.
Si tu característica de IA es la diferencia entre un MVP que se lanza y un producto que llega a pilotos clínicos, la ruta HIPAA importa más que la elección del modelo. Elige el proveedor equivocado para la modalidad equivocada y reconstruyes la integración dos veces.
Agenda una llamada de 30 minutos sobre tu stack HIPAA — describe la característica de IA, la modalidad y el flujo de datos del paciente. Termina con una selección de proveedor elegible para BAA en tu caso de uso específico y un rango de precio para el costo del primer año. — describe the AI feature, the modality, and the patient-data flow. Leave with a vendor pick that is BAA-eligible for your specific use case and a price range for the year-one cost.
