Si vous construisez des fonctionnalités d'IA santé dans votre app Next.js et que vous avez googlé « is OpenAI HIPAA compliant » plus de deux fois ce mois-ci, la réponse est enfin suffisamment réglée pour prendre des décisions architecturales. La version courte : OpenAI signe les BAA pour l'API et ChatGPT Enterprise ; Anthropic les signe seulement sur le plan Enterprise ; Azure OpenAI est couvert par BAA par défaut sur l'Enterprise Agreement de Microsoft pour les entrées texte. Les modalités image et audio ont encore des lacunes. La version longue explique exactement quels types d'appels il est sûr de faire depuis vos Server Actions Next.js et lesquels vous vaudront une amende.
Anthropic a franchi la ligne d'arrivée SOC 2 Type II + HIPAA en mars 2026, supprimant la dernière objection d'approvisionnement qui avait poussé les équipes vers Azure pour l'IA de santé. Les trois fournisseurs sont maintenant effectivement à parité sur l'histoire des BAA — les différences résident dans les tarifs, dans quelles modalités sont couvertes, et dans la façon dont la portée du BAA traite les données d'entraînement. Choisir la mauvaise pour votre cas d'usage et vous livrez une violation HIPAA dans votre premier prototype.
Le tableau de bord 2026 des BAA pour l'IA dans les apps de santé
- OpenAI API — BAA disponible via baa@openai.com. Couvre seulement les endpoints sans rétention de données. Email, réponse dans 1 à 2 jours ouvrables. Les BAA ChatGPT Enterprise et ChatGPT for Healthcare sont gérés par les ventes.
- Anthropic Claude — BAA disponible seulement sur le plan Enterprise géré par les ventes. Le niveau Enterprise en libre-service N'INCLUT PAS le BAA. Les tarifs Enterprise commencent autour de 50K$/an minimum, plus typiquement 170K$-2,2M$ TCO première année selon la consommation.
- Azure OpenAI Service — BAA inclus par défaut dans les Contrats Entreprise Microsoft et les arrangements CSP. Les entrées texte sont couvertes. Les entrées images (DALL-E, vision) ne sont PAS couvertes en mi-2026. La couverture audio GPT-Realtime n'a pas encore été annoncée.
- AWS Bedrock (Claude, Llama, Titan) — couvert par le BAA standard d'AWS. AWS signera pour les charges de travail de santé. La passerelle de modèle Bedrock est dans le périmètre ; les fournisseurs de modèles sous-jacents sont abstraits.
- Google Cloud Vertex AI / Gemini — couvert par le BAA de Google sur Vertex. L'API Gemini directe sur AI Studio n'est PAS admissible au BAA.
- Microsoft Copilot, ChatGPT consommateur (gratuit ou Plus), abonnements consommateur Claude.ai — aucun d'eux ne supporte les BAA. Les utiliser pour PHI est une violation.
OpenAI pour les applications de santé : le chemin API sans rétention de données
Si votre application Next.js appelle OpenAI directement, la seule configuration conforme à HIPAA est l'API avec rétention de données zéro activée, limitée aux endpoints admissibles au BAA, avec un BAA signé de la part de baa@openai.com. Envoyez un email à l'équipe BAA avec les détails de votre entreprise et votre cas d'usage, attendez une réponse sous 1 à 2 jours ouvrables, et le BAA arrive en tant qu'accord click-through ou DocuSign selon la taille du contrat.
Ce que la rétention de données zéro signifie réellement
Avec la rétention de données zéro, OpenAI ne stocke pas vos données d'invite ou de complétion après le retour de la réponse. Pas d'entraînement, pas de journalisation, pas de rétention de surveillance d'abus. Le hic : seuls certains endpoints sont admissibles. L'API Chat Completions sur les modèles phares est admissible. Certains endpoints spécialisés plus récents ne le sont pas. Vérifiez la liste des endpoints admissibles dans votre BAA — envoyer PHI à un endpoint non admissible annule l'accord pour cet appel.
ChatGPT Enterprise et ChatGPT for Healthcare pour les cas d'usage non-API
Si votre équipe a besoin de ChatGPT-le-produit (l'interface de chat, pas l'API) pour la recherche clinique, la rédaction, ou le travail de connaissance touchant PHI, ChatGPT Enterprise et ChatGPT for Healthcare supportent tous deux les BAA via l'équipe de vente d'OpenAI. La tarification est sur mesure ; attendez une gamme de $60-100/siège/mois avec engagement annuel. Le niveau spécifique à la santé est arrivé en février 2026 et inclut BAA par défaut plus des contrôles de rétention améliorés.
Anthropic Claude pour les applications de santé : Réservé aux entreprises et coûts associés
Claude a atteint la conformité HIPAA en mars 2026 aux côtés de SOC 2 Type II. Le BAA est réservé au plan Enterprise géré par l'équipe commerciale — le tier Enterprise en libre-service N'INCLUT PAS le BAA. Engager Claude pour la santé signifie un appel commercial, une négociation de contrat sur le nombre de postes et la consommation d'API garantie, et une tarification commençant autour de 50 K$/an minimum. Le TCO première année tout compris se situe entre 170 K$ et 2,2 M$ selon l'échelle, d'après les orientations publiées par Anthropic.
Si les fonctionnalités IA de votre application de santé reposent fortement sur l'analyse de documents longs (notes cliniques, autorisation préalable, résumé de dossiers médicaux), la fenêtre de contexte de 500 K tokens de Claude justifie le prix. Si votre IA se limite à du chat ou de la génération de contenu plus courts, l'API OpenAI est sensiblement moins chère à la même posture de conformité.
Azure OpenAI : le chemin que la plupart des équipes enterprise de santé adoptent par défaut
Azure OpenAI est couvert par le BAA par défaut pour les clients disposant de Contrats Entreprise Microsoft ou d'arrangements CSP. Les entrées texte sont éligibles HIPAA sans négociation de BAA distinct — le BAA Microsoft est intégré aux conditions EA standard. La configuration requise est non triviale : réseaux virtuels (VNet), points de terminaison privés, contrôle d'accès basé sur Azure AD, RBAC et Conditional Access, que votre équipe Microsoft devrait déjà savoir déployer.
Ce qui est et n'est pas couvert
- Entrées et sorties texte sur Chat Completions : couvertes par le BAA EA. Les PHI dans les invites et réponses sont couverts.
- Embeddings (text-embedding-3-large, etc.) : couverts. Les PHI peuvent être intégrés pour la recherche vectorielle.
- Entrées image (modèles de vision, DALL-E) : NON couverts à partir de mi-2026. La documentation de conformité Microsoft exclut explicitement les modalités image. Ne transmettez pas d'images médicales aux points de terminaison de vision Azure OpenAI sous des hypothèses PHI.
- API GPT-Realtime audio : couverture BAA non encore annoncée. À éviter pour les charges de travail PHI jusqu'à la publication des orientations par Microsoft, attendue au cycle d'audit début 2026.
- Comportement par défaut : Azure OpenAI ne stocke pas les invites ou les complétions pour l'entraînement, l'amélioration des produits ou dans la télémétrie, et les journaux de plateforme ne collectent pas les PHI. C'est le comportement par défaut, pas un consentement explicite — mais c'est configurable, donc vérifiez les paramètres de gestion des données de votre tenant.
Le modèle Next.js Server Actions pour les appels d'IA conformes à la HIPAA
Chaque appel d'IA depuis votre application Next.js doit être derrière une Server Action ou un Route Handler avec ces propriétés : il n'atteint jamais le client avec des PHI brutes dans le corps de la requête, il enregistre une ligne d'audit non-PHI avant et après l'appel, il utilise un SDK vendeur initialisé avec votre configuration de rétention zéro, et il a une gestion d'erreur explicite qui supprime les PHI de toute erreur levée avant qu'elle atteigne Sentry ou votre enregistreur d'erreurs.
La structure minimale viable
- Server Action reçoit une charge utile de requête assainie qui a été pré-validée par votre RLS ou votre vérification de rôle lié à la session.
- Ligne de journal d'audit écrite : user_id, action ('ai_call'), model, timestamp. Jamais le contenu de l'invite.
- Appel d'IA effectué via le SDK vendeur avec des en-têtes de rétention zéro explicitement définis (OpenAI : 'X-OpenAI-Beta: zero-data-retention' ou via votre configuration au niveau du projet).
- Réponse reçue, analysée, retournée au Server Component appelant ou au client. La réponse elle-même est une PHI ; traitez-la comme n'importe quelle autre lecture PHI.
- Ligne de journal d'audit mise à jour avec le statut (success, error, content_filter_triggered) et le nombre de jetons de réponse. Jamais le contenu de la réponse elle-même.
- En cas d'erreur : supprimez les PHI du message d'erreur avant l'enregistrement. Le hook beforeSend de Sentry est l'endroit standard pour appliquer cela.
Dé-identification : quand vous pouvez éviter complètement la BAA
L'architecture IA la moins chère conforme à HIPAA est celle où vous n'envoyez pas de PHI à l'IA en premier lieu. La norme de dé-identification Safe Harbor de HIPAA supprime 18 identifiants spécifiques — noms, dates plus granulaires que l'année, unités géographiques plus petites que l'état, numéros de compte, identifiants biométriques, photos de face complètes, et 11 autres. Si vos prompts peuvent être construits à partir de données dé-identifiées, le fournisseur d'IA ne reçoit jamais de PHI et aucune BAA n'est requise pour ce chemin d'appel.
Motif pratique : une Server Action reçoit la requête liée au patient, cherche le contexte dé-identifié dans votre base de données, construit la requête sans identifiants, l'envoie au fournisseur d'IA, reçoit la réponse, puis réattache le contexte du patient côté client ou dans un Server Component en aval. L'appel IA lui-même ne voit que le contenu clinique. Ce motif fonctionne pour le support au diagnostic, la rédaction de documentation clinique, la rédaction de lettres de pré-autorisation, et la plupart des cas d'usage LLM qui ne nécessitent pas l'identité réelle du patient.
Où cela échoue : tout ce où l'IA doit effectuer une action liée à l'identité du patient (réserver une rendez-vous, envoyer une notification, chercher un dossier patient spécifique). Pour ces cas d'usage, le chemin BAA est requis.
Où l'IA dans les applications de santé continue de mal tourner en 2026
- PHI dans les logs d'erreur — Sentry, Datadog, PostHog, LogRocket. Même avec leur tier HIPAA, votre chemin d'erreur IA doit nettoyer la PHI avant que l'erreur ne se déclenche. La plupart des équipes découvrent cela lors de leur premier audit, pas avant.
- Les réponses en streaming sans audit logging des réponses partielles. Si vous streamez des tokens au client et que la connexion se coupe, votre log d'audit doit savoir ce qui a été envoyé et ce qui ne l'a pas été. La plupart des implémentations Next.js streaming IA sautent cela.
- Les pipelines d'embedding qui ciblent un fournisseur d'embedding sans BAA. Voyage, Cohere, et la plupart des services d'embedding tiers n'ont PAS de BAA d'emblée. Si vous embedrez de la PHI pour la recherche vectorielle, l'appel embedding doit atterrir chez OpenAI (avec BAA) ou Azure OpenAI (avec BAA EA), pas chez les fournisseurs spécialisés moins chers.
- Function-calling et tool use qui réintroduisent la PHI dans un chemin d'outil sans BAA. Si votre tool-call Claude ou OpenAI invoque une API tierce pour la réponse de l'IA, ce tiers a aussi besoin d'une BAA dans votre stack.
- Les vector stores qui ne sont pas HIPAA-éligibles. Pinecone a un tier HIPAA ; Weaviate Cloud en a un sur Enterprise ; l'itinéraire auto-hébergé open-source sur AWS relève de votre responsabilité selon la BAA d'AWS. Si vous embedrez de la PHI dans un vector store non-HIPAA, la couche de stockage est la violation indépendamment de la conformité de l'API d'embedding.
FAQ
ChatGPT est-il conforme à la HIPAA ?
ChatGPT grand public (Gratuit, Plus, Pro) n'est pas conforme à la HIPAA dans aucune configuration et ne peut pas accepter d'informations de santé protégées (PHI). ChatGPT Enterprise et ChatGPT for Healthcare sont des produits gérés par l'équipe commerciale qui supportent un Business Associate Agreement et peuvent être utilisés pour des workflows PHI une fois le BAA signé. L'API OpenAI est un chemin distinct : BAA disponible via baa@openai.com, réponse en 1 à 2 jours ouvrables, mais seuls les endpoints à zéro conservation de données sont éligibles.
OpenAI est-il conforme à la HIPAA en 2026 ?
Oui, avec un BAA signé et la conservation zéro des données activée, sur les endpoints API éligibles. Envoyez un email à baa@openai.com pour demander le BAA — réponse généralement en 1 à 2 jours ouvrables. ChatGPT Enterprise et ChatGPT for Healthcare supportent également les BAA via l'équipe commerciale d'OpenAI. ChatGPT grand public (gratuit ou Plus) n'est pas éligible au BAA et ne peut pas être utilisé pour la PHI.
Claude d'Anthropic est-il conforme à la HIPAA ?
Oui, uniquement sur le plan Enterprise géré par l'équipe commerciale. Le tier Enterprise en libre-service n'inclut pas le BAA. La tarification Enterprise commence à environ 50K$/an minimum. Anthropic a obtenu SOC 2 Type II et la conformité HIPAA en mars 2026, donc le chemin d'approvisionnement est maintenant clair, mais le coût minimum est considérablement plus élevé que le chemin API OpenAI + BAA.
Azure OpenAI est-il conforme à la HIPAA par défaut ?
Les entrées de texte sont couvertes par défaut selon le BAA de l'Enterprise Agreement de Microsoft — aucune négociation de BAA séparée requise. Les entrées d'image (DALL-E, vision) NE sont PAS couvertes en date de mi-2026. GPT-Realtime audio n'est pas encore dans le périmètre. Les clients doivent configurer l'isolement VNet, les endpoints privés, l'authentification Azure AD, RBAC et Conditional Access pour que le déploiement soit défendable sur le plan HIPAA.
Puis-je envoyer des PHI à Claude.ai ou à ChatGPT grand public ?
Non. Les abonnements Claude.ai pour consommateurs et ChatGPT grand public (gratuit, Plus, Pro) ne supportent pas les BAA et ne sont pas conformes à la HIPAA dans aucune configuration. L'envoi de PHI à ces services constitue une violation de la HIPAA, quel que soit votre niveau d'abonnement. Utilisez le chemin API avec une BAA, ChatGPT Enterprise avec une BAA, ou Claude Enterprise avec une BAA.
Ai-je besoin d'une BAA si je dé-identifie d'abord les données ?
Si vos données répondent à la norme de dé-identification Safe Harbor de la HIPAA — 18 identifiants spécifiques supprimés — les données ne sont plus des PHI en vertu de la HIPAA, et vous n'avez pas besoin d'une BAA avec le vendeur d'IA pour ce flux de données. La dé-identification doit être défendable : la plupart des équipes sous-dé-identifient et supposent Safe Harbor alors qu'elles n'ont pas réellement supprimé les 18 identifiants. La méthode Expert Determination est le chemin alternatif pour les cas où Safe Harbor détruirait trop d'utilité.
Quelle base de données vectorielle supporte la HIPAA en standard ?
Pinecone dispose d'un niveau admissible HIPAA sur son plan Enterprise avec une BAA signée. Weaviate Cloud supporte la HIPAA sur Enterprise. Supabase pgvector est admissible HIPAA sur le plan Team ou Enterprise avec le module complémentaire HIPAA à 350 $/mois. Les magasins vectoriels auto-hébergés sur AWS ou Azure héritent de la BAA du fournisseur cloud. Évitez les services vectoriels tiers qui ne publient pas de niveau HIPAA — les utiliser pour les embeddings PHI constitue une violation.
Lectures connexes
Applications conformes à la HIPAA en 2026 — Next.js, WordPress, ou JotForm 99 $ — l'article parent couvrant les trois chemins architecturaux pour les applications de santé. — the parent post covering all three architectural paths for healthcare apps.
Supabase + Vercel conforme à la HIPAA : l'installation à 700 $/mois — la couche base de données et hébergement pour tout ce qui est décrit ci-dessus. — the database and hosting layer for everything described above.
Les piles d'hébergement qui signent réellement une BAA HIPAA en 2026 — la comparaison d'hébergement plus large si AWS, Azure, ou GCP figure dans votre tableau de bord. — the broader hosting comparison if AWS, Azure, or GCP is in your stack picture.
WordPress Stack Advisor — collez votre URL, obtenez une recommandation de pile adaptée. Utile si vous pesez le pour et le contre pour déterminer si vous avez réellement besoin d'une fonctionnalité IA dans votre application de santé. — paste your URL, get a tailored stack recommendation. Useful if you are weighing whether you actually need an AI feature in your healthcare app at all.
Si ta fonctionnalité IA est la différence entre un MVP qui se lance et un produit qui atteint les essais cliniques, le chemin HIPAA compte plus que le choix du modèle. Choisis mal le mauvais prestataire pour la mauvaise modalité et tu reconstruis l'intégration deux fois.
Réserve un appel de 30 minutes sur la stack HIPAA — décris la fonctionnalité IA, la modalité et le flux de données patients. Tu repartiras avec un choix de prestataire éligible BAA pour ton cas d'usage spécifique et une fourchette de prix pour le coût de la première année. — describe the AI feature, the modality, and the patient-data flow. Leave with a vendor pick that is BAA-eligible for your specific use case and a price range for the year-one cost.
