Mochis NoticiasSalud y DeportesReforma de la supervisión de la IA: cómo afectará al sector sanitario
Mochis NoticiasSalud y DeportesReforma de la supervisión de la IA: cómo afectará al sector sanitario
Salud y Deportes

Reforma de la supervisión de la IA: cómo afectará al sector sanitario

Reforma de la supervisión de la IA: cómo afectará al sector sanitario
Reforma de la supervisión de la IA: cómo afectará al sector sanitario

Reforma de la supervisión de la IA: cómo afectará al sector sanitario

Israel Krush

Por Israel Krush, director ejecutivo y cofundador de Hyro.

La IA generativa, hasta hace poco una frontera desconocida, ahora enfrenta obstáculos regulatorios. Impulsado por una supervisión mínima, su meteórico ascenso se está desacelerando a medida que los marcos van tomando forma. Tanto las empresas como los usuarios se preparan para el efecto dominó y se preguntan cómo un mayor escrutinio remodelará este sector en auge.

Si bien la automatización de la IA puede revolucionar la eficiencia y acelerar los procesos en muchas industrias de atención al cliente, la atención médica requiere un enfoque diferente. Aquí los «consumidores» son pacientes, y su dato es muy personal: su información de salud. En esta área altamente sensible y regulada, la precaución ocupa un lugar central.

La adopción de la IA por parte de la industria de la salud es inevitable, pero aún se están definiendo las áreas óptimas para su impacto. A medida que las nuevas regulaciones apuntan a frenar esta tecnología disruptiva, se debe lograr un equilibrio crucial: fomentar herramientas de inteligencia artificial más inteligentes y eficientes y al mismo tiempo garantizar el cumplimiento y la confianza.

La necesidad de regulación

Los mecanismos regulatorios y los procedimientos de cumplimiento desempeñarán un papel crucial para minimizar el riesgo y optimizar la aplicabilidad de la IA en la próxima década.

Estas regulaciones deben desarrollarse para salvaguardar eficazmente los datos confidenciales de los pacientes y evitar el acceso no autorizado, la vulneración y el uso indebido, pasos necesarios para ganarse la confianza de los pacientes en estas herramientas. Imagine la fricción adicional que supone el hecho de que los sistemas de inteligencia artificial diagnostiquen erróneamente a los pacientes, difundan información incorrecta o sufran filtraciones de datos periódicas. Las implicaciones legales y financieras serían nefastas.

Los flujos de trabajo optimizados simplemente no pueden lograrse a costa de riesgos no abordados. reguladoIA responsable es el único camino a seguir. Y para lograr ambas cosas se deben cumplir tres pilares fundamentales: explicabilidad, controly cumplimiento.

Explicabilidad

Los profesionales de la salud caminan por una línea muy fina cuando manejan datos confidenciales, responden a preguntas urgentes y mantienen regulaciones estrictas. Sin embargo, confiar únicamente en modelos de lenguaje grandes (piense en ChatGPT) corre el riesgo de introducir un punto ciego peligroso. Si bien sus capacidades son impresionantes, estos modelos funcionan como «cajas negras»: sus procesos de toma de decisiones siguen siendo opacos. Mientras les proporciona información y recibe resultados, el razonamiento detrás de esos resultados permanece oculto, lo que los hace inadecuados para entornos de atención médica críticos.

Las soluciones de IA orientadas al paciente deben incorporar técnicas de IA explicable (XAI) para ofrecer una visibilidad integral de su funcionamiento interno. Esto incluye mostrar claramente los caminos lógicos utilizados para la toma de decisiones y resaltar las fuentes de datos específicas utilizadas para cada palabra.

Control

Para evitar errores costosos y salvaguardar el bienestar del paciente, es crucial eliminar los riesgos asociados con las «alucinaciones» de la IA: resultados falsos de interfaces generativas de IA que parecen realistas en contexto pero, de hecho, están completamente inventados. Estas «alucinaciones» pueden manifestarse de varias maneras, engañando potencialmente tanto a los pacientes como a los profesionales sanitarios. Imagine un sistema de IA:

  • Ofrece citas que no existen y provoca frustración y pérdida de tiempo a los pacientes.
  • Abruma a los pacientes con información irrelevante en lugar de brindar respuestas concisas y relevantes a sus preguntas.
  • Proporciona diagnósticos incorrectos basados ​​en datos incompletos o inexactos y pone en riesgo la seguridad del paciente.

El cuidado y el control cuidadosos de los datos son esenciales para mitigar estos riesgos y garantizar el uso responsable de la IA en la atención sanitaria. Esto significa restringir los datos a los que una interfaz de IA generativa puede acceder y procesar. En lugar de permitir el acceso sin restricciones a Internet, las soluciones de inteligencia artificial de generación deberían restringirse a fuentes de información verificadas internamente, como directorios de sistemas de salud, archivos PDF, archivos CSV y bases de datos.

Cumplimiento

Los sistemas de inteligencia artificial en el cuidado de la salud deben construirse con el cumplimiento de HIPAA entretejido en su propia estructura, no atornillados como una ocurrencia tardía. Esto significa medidas sólidas de protección de datos desde el principio, que minimizan el riesgo de exponer información de salud protegida (PHI) e información de identificación personal (PII) a partes no autorizadas.

Navegar por el laberinto regulatorio de la IA en la atención médica requiere agilidad. El cumplimiento no es una diana de una sola vez, sino una danza constante con un objetivo en movimiento. Las organizaciones deben navegar por HIPAA, el RGPD de la UE y la Ley de IA, así como por todas las políticas futuras que seguramente vendrán, sin dejar de ser ágiles y adaptables al panorama en constante cambio.

El futuro de la IA sanitaria

Aprovechar el poder transformador de la IA generativa para la comunicación con el paciente requiere un enfoque colaborativo de la regulación. Las partes interesadas de la industria no deberían ver las regulaciones como un obstáculo sino más bien como una clave que desbloquea el despliegue responsable y garantiza la viabilidad a largo plazo. Al participar activamente en la configuración de estos marcos, podemos evitar posibles obstáculos y allanar el camino para que la IA realmente avance, y no interrumpa, la participación de los pacientes en la atención médica.

por Scott Rupp IA sanitaria, tecnología de chat sanitario, Hyro, Israel Krush, IA responsable

Source link

Hi, I’m Javier Vega

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *