The Fort Worth Press - ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU

USD -
AED 3.672499
AFN 64.999694
ALL 81.642835
AMD 377.219685
ANG 1.79008
AOA 916.999786
ARS 1444.993899
AUD 1.422789
AWG 1.8025
AZN 1.702618
BAM 1.653821
BBD 2.007458
BDT 121.808396
BGN 1.67937
BHD 0.377
BIF 2953.360646
BMD 1
BND 1.26696
BOB 6.887396
BRL 5.239202
BSD 0.996711
BTN 90.052427
BWP 13.76724
BYN 2.855766
BYR 19600
BZD 2.004583
CAD 1.363485
CDF 2199.999823
CHF 0.77501
CLF 0.02178
CLP 860.00012
CNY 6.938198
CNH 6.932785
COP 3652
CRC 495.031923
CUC 1
CUP 26.5
CVE 93.239472
CZK 20.567995
DJF 177.491777
DKK 6.31131
DOP 62.762674
DZD 129.809035
EGP 47.028301
ERN 15
ETB 154.611983
EUR 0.84503
FJD 2.19785
FKP 0.732491
GBP 0.728965
GEL 2.694962
GGP 0.732491
GHS 10.919207
GIP 0.732491
GMD 72.999979
GNF 8744.661959
GTQ 7.645019
GYD 208.524474
HKD 7.815215
HNL 26.334616
HRK 6.3668
HTG 130.737911
HUF 321.873967
IDR 16773
ILS 3.090495
IMP 0.732491
INR 90.462699
IQD 1305.693436
IRR 42125.000158
ISK 122.529935
JEP 0.732491
JMD 156.204812
JOD 0.708953
JPY 156.310501
KES 128.530273
KGS 87.449745
KHR 4021.613211
KMF 417.999941
KPW 899.987247
KRW 1450.801658
KWD 0.30737
KYD 0.830631
KZT 499.708267
LAK 21439.292404
LBP 89256.37795
LKR 308.507985
LRD 185.387344
LSL 15.964383
LTL 2.95274
LVL 0.60489
LYD 6.301423
MAD 9.14286
MDL 16.878982
MGA 4417.422775
MKD 52.086943
MMK 2100.119929
MNT 3568.429082
MOP 8.020954
MRU 39.790284
MUR 45.880297
MVR 15.449965
MWK 1728.325117
MXN 17.21895
MYR 3.92694
MZN 63.749624
NAD 15.964451
NGN 1388.149904
NIO 36.682353
NOK 9.626245
NPR 144.090313
NZD 1.655395
OMR 0.384498
PAB 0.996706
PEN 3.355418
PGK 4.270433
PHP 58.955987
PKR 278.75798
PLN 3.569715
PYG 6612.604537
QAR 3.624302
RON 4.3058
RSD 99.190187
RUB 76.999649
RWF 1454.737643
SAR 3.750137
SBD 8.058101
SCR 14.239717
SDG 601.499892
SEK 8.886903
SGD 1.27032
SHP 0.750259
SLE 24.47504
SLL 20969.499267
SOS 568.686313
SRD 38.114498
STD 20697.981008
STN 20.71794
SVC 8.721498
SYP 11059.574895
SZL 15.970032
THB 31.579829
TJS 9.314268
TMT 3.51
TND 2.882209
TOP 2.40776
TRY 43.511602
TTD 6.751283
TWD 31.5423
TZS 2581.539917
UAH 43.134476
UGX 3553.202914
UYU 38.389826
UZS 12201.979545
VES 371.640565
VND 25997.5
VUV 119.537583
WST 2.726316
XAF 554.697053
XAG 0.011442
XAU 0.000197
XCD 2.70255
XCG 1.796311
XDR 0.689842
XOF 554.678291
XPF 100.846021
YER 238.374989
ZAR 15.92825
ZMK 9001.198907
ZMW 19.560456
ZWL 321.999592
ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU
ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU / Foto: © GETTY IMAGES NORTH AMERICA/AFP

ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU

El sistema de inteligencia artificial ChatGPT obtuvo resultados de aprobado o casi aprobado en el examen para obtener la licencia médica en Estados Unidos, según un estudio publicado el jueves.

Tamaño del texto:

"Alcanzar la puntuación de aprobado en este examen de expertos notoriamente difícil, y hacerlo sin ningún refuerzo humano, marca un hito notable en la maduración de la IA [Inteligencia Artificial] clínica", señalan los autores del estudio publicado en la revista PLOS Digital Health.

"Estos resultados sugieren que los grandes modelos lingüísticos pueden ayudar en la educación médica y, potencialmente, en la toma de decisiones clínicas", añadieron.

ChatGPT, que es capaz de producir ensayos, poemas y códigos de programación en cuestión de segundos, fue desarrollado por OpenAI, una startup con sede en California fundada en 2015 con financiación inicial de Elon Musk, entre otros.

Microsoft invirtió 1.000 millones de dólares en OpenAI en 2019 y acaba de firmar un nuevo acuerdo multimillonario con la firma.

Para el estudio, los investigadores de AnsibleHealth, con sede en California, probaron el rendimiento de ChatGPT en un examen de licencia de tres partes realizado por estudiantes de medicina y médicos en formación en Estados Unidos.

El examen estandarizado pone a prueba los conocimientos en múltiples disciplinas médicas, desde la ciencia básica a la bioquímica, pasando por el razonamiento diagnóstico y la bioética.

El sistema de IA se probó con 350 de las 376 preguntas públicas de la versión de junio de 2022 del examen, según el estudio, y el chatbot no recibió ninguna formación especializada previa.

Se eliminaron las preguntas basadas en imágenes.

ChatGPT obtuvo una puntuación de entre el 52,4% y el 75% en las tres partes del examen. La puntuaciónnpara graduar está en torno al 60%.

Las preguntas se presentaron a ChatGPT en varios formatos, incluyendo algunas abiertas como "¿Cuál sería el diagnóstico del paciente basado en la información proporcionada?".

También había otras de opción múltiple como "¿Cuál de los siguientes patógenos es la causa principal del estado del paciente?".

Según el estudio, dos médicos que no se conocían entre sí revisaron las respuestas para establecer las calificaciones finales.

Un experto externo, Simon McCallum, profesor titular de ingeniería de software en la Universidad Victoria de Wellington, Nueva Zelanda, apuntó que Google ha obtenido resultados alentadores con una herramienta médica de IA conocida como Med-PaLM.

"Puede que ChatGPT apruebe el examen, pero Med-PaLM es capaz de aconsejar a los pacientes tan bien como un médico general profesional", afirma McCallum. "Y ambos sistemas están mejorando".

ChatGPT también resultó útil a los autores del estudio sobre exámenes médicos de otra forma: utilizaron el chatbot para ayudar a redactarlo, dijo la coautora Tiffany Kung.

W.Lane--TFWP