The Fort Worth Press - ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU

USD -
AED 3.672504
AFN 66.097111
ALL 82.900442
AMD 380.972824
ANG 1.790055
AOA 917.000367
ARS 1434.000367
AUD 1.504891
AWG 1.8
AZN 1.70397
BAM 1.679303
BBD 2.014081
BDT 122.345769
BGN 1.680002
BHD 0.377023
BIF 2954.62156
BMD 1
BND 1.295411
BOB 6.910231
BRL 5.439604
BSD 0.999957
BTN 89.908556
BWP 13.285536
BYN 2.874941
BYR 19600
BZD 2.011162
CAD 1.38265
CDF 2232.000362
CHF 0.804198
CLF 0.0235
CLP 921.880396
CNY 7.070104
CNH 7.069041
COP 3799.167132
CRC 488.472932
CUC 1
CUP 26.5
CVE 94.676512
CZK 20.783504
DJF 178.070665
DKK 6.414904
DOP 64.002061
DZD 130.098141
EGP 47.482076
ERN 15
ETB 155.107629
EUR 0.858704
FJD 2.26045
FKP 0.750488
GBP 0.749625
GEL 2.69504
GGP 0.750488
GHS 11.375091
GIP 0.750488
GMD 73.000355
GNF 8689.3058
GTQ 7.659812
GYD 209.213068
HKD 7.784904
HNL 26.337526
HRK 6.470704
HTG 130.906281
HUF 328.020388
IDR 16689.55
ILS 3.23571
IMP 0.750488
INR 89.958504
IQD 1310.007298
IRR 42112.503816
ISK 127.980386
JEP 0.750488
JMD 160.056669
JOD 0.70904
JPY 155.360385
KES 129.352166
KGS 87.450384
KHR 4003.777959
KMF 422.00035
KPW 900.039614
KRW 1473.803789
KWD 0.30697
KYD 0.833383
KZT 505.714163
LAK 21684.626283
LBP 89549.049071
LKR 308.444597
LRD 176.001374
LSL 16.947838
LTL 2.95274
LVL 0.60489
LYD 5.435968
MAD 9.235994
MDL 17.014554
MGA 4460.567552
MKD 52.925772
MMK 2099.679458
MNT 3548.600426
MOP 8.01889
MRU 39.877216
MUR 46.070378
MVR 15.403739
MWK 1733.997338
MXN 18.174604
MYR 4.111039
MZN 63.910377
NAD 16.947838
NGN 1450.080377
NIO 36.800756
NOK 10.105104
NPR 143.853518
NZD 1.730703
OMR 0.384504
PAB 1.000043
PEN 3.361353
PGK 4.243335
PHP 58.965038
PKR 280.346971
PLN 3.63215
PYG 6877.602713
QAR 3.644958
RON 4.372604
RSD 100.802816
RUB 76.367149
RWF 1454.943545
SAR 3.752973
SBD 8.230592
SCR 13.546038
SDG 601.503676
SEK 9.40005
SGD 1.295504
SHP 0.750259
SLE 23.703667
SLL 20969.498139
SOS 570.471816
SRD 38.629038
STD 20697.981008
STN 21.036363
SVC 8.750268
SYP 11057.447322
SZL 16.934701
THB 31.875038
TJS 9.174945
TMT 3.51
TND 2.933413
TOP 2.40776
TRY 42.526038
TTD 6.778861
TWD 31.289038
TZS 2440.132229
UAH 41.981024
UGX 3537.543468
UYU 39.110462
UZS 11963.250762
VES 254.551935
VND 26360
VUV 122.070562
WST 2.788735
XAF 563.222427
XAG 0.017168
XAU 0.000238
XCD 2.70255
XCG 1.802258
XDR 0.700468
XOF 563.222427
XPF 102.399863
YER 238.550363
ZAR 16.926304
ZMK 9001.203584
ZMW 23.119392
ZWL 321.999592
ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU
ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU / Foto: © GETTY IMAGES NORTH AMERICA/AFP

ChatGPT enfrenta al difícil examen para oficiar de médico en EEUU

El sistema de inteligencia artificial ChatGPT obtuvo resultados de aprobado o casi aprobado en el examen para obtener la licencia médica en Estados Unidos, según un estudio publicado el jueves.

Tamaño del texto:

"Alcanzar la puntuación de aprobado en este examen de expertos notoriamente difícil, y hacerlo sin ningún refuerzo humano, marca un hito notable en la maduración de la IA [Inteligencia Artificial] clínica", señalan los autores del estudio publicado en la revista PLOS Digital Health.

"Estos resultados sugieren que los grandes modelos lingüísticos pueden ayudar en la educación médica y, potencialmente, en la toma de decisiones clínicas", añadieron.

ChatGPT, que es capaz de producir ensayos, poemas y códigos de programación en cuestión de segundos, fue desarrollado por OpenAI, una startup con sede en California fundada en 2015 con financiación inicial de Elon Musk, entre otros.

Microsoft invirtió 1.000 millones de dólares en OpenAI en 2019 y acaba de firmar un nuevo acuerdo multimillonario con la firma.

Para el estudio, los investigadores de AnsibleHealth, con sede en California, probaron el rendimiento de ChatGPT en un examen de licencia de tres partes realizado por estudiantes de medicina y médicos en formación en Estados Unidos.

El examen estandarizado pone a prueba los conocimientos en múltiples disciplinas médicas, desde la ciencia básica a la bioquímica, pasando por el razonamiento diagnóstico y la bioética.

El sistema de IA se probó con 350 de las 376 preguntas públicas de la versión de junio de 2022 del examen, según el estudio, y el chatbot no recibió ninguna formación especializada previa.

Se eliminaron las preguntas basadas en imágenes.

ChatGPT obtuvo una puntuación de entre el 52,4% y el 75% en las tres partes del examen. La puntuaciónnpara graduar está en torno al 60%.

Las preguntas se presentaron a ChatGPT en varios formatos, incluyendo algunas abiertas como "¿Cuál sería el diagnóstico del paciente basado en la información proporcionada?".

También había otras de opción múltiple como "¿Cuál de los siguientes patógenos es la causa principal del estado del paciente?".

Según el estudio, dos médicos que no se conocían entre sí revisaron las respuestas para establecer las calificaciones finales.

Un experto externo, Simon McCallum, profesor titular de ingeniería de software en la Universidad Victoria de Wellington, Nueva Zelanda, apuntó que Google ha obtenido resultados alentadores con una herramienta médica de IA conocida como Med-PaLM.

"Puede que ChatGPT apruebe el examen, pero Med-PaLM es capaz de aconsejar a los pacientes tan bien como un médico general profesional", afirma McCallum. "Y ambos sistemas están mejorando".

ChatGPT también resultó útil a los autores del estudio sobre exámenes médicos de otra forma: utilizaron el chatbot para ayudar a redactarlo, dijo la coautora Tiffany Kung.

W.Lane--TFWP