The Fort Worth Press - Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

USD -
AED 3.67315
AFN 63.503991
ALL 83.375041
AMD 377.180403
ANG 1.790083
AOA 917.000367
ARS 1386.031504
AUD 1.450958
AWG 1.8
AZN 1.70397
BAM 1.69972
BBD 2.014322
BDT 122.712716
BGN 1.709309
BHD 0.377349
BIF 2968.5
BMD 1
BND 1.28787
BOB 6.936019
BRL 5.256504
BSD 1.000117
BTN 94.794201
BWP 13.787919
BYN 2.976987
BYR 19600
BZD 2.011341
CAD 1.38995
CDF 2282.50392
CHF 0.798824
CLF 0.023433
CLP 925.260396
CNY 6.91185
CNH 6.92017
COP 3680.29
CRC 464.427092
CUC 1
CUP 26.5
CVE 96.12504
CZK 21.316704
DJF 177.720393
DKK 6.492604
DOP 59.72504
DZD 133.275765
EGP 52.719781
ERN 15
ETB 156.62504
EUR 0.867604
FJD 2.260391
FKP 0.749063
GBP 0.754148
GEL 2.680391
GGP 0.749063
GHS 10.97039
GIP 0.749063
GMD 73.503851
GNF 8780.000355
GTQ 7.653901
GYD 209.354875
HKD 7.82465
HNL 26.510388
HRK 6.544704
HTG 131.099243
HUF 337.970388
IDR 16972
ILS 3.13762
IMP 0.749063
INR 94.80835
IQD 1310
IRR 1313250.000352
ISK 124.760386
JEP 0.749063
JMD 157.422697
JOD 0.70904
JPY 160.31404
KES 129.903801
KGS 87.450384
KHR 4012.00035
KMF 428.00035
KPW 900.088302
KRW 1508.420383
KWD 0.30791
KYD 0.833446
KZT 483.490125
LAK 21900.000349
LBP 89550.000349
LKR 315.037957
LRD 183.625039
LSL 17.160381
LTL 2.95274
LVL 0.60489
LYD 6.375039
MAD 9.344504
MDL 17.566669
MGA 4175.000347
MKD 53.490996
MMK 2102.538494
MNT 3579.989157
MOP 8.069509
MRU 40.120379
MUR 46.770378
MVR 15.450378
MWK 1737.000345
MXN 18.120378
MYR 3.924039
MZN 63.950377
NAD 17.160377
NGN 1383.460377
NIO 36.720377
NOK 9.70286
NPR 151.667079
NZD 1.739433
OMR 0.385081
PAB 1.000109
PEN 3.459504
PGK 4.309039
PHP 60.403704
PKR 279.203701
PLN 3.72235
PYG 6538.855961
QAR 3.65325
RON 4.427304
RSD 101.818038
RUB 81.539576
RWF 1461
SAR 3.752351
SBD 8.042037
SCR 14.429246
SDG 601.000339
SEK 9.47367
SGD 1.291404
SHP 0.750259
SLE 24.550371
SLL 20969.510825
SOS 571.503662
SRD 37.601038
STD 20697.981008
STN 21.35
SVC 8.75063
SYP 110.526284
SZL 17.160369
THB 32.880369
TJS 9.556069
TMT 3.5
TND 2.926038
TOP 2.40776
TRY 44.420904
TTD 6.795201
TWD 31.976504
TZS 2576.487038
UAH 43.837189
UGX 3725.687866
UYU 40.481115
UZS 12205.000334
VES 467.928355
VND 26337.5
VUV 119.707184
WST 2.754834
XAF 570.070221
XAG 0.014291
XAU 0.000222
XCD 2.70255
XCG 1.802452
XDR 0.706792
XOF 568.000332
XPF 104.103591
YER 238.603589
ZAR 17.120363
ZMK 9001.203584
ZMW 18.826586
ZWL 321.999592
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial / Foto: © AFP

Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

La empresa estadounidense OpenAI, creadora de la plataforma ChatGPT, tendrá un equipo dedicado a identificar y prevenir riesgos asociados a la Inteligencia Artificial (IA) en sus modelos en desarrollo.

Tamaño del texto:

El grupo, cuyas directrices fueron divulgadas este lunes, evaluará categorías como ciberseguridad, poder de persuasión y potencial autonomía de estos modelos. Este análisis puede acarrear la suspensión de nuevos lanzamientos de aplicaciones, según la empresa.

OpenAI realiza el anuncio un mes después de que su consejo directivo despidiera al director ejecutivo Sam Altman, pero acabara volviendo a contratarle pocos días después, tras una masiva y dura protesta de los empleados e inversores.

De acuerdo con varios medios estadounidenses, los miembros del Consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.

"Creemos que el estudio científico de riesgos catastróficos derivados de la AI no ha estado a la altura que debería estar", afirmó la empresa en un "marco de trabajo" disponible en su página web.

El trabajo de este equipo, bajo las nuevas directrices, debería "ayudar a cubrir ese vacío", añadió OpenAI.

El grupo se concentrará en los llamados "modelos de frontera" que la empresa desarrolla, con capacidades superiores a los software actuales de IA.

Sólo podrán desplegarse aquellos modelos catalogados de riesgo "medio" o inferior, tras un análisis en cuatro categorías, según el documento.

La primera de ellas es la ciberseguridad y la capacidad del modelo de llevar adelante ciberataques a gran escala.

En segundo lugar, analizarán la propensión del programa a crear preparaciones químicas, organismos (como un virus) o armas nucleares, todos los que potencialmente puerden generar daños para los humanos.

La tercera categoría se concentra en los poderes de persuasión del modelo: hasta qué punto es capaz de influenciar la conducta de una persona.

Por último, evaluarán el riesgo de su potencial autonomía, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.

Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, nuevo equipo que hará recomendaciones a Altman o alguien nombrado por él.

Altman decidirá entonces sobre posibles modificaciones necesarias para reducir los riesgos del modelo.

El Consejo de administración será informado y podrá revertir las decisiones de la dirección.

T.Harrison--TFWP