The Fort Worth Press - Uno studio esplora come rendere l'IA meno energivora

USD -
AED 3.672991
AFN 65.000219
ALL 81.750787
AMD 378.259749
ANG 1.79008
AOA 917.000322
ARS 1447.487701
AUD 1.43303
AWG 1.8025
AZN 1.700263
BAM 1.65515
BBD 2.013067
BDT 122.134821
BGN 1.67937
BHD 0.376994
BIF 2949.955359
BMD 1
BND 1.271532
BOB 6.906503
BRL 5.2577
BSD 0.999467
BTN 90.452257
BWP 13.162215
BYN 2.854157
BYR 19600
BZD 2.010138
CAD 1.367585
CDF 2199.999709
CHF 0.77668
CLF 0.021767
CLP 859.060427
CNY 6.938202
CNH 6.94274
COP 3628.74
CRC 495.478914
CUC 1
CUP 26.5
CVE 93.31088
CZK 20.665802
DJF 177.720242
DKK 6.328975
DOP 62.700992
DZD 129.732318
EGP 46.901199
ERN 15
ETB 154.846992
EUR 0.84762
FJD 2.2071
FKP 0.729917
GBP 0.732865
GEL 2.694999
GGP 0.729917
GHS 10.974578
GIP 0.729917
GMD 72.999744
GNF 8771.298855
GTQ 7.666172
GYD 209.107681
HKD 7.81225
HNL 26.40652
HRK 6.386302
HTG 131.004367
HUF 321.868003
IDR 16794.85
ILS 3.094805
IMP 0.729917
INR 90.44665
IQD 1309.366643
IRR 42125.000158
ISK 122.73999
JEP 0.729917
JMD 156.730659
JOD 0.709013
JPY 156.675501
KES 128.949686
KGS 87.450254
KHR 4034.223621
KMF 417.999729
KPW 899.945137
KRW 1460.14997
KWD 0.30731
KYD 0.83291
KZT 496.518171
LAK 21498.933685
LBP 89504.332961
LKR 309.337937
LRD 185.901857
LSL 15.973208
LTL 2.95274
LVL 0.60489
LYD 6.316351
MAD 9.162679
MDL 16.911242
MGA 4427.744491
MKD 52.240134
MMK 2099.936125
MNT 3569.846682
MOP 8.043143
MRU 39.687396
MUR 45.879977
MVR 15.449775
MWK 1732.791809
MXN 17.344215
MYR 3.93203
MZN 63.750183
NAD 15.973816
NGN 1368.559867
NIO 36.779547
NOK 9.682405
NPR 144.74967
NZD 1.669215
OMR 0.384497
PAB 0.999458
PEN 3.359892
PGK 4.282021
PHP 58.974975
PKR 279.546749
PLN 3.57536
PYG 6615.13009
QAR 3.645472
RON 4.317897
RSD 99.504971
RUB 76.255212
RWF 1458.735317
SAR 3.750238
SBD 8.058101
SCR 13.714455
SDG 601.523681
SEK 8.99609
SGD 1.273145
SHP 0.750259
SLE 24.475007
SLL 20969.499267
SOS 570.224434
SRD 37.894025
STD 20697.981008
STN 20.734071
SVC 8.745065
SYP 11059.574895
SZL 15.972716
THB 31.747042
TJS 9.340239
TMT 3.51
TND 2.890703
TOP 2.40776
TRY 43.52501
TTD 6.770395
TWD 31.644498
TZS 2580.289759
UAH 43.116413
UGX 3558.598395
UYU 38.520938
UZS 12251.99609
VES 371.640565
VND 25982
VUV 119.556789
WST 2.72617
XAF 555.124234
XAG 0.011742
XAU 0.000204
XCD 2.70255
XCG 1.80131
XDR 0.68948
XOF 555.135979
XPF 100.927097
YER 238.374993
ZAR 16.12195
ZMK 9001.208602
ZMW 19.565181
ZWL 321.999592
Uno studio esplora come rendere l'IA meno energivora
Uno studio esplora come rendere l'IA meno energivora

Uno studio esplora come rendere l'IA meno energivora

Pubblicazione su Jstat indaga efficacia del curriculum learning

Dimensione del testo:

Più biglietti della lotteria compri, maggiori sono le probabilità di vincere, ma spendere più di quanto guadagni non è una strategia saggia: qualcosa di simile accade nell'IA basata sul deep learning: più grande è una rete neurale, meglio può apprendere il compito assegnato. Purtroppo però rendere una rete infinitamente grande durante l'addestramento è impossibile e inefficiente. I cervelli biologici apprendono attraverso un processo parco nell'uso delle risorse che si è provato a imitare fornendo alle macchine un addestramento graduale, che parte da esempi semplici e progredisce verso quelli complessi (curriculum learning): una strategia sensata ma irrilevante per le reti molto grandi. Lo studio pubblicato sul Journal of Statistical Mechanics: Theory and Experiment (Jstat), uno dei giornali della Sissa/Iop, ha cercato di capire il perché di questo fallimento, suggerendo che queste reti sovraparametrizzate sono talmente ricche da sfruttare spontaneamente un percorso di apprendimento basato più sulla quantità di risorse che sulla loro qualità. Questa osservazione suggerisce che, regolando la dimensione iniziale della rete, il curriculum learning potrebbe rivelarsi una strategia valida, da sfruttare per creare reti neurali meno energeticamente dispendiose. "Ciò che abbiamo osservato è che una rete neurale sopra parametrizzata non ha bisogno di un percorso di apprendimento, perché, invece di essere guidata dagli esempi, è guidata dal fatto che dispone già di tante risorse—parametri che per caso si trovano già vicini a una soluzione, che vengono imboccati spontaneamente", osserva Luca Saglietti, fisico dell'Università Bocconi di Milano, che ha coordinato lo studio. Questo non significa che le reti non possano beneficiare del curriculum learning, ma che, data l'alta quantità di parametri iniziali, sono spinte in una direzione diversa. In teoria quindi si potrebbe trovare un modo per iniziare con reti più piccole e adottare il curriculum learning. "Questa è una parte dell'ipotesi esplorata nel nostro studio", rileva Saglietti. "Almeno negli esperimenti che abbiamo condotto, abbiamo osservato che, iniziando con reti più piccole, l'effetto del curriculum inizia a migliorare le prestazioni rispetto a quando l'input viene fornito casualmente. Questo miglioramento è maggiore rispetto a quando si continua ad aumentare i parametri fino al punto in cui l'ordine degli input non importa più".

F.Garcia--TFWP