Gran Turismo Sophy (GT Sophy), il nuovo modello di AI introdotto ufficialmente ed a pianta stabile il 2 novembre (seppur parzialmente) su Gran Turismo 7, potrebbe essere un punto di svolta per quanto concerne lo sviluppo di intelligenze artificiali nei giochi di corse.
L’AI nata dalla collaborazione tra Sony AI, Sony Interactive Entertainment e Poliphony Digital funziona usando tecniche di deep reinforcement learning: viene utilizzata una rete neurale al fine di trasformare degli input in output grazie ad una rete neurale artificiale (deep learning), e sfrutta un meccanismo di apprendimento sulle decisioni basato sul trial and error (reinforcement learning); ciò che ne risulta è un agent che, modulandosi in base alla situazione, può riuscire a regalare una sfida appagante sia ai giocatori poco abili, sia alla selezione dei più forti piloti di Gran Turismo in circolazione (qui un video dimostrativo nel quale viene sconfitto l’italiano Valerio Gallo, campione del mondo GT nel 2021, in una prova a tempo contro Sophy).
Le abilità di guida che Sophy ha acquisito col tempo si possono distinguere in tre macroaree:
1) Controllo dell’auto
GT Sophy ha appreso il comportamento dei vari tipi di auto, le traiettorie di guida e le manovre per affrontare al meglio i tracciati.
2) Tattiche di gara
GT Sophy mostra un’altissima consapevolezza riguardo le tattiche presenti in una corsa, come i sorpassi in scia, sorpassi a incrocio ed addirittura manovre difensive come i blocchi.
3) Comportamento corretto in gara
GT Sophy è riuscita a conformarsi alle varie regole di gara (anche non scritte, come il fair play), come il rispetto delle traiettorie avversarie e l’evitamento di collisioni penalizzabili.
Nel futuro di Gran Turismo, GT Sophy avrà sempre più spazio ed importanza, e si spera che un giorno (magari con GT8) possa esprimere tutto il suo altissimo potenziale.
“GT Sophy ci ha mostrato nuove possibilità che non avevamo immaginato”
Igor Fraga, campione del mondo GT nel 2018.
RSS