AI -kiihdytin - AI accelerator

AI kiihdytin on luokan erikoistuneita kiihdytinpiiri tai tietokonejärjestelmä suunniteltu nopeuttamaan tekoälyn ja koneoppimisen sovelluksia, mukaan lukien keinotekoiset neuroverkot ja konenäön . Tyypillisiä käyttökohteita ovat algoritmeja robotiikka , esineiden internetiä ja muita tietoja -intensive tai anturi-ajettu tehtäviä. Ne ovat usein monipisteisiä malleja ja keskittyvät yleensä matalan tarkkuuden aritmeettisiin, uusiin datavirta-arkkitehtuureihin tai muistissa oleviin laskentaominaisuuksiin . Kuten 2018, tyypillinen AI integroidun piirin siru sisältää miljardeja ja MOSFET -transistorit. Tähän luokkaan kuuluville laitteille on useita myyjäkohtaisia ​​termejä, ja se on kehittymässä oleva tekniikka ilman hallitsevaa muotoilua .

Historia

Tietokonejärjestelmät ovat usein täydentäneet keskusyksikköä erikoiskäyttöön tarkoitetuilla kiihdyttimillä erikoistehtäviin, joita kutsutaan yhteisprosessoreiksi . Huomattavia sovelluskohtaiset laitteistoyksiköitä sisältävät näytönohjaimet varten grafiikkaa , äänikortit , Grafiikkaprosessori ja digitaaliset signaaliprosessorit . Kun syvän oppimisen ja tekoälyn työmäärät nousivat näkyviin 2010 -luvulla, erityisiä laitteistoyksiköitä kehitettiin tai mukautettiin olemassa olevista tuotteista näiden tehtävien nopeuttamiseksi .

Varhaiset yritykset

Ensimmäiset yritykset, kuten Intelin ETANN 80170NX, sisälsivät analogisia piirejä hermotoimintojen laskemiseksi. Toinen esimerkki siruja tämän luokan on Anna, neuraalinen verkko CMOS Accelerator kehittämä Yann LeCun . Myöhemmin kaikki digitaaliset sirut, kuten Nestor/Intel Ni1000, seurasivat. Jo vuonna 1993 digitaalisia signaaliprosessoreita käytettiin hermoverkon kiihdyttiminä esimerkiksi optisten merkkien tunnistusohjelmistojen nopeuttamiseen . 1990-luvulla yritettiin myös luoda rinnakkaisia ​​suuritehoisia järjestelmiä työasemille, jotka on tarkoitettu erilaisiin sovelluksiin, mukaan lukien hermoverkkosimulaatiot. Myös FPGA -pohjaisia ​​kiihdyttimiä tutkittiin ensimmäisen kerran 1990 -luvulla sekä päätelmien että koulutuksen osalta. Älypuhelimet alkoivat sisällyttää tekoälykiihdyttimiä alkaen Qualcomm Snapdragon 820: sta vuonna 2015.

Heterogeeninen laskenta

Heterogeeninen laskenta tarkoittaa useiden erikoistuneiden prosessorien sisällyttämistä yhteen järjestelmään tai jopa yhteen siruun, joista jokainen on optimoitu tiettyä tehtävää varten. Arkkitehtuureissa, kuten Cell -mikroprosessorissa, on ominaisuuksia, jotka ovat huomattavasti päällekkäisiä AI -kiihdyttimien kanssa, mukaan lukien: tuki pakatulle matalan tarkkuuden laskennalle, datavirta -arkkitehtuuri ja "suorituskyvyn" asettaminen etusijalle viiveen sijaan. Solumikroprosessoria sovellettiin myöhemmin useisiin tehtäviin, mukaan lukien tekoäly.

2000 -luvulla suorittimet saivat myös yhä laajemmat SIMD -yksiköt, jotka johtuivat video- ja pelikuormista; sekä tuki pakatuille matalan tarkkuuden tietotyypeille . Suorittimien paremman suorituskyvyn vuoksi niitä käytetään myös tekoälykuormien suorittamiseen. Suorittimet ovat parempia DNN-verkoissa, joissa DNN-tunnukset ovat pieniä tai keskisuuria rinnakkaisuuksia, harvoissa DNN-verkoissa ja pienikokoisissa skenaarioissa.

GPU: n käyttö

Grafiikkaprosessointiyksiköt tai GPU: t ovat erikoislaitteita kuvien käsittelyyn ja paikallisten kuvaominaisuuksien laskemiseen. Neuraaliverkkojen ja kuvankäsittelyn matemaattinen perusta ovat samankaltaisia, kiusallisesti rinnakkaisia matriiseja sisältäviä tehtäviä, minkä vuoksi GPU: ita käytetään yhä enemmän koneoppimistehtävissä. Vuodesta 2016 lähtien GPU: t ovat suosittuja tekoälytyössä, ja ne kehittyvät edelleen suuntaan, joka helpottaa syvää oppimista sekä koulutukseen että päätelmiin laitteissa, kuten itseohjautuvissa autoissa . Grafiikkasuorittimien kehittäjät, kuten Nvidia NVLink, kehittävät lisäyhteysominaisuuksia tietotekniikan työkuormista, joita tekoäly hyötyy. Kuten GPU on yhä sovellettu AI kiihtyvyys, GPU valmistajat ovat sisällytetty neuroverkon - erityinen laitteisto edelleen nopeuttaa nämä tehtävät. Tensor ytimet on tarkoitus nopeuttaa neuraaliverkkon opetukseen.

FPGA: iden käyttö

Syväoppimiskehykset kehittyvät edelleen, joten mukautetun laitteiston suunnittelu on vaikeaa. Uudelleenkonfiguroitavat laitteet, kuten kenttäohjelmoitavat porttijärjestelmät (FPGA), helpottavat laitteistojen, kehysten ja ohjelmistojen kehittämistä rinnakkain .

Microsoft on käyttänyt FPGA -siruja päätelmien nopeuttamiseen .

Omistettujen tekoälykiihdyttimien ASIC -järjestelmien syntyminen

Vaikka grafiikkasuorittimet ja FPGA-laitteet toimivat paljon paremmin kuin suorittimet tekoälyyn liittyvissä tehtävissä, jopa 10-kertainen tehokkuus voidaan saavuttaa tarkemmalla suunnittelulla sovelluskohtaisen integroidun piirin (ASIC) kautta. Nämä kiihdyttimet käyttävät strategioita, kuten optimoitua muistin käyttöä ja alemman tarkkuuden laskutoimituksen käyttöä laskennan nopeuttamiseksi ja laskennan suorituskyvyn lisäämiseksi. Jotkut antoi matalan tarkkuuden liukuluku muodoissa käytetään AI kiihtyvyys ovat puoli-tarkkuuden ja bfloat16 liukulukuja muodossa . Yritykset, kuten Google, Qualcomm, Amazon, Apple, Facebook, AMD ja Samsung, suunnittelevat kaikki omia tekoälyasemiaan.

Muistissa olevat tietojenkäsittelyarkkitehtuurit

Kesäkuussa 2017 IBM: n tutkijat julkistivat Von Neumann -arkkitehtuurin vastaisen arkkitehtuurin, joka perustuu muistin sisäisiin laskentamenetelmiin ja vaiheenvaihtomuistimatriiseihin, joita sovelletaan ajalliseen korrelaatiotunnistukseen.Ne aikovat yleistää lähestymistavan heterogeeniseen laskentaan ja massiivisesti rinnakkaisiin järjestelmiin. Lokakuussa 2018 IBM tutkijat julkaisivat arkkitehtuuri perustuu muistissa käsittely ja mallina ihmisen aivojen synaptisen verkon nopeuttaa syvä neuroverkot . Järjestelmä perustuu vaihevaihtomuistiryhmiin .

Muistin sisäinen laskenta analogisilla resistiivisillä muisteilla

Vuonna 2019 Politecnico di Milanon tutkijat löysivät tavan ratkaista lineaarisia yhtälöjärjestelmiä muutamassa kymmenessä nanosekunnissa yhdellä toimenpiteellä. Heidän algoritminsa perustuvat muistin sisäiseen laskentaan, jossa on analogiset resistiiviset muistit, jotka toimivat tehokkaasti aikaa ja energiaa suorittamalla matriisi-vektori-kertolasku yhdessä vaiheessa käyttäen Ohmin lakia ja Kirchhoffin lakia. Tutkijat osoittivat, että takaisinkytkentäpiiri, jossa on ristipisteen resistiiviset muistit, voi ratkaista algebrallisia ongelmia, kuten lineaaristen yhtälöiden järjestelmiä, matriisin ominaisvektoreita ja differentiaaliyhtälöitä vain yhdellä askeleella. Tällainen lähestymistapa parantaa laskenta -aikoja rajusti verrattuna digitaalisiin algoritmeihin.

Atomisesti ohuet puolijohteet

Vuonna 2020 Marega et ai. julkaisi kokeiluja suuren alueen aktiivisella kanavamateriaalilla muistin logiikkalaitteiden ja piirien kehittämiseksi kelluvien porttien kenttävaikutransistorien (FGFET) perusteella. Tällaisia ​​atomisesti ohuita puolijohteita pidetään lupaavina energiatehokkaissa koneoppimissovelluksissa , joissa samaa peruslaiterakennetta käytetään sekä logiikkatoiminnoissa että tietojen tallennuksessa. Tekijät käyttivät kaksiulotteisia materiaaleja, kuten puolijohtavaa molybdeenidisulfidia .

Integroitu fotoninen tensorisydän

Vuonna 2021 J. Feldmann et ai. ehdotti integroitua fotonista laitteistokiihdytintä rinnakkaista konvoluutiokäsittelyä varten. Kirjoittajat tunnistaa kaksi keskeistä etuja integroituna fotoniikan yli sen sähköisen vastineet: (1) massiivisesti rinnakkaisen datan siirtoa aallonpituuden jako multipleksoidaan yhdessä taajuus kammat , ja (2) erittäin korkea datamodulaation nopeuksilla. Heidän järjestelmänsä pystyy suorittamaan biljoonia kerto-keräysoperaatioita sekunnissa, mikä osoittaa integroidun fotoniikan mahdollisuudet datan raskaissa tekoälysovelluksissa.

Nimikkeistö

Vuodesta 2016 lähtien kenttä on edelleen vauhdissa ja myyjät painostavat omaa markkinointitermiä, joka vastaa "AI -kiihdytintä", toivoen, että heidän mallistaan ​​ja sovellusliittymistään tulee hallitseva muotoilu . Näiden laitteiden välisestä rajasta tai niiden tarkasta muodosta ei ole yksimielisyyttä; kuitenkin useiden esimerkkien tarkoituksena on selvästi täyttää tämä uusi tila, jossa on melko paljon päällekkäisyyksiä ominaisuuksissa.

Aikaisemmin, kun kuluttaja näytönohjainten syntyi, teollisuus lopulta hyväksyi Nvidian n itselleen osoittama termi 'GPU', koska kollektiivinen substantiivi 'grafiikkakiihdyttimille', joka oli tehty eri muodoissaan ennen asettumistaan kokonaisvaltaiseen putkilinjan toteuttamiseksi malli esittäjä Direct3D .

Mahdolliset sovellukset

Katso myös

Viitteet

Ulkoiset linkit