ML3: Bruk kunstig intelligens uten å kunne teorien selv (Foto: Apple)

Nytt innen maskinlæring

Nye funksjoner i Core ML 3 gjør det enklere å trene maskinlæring-modeller, både egne men også tredjeparts-biblioteker. Fokus på naturlig språk, lyd, bilde og tale.

Publisert Sist oppdatert

WWDC 2020 er over - men det er nå kunnskapen skal spire og blomstre.

Blant alle nyhetene som ble presentert finner vi CoreML 3 - maskinlæringsteknologier fra Apple.

WWDC 2020 og CoreML 3

Dette rammeverket kan bruke både sentral-prosessoren, grafikk-kjernen samt det nevrale nettverket vi finner i A-serien av ARM-prosessorer som Apple har utviklet selv. Overgangen mellom disse er sømløse og ikke mulig å oppdage for sluttbruker.

En ny app kalt Create ML lar deg som utvikler bygge, trene og skipe maskinlæringsmodeller uten spesialkunnskap. Disse modellene kan trenes på egen maskin, og man kan ta ibruk gallerier av modeller fra Apple men også tredjeparts-leverandører. Disse skal nå også være enklere å implementere og konvertere.

Ny API programmerings-grensesnitt har kommet til for både kunstig syn og naturlig tale, i tillegg til lyd og bilde-prosesseringen som finnes fra før.  

Hensikten er å kunne integrere maskinlæring i apper som ikke har dette som tema i seg selv, men som derimot kan støtte seg på ML til bruk i den primære funksjonaliteten. Det klassiske eksemplet er bank-appen som kan bruke kameraet til å lese tallene fra kredittkortet ditt, eller gjenkjenne ansikter i bilder til forskjell fra bakgrunnen. 

Du kan lese mer om Apples ulike verktøy og teknikker for maskinlæring på utviklersidene her. Se også en video-sesjon fra WWDC 2020 om temaet under.