DEV: ARKit 4 der 3D møter Apple Maps.

Geo-lokalisert 3D i ARKit 4

VIDEO: De nye verktøyene for utvidet virkelighet i ARKit 4 lar deg enkelt integrere 3D-objekter i den virkelige verden, klar til utforskning. I tillegg kan virkeligheten scannes med LiDAR for et liknende møte i mindre rom. 

Publisert Sist oppdatert

Apple har lansert ARKit 4.

Med den nye versjonen av verktøysettet kan utviklere legge til rette for møtet mellom den virkelige verden, geo-lokalisert, og 3D-innhold.

WWDC 2020: ARKit 4

Apple har i lengre tid satset på utvidet virkelighet  - AR -  og mange tar dette som et tegn på en fremtidig lansering av et sett med AR-briller (som i rykteverdenen kalles for Apple Glass).

Under WWDC 2020 ble det lansert oppdaterte verktøysett for utviklere som gir en rekke nye funksjoner. Ved en tidligere anledning ble AR-verktøyene gitt mulighet til å legge til rette for at to eller flere brukere kan dele, eller oppleve, den samme 3D-scenen gjennom utvidet virkelighet samtidig.

Nytt nå er at man kan ta 3D-objekter og angi geografiske posisjoner, eller koordinater, slik at disse kan plasseres med geolokasjon. Apple bruker kart-dataene som selskapet har tilegnet seg med LiDAR-scanning til å matche disse mot en iPhone eller iPad ved hjelp av kunstig intelligens for større presisjon enn ordinær GPS.

Og selv en iPad Pro har jo en innebygget LiDAR-scanner som kan benyttes til å kartlegge det fysiske rommet i umiddelbar nærhet. Mange venter at en slik funksjon også vil dukke opp i høstens iPhone 12. 

Men igjen, takk være kunstig intelligens vil det bli mulig allerede nå å mappe digitalt innhold til ansikter (tenk: Snap-linser) eller også gjenkjenne håndbevegelser. 

Er det en form for AR-videokonferanseløsning som Apple utvikler, perfekt for hjemme-kontoret? 

Via Apple