Intel viser fire kjerner

Intel viser fire kjerner

San Francisco (Nettverk & Kommunikasjon): Helt på slutten av sin åpningstale på IDF avslørte Intels Pat Gelsinger at hele presentasjonen var kjørt på en firekjernes prosessor.

Årets Intel Developer Forum ble åpnet med til sammen to timers gjennomgang av produktnyheter og Intels kommende teknologiutvikling. Først av teknologidirektør Justin Rattner og deretter Pat Gelsinger, som er teknologidirektør for bedriftsløsninger. Gelsinger avsluttet med å vise en fullt fungerende pc med den kommende firekjernes prosessoren Kentsfield.

Allerede i begynnelsen av neste år skal Intel kunne – Intel har fra introduksjonen av tokjerneteknologien Core Duo gått for Core Microarkitechture som grunnlag for utviklingen av alle nye prosessorer fra pda til servere, sier teknologisjef Justin Rattner.levere den firekjernes prosessoren Clovertown basert på 65 nanometer-teknologi til bruk i servere og tunge arbeidsstasjoner. Clovertown er pluggkompatibel med Bensley-plattformen og beregnet på toveis servere.

Gelsinger kunne ikke la være å vise hvor mye datakraft som snart står til rådighet for dataspill med desktop-prosessoren Kentsfield, som også skal være leveringsklar tidlig i 2007 i kraftige stasjonære pc-er.

Mer med mindre

Rattner brukte størstedelen av sin åpningstale til å forklare hvorfor megahertz-racet er avblåst. Han viste et eksempel hvor en moderne prosessor ble overklokket (fikk økt hastighet ved å øke klokkefrekvensen) med 20 prosent. For de 20 prosentene mer ytelse krevdes 73 prosent mer strømforbruk. Når prosessoren ble underklokket med 20 prosent sank strømforbruket til nesten det halve. Ved å legge inn to kjerner og kjøre på samme hastighet som utgangspunktet ble strømforbruket økt med to prosent, mens ytelsen økte 73 prosent.

– Den «gamle» måten å øke ytelse ved å pøse på med mer energi fungerer ikke lenger. Derfor er vår Core Microarchitecture veien vi vil gå når vi utvikler nye prosessorer. Smartere design som bruker mindre strøm og likevel gir bedre ytelse, sa Rattner.

Nye oppfinnelser

Han viste til at det ligger mer enn hundre nye Den ser ut som en Pentium 4, men skjuler en pc med firekjerners Kentsfield-prosessor. oppfinnelser i Core Microarchitecture. For eksempel lages ikke prosessoren med samme type transistorer; noen er konstruert for høy hastighet, mens andre er laget for å trekke lite kraft. «Powergating» er ett eksempel på den nye arkitekturen; deler av prosessoren som ikke er i bruk blir slått av.

Men prosessoren er bare en del av et system. Rattner demonstrerte en skjerm som ikke trengte å oppdateres av datamaskinen, slik at den i prinsippet kunne slås av mens brukeren leste på skjermen. Når brukeren vil videre, ber skjermen selv om oppdatering. Og sånn skal det bli for minnet, eksterne enheter, i/o og alle maskinvaredelene et system består av.

Med Wide Dynamic Execution blir inntil fire instruksjoner samlet opp og utført av prosessoren i én syklus. Advanced Smart Cache minimaliserer minnetrafikk og lar en prosessor benytte hele bufferet om den andre går på tomgang. Digital Media Boost er en forbedring hvor tunge multimediainstruksjoner nå kan utføres på én klokkesyklus.

Hele sparetankegangen startet med Pentium M, som Intels forskere i Israel laget til bruk i bærbare maskiner. Nå skal strømsparingen inn i alle prosessorer fra pda til de tyngste serverne. Strømgjerrighet satt i system skal til for økt datakraft, er budskapet fra Intel.

The era of tera

Rattner la sterk vekt på at prosessorer med flere kjerner ikke bare ganske enkelt gir kraftigere datamaskiner, men at vi står overfor et teknologisprang som bare skjer én gang per generasjon.

– Nå har vi to kjerner, snart fire og så videre. I overskuelig fremtid får vi titalls, ja hundretalls kjerner i en og samme prosessor. Da vil vi virkelig gå inn i tera-æraen («the era of tera»), hvor databehandling endelig blir personlig.

Med tilgang til terabyte med data og teraflops datakraft vil vi gjøre enorme fremskritt innen telemedisin, e-læring, intuitive grensesnitt, simulert biologi og en rekke områder vi ennå ikke kjenner, hevder Rattner.

Ifølge Rattner er ikke det store problemet å legge flere kjerner inn på samme bit silisium, men å få dem til å spille sammen. Parallell prosessering krever forbedrede og optimaliserte arkitekturer for å få skalering og nye applikasjoner med ekstrem databehandling. Det betyr at det må utvikles metoder, modeller, verktøy og applikasjoner.

Saken er hentet fra Nettverk & Kommunikasjon nr. 4.

Klikk her for å bestille
abonnement!