F:
Hur bidrog Moores lag till den nuvarande AI-revolutionen?
A:Det är frestande att tänka på dagens framsteg inom konstgjord intelligens som huvudsakligen relaterar till att lösa logiska och datainriktade problem, men för företag som försöker förnya sig och fortsätta gå vidare kan det vara till hjälp att gå tillbaka och fundera över hur starkare hårdvara också har bidragit till dagens maskininlärning och artificiell intelligensfunktion.
Några av de mer uppenbara sätt som Moores lag har gynnat framsteg av artificiell intelligens är uppenbara för alla som har tittat på IT under de senaste 30 åren. Den första är att de faktiska centraliserade datorarbetsstationerna och datacentra som arbetar med datauppsättningar med artificiell intelligens är mindre än de skulle ha varit under de tidigare datorerna - och det gör en skillnad. Om enkla stordatorer fortfarande tar upp en tvättmaskin / torktumlare skulle det förståeligtvis ha en dämpande effekt på den smidiga utvecklingen av alla typer av ny teknik.
Men mycket viktigare är att effektiviteten av företag som bygger på Moore lag har möjliggjort utbredningen av extremt små mobila datainsamlingsenheter. Smarttelefoner är det bästa exemplet, men Moores lag gav oss också digitalkameror, MP3-spelare och många andra små hårdvara som alla samlar in sina egna data i en häpnadsväckande takt. Nu är tingenes internet överlappande den processen med smarta köksapparater och alla möjliga andra mycket moderna hårdvaror som handlar på idén att chipbärande enheter är små nog att placeras i nästan vad som helst.
Detta är emellertid inte de enda sätten som Moore lag har gynnat utvecklingen av nya maskininlärningar och framsteg i artificiell intelligens. I MIT Technology Review hävdar författaren Tom Simonite att Moores lag också har varit användbar som ett slags "samordningsapparat" som har tjänat till att projicera vad som kommer att komma på marknaden under kommande år, för att ge utvecklare och andra en uppfattning om en väg kartlägga och pekar på framtida innovation.
Ett annat intressant perspektiv kommer från Niel Viljoen som talar om hur Moores lag fortfarande kan vara avgörande för de nya molnbaserade systemen och uppkomsten av helt ny artificiell intelligens teknik.
Viljoens argument tycks vara att det inte är tillräckligt att lägga till kärnor för allmänna ändamål för skalningssystem för att verkligen ansluta hårdvaran till ett nätverk på ett omfattande sätt, vilket leder till flaskhalsar. En motsvarande idé är att konvergensmodeller kommer att påskynda alla möjliga funktioner i datakrävande system. Med andra ord, eftersom datasystem fortsatte att skala sin dataanvändning beroende på vad de kunde passa in i en hårdvara, kom byggare aldrig att ta med några av de viktigaste utvecklingsfunktionerna som bildbehandling, kryptering, videoredigering etc.
Som ett resultat blev moderna datacenter mycket kraftfulla, men fortfarande beroende av externa element för att göra den nödvändiga bearbetningen - Viljoen poserar framtida uppkomst av "system på ett chip" där hyperkonvergerad hårdvara har allt den behöver för att göra all nätverksfunktion, för att effektivisera dataflöden och göra system smidiga och datakraftiga.
I allmänhet har Moores lag hjälpt till i IT-framsteg och fortsätter att hjälpa till på grundläggande sätt. Det är en del av modellen ”science fiction is the present” som visar hur långt mänskligheten har kommit i att bygga datasystem under ett eller två århundraden.