Jak pisałem we wstępie, proces technologiczny w którym wykonano procesor ma ogromny wpływ na jego pobór prądu. Jednak z uwagi na fakt, że złożoność (i najczęściej taktowanie) procesorów na przestrzeni lat ciągle rośnie, z poborem prądu było podobnie. Jak to się ma w porównaniu procesu 65nm i 130nm przy tym samym taktowaniu?
Desktopowa platforma z 2001 roku pobiera zarówno pod obciążeniem, jak i w IDLE od 5 do 10% więcej energii od oszczędnej platformy z 2007. Na pierwszy rzut oka nie wygląda to zbyt dobrze...
Znacznie ważniejsza od bezwzględnych wskazań miernika jest jednak wydajność na wat. I tu już widać znaczną przewagę nowszej architektury. Wyrenderowanie obrazu w PovRAY 3.62 zużywa niemal dokładnie połowę energii potrzebnej do wykonania tego samego zadania na Celeronie 1200. W przypadku Cinebencha R10 jest to zaś 62%.
Podsumowując wszystkie wyniki wydajności procesora (a więc z pominięciem syntetycznych testów wydajności pamięci) okazuje się, że architektura Conroe-L ma zegar w zegar 62% przewagi nad Tualatin-256. Czy to dużo jak na 6 lat? Trudno ocenić, ale warto to skonfrontować z powszechnym narzekaniem na obecny "brak postępu" przy premierach nowych procesorów Intela. Opinie w stylu "co to jest 5-10% rocznie/z generacji na generację" są bardzo powszechne. Jak widać takie tempo wzrostu wydajności z megaherza było od co najmniej od 2001 roku, a więc 14 lat. Skąd więc wrażenie, że kiedyś wydajność rosła znacznie szybciej niż obecnie?
Na to pytanie odpowiedź jest prosta - architektura Tualatin skończyła się na zegarze 1400MHz. Dostępne dla użytkownika domowego procesory w architekturze Conroe zaczynały się na 1600MHz i przy odrobinie szczęścia pozwalały się podkręcać do 3000MHz. A do tego miały w średnim segmencie dwa rdzenie. Biorąc to wszystko pod uwagę ich sumaryczna wydajność była kilkukrotnie większa i bardzo odczuwalna.
Dziś jednak częstotliwości osiągane przez kolejne architektury są zbliżone, wyścig na megaherze powstrzymała fizyka. Dokładanie kolejnych rdzeni z uwagi na ograniczenia programów też nie daje użytkownikowi domowemu wzrostu szybkości. Pozostaje więc mozolna praca nad IPC, a ta jak widać od lat nie dawała spektakularnych wzrostów z roku na rok w codziennych zastosowaniach.
Testy rzeczywiste - BOINC <<