Sterowanie energią godzi jakość z oszczędnością energii

Dynamiczne zmiany częstotliwości i napięcia, bramkowanie, stany niskonapięciowe – to niektóre z ostatnio wdrażanych rozwiązań, mających na celu zmniejszenie zapotrzebowania na energię w mikroelektronicznych układach scalonych bez uszczerbku dla jakości ich funkcjonowania.
Wpotocznym rozumieniu funkcjonuje przekonanie, że każdy postęp jest związany z dodatkowymi wydatkami, bo „nic nie otrzymujemy za darmo”. Zwiększenie efektywności z reguły pociąga za sobą konieczność
zainstalowania lepszego sprzętu, nowych, bardziej zaawansowanych programów, wyżej specjalizowanej obsługi i powiększenia wydatków na utrzymanie ruchu.
Autor niniejszego artykułu stara się wykazać, że może też być inaczej, to jest: wysoko rozwinięte rozwiązania sprzętowe i programowe skutecznie obniżają ilość zużywanej energii. Dzieje się to na skutek innowacji na poziomie układów scalonych (chipów) i urządzeń na nich opartych.
Rosnąca liczba elementów elektronicznych (z mikroprocesorami włącznie) jest upakowana w jednym układzie scalonym. Powoduje to, że takie układy ciągle zmniejszają swoje wymiary, mimo że osiągają coraz większe zdolności przetwarzania. Niemniej jednocześnie ujawniają coraz większe zapotrzebowanie na energię. Właśnie to zapotrzebowanie na energię zasilającą jest bardziej znaczącym ograniczeniem dla rozwoju w tej dziedzinie aniżeli prędkość działania w przetwarzaniu danych. Obserwuje się to w momencie, gdy układ krzemowy dla jednego węzła funkcjonalnego zmniejszył swoje rozmiary z 90 do 65 nanometrów, a nawet jeszcze bardziej (mowa o grubości warstwy przewodzącej).
Logika działania każdego mikroelektronicznego układu scalonego pozwala na stwierdzenie, że nie wszystkie elementy, zespoły czy sekcje układu (a nawet całe urządzenia) pracują jednocześnie przy realizacji każdej funkcji i przez ten czas wymagają ciągłego, stabilnego zasilania. Owo stwierdzenie legło u podstaw działań noszących ogólną nazwę sterowania energią zasilającą (niektórzy nazywają to „gospodarowaniem energią”). Obserwujemy rozmaite sposoby ograniczania zapotrzebowania na energię, przy czym działania prowadzi się na wszystkich poziomach wytwarzania, od pojedynczych węzłów funkcjonalnych do całych urządzeń złożonych z układów scalonych. Problem enrgochłonności przestał więc już straszyć, zaś perspektywy jego rozwiązania rysują się bardzo dobrze.
Wielotorowość
Jedną z dróg do kontrolowania zużycia energii jest możliwość modyfikowania funkcji odpowiednio do warunków działania układu scalonego. Wybijająca sie w tych działaniach firma Intel Corp. opracowała rozwiązanie wielotorowe, skupiające w jednym układzie scalonym wielorakie tory przetwarzania informacji. To rozwiązanie umożliwia „dawkowanie” energii w całym chipie.
Realizacja konkretnej funkcji wymaga wielokrotnego zaangażowania określonej części układu scalonego, podczas gdy pozostałe mogą być wyłączone, bo nie biorą udziału w tej sekwencji przetwarzania. Ta filozofia zrealizowana poprzez wielotorowe zasilanie pozwala na zmniejszenie zużycia energii.
Tak przecyzuje to zagadnienie Phil Ames,  specjalista handlowy oddziału Infrastructure Processing Div. w firmie Intel: – Odpowiednio dobrany mechanizm przełączania torów wybiórczo zasila odpowiednie tory, ograniczając w ten sposób rozpraszanie energii na większym obszarze. Wielotorowe procesory mogą też być przełączane na niższe częstotliwości taktowania lub niższe napięcia zasilania, co w efekcie daje wyższą wydajność w przetwarzaniu danych w przeliczeniu na 1 W zużytej energii. Zastosowanie załączania zasilania na czas pracy i wyłączania go po jej zakończeniu w jednotorowych układach scalonych nie daje tak korzystnego rezultatu. W firmie Intel zauważono też, że obniżanie napięcia zasilania, zmniejszanie częstotliwości zegara taktującego izwiększone zainteresowanie rozdziałem energii daje dodatkowy skutek w zmniejszaniu kosztów niezbędnej ochrony przed nadmiernym nagrzewaniem się urzadzeń (odprowadzania nadmiaru ciepła). Te ostatnie działania realizje się w celu zapewnienia wysokiej niezawodności działania układu, która jest tym wyższa, im mniejsze jest narażenie go na przegrzanie.
Podobnie firma AMD (Advanced Micro Devices Inc.) zajmuje się techniką dwutorowego działania. Umieszczajac drugi tor w tym samym układzie scalonym, nie robią poważnych zmian w sferze zasilania energią i termicznych warunków pracy, ponieważ sama budowa układu AMD64 była z założenia projektowana i realizowana jako wielotorowa. Tak twierdzi Brent Kerby, specjalista firmy AMD Opteron. Zapotrzebowanie na energię jest łagodzone przez celowe umieszczenie dodatkowych torów przy budowie układu scalonego. Dzięki drugiemu torowi wzmocniona jest funkcjonalna zdolność przetwarzania przy jednoczesnym niewielkim obniżeniu napięcia zasilającego i częstotliwości taktowania dla obu torów. Współzależność pomiędzy prędkością, napięciem pracy i zapotrzebowaniem na energię jest stale ta sama. Co też ważne: w obu przypadkach (dla jedno-, jak i wielotorowego rozwiązania) moc maksymalna utrzymuje się na poziomie 95 W, łącznie z zasilaniem kontrolera pamięci. – Wymieniona wartość jest znacznie niższa niż to mają urządzenia pochodzące z konkurencyjnych firm – konkluduje B. Kerby.
B. Kerby uważa też, że: – W grupie serwerów wbudowanie dodatkowych torów przy minimalnych zmianach w wymaganiach dla energii i ochrony przed przegrzaniem powoduje wzrost zdolności przetwarzania oraz redukcję ilości zużywanej energii przez procesory w konkretnym urządzeniu.
Specjaliści firmy AMD są przekonani, że technika sterowania energią za pomocą procesora była już przedmiotem uwagi na przestrzeni ostatnich paru lat. W dziedzinie produkcji serwerów niektóre punkty były przedmiotem optymalizacji pod kątem widzenia zużycia energii już na poziomie chipów. Pozytywne rezultaty w efektywności energetycznej zanotowano też w otoczeniu układów funkcjonalnych. Brent Kerby wylicza tutaj moduły regulacji napięcia do procesorów i pamieci oraz w sposób szczególny moduły zasilające, z których wiele wykazuje teraz zaledwie 70% wcześniejszego zapotrzebowania.
Rosnące efekty
Firma Freescale Semiconductor Inc. widzi sterowanie zapotrzebowaniem na energię jako stale utrzymujące się, konieczne zadanie dla projektantów, choć możliwe do rozwiązania. Tak uważa Jeff Bock, szef marketingu w tej firmie. Taka możliwość występuje wtedy, gdy rozwój elementów krzemowych i sprzętu pozwala projektantom na selektywne dobieranie z całej palety funkcji, prędkości czy czasu działania.
J. Bock uważa, że zadowalające rozwiązanie można uzyskać przy jednoczesnym spełnieniu dwóch, niżej omówionych wymagań.
Po pierwsze, musi istnieć możliwość elastycznego zastosowania odpowiednich wykonań elementów półprzewodnikowych i opartego na nich sprzętu, pod kątem widzenia możliwości sterowania dystrybucją energii. Taką możliwość stwarza rodzina mikroregulatorów pod nazwą Coldfire, oferująca pewien wachlarz metod sterowania zużyciem energii, a miedzy nimi:

  • elastyczne bramkowanie – umożliwia przełączanie zegara taktujacego w całym chipie lub w pewnych jego sekcjach (zależnie od odmiany),
  • moduły sterowania zasilaniem umożliwiające wyłączenie sektora układu scalonego w określonym czasie,
  • obejście zegara taktującego, pozwalające na działanie niektórych zespołów przy małej częstotliwości (znacznie poniżej 1 kHz), a ponadto do działania przy bardzo niskim poborze energii (co jest niemożliwe do uzyskania przy standardowym taktowaniu).

– Wybierając procesory z funkcją sterowania energią, otwieramy drogę ku rozwiązaniu problemu zarządzania zużyciem energii – stwierdza J. Bock.
Drugim warunkiem sukcesu jest dostarczenie projektantowi wiedzy o tym, które wykonanie procesora pozwala na zrealizowanie optymalnego rozwiązania z punktu widzenia zużycia energii. Pozyskanie takiej wiedzy wymaga odpowiednich narzędzi programowych: ćwiczeń i informacji towarzyszących, którymi są na przykład uwagi zebrane przy wdrażaniu konkretnych zastosowań.
Oddziaływanie na stan bezczynności
Aktywne działania na polu sterowania zużyciem energii przejawia też firma Atmel Corp., wiodący dostawca zaawansowanych półprzewodników i mikroregulatorów. Ostatnie rozwiązanie tej firmy pod nazwą AVR picoPower ukazuje szereg zastosowań w urządzeniach (zespołach) pozostających przez większość czasu w stanie bezczynnym. Są to na przykład między innymi urządzenia związane z bateryjnym podtrzymywaniem, które mają znaczne zapotrzebowanie na energię nawet w stanach wyczekiwania.
Mikroregulatory bazujące na technice pico-Power przewyższają konkurencyjne regulatory niskim zapotrzebowaniem na energię. Według firmy Atmel Corp. obecny pobór prądu tych regulatorów został sprowadzony do poziomu 340 µA w stanie aktywnym, 150 µA w stanie bezczynności (przy 1 MHz), 650 nA w stanie energo-oszczędnym i 100 nA w stanie wyłączenia (uśpienia).
W technice picoPower występuje, również, tak zwany „czujnik ograniczonej energii” (ang. BOD – Brown-Out Detector). Ten czujnik zazwyczaj pozostaje stale w stanie uśpienia (czuwania) i jest zdolny do wyczuwania granicznej wartości obniżonego napiecia zasilania i przywrócenia wartości sygnału w przypadku zaniku zasilania, chroniąc w ten sposób przed utratą danych oraz uszkodzeniem regulatora.
Bård M. Pedersen, kierownik produkcji AVR rozróżnia dwa podstawowe typy czujników BOD: – O bardzo niskim, prawie zerowym poborze energii i zarazem bardzo małej zdolności przetwarzania (także dokładnosci) oraz szybsze, bardziej dokładne, lecz ze znacznym zapotrzebowaniem na energię.
Przy tym większość zespołów BOD jest aktywna w stanie czuwania procesora. To jest przyczyną znaczącego zużycia energii, a szczególnie ważne w urządzeniach zasilanych bateriami. To zagadnienie wymusza na producentach mikroregulatorów stawianie problemu obniżania zapotrzebowania na energię elektryczną na pierwszym miejscu przed dokładnością i szybkością działania zespołów
BOD.
Rozmaite sposoby podejścia do rozwiązania tego problemu pozwoliły specjalistom firmy Atmel na automatyczne uniemożliwienie poboru prądu przez czujniki BOD, znajdujące sie w stanie czuwania, jeśli ich funkcja nie jest w danej chwili potrzebna. Za to obwody o małym czasie odpowiedzi (rzędu 2 µs) budzą te zespoły BOD do działania w momencie, gdy zachodzi potrzeba realizacji określonej sekwencji funkcji przetwarzania w regulatorze. B. M. Pedersen charaktreryzuje to tak: – Czujnik BOD jest ostatnim wyłączanym i pierwszym załączanym do pracy zespołem regulatora. Jak na razie w przewidzianych stanach zespoły BOD zapewniają dokładne wyczuwanie obniżenia napięcia do poziomów 1,8 V, 2,7 V oraz 4,5 V. Takie rozwiązanie znakomicie zapewnia ochronę przed drenowaniem energii.
Pośród różnych sposobów rozwiązania problemu ograniczania zużycia energii opracowanych w firmie Intel szczególnie wyróżnia się aktywne sterowanie dostarczaniem energii. Polega to na postawienia modułu, zespołu lub toru funkcjonalnego w stan uśpienia przez czas, w którym nie są one potrzebne w przetwarzaniu danych. Przykładem tej, tak zwanej „techniki wzmożonego stopniowania prędkości” (ang. Enhanced Intel SpeedStep Technology) jest możliwość strojenia napięcia oraz częstotliwości taktowania procesora. Efektem tego strojenia jest obniżenie zużycia energii i zmniejszenie ilości wydzielającego się ciepła, co w rezultacie pozwala na mniejszą intensywność pracy wentylatora chłodzącego. Przy okazji obniża się też poziom hałasu powodowanego pracą wentylatora. Również inne mechanizmy oszczędzaniaenergii zastosowane w procesorach CoreDuo firmy Intel (patrz zdjęcie) umożliwiają dwutorowym urządzeniom utrzymywanie pewnego rodzaju schowka zapasu (porcji) energii do dynamicznego pobudzania toru przetwarzania informacji w systemie pamięci – w zależności od aktualnej potrzeby lub po okresie bezczynności. P. Ames z firmy Intel ujmuje to następujaco: – Faktyczna oszczędność polega na tym, że metoda „schowka” natychmiast przywraca dane, które mają być umieszczone w pamięci. Odbywa się to bez naruszania odczucia użytkownika co do poprawności przetwarzania.
W dłuższej perspektywie
– Zespół specjalistów musi oszacować wszystkie elementy sumarycznego zapotrzebowania na energię, biorąc pod uwagę oczekiwany poziom przetwarzana – kontynuuje P. Ames. – Mikroprocesory odpowiadają tylko za część zużycia energii. Jeśli wszystkie wymagania są dobrze sformułowane i rozumiane, poszczególne funkcje w układzie scalonym mogą być ponownie rozmieszczone w taki sposób, aby została zachowana równowaga między energooszczędnym przetwarzaniem, a innymi wymaganiami dla obwodów drukowanych.
Obok techniki wielotorowej w firmie Intel wprowadza się też inne metody oszczędzania energii przez układy scalone. Jedną z nich jest obniżanie upływów prądu. P. Ames wymienia tu prace nad materiałami dielektrycznymi o wysokim współczynniku izolacyjności i prace nad różnymi materiałami bramek – w celu ograniczenia upływu prądu, stającego się krytycznym parametrem, w coraz zmniejszajacych się węzłach krzemowych układów scalonych. Przez zastosowanie lepszych materiałów dielektrycznych w nowych wyrobach firmy Intel udało się stukrotnie zmniejszyć upływy prądu w odniesieniu do wyrobów z użyciem tradycyjnych materiałów dielektrycznych, używanych przy produkcji układów bazujących na elementach z ditlenku krzemu.
Do podniesienia energetycznej efektywności (i zdolności przetwarzania układów scalonych) prowadzi także zupełnie inna, dotąd niestosowana droga. Jest nią wzmacnianie atomów krzemu w materiałach półprzewodnikowych, przez co umożliwia się swobodniejszy przepływ elektronów. Taki nowy materiał, znany pod nazwą „odkształconego krzemu” (strained silicon), zapewnia niskie zapotrzebowanie na energię oraz wynikające z niego mniejsze wydzielanie się ciepła. P. Ames podaje, że pierwsza generacja odkształconego krzemu pozwoliła na pięciokrotne zmniejszenie upływów prądu, zaś druga generacja takiego materiału dała kolejny pięciokrotny spadek upływów pradu. To osiągnięcie miało miejsce przy produkcji układów scalonych w technice 65 nm (grubości warstwy przewodzącej).
W firmie AMD współczesne metody sterowania zużyciem energii układają się w paletę działań od zredukowania prędkości i częstotliwości torów przetwarzania do pojedynczych rozwiązań. Zawiera się w tym wyłączanie określonej sekcji chipa na czas zawieszenia funkcji oraz indywidualne bramkowanie tranzystorów, według zasady „wprowadzać sterowanie energią tak szeroko, jak to tylko możliwe”. Specjalista Brent Kerby mówi, że: – Te metody będą o wiele szerzej wprowadzone do urządzeń otaczających procesor, niż miało to miejsce dotychczas.
– Takie zewnętrzne (dla procesora) urządzenie, jak kontroler pamięci, został zintegrowany z procesorem dla uzyskania korzyści z bezpośredniego połączenia. Dotyczy to także modułów We/Wy oraz całych procesorów. W ten sposób uzyska się bardziej liniowe, symetryczne, wielotorowe przetwarzanie i jednocześnie niższe zapotrzebowanie na energię. B. Kerby podkreśla, że poziom maksymalnego zużycia energii przez dwutorowy processor AMD Opteron nie przekroczy 95 W, włączając w to zasilanie kontrolera pamięci.
– Wszystkie działania odniesione do sterowania zużyciem energii, takie jak: zmiany w obwodach drukowanych, ograniczanie upływów prądu czy wykorzystanie narzędzi projektowania, są rozważane i oceniane w kontekście możliwości dla każdej kolejnej generacji wyrobów. Podjęliśmy systematyczne działania i skupiamy nasze wysiłki na tych obszarach, które zapewnią największy postęp.
Firma Freescale Semiconductor Inc., producent elementów krzemowych, postrzega sprawę sterowania zużyciem energii w perspektywie ulepszeń na trzech frontach. Są to: technika realizacji funkcji, bardziej elastyczne nowo projektowane układy scalone oraz narzędzia oparte na praktyce optymalizacji zapotrzebowania na energię w otoczeniu samych układów scalonych.
Technika realizacji funkcji będzie obejmowała stałe dążenie do ograniczania upływów prądu oraz ograniczania wartości prądu roboczego
pobieranego przez urzadzenia na wszystkich poziomach przetwarzania danych. Jest to zadanie samo w sobie dość proste, szczególnie przy urządzeniach o niższej prędkości przetwarzania. Według relacji Jeffa Bocka: – Najlepsze techniki realizacji funkcji (oparte na elementach 90 nm) nigdy nie mają większych upływów prądu niż starsze odmiany, jednakże ograniczanie tych upływów jest nadal niezmiernie ważne. Chociaż przetwarzanie danych jest zazwyczaj przeprowadzane przy wyższych napięciach zasilania, to jednak prąd roboczy jest bardziej podatny na sterowanie swoją wartością przy tej samej ilości tranzystorów. Niemniej dodanie nowych funkcji może spowodować utrudnienie w tym zakresie.
Unowocześnianie chipów wiąże się z wprowadzeniem większej ich elastyczności (podatności na funkcjonalne modyfikacje), a także nowych odmian, pozwalających na szybsze przełączanie (praca/wyłączone) poszczególnych sekcji lub nawet całego układu scalonego z jednoczesnym swobodnym dobieraniem częstotliwości taktowania. Stosowanie tych rozwiązań w połączeniu z nisko energochłonnymi pamięciami, takimi jak DDR-SDRAM (Double Data Rate – Synchronous Dynamic RAM), może pozwolić na bardziej znaczącą redukcję poboru energii przez cały system.
Tak zwane „narzędzia innowacyjne” oparte na praktyce w sposób ciągły zbierają spostrzeżenia i wnioski nasuwające się podczas całego cyklu powstawania wyrobu oraz jego użytkowania i są bardzo pomocne przy projektowaniu energooszczędnych układów. J. Bock wspomina też o narzędziach symulujących, jakie już niebawem pojawią się w firmie (Freescale). Będą one w stanie oszacować zużycie energii i ujawnić to użytkownikowi.
Spojrzenie na system
Podczas gdy ten artykuł skupia uwagę na działaniach na poziomie procesora lub chipa, zagadnienie sterowania zużyciem energii ma szerszy zasięg. Specjaliści firmy Intel stwierdzili, że zasada wielotorowej budowy pozwala na oszczędność energii także w urządzeniach systemu automatyzacji na poziomie kasety czy stojaka. Poprzez kombinację wielu torów wykonawczych oraz korzystając z ogólnie dostępnego programu symulującego wirtualne urzadzenie można utworzyć wielorakie systemy operacyjne w jednym rozwiązaniu. Jeden tor będzie działał jako system operacyjny bezpośredni (tzw. czasu rzeczywistego), podczas gdy inny może być wykorzystany do przetwarzania równoległego. Takie rozwiązanie pozwala też na konsolidację serwerów (każdy obsługuje oddzielne środowisko programowe), dając przy tym oszczędność energii, ale też i miejsca w obudowie. Firma Intel oferuje wielotorowe procesory wyposażone w technikę wspierania możliwości wirtualizowanego środowiska.
Rozwiązywanie problemu sterowania zużyciem energii musi brać pod uwagę efektywność każdego z wielu elementów rozpatrywanego systemu. Najważniejsze z nich to: moduły regulacji napięcia, urządzenia pamięci i procesory. To zagadnienie tak charakteryzuje Phil Ames (Intel): – Jakiś układ może mieć procesor z dużą efektywnością energetyczną, który jednak współpracuje z ułomnym, ubogim regulatorem napięcia, a często też z energetycznie żarłoczną pamięcią.
Z kolei Jeff Bock (Freescale) wymienia typowe utrudnienie, jakim jest minimalizacja czasu czuwania procesora w energooszczędnych rozwiązaniach z małym obciążeniem. Dopóki nie zbierze się ustalona porcja pracy do wykonania, processor jest w stanie czuwania. Bardzo wydajny, „silny” processor będzie w stanie zaoszczędzić znaczną ilość energii, jeśli będzie w stanie wykonać zgromadzoną porcję pracy w ciągu 25% czasu, jaki zabrałoby to procesorowi o niskiej zdolności przetwarzania. J. Bock uważa, że: – To może być prawda, nawet gdy rozpraszanie energii w stanie aktywnym procesora jestwzględnie wysokie. Upływ prądu wykazuje tendencję do stania się najpoważniejszym parametrem w najbardziej skutecznych energooszczędnych wykonaniach, a szczególnie tam gdzie zasilanie bateryjne musi mieć trwałość kilku lat.
Najważniejszym zagadnieniem jest znalezienie równowagi między zapotrzebowaniem na energię w stanie aktywnym i jej zużywaniem w stanie czuwania. Szeroka dostępność w dobieraniu składników każdego opracowania (z pośród wielu oferowanych możliwości) oraz narzędzia programowe są bardzo pomocne dla projektantów, pozwalają im na minimalizowanie zużycia energii w stanie czynnym modułu lub urządzenia, a także zwiększenie ich podatności na zastosowanie korzystniejszych rozwiązań sterowania zużyciem energii. To właśnie jest najczęściej kluczem do zmniejszenia ogólnego zapotrzebowania na energię całego posiadanego systemu.
Podone podejście prezentuje firma Texas Instrument Inc. TI ma własne opracowanie pod nazwą SmartReflex, opisywane jako: „kombinacja podatnego na adaptację inteligentnego krzemu, odpowiedniego projektu obwodów oraz oprogramowania przeznaczonego do wygrywania wyścigu w sterowaniu energią i przetwarzaniem w małych węzłach funkcjonalnych”.
Technika ujęta w rozwiązaniu SmartReflex zawiera:

  • „komórki” pamięci i utrzymywanie logiki, które usprawniają przełączanie energii, wyraźnie bez utraty stanu (do zmniejszenia upływów i obniżenia napięcia),
  • czujniki dynamicznie dostosowujące napięcie według zmieniających się potrzeb podczas przetwarzania oraz zmian temperatury,
  • sterowanie upływem prądu poprzez przełączanie na tryb niskonapięciowy w zależności od tego, które elementy są aktywne,
  • monitorowanie obciążenia energetycznego,
  • rozdzielanie energii na tory funkcjonalne poprzez mostkowanie.

SmartReflex obniża stały upływ prądu na poziomie elemntu krzemowego, ale też oddziaływuje na wyższym poziomie. Koordynuje pobór prądu i przetwarzanie w wielu torach funkcjonalnych, przyspiesza również działanie sprzętu, bloków funkcjonalnych i urządzeń peryferyjnych. Częścią dostawy firmy TI jest biblioteka komórek sterowania zużyciem energii, zapewnia to drogę do określenia udziału poszczególnych urządzeń w całkowitym zużyciu energii. Otwarta baza programowa umożliwia rozumny wybór pomiędzy sprzętem różnych generacji. Oferta zapewnia zgodność z bazujacą na systemie operacyjnym trzecią częścią oprogramowania sterowania zużyciem energii. Stosowana w rozwiązaniu SmartReflex metoda, oparta na zasadzie zwracania uwagi na wszystkie aspekty funkcjonowania układu scalonego, zawiera następujace nowoczesne cechy: adaptacyjne dostosowanie napięcia, dynamiczne przełączanie zasilania oraz ustawiczne oddziaływanie na upływy.
Rozwiązanie SmartReflex jest stosowane w urządzeniach firmy Texas Instruments, bazujących na układach scalonych. Firma ujawnia, że po zastosowaniu tej techniki uzyskano czterdziestokrotne zmniejszenie zużycia energii przy jednoczesnym podniesieniu zdolności przetwarzania w swoich procesorach z wielotorowym działaniem (dotyczy modelu oznaczonego symbolem OMAP2420). Inne metody zastosowane w wyrobach TI zapowiadają nawet jeszcze bardziej znaczące ograniczenie upływów prądu w tranzystorach.
Problem jest rozwiazywalny
Podczas gdy wymagania odbiorców idące w kierunku umieszczania coraz większej ilości funkcji na wciąż kurczących swoje rozmiary chipach, mają skutek zniechęcający, to jednak specjaliści są zgodni co do tego, że problem sterowania zużyciem energii jest łatwiej rozwiązywalny.
Do skuteczniejszego sterowania energią konstruktorzy układów scalonych wykorzystują wnioski z obserwacji wskazujące na to, że nie wszystkie funkcje układu są potrzebne w jednym czasie ani też żadna z nich nie musi być aktywna przez cały czas. Pełna realizacja wykorzystująca tę obserwację spowoduje uprzedzające spojrzenie na projekt, poprawę budowy układu scalonego oraz innowacje zarówno w sferze sprzętu, jak i oprogramowania, a wszystko to da skuteczniejsze sterowanie zużyciem energii w przyszłych urządzeniach. Innowacyjne podejście konstruktorów i projektantów będzie stale obecne w ich pracy.
ce
Atykuł pod redakcją
Józefa Czarnula i Janusza Pieńkowskiego