Home | Polski Polski
Attached
Go back

(Note: This page is available in Polish language only. If you would like it translated to English, please let me know. Sorry for the inconvenience)


Prognoza dla informatyki do końca wieku

Można wyróżnić cztery dziedziny techniki komputerowej, w których konkurencja międzynarodowa jest szczególnie intensywna. Są to:

  • obwody o dużym stopniu scalenia
  • pamięci dyskowe (magnetyczne i optyczne)
  • superkomputery
  • systemy inteligentne.

Omówione poniżej przewidywania oparte są na raportach dla rządu USA opublikowanych w końcu 1982 i połowie 1983 r.

Obwody scalone

Układy półprzewodnikowe będą rozwijać się w takim tempie jak dotychczas co najmniej przez najbliższe 15 lat. Już od 1978 roku wytwarzane były uniwersalne mikroprocesory 16-bitowe, a w roku 1981 pojawiły się 32-bitowe wielokostkowe jednostki centralne, które wkrótce będą realizowane w jednej kostce. Mikroprocesory 64-bitowe pojawią się w wersji wielokostkowej w roku 1986, by pod koniec dekady również sprowadzić się do jednej kostki. Natomiast mikroprocesory segmentowe, które do roku 1980 wytwarzane były głównie w wersji 4-bitowej, obecnie wytwarzane są z reguły jako 8-bitowe; od roku 1986 zaczną powstawać także w wersji 16-bitowej, a od 1990 – głównie w tej wersji.

Ceny mikroprocesorów będą obniżać się w sposób ciągły. Mikroprocesor 4-bitowy, stosowany w kalkulatorach kieszonkowych, kosztował w roku 1977 6 dol., a obecnie kosztuje mniej niż 2 dol.; w 1987 kosztować bodzie 0,85-1 dol., a w 1997 – 0,35-0,5 dol. Podobnie mikroprocesor 8-bitowy, którego cena spadła z kilkunastu dolarów w 1977 roku do 3 dol. w 1982, a w 1992 osiągnie 0,7-1 dol., by w 1997 spaść do poziomu 0,5-0,7 dol. Mikroprocesor 16-bitowy, na jakim zbudowane są w większości komputery osobiste, kosztował przed 1978 rokiem ponad 100 dolarów, a obecnie jego cena spadła poniżej 10, by w 1987 r. osiągnąć poziom 2,5-3,5 dol, a dziesięć lat później - 1-2 dol. Mikroprocesory 32-bitowe są jeszcze stosunkowo mało rozpowszechnione i nadal względnie drogie (ok. 100 dol.), ale ze wzrostem produkcji ich cena powinna spaść poniżej 10 dol. w połowie lat dziewięćdziesiątych, kiedy to mikroprocesory 64-bitowe powinny kosztować 20-30 dol.

Obniżka cen nie będzie z czasem tak gwałtowna – ze względu na wzrastające nakłady na wyposażenie produkcyjne. Przemysł elektroniczny jest bowiem jedynym, w którym co pięć lat trzeba gruntownie modernizować większość zakładów produkcyjnych i budować nowe, dwukrotnie droższe.

Tendencję podobną do powyżej opisanej obserwujemy w pamięciach półprzewodnikowych. Koszt kostek pamięciowych będzie malał logarytmicznie, ze wzrostem ich wielkości i zagęszczenia. W połowie lat dziewięćdziesiątych kostki pamięciowe powinny kosztować co najmniej o rząd wielkości mniej niż obecnie. Wolne pamięci kosztowały w 1977 roku ok. 0,08 centa/bit, by w 1982 r. obniżyć swą cenę do ok. 0,01, a w 1987 r. do ok. 0,001-0,002 centa/bit. W roku 1992 koszt ten spadnie do 0,0001-0,0005 centa/bit. Cena pamięci o średniej prędkości wynosiła w 1977 r. 0,2, w 1982 – ok. 0,02 centa/bit. a przewidywania na lata 1987 i 1992 dają wartości odpowiednio – 0,003-0,004 oraz 0,0005-0,001 centa/bit. Wreszcie szybkie pamięci, które w 1977 r. kosztowały 0,7 i 0,09 cena/bit, w 1982 r. powinny kosztować w 1987 r. 0,015-0,025, 0,003-0,008 w 1992 r. i 0,0007-0,0035 centa/bit w roku 1997. Zmniejszanie kosztu kostek pamięciowych będzie trwało dłużej niż mikroprocesorów, ze względu na redundacyjne układy logiczne do poprawiania błędów w tych kostkach, które dopuszczają większy procent uszkodzeń produkcyjnych. Jednakże tak jak w mikroprocesorach, kostki pamięciowe o dużym stopniu scalenia i wąskich ścieżkach wymagają na ogół zupełnie nowego wyposażenia produkcyjnego.

Przewidywania obniżki cen wynikają ze stosowania większego stopnia scalenia, zmniejszenia szerokości ścieżek powodującego ograniczenie wielkości poszczególnych elementów, redukcji gęstości uszkodzeń, a także z usprawnień technologii wytwarzania. W pewnym stopniu te same czynniki przyspieszają działanie układu. Opóźnienie na jedną bramkę układu w funkcji czasu dla różnych technologii maleje w różnym stopniu. Dla wolnych układów krzemowych parametr ten wynosił 10 ns w 1977 r. i ok. 3 ns w 1982 r.; przewiduje się, że w 1987 r. spadnie poniżej 1 ns i poniżej 0,2 ns w 1997 r. Szybkie układy krzemowe miały w 1977 r. opóźnienie 0,9 ns, w 1982 spadło ono do 0,35 ns i przewidywany jest dalszy spadek do ok. 0,1 ns w 1990 r. oraz ok. 45 ps w roku 1997. Tak więc zarówno wolne, jak i szybkie układy krzemowe poprawią do 1997 r. swe parametry szybkości o co najmniej rząd wielkości.

Jeśli szybkość ta będzie zbyt mała, np. dla superkomputerów, pojawią się nowe technologie. Układy wykorzystujące zamiast krzemu arsenek galu mają technologie podobną do stosowanej przy układach krzemowych, a dają szybkości pięciokrotnie większe. Układy te stosuje się już w układach telekomunikacyjnych wielkiej częstotliwości, natomiast dla układów cyfrowych opracowano prototypy; nie ulega wątpliwości, że wkrótce nastąpi ich znaczne rozpowszechnienie. W 1977 roku opóźnienie dla tych układów wynosiło 300 ps, w 1982 – ok. 65 ps; na 1987 r. przewiduje się opóźnienie 30 ps, a na 1997 – ok. 17 ps. Konkuruje z nimi technika nadprzewodzących układów kriogenicznych, wykorzystująca złącze Josephsona. Technika ta, opracowana wiele lat temu, napotyka znaczne trudności realizacyjne. Pierwsze układy tego typu miały w 1983 roku opóźnienie 100 ps; przewiduje się, że w 1987 r. uzyskają one mniejsze opóźnienie aniżeli układy GaAs i w 1995 r. przekroczy ono poziom 10 ps. Tak czy inaczej – w 1997 roku powinniśmy z łatwością uzyskiwać szybkości dwudziestokrotnie większe niż obecnie.

Często firmy komputerowe, które dotychczas kupowały elementy, zaczynają je wytwarzać na własne potrzeby, a niekiedy również sprzedawać. Ostatnio WESTERN ELECTRIC i NCR zaczęły sprzedawać kostki zamiast je kupować: czyni to pośrednio również IBM, będąc współwłaścicielem INTELA (w przyszłości może wykorzystywać własne wytwórnie). Poszczególne rządy stosują różne rodzaje pomocy firmom opracowującym układy półprzewodnikowe. Aby jednak utrzymać się w warunkach ostrej konkurencji, wytwórcy muszą ciągle zwiększać inwestycje produkcyjne. Rynek co prawda rośnie, ale nie dość szybko, by zapewnić odpowiedni zysk wszystkim producentom. W konsekwencji prowadzi to do ograniczenia ich liczby.

Coraz bardziej rozpowszechniają się matryce programowane. Są to uniwersalne kostki logiczne zawierające dużą liczbę oddzielnych elementów usytuowanych w rzędach, gdzie dwie lub trzy końcowe operacje wytwórcze zapewniają wzajemne połączenie, wynikające z projektu svstemu. W ten sposób projektanci systemów mogą wycofać się z wytwarzania układów półprzewodnikowych bez utraty kontroli nad projektowaniem tych układów. Wspomniane operacje końcowe, pozwalające dostosować matrycę do wymagań użytkownika, są stosunkowo tanie i pozwalają nawet małym firmom, dysponującym odpowiednim zapasem kostek pamięciowych i matrycowych, zachować możliwość projektowania specyficznych układów logicznych.

Można więc przewidywać, że w połowie lat dziewięćdziesiątych istnieć będzie zaledwie kilku potężnych wytwórców takich kostek, przy czym nie jest istotne jakie będą to firmy i w jakim kraju działające. Muszą one osiągnąć najwyższy stopień automatyzacji zapewniający znaczną wydajność, a jednocześnie tak inwestować, by utrzymać ciągły postęp. Osiągane przez te firmy dochody będą w znacznej części przeznaczone na kolejne generacje wyposażenia. Dlatego istotna jest tu rola rządów, które – jak w USA – mogą być gwarantem kapitału inwestycyjnego lub – jak we Francji – właścicielem firm produkujących półprzewodniki.

Pamięci dyskowe

Opierając się głównie na cennikach firmy IBM, poczynając od systemu RAMAC 305 w 1955 r. – po system 3380 w 1980 r., można dostrzec jak obniżał się w tym okresie stosunek kosztu pamięci dyskowej do jej pojemności (w centach na jeden przechowywany znak). W 1955 r. parametr ten wynosił niespełna 2 centy, po dziesięciu latach spadł do 0,1 centa, by w 1980 r. osiągnąć 0,01 centa. Przewidywania na dalsze lata wyznaczają 0,0065 centa w 1985 r., a następnie jeszcze gwałtowniejszy spadek – do 0,001 centa w 1990 i poniżej 0,0005 centa w 1995 r.

Obecnie gęstość zapisu informacji na dyskach przekracza już 10 mln bitów/cal2 i nadal zwiększa się dzięki cienkowarstwowym głowicom, płaskim ośrodkom zapisu i wielu innych usprawnieniom, przy czym średnica dysku wynosi od 3 cali dla dysków elastycznych do 14 cali dla dysków dużej pojemności typu Winchester.

Przewiduje się, że w najbliższym czasie może tu nastąpić kolejna obniżka kosztu, dzięki dwóm nowym osiągnieciom technicznym: pamięci optycznej i pionowemu zapisowi magnetycznemu. To ostatnie zjawisko polega na usytuowaniu namagnesowanych domen prostopadle do powierzchni podłoża, a nie – jak obecnie – poziomo. W laboratoriach osiągnięto już dla zapisu prostopadłego gęstość 100 tys. bitów/cal2 i uważa się, że możliwe jest osiągnięcie gęstości 400 tys. Odpowiada to gęstości powierzchniowej 400 mln bitów/cal2, co powinno być osiągane na skalę produkcyjną w roku 1997 i oznacza czterdziestokrotne polepszenie w stosunku do aktualnego poziomu możliwości zapisu. Nie wiadomo, czy będzie to realne – ze względu na wymagania stawiane podzespołom elektromechanicznym przy tak dużych gęstościach zapisu.

Zapis optyczny stwarza szansę na wcześniejsze osiągnięcie gęstości jeszcze większej niż przy pionowym zapisie magnetycznym. Jednakże większość rozwiązań technologii optycznej nie pozwala na ponowny zapis w tym samym miejscu. Jeśli uda się uzyskać zadowalające rozwiązanie z zapisem wielokrotnym lub jeśli zapotrzebowanie na pamięci stałe o dużej pojemności (archiwa, zastosowania biurowe) będzie dostateczne, to produkcja pamięci optycznych powinna wkrótce rozwinąć się na dużą skalę. Wydaje się, że zarówno systemy optyczne, jak i magnetyczne z pionowym zapisem znajdą szerokie zastosowanie.

Postęp w dziedzinie pamięci dyskowych powoduje powstawanie nowych firm. Większość małych dysków stałych oraz dysków elastycznych, które współpracują z komputerami osobistymi i systemami przetwarzania tekstów, opracowano i wyprodukowano w firmach, które dopiero niedawno stały się znaczącymi konkurentami na tym rynku. Aby jednak uzyskać we współzawodnictwie dobre wyniki muszą one stosować wysoce zautomatyzowane procesy, zapewniające osiągnięcie bardzo niskich kosztów wytwarzania dokładnych, a jednocześnie trwałych podzespołów mechanicznych. Tak jak w przypadku półprzewodników, potrzeba tu dużych inwestycji kapitałowych w połączeniu z koncentracją umiejętności technicznych. Aby produkcja była opłacalna, musi ona być naprawdę masowa. Dlatego również tu nastąpi ostra selekcja producentów i dziś trudno przewidzieć, które firmy i w jakich krajach mają największą szansę przetrwania. Obecnie przodują firmy amerykańskie w produkcji zarówno w dużych, jak i małych dysków, ale wytwórcy japońscy ciągle poprawiają parametry swoich wyrobów i wiele z nich eksportuje się już do USA.

Rynek dysków optycznych znajduje się dopiero w stadium rozwoju i wiele firm europejskich prowadzi intensywne prace zmierzające do jak najszybszego rozpoczęcia dostaw i tym samym – uzyskania szansy znacznego rozwoju. Ogólnie można stwierdzić, że pamięci dyskowe uchodzą za inwestycje bardzo rentowne i dlatego łatwo można na nie uzyskać zarówno kapitały prywatne, jak i dotacje rządowe na badania.

W latach dziewięćdziesiątych należy spodziewać się ostrej walki konkurencyjnej, w wyniku której powstaną standardy przemysłowe realizowane przez zaledwie kilku producentów jacy pozostaną na polu bitwy.

Superkomputery

Są to procesory o znacznie większej mocy obliczeniowej od tej, jaką mają największe współczesne komputery uniwersalne. Bardziej szczegółowe na ten temat określenia szybko zmieniają się z upływem czasu; np. w 1983 roku za granicę kwalifikują do tej klasy sprzętu przyjmowano 100 mln operacji zmiennego przecinka na sekundę (MFLOPS – million floating point operations per second). Definicja jest tu istotna, ponieważ często myli się to pojęcie z japońskim programem opracowania maszyn piątej generacji, który jest znacznie szerszy, a superkomputery stanowią jeden z końcowych jego etapów.

W lipcu 1982 japońska firma FUJITSU ogłosiła parametry swej maszyny o szybkości 500 MFLOPS. Dwa miesiące później HITACHI podała dane o nowym komputerze uzyskującym 630 MFLOPS. W maju 1983 NEC, trzecia firma japońska, opublikowała parametry wyrobu, który jako pojedynczy procesor liczy z prędkością 700 MFLOPS, a jako system dwuprocesorowy – aż 1300 MFLOPS, a więc szybciej niż przedstawiony nieco wcześniej amerykański komputer CRAY 2 (1000 MFLOPS). Są to jednak tylko zapowiedzi, a nie demonstracje działającego sprzętu. Należy nadmienić, że prędkość obliczeniowa jest ograniczana możliwością podziału rozwiązywanych problemów na elementy dostosowane do jednoczesnego wykonywania obliczeń. Rozwiązanie takie znacznie zwiększa efektywną prędkość, ale trzeba stwierdzić, że wiele istotnych problemów ma z punktu widzenia obliczeń charakter liniowy. Dlatego przy opracowywaniu superkomputerów problemy algorytmów i oprogramowania są ściśle powiązane z rodzajem zastosowanych podzespołów oraz architekturą sprzętu. Jest to bardzo prawdopodobne, że doprowadzi to do tworzenia systemów hybrydowych, w których poszczególne części problemu obliczeniowego będą przekształcane na postać równoległą w celu przetwarzania w wyspecjalizowanym procesorze (o prędkości rzędu 100 tys. MFLOPS w roku 1997), natomiast pozostałe części zadania – jak np. operacje wejścia-wyjścia, odsyłanie do zbiorów i przetwarzanie skalarne – realizowane oddzielnie w procesorach funkcjonalnych, dołączonych do szyn danych i sterowania. Cały zespół obliczeniowy jest sterowany przez procesor nadzorujący.

Taki uniwersalny system komputerowy przyszłości mógłby mieć np. postać szeregu połączonych pierścieniowo procesorów – połączonych z sobą szyną sterującą i dołączonych poprzez pamięć wewnętrzną każdego z nich do wspólnej szyny danych. Byłyby to procesory:

  • wejścia-wyjścia, dołączony do linii komunikacyjnych, sieci lokalnej oraz wejścia-wyjścia wsadowego
  • nadzorujący, dołączony do linii zdalnego sterowania
  • wyspecjalizowany, dołączony do zewnętrznej pamięci zbiorów wyspecjalizowanych
  • pamięci zewnętrznych, dołączony do stacji dysków magnetycznych i optycznych
  • aplikacyjne.

“Procesor wyspecjalizowany” odpowiada tu procesowi równoległemu w superkomputerze. Nazwano go uniwersalnym systemem komputerowym przyszłości, a nie systemem superkomputerowym, ponieważ przewiduje się, że ten typ rozwiązania modularnego pozwoli zrealizować system uniwersalny. W systemie superkomputerowym występowałby “silny” procesor wyspecjalizowany oraz “słabsze” procesory wejścia-wyjścia i zbiorów. Procesory przeznaczone do zastosowań mogą stanowić zespół mikroprocesorów przystosowanych do obliczeń skalarnych i sterowania. Natomiast przy przetwarzaniu wsadowym lub systemach baz danych – parametry procesorów funkcjonalnych byłyby zupełnie inne. Stąd właśnie ów nieco dziwny wniosek, że superkomputery przyszłości będą bardzo podobne do uniwersalnych systemów komputerowych, w których zmieniane będą jedynie rodzaje wykorzystywanych procesorów funkcjonalnych.

Wspomniano już o osiągnięciach japońskich w tej dziedzinie, ale dla utrzymania przodującej pozycji niezbędne są istotne innowacje w architekturze systemów uniwersalnych, algorytmach i oprogramowaniu, gdzie – jak wiadomo – Japończycy mają mniejsze osiągnięcia. Dlatego w końcu lat osiemdziesiątych inicjatywa może wrócić w ręce amerykańskie, a do tego czasu powstaną superkomputery brytyjskie i francuskie. Jeśli więc firmy japońskie chcą liczyć się w dziedzinie superkomputerów w latach dziewięćdziesiątych, muszą nadrobić opóźnienia w dziedzinie oprogramowania.

Modularny charakter superkomputerów – i systemów uniwersalnych prowadzi do nowego rodzaju konkurencji. Jeśli protokoły sprzęgu szyn są znane (lub standardowe), to poszczególne firmy mogą specjalizować się w pewnych typach modułów funkcjonalnych.

Większość rządów finansuje badania nad rozwojem superkomputerów ze względu na ich rolę w istotnych dziedzinach życia publicznego. Nie wiadomo jednak, czy rynek superkomputerów będzie dostatecznie duży, by przynieść zyski większej liczbie producentów.

Systemy inteligentne

Zaproponowany przez Japończyków ogólny schemat komputera piątej generacji składa się z trzech warstw. Pierwszą jest sprzęg zewnętrzny maszyny; możemy w niej wyróżnić język zapytań wysokiego poziomu, dostęp wykorzystujący język naturalny w postaci dźwiękowej i obrazy oraz język dotyczący samego jądra komputera piątej generacji. Warstwa ta łączy się z podstawowym systemem oprogramowania, w którym można wyróżnić odpowiedniki elementów warstwy pierwszej. I tak: językowi zapytań odpowiada system zarządzania “oparty na wiedzy”, blokowi dostępu – inteligentny system sprzęgu, a językowi jądra – system rozwiązywania problemów i wyciągania wniosków. Warstwa ta sprzęga się z systemem sprzętowym, gdzie można wyróżnić trzy obszary odpowiadające podziałom w warstwach poprzednich. Część “oparta na wiedzy” obejmuje układy algebry relacyjnej i mechanizmu relacyjnych baz danych. Inteligentnemu systemowi sprzęgu w oprogramowaniu odpowiada taki sam sprzęt, a wśród sprzętu rozwiązującego problemy i wnio-skującego można wyróżnić: układy logiczne języka programowania, mechanizm do działania na danych typu abstrakcyjnego, mechanizm przetwarzania przepływu danych i nowatorski mechanizm Von Neumanna. Wszystkie te obszary realizowane są w architekturze bardzo dużego stopnia scalenia. Ze sprzętowej realizacji sprzętu odchodzi też bramkowane wyjście do sieci innych systemów piątej generacji.

Architektura piątej generacji nie jest właściwie architekturą w konwencjonalnym sensie tego słowa. Jest raczej zespołem funkcji, które opracowujący chcieli rozdzielić na nieokreślone jeszcze moduły. Schemat ten może odnosić się do różnych technik. O układach wielkiego stopnia scalenia już była mowa. Poza technikami sprzęgu większość pozostałych związana jest z koncepcjami tzw. “systemów opartych na wiedzy” lub “systemów rozwiązujących problemy”. W różnych postaciach systemy te składają się z trzech podstawowych bloków, które łącznie stanowią nowe podejście do rozwiązania złożonych problemów. Te trzy bloki, to:

  • Podstawa wiedzy. Jest to wiedza na określony temat, reprezentowana zwykle jako warunkowe prawa logiczne, przewidywany rozwój wydarzeń wyrażony w języku naturalnym lub jako wzory matematyczne (lub inne struktury).
  • Dane kontekstowe – informacje wytworzone przez system o każdej szczególnej sytuacji, w której powstaje program.
  • Mechanizm wnioskowania – jest to program komputerowy pozwalający wyciągać wnioski i przedstawiać rozwiązania problemu będącego przedmiotem analizy. Programy mają postać “reprezentacji wiedzy” i zawierają ułatwienia do odpowiedniej konwersacji z użytkownikiem. Mechanizm ten działa zwykle w dwóch etapach: wyciąga wnioski o przedstawionej sytuacji, zadając automatycznie pytania użytkownikowi, a następnie prezentuje mu rozumowanie logiczne, na którym opierało się zaproponowane rozwiązanie, podkreślając te momenty, które mogą być użyteczne.

Wszystkie bloki dotyczą oprogramowania i mogą być przygotowane do pracy w konwencjonalnych systemach komputerowych. Jednakże cechy sposobu przetwarzania, potrzebnych pamięci i sterowania sugerują konieczność zastosowania sprzętu specjalnie opracowanego do tego celu.

Przed sprawdzeniem użyteczności mechanizmu wnioskowania należy opracować dla niego właściwą podstawę wiedzy i dane kontekstowe. Należy ustalić setki lub nawet tysiące określeń i zależności. Można ocenić, że potrzeba byłoby dwa lata prób jednego człowieka, zanim model systemu rozwiązującego problemy mógłby zacząć działać. Optymiści twierdzą, że system taki będzie użyteczny dla wielu ludzi zajmujących się podobnymi zagadnieniami, natomiast pesymiści uważają, że może służyć tylko autorom. Możliwości takich systemów są bardzo interesujące, ale rozwijać się one będą bardzo wolno i tylko w wybranych dziedzinach. Pojawią się najpierw prawdopodobnie nie jako oddzielny rodzaj systemów, ale zespół opracowań programowych i specjalizowanych procesorów, ukierunkowanych na modularne systemy uniwersalne. W perspektywie systemy rozwiązujące problemy spowodują znaczną, ewolucyjną zmianę w charakterze systemów uniwersalnych.

Dotychczas nie tworzono w tej dziedzinie specjalnych programów badawczych. Sukces odnosiły firmy, które łączyły twórcze podejście w dziedzinie oprogramowania z dobrym rozeznaniem rynku. Większość takich firm powstała w USA i Wielkiej Brytanii. Japońskie zamierzenia stymulują rozwój takich firm na Zachodzie.

Wydaje się, że większość sprzętu przyszłych systemów będzie wytwarzana przez wyspecjalizowanych światowych dostawców modułów, tak jak to już obecnie dzieje się z monitorami ekranowymi i drukarkami. W przyszłości obejmie to matryce programowane do lokalnego przetwarzania, pamięci dyskowe i wyspecjalizowane procesory funkcjonalne. Wytwórcy systemów będą wprawdzie sami produkowali niektóre rodzaje procesorów, ale nie obejmie to wszystkich modułów żądanych przez klienta. Już obecnie oprogramowanie jest w dużej mierze dostarczane przez wyspecjalizowane firmy. W epoce komputerów osobistych od specjalistów pochodzą nawet programy sterujące, stanowiące dawniej wyłączną domenę wytwórców systemów. Nie wiadomo w jakim stopniu, ze względu na różnice językowe, prawne i zwyczajowe, wytworzy się międzynarodowy rynek oprogramowania. Na pewno jednak przynajmniej programy sterujące systemami oraz automatyzujące niektóre prace inżynierskie (np. CAD – projektowanie wspomagane komputerowo) będą sprzedawane powszechnie przez wspomniane firmy specjalistyczne.

Dostawcy systemów muszą zdobywać i łączyć moduły sprzętu i oprogramowania – tak, aby zaspokoić potrzeby swych klientów. Będą oni obsługiwać organizacje małe i duże, instytucje rządowe i różnego typu szkoły, profesjonalistów i zwykłych konsumentów. Niektórzy będą działać na mała skalę, lokalnie, często w kooperacji – inni będą specjalizować się w określonym typie systemów (np. CAD do projektowania układów półprzewodnikowych), często na skalę światowa: jeszcze inni będą tworzyć systemy całościowe spełniające wymagania różnych użytkowników w ramach jednej dużej organizacji.

Struktura przemysłu systemowego i rola, jaką odgrywać w nim będą znani wytwórcy komputerów, może być w przyszłości zupełnie inna. Oprócz wytwórców systemów, ich użytkownicy będą mieli do czynienia z dostawcami usług telekomunikacyjnych. Charakter i koszta dostępnych urządzeń łączności będzie wpływać na wybór systemu, który często sprzedawać będą dostawcy sprzętu łączności. Ważną rolę w przemyśle systemów piątej generacji będą odgrywać rządy. Będą one wspomagać finansowanie badań nad nowymi technologiami, aby wzmocnić pozycję swego kraju. Szczególnie faworyzowane będą przedsięwzięcia perspektywiczne – jak np. systemy inteligentne, gdzie możliwości osiągnięcia zysku są zbyt odległe, by zachęcić inwestorów prywatnych. Natomiast pamięci dyskowe – przykładowo – mają według oceny planistów dostateczny poziom inwestowania i nie potrzebują pomocy rządowej, która skierowana jest głównie na opracowania istotne dla bezpieczeństwa kraju. Dotyczy to najczęściej producentów kostek pamięciowych i matryc programowanych oraz superkomputerów. Jednakże szybkie zmiany w architekturze systemów są przyczyną wątpliwości co do perspektyw firm nadzorowanych przez rządy.

Zakres i wysokość opłat za usługi telekomunikacyjne oferowane przez państwo ograniczą powszechną dostępność systemów. Powstaną jednakże konkurencyjne systemy użytkowe opracowane przez producentów środków łączności lub lokalnych wytwórców systemów komputerowych.

W rezultacie powinny zyskiwać na tym rządy, które często będą chronić własny przemysł – np. przez zniechęcenie do importu i faworyzowanie własnych producentów. Jednakże żaden kraj nie jest w stanie zaoferować pełnego zestawu modułów sprzętowych i oprogramowania. I dlatego rząd, który poważnie ogranicza import, w gruncie rzeczy działa na niekorzyść swych obywateli, uniemożliwiając im korzystanie z nowoczesnych rozwiązań, co w perspektywie może zmniejszyć wydajność i spowodować większe szkody niż doraźne korzyści z protekcjonizmu. Dlatego przemysł informatyczny piątej generacji będzie z natury swej międzynarodowy, a decyzje poszczególnych rządów powinny przyczyniać się do zwiększenia wspólnych korzyści.

Oprac. Jan Ryzko (na podstawie DATAMATION nr 12, 1983)

Źródło: “Informatyka,” nr 11/1984, str. 25-28



 
Page added on 12th May 2003.

Copyright © 2002-2005 Marcin Wichary
Printable version | Contact | Site map