DT 91 14

From C64 Diskmag Wiki
Revision as of 21:33, 17 May 2011 by Nyquist (Talk | contribs)

(diff) ←Older revision | view current revision (diff) | Newer revision→ (diff)
Jump to: navigation, search

English Translation

    COMPUTERARCHITEKTUR UND SOFTWARE
    COMPUTERARCHITEKTUR UND SOFTWARE

________________________________________
      von Alexander Ausserstorfer
________________________________________

Jemand bezeichnete mich vor einiger Zeit
als "Steinzeitmensch", weil  meine Rech-
ner alle von  der britischen Firma Acorn
stammen und über 10 Jahre alt sind.

Die  meisten  heute  verwendeten Systeme
(Windows,  Linux,  Apple)  basieren  auf
Konzepten aus den Sechziger Jahren  oder
gehen  auf  diese  zurück.  Die  einzige
wirkliche  Neuerung  - bis heute -  sind
die auf Chips  integrierten Schaltkreise
(ICs), eine ständige Erhöhung der  Takt-
frequenz  sowie  Erhöhung  der  Integra-
tionsdichte der ICs.

MacOS ist ein auf UNIX basierendes  Sys-
tem. UNIX  ist ein für Computernetzwerke
ausgelegtes Betriebssystem, welches sei-
nen Anfang bereits in den Sechziger Jah-
ren  nahm.  Inzwischen gibt es unzählige
Sprösslinge, d. h. Betriebssysteme, wel-
che  alle  auf UNIX zurückzuführen, also
alle Weiterentwicklungen  von UNIX sind.
Neben  MacOS  gibt es z. B. noch Solaris
von SUN,  das ebenfalls auf UNIX zurück-
zuführen ist, auf dem Markt aber - außer
im  Server-Bereich  -  kaum  eine  Rolle
spielt.  All diese UNIX-Sprösslinge sind
jedoch z. T. untereinander inkompatibel.

Linux  ist eine komplette Neuentwicklung
eines Betriebssystems,  orientiert  sich
jedoch  in  vielen  Punkten  an UNIX. Es
nahm  in den Neunziger Jahren seinen An-
fang und wird inzwischen von vielen Fir-
men, wie z. B. IBM, unterstützt und auch
eingesetzt.  Der Quellcode von Linux ist
offen. Jeder kann daran mitentwickeln.

Ähnlich UNIX, gibt es auch von Linux in-
zwischen viele eigene Entwicklungszweige
und unterschiedliche Distributionen. Li-
nux ist daher nur der  Oberbegriff einer
tatsächlich vorliegenden Anzahl von mit-
einander  verwandten   Betriebssystemen,
die alle auf den selben Ursprung zurück-
zuführen sind.  Wie UNIX, ist auch Linux
in einer Hochsprache geschrieben und da-
her sehr langsam. Durch die Hardware-Ab-
straktion  lässt es sich jedoch  relativ
leicht auf neue Hardware portieren, d.h.
anpassen oder zum Laufen bringen.

Unter   UNIX  wurde  die  Fenstertechnik
(grafische  Benutzeroberfläche)  bereits
1984 unter dem  Begriff  "X Windows Sys-
tem" eingeführt.  Dieses  System  ermög-
licht es einem Programm, unter verschie-
denen  Oberflächen  zu  laufen. Für UNIX
wie Linux gibt es z. B. die als KDE oder
GNOME  bezeichneten Oberflächen.  Das "X
Windows System"  wird  unter  Linux  und
UNIX bis heute verwendet.  Es ermöglicht
zwar,  die  Bedienelemente  von mehreren
Programmen auf dem Schirm abzubilden. Es
verhindert  aber  eine  Interaktion  der
Fenster verschiedener Programme, wie sie
unter RISC OS üblich ist.

Die Grundidee von RISC OS ist, dass zwei
verschiedene Fenster  mit Inhalten  (Da-
teien, Dokumente) gleichzeitig  geöffnet
sind und Objekte (Dateien,  Bilder, Gra-
fiken) einfach mittels der Maus zwischen
diesen Fenstern hin- und herbewegt  wer-
den  können.  Auf  diese  Weise kann man
nicht nur Dateien verschieben  oder  ko-
pieren,  sondern  auch  verschiedene von
Anwendungsprogrammen geladene und in Da-
teien enthaltene Inhalte wie z. B. Text-
blöcke,  ZIP-gepackte  Dateien oder Bil-
der. In Ansätzen kann man diese  Technik
bereits  im  Dateisystem von GEOS anwen-
den. Dort lassen sich Dateien per Drag &
Drop kopieren.  Unter  RISC OS  funktio-
niert  das  jedoch  viel allgemeiner und
für den Anwender völlig transparent zwi-
schen  allen  möglichen  Programmen  und
Speichermedien.
Deshalb war RISC OS für den  (damals 14-
jährigen) Verfasser  auch  eine logische
Weiterentwicklung des  Commodore 64  und
GEOS.

Diese  als  "Drag & Drop"  (englisch für
"Ziehen und Fallen lassen")  bezeichnete
Technik wirkt  auf  einen Anwender  sehr
schlicht, einfach und verständlich.  Sie
ist intuitiv,  weil  sie  wie  im Alltag
funktioniert: Objekt nehmen, tragen, ab-
setzen.  Tatsächlich  ist  sie technisch
jedoch sehr  aufwändig  zu  realisieren.
Dies ist der Grund,  warum sie von ande-
ren Betriebssystemen und Oberflächen bis
heute nicht vollständig,  sondern nur in
Ansätzen  übernommen  worden  ist. Nicht
nur  Betriebssysteme wie Windows müssten
von Grund auf  neu  geschrieben  werden,
würde  man  diese Technik seinen Nutzern
anbieten  wollen,   sondern  tatsächlich
auch  gleich  noch sämtliche Anwendungs-
programme mit hinzu.

Die heute am meist verbreitetste Prozes-
sorarchitektur  ist  die x86er des Halb-
leiterherstellers Intel. Der erste x86er
Prozessor  war der bereits im Jahre 1978
erschienene 8086, welcher im IBM-PC ver-
baut wurde.  Das eigentliche Konzept der
Prozessoren wurde bis heute nicht  geän-
dert und hat bei Intel teilweise in eine
Sackgasse geführt.  Die Chip-Architektur
wurde nie neu entworfen,  sondern  immer
nur  neu angepasst  und  erweitert.  Die
Leistungssteigerung  wurde hauptsächlich
durch die Erhöhung der Taktfrequenz  so-
wie  Unterbringung  von Zusatzelektronik
als Rechenhilfe erreicht.


Man  stelle  sich  als Veranschaulichung
eine  Stadt vor, deren Straßen immer nur
erweitert, aber nie optimiert, d.h. ver-
kürzt und damit neu gebaut werden.

Sein  Ziel   erreicht  man  nun  dadurch
schneller, indem man schneller fährt.
Dies bedeutet,  dass die Prozessoren im-
mer komplexer werden  (inzwischen werden
bei Intel mehr als 15 Millionen Transis-
toren  in  einer x86-CPU untergebracht),
dadurch aber auch immer mehr Strom  zie-
hen und Abwärme erzeugen.  Man  ist der-
zeit  bei ca. 3 GHz Taktfrequenz, welche
sich kaum  noch  steigern  lässt.  Intel
versucht nun, diese Grenze durch die Un-
terbringung von mehreren Prozessorkernen
auf einem Chip zu umgehen.  Leider  wird
dadurch die Elektronik  noch  komplexer,
auch dürfte bei diesem Vorgehen  weiter-
hin der  Stromverbrauch  zunehmen.  Auch
ist die Programmierung  von  Mehrprozes-
sorsystemen  nicht  eben einfach. Wurden
früher  nur  die Chips komplexer, werden
es heute auch die Compiler und damit er-
stellten Programme. Das System wird ins-
gesamt  fehleranfälliger  und - auch auf
Grund der  hohen  Taktfrequenz - weniger
langlebig, als dies früher allgemein üb-
lich war.

Das  heute  am  meisten  verbreitete Be-
triebssystem ist Windows des  amerikani-
schen Unternehmens  Microsoft. Microsoft
entwickelte  ursprünglich   Programmier-
sprachen und war der Urheber verschiede-
ner BASIC-Versionen,  wie sie in den da-
mals populären  Heimcomputern eingesetzt
wurden (z.B. Commodore 64). Die Entwick-
lung von Windows begann ursprünglich mit
einer  Nachprogrammierung  von CP/M, das
Microsoft  aufkaufte,  veränderte und an
IBM  für deren PCs lizenzierte. Es wurde
unter dem Namen MS-DOS  bekannt.  Später
war MS für den Kernel von  OS/2  verant-
wortlich, das ebenfalls für IBM-PCs ent-
wickelt wurde.  Durch den Erfolg des MS-
DOS-Aufsatzes Windows wurde  der  Kernel
jedoch  bald  schon  in  das eigene  Be-
triebssystem eingebaut und  MS-DOS durch
Windows abgelöst.

Microsoft   entwickelte  seine  Software
kontinuierlich bis zum heutigen Tag (in-
zwischen Windows 7) weiter.
Dabei handelt es sich  jedoch  meist nur
um den bunten und x-fachsten Aufguss und
Erweiterung alter Ideen, die bereits vor
langer Zeit existierten. Altes wird also
neu  verpackt und unter bekannten  Namen
verkauft.

Wer sich die Office-Programme  von  Win-
dows näher ansieht,  wird etwa feststel-
len, dass verschiedene Programme wie MS-
Word oder MS-Excel eine Fenster-in-Fens-
ter-Technik  verwenden.  Word  und Excel
basieren  auf  Programmen, die unter MS-
DOS  laufen  und  eine eigene Oberfläche
mitbringen, inzwischen jedoch in Windows
integriert wurden. Dies erklärt die kom-
plizierte Fenster-in-Fenster-Technik mit
einer sehr umständlichen, für den Anwen-
der undurchsichtigen  und  zeitraubenden
Lade- und Speicherprozedur.

Kann  man  einen Computer als modern be-
zeichnen, dessen  Technologie  auf einem
Fundament steht, das  bereits  vor  mehr
als vierzig Jahren gesät wurde?

Schon  Ende  der  Achtziger Jahre gab es
ein Umdenken. Insbesondere zu nennen wä-
ren etwa die Prozessoren  "PowerPC"  des
Herstellers  IBM  (unter  Mitarbeit  von
Apple und Motorola),  "Sparc"  des  Her-
stellers SUN  oder "ARM"  des britischen
Unternehmens ARM Ltd.  All diese Prozes-
soren  sind moderne Entwürfe mit eigenem
Befehlssatz,  die  zueinander  (und auch
zur  x86-Architektur von Intel) inkompa-
tibel sind.  Darüber hinaus gibt es wei-
tere Prozessoren  wie  den Alpha-Prozes-
sor,  der lange Zeit in den  schnellsten
Computeranlagen überhaupt werkelte  (und
trotz nur 1,2 Millionen Transistoren In-
tels Pentium bei weitem  in  der Rechen-
leistung schlug).


Inzwischen wird der  Alpha-Prozessor mit
dem völlig neuentwickelten  Itanium  von
Intel zusammengeführt.
Diese völlig neuen Entwürfe von  Prozes-
soren sind alle sehr schlank  ausgelegt,
verfügen also über möglichst wenig inte-
grierte  Schaltkreise  (Elektronik)  und
damit auch ausführbare Maschinenbefehle.
Zudem  sind  die  Prozessoren meist fest
verdrahtet und haben z. T. keine  Mikro-
programme mehr. Ihre Struktur  ist  ein-
fach.

Mikroprogrammierung  bedeutet,  dass ein
Maschinenbefehl tatsächlich erst mittels
einem  Mikroprogramm  umgesetzt und dann
die einzelnen Schritte ausgeführt werden
müssen. Bei mikroprogrammlosen Prozesso-
ren werden die  Maschinenbefehle  unmit-
telbar durch die  Elektronik ausgeführt.
Deshalb  weisen solche Prozessoren  viel
weniger Maschinenbefehle  (meist nur die
nötigsten) als mikroprogrammierbare auf.
Dies bedeutet,  dass  ein  Assemblerpro-
gramm  für mikroprogrammlose Prozessoren
wesentlich länger als ein vergleichbares
für mikroprogrammierbare Prozessoren ist
und die Maschinenbefehle nicht nachträg-
lich änderbar sind;  jedoch  werden  die
Programme von mikroprogrammlosen Prozes-
soren wesentlich schneller, weil direkt,
ausgeführt. Außerdem ist  der  Prozessor
wesentlich  einfacher  aufgebaut,  kommt
also  mit weniger Schaltungen daher  und
deshalb  mit  weniger  Strom aus. Solche
Prozessoren  werden - wegen  des  einge-
schränkten  Befehlssatzes - RISC-Prozes-
soren genannt (RISC: Reduced Instruction
Set Computing).

Während der PowerPC u. a. in Apple's und
Sparc in SUN's eigenen Computern verbaut
wurden und werden  (Apple  verwendet in-
zwischen selbst  die x86-Architektur für
seine Macs, und SUN bietet neben der mo-
dernen   Sparc-Architektur  mittlerweile
auch Computer  auf  x86-Architektur an),
die mit  den  auf  UNIX-basierenden  Be-
triebssystemen MacOS  und Solaris ausge-
liefert werden, entwickelte  das  briti-
sche  Unternehmen Acorn,  aus dem später
ARM Ltd. hervorgehen sollte,  für  seine
damals neuentwickelte  ARM-CPU  aus  dem
Nichts ein eigenes, neuartiges Betriebs-
system mit völlig neuen und  einzigarti-
gen Ideen: RISC OS.  Es wurde in Assemb-
ler geschrieben.  Dadurch  ist  es  sehr
schnell,  läuft jedoch  auch nur auf be-
stimmten ARM-Prozessoren.

Acorn's Computer waren 1989/90 ein  völ-
lig neuer Start in  der  Computerbranche
und brachten keine Altlasten mit.

Das ursprüngliche Unternehmen Acorn gibt
es inzwischen nicht mehr. Der Nachfolger
des RiscPCs wurde nie auf den Markt  ge-
bracht. Die RISC-Prozessoren werden heu-
te von ARM Ltd. entworfen.  Die  Technik
wird an Halbleiterhersteller  wie  Intel
lizenziert.  ARM-CPUs werden vielfach in
portablen  Geräten   (Mobilfunktelefone,
PDAs usw.) eingesetzt, in  denen  es auf
geringen Stromverbrauch ankommt.

Von RISC OS gibt es inzwischen zwei Wei-
terentwicklungen, von denen  eine  Open-
Source und frei verfügbar ist. Zu finden
ist sie unter http://www.riscosopen.org.
Für MacOS und Windows-Systeme  gibt es -
neben frei verfügbaren wie  Red Squirrel
- auch eine kommerzielle virtuelle RISC-
PC-Maschine (VRPC):
(http://www.virtualacorn.co.uk/).   Eine
virtuelle  Maschine  ist  ein  Programm,
welches das Betreiben von RISC OS  unter
Windows bzw. MacOS per Emulation erlaubt
(RISC OS benötigt einen bestimmten  ARM-
CPU-Befehlssatz). Auch für Linux gibt es
einen frei verfügbaren Emulator, welcher
sich jedoch in keinster Weise  mit  VRPC
messen kann.

Besonders interessant ist  die  Entwick-
lung neuer Hardware wie das BeagleBoard,
auf das RISC OS derzeit portiert wird.

Auch der Amiga wurde kontinuierlich wei-
terentwickelt.  Der Pegasos  von  Genesi
lief  mit  einem PowerPC-Prozessor.  Als
Betriebssystem  kam u. a.  MorphOS, eine
Weiterentwicklung von AmigaOS,  zum Ein-
satz.  Die neuen Rechner von Genesi sol-
len mit der ARM-Architektur laufen.

Das neue AmigaOS 4.1 ist z.B. erhältlich
unter:
http://www.vesalia.de/d_amigaos41.htm.


Neue  Platinen   oder  gar  vollständige
Rechner  mit PowerPC, auf denen  AmigaOS
nativ läuft  (dafür  wurde  das  AmigaOS
vollständig neu geschrieben), findet man
unter der gleichen Domain:
http://www.vesalia.de/d_sam440ep.htm und
http://www.vesalia.de/d_sam440epflex.htm

Für 2010  wurde  ein neuer Amiga-Rechner
angekündigt:
(http://www.a-eon.com/6.html). Offiziell
erfährt man jedoch kaum etwas über diese
Systeme.

An  unserer  FH  konnte ich verschiedene
Systeme von Apple oder unter Windows und
Linux  zur  Genüge  ausprobieren.  Apple
bietet gegenüber  Microsoft  nicht wirk-
lich etwas Neues. Es scheint jedoch sta-
biler zu laufen. Linux stürzt zu oft ab.
Die Anwenderfreundlichkeit  von  RISC OS
erreicht keine Oberfläche dieser Systeme
auch nur annähernd.

Die Vormachtstellung solcher  auf so al-
ten Techniken beruhenden Systeme wie der
x86-Architektur  oder  Microsoft Windows
kann  nur  dadurch  erklärt werden, dass
die meisten Menschen nicht bereit  sind,
sich auf Neues einzulassen.

Die  Wurzeln  von Amiga-OS datieren sich
in die  Anfänge  bis Mitte der Achtziger
Jahre zurück.

RISC OS begann sich erst ab 1987 zu ent-
wickeln.  Es sind keine früheren Versio-
nen eines Betriebssystems  bekannt,  aus
denen  sich  diese  Software  entwickelt
hätte.

Wenn  dann  aber  noch gesagt wird, dass
ich mit meinem System in  der  Steinzeit
lebe,  frage  ich  mich,  wie  dumm  ein
Mensch sein muss, um zu solch einer Aus-
sage zu gelangen.
Personal tools
Namespaces

Variants
Actions
Navigation
Toolbox