Zum neuen Informatik-Forum >>
 FAQFAQ   SuchenSuchen   MitgliederlisteMitgliederliste   BenutzergruppenBenutzergruppen   RegistrierenRegistrieren   ProfilProfil   Einloggen, um private Nachrichten zu lesenEinloggen, um private Nachrichten zu lesen   LoginLogin 

Alternative Betriebsysteme ! - Seite 3
Gehe zu Seite Zurück  1, 2, 3, 4  Weiter
 
Dieses Forum ist gesperrt, du kannst keine Beiträge editieren, schreiben oder beantworten.   Dieses Thema ist gesperrt, du kannst keine Beiträge editieren oder beantworten.    Informatikerboard.de Foren-Übersicht -> Betriebsysteme
Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  
Autor Nachricht
Gast






BeitragVerfasst am: 21. Feb 2006 20:40    Titel: Antworten mit Zitat

gast hat Folgendes geschrieben:
Naja, der wincode ist dahingehend schlecht, das er nich besonders sicher ist.
Es gibt Untersuchungen die zeigen, dass im Windowskernel deutlich mehr Fehler auf 1000 Zeien Code als beim Linuxkernel vorhanden sind. Es handelte sich um den Faktor 10, das habe ich noch im Kopf. Nach Quellenangaben kann ich ja nachher nochmal suchen. Zudem ist immo der Grafikserver in Win immo noch fester Bestandteil des Kernels. Das du ihn auch deaktivieren kannst ist klar, es ist ja kein monolithischer Kern. Du bootest es nicht, dann haste es auch nicht smile
Aber wenn du es bootest, is es im Kernel, was ja bekanntlich so einige Probleme mit sich bringt.

Von Singularity habe ich bisher noch nichts gehört, habe es mir aber nun mal zu gemüte geführt. Der Weg ist richtig, er wurde aber schon vor langer Zeit gegangen.
Schau dir mal den Machkern an, der ist genau dass, was mit Singularity verfolgt wird. Ein Microkernel, der lediglich eine abstrackte Maschiene bereitstellt auf dem dann eine Biblio (in diesem Fall .NET) eine Laufzeitplattform darstellt. Hab mir das nun nicht alles durchgelesen, aber so wie ich es verstanden habe machen die da halben kram. Es gibt nur Userlevel Threads oder wie habe ich das mit den SIPs zu verstehen? Das wäre ja mehr als ungünstig da ja multiprozessorsysteme sehr im kommen sind. Kein affinity scheduling und dadurch kalte caches. Ständige blockaden durch page fault interrupts und massiv eingeschränkte parallelität sind nur einige dinge. Aber wie gesagt, habe mir noch nicht viel dazu durchgelesen. Fakt ist aber, dass diese ganzen Konzepte mit Mach schon lange gut laufen (MacOSX) und darüber hinaus noch mehr innovative Technologien wie Userlevel Dateiserver und so vorhanden sind. Bei Linux ist man mit Hurd auch schon fast soweit.

Nunja, aber ich will niemanden sein Windows madig reden, zumal es ja heisst never change a runnig system. Ich bin aber dennoch der Meinung, dass viele nie mehr (asser zum zoggen) Windows nutzen würden, wenn sie erst einmal Linux kennengelernt haben. Und wie gesagt, Treiber ist heutzutage kein Problem mehr, auch wenn es zugegebenermassen nicht immer einfach ist. Aber wenn das system erst einmal läuft, dann läuft es. und man bracht nie wieder neu installieren, man updatet nur noch (und das auch noch nahezu automatisch)...


Auf welchen Windowskernel beziehen sich die Aussagen? Sicherheit ist immer etwas wahrgenommenes und wenn bestimmte Systeme kaum wahrgenommen werden, haben sie meist angeblich auch keine Sicherheitsprobleme. Ich sage da nur mal Mac OS X was in letzter Zeit ja diverse Schlagzeilen macht, weil langsam sich mal mit dem System von Viren/Exploit-Schreiberseite beschäftigt wird.

Hmm, ob der Grafikserver nun integraler Bestandteil des Kernels ist, dazu kann ich nix sagen, ich kenne die Sourcen halt nicht.
Machkern kenne ich und GNU Hurd sagt mir auch was: Ist es nicht das, woran sie schon 10 Jahre oder so arbeiten ohne es fertig zu bekommen? Ursprünglich sollte es doch DER Kernel für die GNU-Bewegung werden, aber dann kam ja Linux knapp ( ;-) ) zuvor *g*

Gentoo ist schon schick, habe ich bei mir in VMware am laufen, aber naja, ich weiß nicht, ich habe Jahre unter Linux gearbeitet und lass es meinetwegen Macht der Gewohnheit sein, aber an die Arbeitseffektivität und das Userinterface von Windows kam die Linux-Distri (Slackware war das, mit Gnome WM) einfach nicht heran.
Einer der großen Vorteile von Gentoo ist natürlich, ähnlich wie apt von Debian, emerge: schnelles und einfaches updaten und installieren von Software. Bloß problematisch war da immer aktuelle Software. Bis die bei Portage integriert war, dauerte es schon ne Weile.

Achja, mein Windows ist jetzt seit etwa 3 Jahren drauf. Seitdem habe ich es kein einziges mal neu installiert und es läuft immernoch rund.
Nach oben
Senior Sanchez
Gast





BeitragVerfasst am: 21. Feb 2006 20:47    Titel: Antworten mit Zitat

Der Post eben war von mir Augenzwinkern
Nach oben
gast
Gast





BeitragVerfasst am: 21. Feb 2006 22:26    Titel: Antworten mit Zitat

Ich beziehe mich eigentlich auf nen wilden misch masch aus fast allen kernels, hast recht, ich sollte das näher beschreiben.
Also: Der Grafikserver (analogon zum X-server) ist bei win seit 98 im kernel. davor lief es noch im userspace, soweit ich weiss (bin mir da aber nicht sicher). Es ist allerdings auch von microsoft geplant, den grafikserver vom kernel abzukoppeln und ebenfalls im userspace laufen soll. Sie sind also immo dabei ne art x server zu schreiben. ob das nun schon in vista eingesetzt wird, weiss ich nicht mehr, glaube aber schon. wäre ja mal toll, wenn sie das x-protocol kompatibel machen würden.
Was die sicherheit anbelangt beziehe ich mich eher auf ältere kernel, so 98,me und co. Ich meine hier nicht die sicherheit im sinne von schutz, sondern eigentlich mehr die verfügbarkeit. worauf ich hinaus wollte ist, dass ein abgestürzter prozess oft auch gleich andere prozesse mitreisst und oder gleich den kernel mit blockiert. Das ist bei Linux nicht der Fall. Ich habe die Statistik leider nicht wiedergefunden, nur die liunxseite. Da sind es 0,16 Fehler pro 1000 Zeilen. Bei Win waren es soweit ich weis 1,5 oder so. Wie gesagt, habe die win zahl nicht mehr gefunden.
Das Problem der viren ist ne ganz andere Sache. Du hast natürlich recht, dass man auch ein ziel sein muss, damit auch viren auftauchen. Es ist aber auch so, dass bei Linux konzeptionell einiges sicherer ist (ich sage nicht volkommen sicher, es sind lücken da und im extremfall ist eine genau eine zu viel). So ist es unter win leider immernoch standard, das man mit adminrechten durch die gegend surft. Nur ein Beispiel, auch wenn hier eher der user schuld ist.

Bei Hurd muss ich dir leider recht geben. Er läuft zwar, aber naja. Die Programme fehlen halt zu grossen teilen noch (45% der debian packete wurden erst übersetzt). Es gibt allerdings ehrgeizige projekte wie bringing portage to hurd und co.
Der Mach Kern hingegen ist jedoch einer der Modernsten Kernel überhaupt zur Zeit.
Berühmtestes Beispiel ist wohl MacOSX. Läuft sehr stabil und hat modernste Kerneltechnologie.

In wie fern ist denn bei dir das Arbeiten mit win effektiver? Is ja nicht so, dass ich mich davon nicht überzeugen lassen würde. Ich kann z.B. auf multiple desktops mit jeweils eigener taskbar nicht mehr verzichten. zudem empfinde ich die ganzen systemeinstellungen unter win als sehr frickelig. bis man da gefunden hat was man sucht hat man bei linux schon 3 mal ne konsole geöffnet, sich die man page durchgelesen und fix den befehl eingetippert. und das schöne ist, dass es dann auch läuft smile

ich kann auch nicht erkennen, das portage nicht aktuelle software enthält. musst natürlich die unstabels unmaskieren, is klar. Aber da findest du alles so aktuell, neuer bekommst es nur als cvs checkout. Zumindest biste da aktuelle mit, als bei windows. oder wie oft updatest du deine anwendungssoftware und was für eine mühe macht das dann?

ist aber auch egal, ich will mich hier echt nicht weiter streiten. jedem das seine sag ich immer. und wenn du/ihr mit win super zurecht kommt, dann ist das ja auch gut so. ich bin warscheinlich zu blöd für win, bei mir macht es zumindest nie dass, was ich will

Big Laugh
Nach oben
Senior Sanchez
Gast





BeitragVerfasst am: 21. Feb 2006 22:53    Titel: Antworten mit Zitat

gast hat Folgendes geschrieben:
Ich beziehe mich eigentlich auf nen wilden misch masch aus fast allen kernels, hast recht, ich sollte das näher beschreiben.
Also: Der Grafikserver (analogon zum X-server) ist bei win seit 98 im kernel. davor lief es noch im userspace, soweit ich weiss (bin mir da aber nicht sicher). Es ist allerdings auch von microsoft geplant, den grafikserver vom kernel abzukoppeln und ebenfalls im userspace laufen soll. Sie sind also immo dabei ne art x server zu schreiben. ob das nun schon in vista eingesetzt wird, weiss ich nicht mehr, glaube aber schon. wäre ja mal toll, wenn sie das x-protocol kompatibel machen würden.
Was die sicherheit anbelangt beziehe ich mich eher auf ältere kernel, so 98,me und co. Ich meine hier nicht die sicherheit im sinne von schutz, sondern eigentlich mehr die verfügbarkeit. worauf ich hinaus wollte ist, dass ein abgestürzter prozess oft auch gleich andere prozesse mitreisst und oder gleich den kernel mit blockiert. Das ist bei Linux nicht der Fall. Ich habe die Statistik leider nicht wiedergefunden, nur die liunxseite. Da sind es 0,16 Fehler pro 1000 Zeilen. Bei Win waren es soweit ich weis 1,5 oder so. Wie gesagt, habe die win zahl nicht mehr gefunden.
Das Problem der viren ist ne ganz andere Sache. Du hast natürlich recht, dass man auch ein ziel sein muss, damit auch viren auftauchen. Es ist aber auch so, dass bei Linux konzeptionell einiges sicherer ist (ich sage nicht volkommen sicher, es sind lücken da und im extremfall ist eine genau eine zu viel). So ist es unter win leider immernoch standard, das man mit adminrechten durch die gegend surft. Nur ein Beispiel, auch wenn hier eher der user schuld ist.

Bei Hurd muss ich dir leider recht geben. Er läuft zwar, aber naja. Die Programme fehlen halt zu grossen teilen noch (45% der debian packete wurden erst übersetzt). Es gibt allerdings ehrgeizige projekte wie bringing portage to hurd und co.
Der Mach Kern hingegen ist jedoch einer der Modernsten Kernel überhaupt zur Zeit.
Berühmtestes Beispiel ist wohl MacOSX. Läuft sehr stabil und hat modernste Kerneltechnologie.

In wie fern ist denn bei dir das Arbeiten mit win effektiver? Is ja nicht so, dass ich mich davon nicht überzeugen lassen würde. Ich kann z.B. auf multiple desktops mit jeweils eigener taskbar nicht mehr verzichten. zudem empfinde ich die ganzen systemeinstellungen unter win als sehr frickelig. bis man da gefunden hat was man sucht hat man bei linux schon 3 mal ne konsole geöffnet, sich die man page durchgelesen und fix den befehl eingetippert. und das schöne ist, dass es dann auch läuft smile

ich kann auch nicht erkennen, das portage nicht aktuelle software enthält. musst natürlich die unstabels unmaskieren, is klar. Aber da findest du alles so aktuell, neuer bekommst es nur als cvs checkout. Zumindest biste da aktuelle mit, als bei windows. oder wie oft updatest du deine anwendungssoftware und was für eine mühe macht das dann?

ist aber auch egal, ich will mich hier echt nicht weiter streiten. jedem das seine sag ich immer. und wenn du/ihr mit win super zurecht kommt, dann ist das ja auch gut so. ich bin warscheinlich zu blöd für win, bei mir macht es zumindest nie dass, was ich will

Big Laugh


Erstmal vorweg: Das ist hier ja kein Streiten, sondern ne konstruktive Diskussion smile

Mit den Grafiksachen könnteste recht haben, da weiß ich leider nicht so ganz bescheid. Aber wenns im X-Server Style wäre, wäre es schon cool.
Naja, vonner Verfügbarkeit her, haste sicherlich Recht wobei ich aber halt sagen muss, dass sich die ganze Prozess Geschichte mit 2000/XP wesentlich zum besseren gewandelt hat. Also ich kann mich nicht erinnern, wann das letzte Mal ein Prozess bei mir Amok gelaufen ist.
Mit den Adminrechten da haste recht und das mach ich leider auch selbst so. Das hängt aber zum Teil mit der scheiß Software zusammen die für Windows geschrieben wird: Du kannst zum Teil gar nicht anders, als die mit Admin-Rechten laufen lassen. Sicherlich gings auch über runas, aber das is auch irgendwo lästig. Die Hauptbenutzer-Gruppe reicht oft leider nicht.

MacOS X hat laut Wikipedia übrigens nen Hybridkernel und keinen reinen Mach-Kernel wie NeXTStep.
Aber afaik sind da auch schon Schwächen aufgetaucht wobei ich dir aber schon recht geben muss, das MacOS X geil ist Augenzwinkern
MacOS X hat dafür aber immer so seine Problemchen wenn ne neue Version rauskommt und dann nen Haufen wieder nicht laufen will (siehe USB2, Firewire800, Java etc.)

Naja, ich denke mit der usability, das ist eben die Macht der Gewohnheit. Unter Windows brauche ich nicht soviel confen und es lief einfach so wie ich es wollte. Ich war auch mal auf LiteStep umgestiegen, fand ich nach kurzer Zeit blöde, weil es einfach nicht so flüssig zu bedienen war. Das Gefühl hatte ich auch immer mit Genome, es lief halt nicht so flüssig, weil ich wahrscheinlich die ganzen shortcuts auch nicht so kannte. Auch den Laufwerkszugriff mit den ganzen Mountereien und scripts um ne USB-Verbindung automatisch herstellen zu lassen, das finde ich unnötig und kompliziert, wobei es natürlich in bestimmten Situationen auch seine Vorteile hat.

Naja, wenn ich natürlich unstable zu lasse bei gentoo, dann kommt da auch etwas aktuellere sachen. Aber mir gings halt um die stable sachen. Bis die drin sind, dauert das manchmal ewig.
Nach oben
Gast






BeitragVerfasst am: 21. Feb 2006 23:29    Titel: Antworten mit Zitat

Also ich arbeite mittlerweile nur noch als normaler Benutzer und es funktioniert ganz gut. Nur TeX mag das nicht, ansonsten gibts eigentlich keine Probleme. (Und ja, ich weiß, TeX wär unter Linux viel komfortabler... Augenzwinkern)
Nach oben
Crotaphytus



Anmeldungsdatum: 08.05.2005
Beiträge: 213

BeitragVerfasst am: 21. Feb 2006 23:32    Titel: Antworten mit Zitat

Warum loggt mich das blöde Forum eigentlich immer aus? böse böse böse
_________________
Genie oder Wahnsinn? Wer kann es wissen...
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
gast
Gast





BeitragVerfasst am: 21. Feb 2006 23:39    Titel: Antworten mit Zitat

Ja, bei MacOSX wurde der Mach Kernel überarbeitet. Die Überarbeitung besteht aber fast ausschliesslich in die rückportierung von BS Komponenten zurück in den Kernel.
Mach ist eigentlich eine abstrackte plattform, die an sich noch kein BS betreibt. Es ist ein Microkernel, das heisst alles was geht wurde in den userspace ausgelagert und als systemserver angeboten. So z.B. virtueller Speichermanager zum Teil und vor allem Dateisystemserver, die dann die I/O regeln. Nutzt ein Bs jedoch primär ein Dateisystem, so ist eine rückportierung in den Kernel sinnvoll, da sonst zu viele adressraumwechsel stattfinden. IO_request() vom user an BS, dann BS called dateiserver, Dateiserver macht IO_start und wartet, bs called irgendwann dateiserver das daten da sind und dateiserver sagt dann userprozess/thread bescheid, das daten da sind) Das sind viele BS/userlevel Kontextwechsel, bei dem jeweils alle caches gelöscht werden müssen. diese dann kalten chaches machen den systemcall so "teuer". daher macht es sinn solche standardsachen wieder in den kernel einzulagern und genau das wurde hier gemacht. man muss dann halt damit leben, dass der dateiserver wieder im kern ist und fehler den ganzen kern zum absturz bringen kann.
Aber das Potential des Mach Kernels ist bei MacOSX auch längst nicht ausgeschöpft. Von der Konzeption her ist der Mach eigentlich Ideal um mehere BS gleichzeitig laufen zu lassen. Dabei bilden dann Biblios in Kernel level Prozessen die Funktionalitäten des zu emulierenden BS nach. Es können dann mehrere Kernel Level Threads erstellt werden, die dann optimal auch auf mehrprozessormaschienen sehr parallel laufen. Das ist ja eigentlich der Punkt, wo ich drauf hinauswollte.
Wie das Ganze bei Windows läuft ist leider tatsächlich sehr schleierhaft. Vieles weiss man nur von reverse engeneering und selbst da tue ich mich schwer infos im netz zu finden. Es ist ja schon schleierhaft, wie der Kernel an sich aufgebaut ist, geschweige denn was für scheduling strategien engesetzt werden. Aber ich werde auch off topic, es soll ja hier nicht um die implementierung sondern um das einsetzten bzw nutzen von BS gehen.

Daher zurück zu gentoo Big Laugh
Du magst recht haben mit der Macht der Gewohnheit. Vielleicht mal meine kleine Geschichte. Ich habe erst auch alles mit win gemacht. nebenbei hatte ich mal suse und mandrake ausprobiert (schon bestimmt 6 jahre her) aber irgendwie hat es mich nicht so überzeugt, so blieb ich bei win. Vor 2 Jahren habe ich mein Glück erst nochmal mit suse und dann mit debian versucht. Fand ich beides zu frickelig und unfunktional. Seit einem Jahr nutze ich nun Gentoo und bin voll damit zufrieden. Ich habe auch seit einem Jahr kein Win mehr, werde es mir aber nächsten Monat mal wieder dazuinstallieren, weil ich spielen will. Bei gentoo gefällt mir besonders die flexibilität und einfachheit. wenn irgendwas nicht geht, findet man immer im Netz hilfe. die foren und howtos sind perfekt. Man macht was da steht und es läuft. Nicht nur das es läuft, mann weiss auch warum es läuft und warum es vorher nicht ging.
Wenn du nicht mit genome zufrieden warst, warum nutzt du dann nicht mal kde oder besser noch xfce? Das ist die möglichkeit, die du unter win nicht hast. es gibt auch noch tausend weitere wm, enlightenment ist auch super. Mann kann ja auch von jedem das beste nehmen, ich nutze z.B. xfce und nautilus (aus kde) als desktop.
Das mit der aktualität der software im portage sehe ich übrigends auch noch anders. Die unstable versionen sind ja nichts anderes als fast aktuelle versionen. Sie sind nur von _portage_ als unstable eingestuft, dass heisst nicht dass sie schlechter laufen als die bei der publisherseite runterladbare version. und die unstable versionen sind schon recht aktuell. Aber was verstehst du eigentlich unter aktuell. Für mich ist eine software auch noch aktuell, wenn sie schon nen monat alt ist. Alle jüngeren stücke Software haben sowieso meist noch kinderkrankheiten bzw die neuen features werden meist nicht (von mir) benötigt und stehen damit auch in keinem verhältnis zu dem risiko (was du bei aktueller software immer hast). Und wenn du wirklich mal ne aktuelle version brachst, es hindert dich niemand dadran dir das dep packet (was warscheinlich noch älter ist, da ist debian ja sehr schlecht) oder gleich aktuellen code runterzuladen und selbst zu compillieren. Also wie gesagt, ich halte die software schon für aktuell. Ach ja, was mir auch noch wieder einfällt. Das argument was ich ebend schon gebracht habe. Wann aktualisierst du denn mal anwendungssoftware unter windows? da löuft ja nix automatisch und wann aktualisiert man schonmal grafikprogramme, word, musikprogramme etc?
Ich würde mal behaupten, dass unter gentoo das durchschnittliche softwarealter deutlich geringer ist als bei windows.
Nach oben
Senior Sanchez
Gast





BeitragVerfasst am: 22. Feb 2006 16:28    Titel: Antworten mit Zitat

Hmm, hat natürlich dann sein gutes, diese Hybrid-Kernel-Architektur.

Naja, ich hatte Gentoo vor etwa 2 Jahren ausprobiert und da brauchte ich zum Teil ne aktuelle Java Version. Da war aber selbst bei unstable nix aktuelles zu finden, sodass sich dadurch sicherlich meine Meinung geprägt hast.

Ich hatte ja auch mehrere WM ausprobiert, Gnome gefiel mir noch am besten, aber soo das wahre, wars auch nicht. Unter Windows kann man btw auch andere "WM" installieren, z.B. LiteStep. Wobei es in gewissem Maße eigentlich mehr nen Shell-Ersatz ist.

Mit dem Durchschnittsalter haste natürlich Recht. Ich update in der Regel nur meine Software, die ich wirklich viel nutze (dev-sachen) und wo es Fehler gibt. Läuft dagegen alles zu meiner Zufriedenheit update ich nicht, warum sollte ich auch. Höchstens mal zum Spaß schaue ich, was es da neues gibt.
Insgesamt gesehen ist portage natürlich ne viel bessere Variante, durch die leichten Updates, Installationen und Auflösen der Dependencies.
Aber mal ne andere Frage: Ich habe bei Gentoo öfters auf O3 kompiliert aber nen wirklichen Geschwindigkeitsunterschied, außer das ewig lange kompilieren, habe ich nicht festgestellt. Hast du da Erfahrungen gemacht?
Nach oben
gast
Gast





BeitragVerfasst am: 22. Feb 2006 17:57    Titel: Antworten mit Zitat

Also ich lass O3 sein und habe es selber auch noch nie ausprobiert. Ich kann daher nur das sagen, was so in den Foren drinsteht. Es wird dort gesagt, dass O3 oftmals auch schiefgehen kann und das System hinterher sogar langsamer ist. Und wenn es was bringt dann nur im 0,x% Bereich. Dafür grössere binaries in kauf nehmen, ich weiss nicht. für mich ist diese ganze rumpimpergeschichte sowieso uninteressant. Mal ehrlich, wann sagt man schonmal, jetzt hätte ich gerne (angenommen es würde so viel bringen) 10% mehr power. Nur damit firefox (wenn überhaupt) 1 sec schneller startet? Ach ne, dafür die längere compilagen in kauf nehmen ist scheisse. Ich sehe den vorteil im selber compilieren eher in der direkt an mein system angepassten software. Nicht nur, dass die Programme dann die spezifischen Befehle meiner Cpu nutz, ich kann durch die useflags auch sagen das ich irgend einen scheiss nicht mit reingebaut haben will. Wozu in alle Programme cups unterstützung reincompilieren, wenn ich keinen drucker besitze oder warum die Gui mitkompilieren, wenn ich das Prog sowieso nur in der bash einsetze (wie bsp. bei codecs, die dann von anderen Progs nutzen lässt)
Mal ne diesbezügliche Frage:
Hat eigentlich jemand von euch Plan, wie das bei Windows läuft. Soweit ich weiss kann man ja eine installationscd für alle Systeme nutzen. Also egal ob pentium 2,3,M,celeron oder was sonst noch so schönes auf dem Markt ist, die ganzen AMD reihen, alles von einer CD mökelbar. Alle Prozessoren haben aber (zumindest einen leicht) unterschiedlichen Befehlssatz. Ist auf der Installationscd dann ein Image für jeden Typ oder nur ein Image, welches die schnittmenge aller Instrucktionsets nutzt? Den zweiten Fall kann ich mir gar nicht vorstellen, wäre total unlogisch. Win ist dominierend und dann könnten sich die chip hersteller die mühe sparen. Aber so viele Images passen doch auch nicht auf eine CD...
Jemand Plan oder kann bei mir nen denkfehler finden???
Nach oben
Senior Sanchez
Gast





BeitragVerfasst am: 22. Feb 2006 20:55    Titel: Antworten mit Zitat

Ich habe O3 irgendwann auch sein gelassen.

Keine Ahnung, wie das genau bei Windows aussieht, aber da der einzig relevante Teil ja echter ASM-Code ist (der Rest ist C/C++ der durch die Compiler ja eh in x86-Code umgewandelt wird, der eh auf sämtlichen x86-CPUs läuft), dürfte nur der von solchen Dingen betroffen sein. Und da sich dieser Code deutlich in Grenzen hält, könnte man dort dann auch mal nen Prozessor-abhängigen ASM-Code reinbauen. Hauptsächlich wird das ganze ja für Bootprozesse etc. gebraucht.
Nicht umsonst wird ja auch empfohlen, nach nem CPU Wechsel Windows neu zu installieren.
Nach oben
Beiträge der letzten Zeit anzeigen:   
Dieses Forum ist gesperrt, du kannst keine Beiträge editieren, schreiben oder beantworten.   Dieses Thema ist gesperrt, du kannst keine Beiträge editieren oder beantworten.    Informatikerboard.de Foren-Übersicht -> Betriebsysteme Alle Zeiten sind GMT + 1 Stunde
Gehe zu Seite Zurück  1, 2, 3, 4  Weiter
Seite 3 von 4

 
Gehe zu:  
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.
Du kannst Dateien in diesem Forum nicht posten
Du kannst Dateien in diesem Forum nicht herunterladen