19.10.2019, 02:42 UTC+2

Sie sind nicht angemeldet.

  • Anmelden
  • Registrieren

Lieber Besucher, herzlich willkommen bei: Knoppix Forum | www.KnoppixForum.de. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

lino

Fortgeschrittener

1

01.09.2019, 14:15

ICH WILL LINUX AUF EINEM WINDOWS-PC PARALLEL NUTZEN

hallo und guten Tag


Die Frage: ich will Linux auf einem Windows-PC parallel zu nutzen

ich hab mich schon mal durch das Forum hier gesucht und mir ein paar Fakten angeeignet - mir machen die Optionen jetzt noch ein paar Extrafragen - ich stelle mir die Optionen vor - und überlege wie ich vorgehen soll.

Prinzipiell gibt es ja mehrere Möglichkeiten, Linux auf einem Windows PC (oder Laptop) parallel zu nutzen und einzusetzen.
- virtuelle Maschinen,
- Live-Systeme von selbstbootenden CDs, DVDs oder USB-Sticks und die
- parallele Installation in einer (neu konfigurierten und eingerichteten) eigenen Partition oder aber auch auf einer zweiten Festplatte.

Wenn man den dritten Weg beschreitet dann sollte man die Festplatte(n) gut vorbereiten. Diese letzte Methode erlaubt es m.E. dem Anwender, die volle Hardwareleistung zu nutzen.

Will man aber eine Quick and Dirty-Loesung und ist der Fokus darauf - mehrere Linux-Programme ( neben Windows )zu nutzen oder eine neue Linux-Distribution kennenzulernen, reichen ja auch z.B. Live-Systeme ( wie Knoppix oder ähnliche) oder virtuelle Maschinen aus. Wer aber nicht auf einen CPU-Kern verzichten will, kommt dann um ein Dual-Boot-System nicht herum.

Der Zugriff auf gemeinsam genutztes Datenmaterial -auf Daten von Lin und Win aus: Wenn man es darauf absieht; Auch der gemeinsame Zugriff von Windows und Linux auf Dokumente oder Fotos ist deutlich komfortabler mit einer sogenannten Parallelinstallation.

Die Dual-Boot-System-Vorbereitungen: Man muss eine Dual Boot Installation gut vorbereiten: Dual Boot ist wird durch Grub unterstützt:

Eine Konfiguration eines Dual- Boot-Systems, bei dem Windows und eine Linux-Distribution bei dem beide Systeme zusammen auf einer einzigen Festplatte installiert sind will gut überlegt und konzipiert sein. Wenn man alles beachtet dann ist das nicht zu schwer:

Am einfachsten scheint mir, dass Windows be​reits vorhanden ist, Dann sollter Linux eben noch dazu installiert werden. Das Linux-Setup der allermeisten Disributionen - vor allen in solchen wie etwa UBUNTU und MX-Linux, dass schon ein System vorhanden ist. Eben ein vorhandenes Windows-System. Diese automatische Erkennung führt dazu dass dann im installierten Bootmanager noch weitere Einträge hinzugefügt werden. Es werden passende Einträge für beide Systeme angelegt. Beim ersten Neustart nach der Einrichtung erscheint dann ein Boot-Menü, in den meisten Fällen das unter Linux weitverbreitete GRUB2, und lässt den Benutzer zwischen Linux und Windows wählen.

Wie würdet ihr denn die Installation vorbereiten - also eine parallele Installation in einer (neu konfigurierten und eingerichteten) eigenen Partition oder aber auch auf einer zweiten Festplatte!? Wie würdet ihr genau vorgehen. Muss ich die Platte mit Knoppix oder Gpartet vorbereiten!?

Freue mich auf einen Tipp

pit234a

Fortgeschrittener

2

01.09.2019, 20:49

Das ist alles schon sehr gut aufbereitet und trotzdem fehlt das aller allerwichtigste: BACKUP!
Vor Beginn aller Arbeiten ein Backup der bestehenden Installation, die dann gegebenenfalls zurück gespielt werden kann. Am Besten also von der kompletten Platte. Das kann man relativ gut und einfach mit Linux-Boardmitteln machen, aber es gibt auch extra Tools, etwa Acronis, G4L, Symantec. Was ich normalerweise mache, will ich gerne beschreiben. Zunächst fülle ich das Dateisystem mit lauter Nullen auf, dazu schreibe ich eine Datei mit Nullen, die ich anschließend sogleich wieder lösche. Angenommen, es geht um die komplette Platte hda und die die hat ein lesbares und beschreibbares Dateisystem, das dann meinetwegen und /media/hda gemountet ist.

Quellcode

1
dd if=/dev/zero of=/media/hda/null.file bs=1m || rm /media/hda/null.file

Dies mache ich, um den unbenutzten Bereich der Platte oder Partition, genauer, des Dateisystems, "zu putzen". Dateien werden ja nicht gelöscht, sondern nur die Zuordnung der Daten vergessen. Deshalb stehen im Laufe der zeit oft viele Daten auf einem Dateisystem, die nicht zugeordnet sind und deshalb unsinnig. Wenn ich im nächsten Schritt ein Abbild der Platte mittels dd mache, dann liest das unterhalb der Dateisystemsysteme den Inhalt der Platte quasi Bitweise aus, also auch Datenfragmente und Schrott. Das ist nicht schlimm, braucht eben unsinnig Platz und muss auch nicht sein.
Deshalb schreibe ich eine Datei null.file (Name beliebig) mit lauter Nullen und ohne Angabe einer Begrenzung. Die wird also das Dateisystem komplett füllen, darauf sind dann alle Daten udn eine Datei mit lauter Nullen, die sehr groß sein kann und weil irgendwann der Platz aber voll ist, wird diese Operation mit einem Fehler abbrechen und dann führe ich den Befehl aus, mit dem diese Nullen-Datei wieder gelöscht wird.
Wenn mehrere Dateisysteme vorhanden sind, müsste das auch jedem Dateisystem gemacht werden, wenn man Platz für die Sicherungsdatei sparen möchte.
Die eigentliche Sicherung erstelle ich dann etwa so:

Quellcode

1
dd if=/dev/hda | gzip --best > /pfad/zu/hda-Image.gz

Das ergibt eine Datei hda-Image.gz, die dann ein Image der kompletten Platte (mit allen Partitionen und Dateisystemen) enthält und mittels gzip gepackt ist. gzip ist weit verbreitet und gut, ich selbst nutze eigentlich lieber lz4, weiß aber nicht, wie weit verbreitet das ist.

Quellcode

1
gunzip -cd /pfad/zu/hda-Image.gz | dd of=/dev/hdb

würde dann das Image auf eine Platte hdb schreiben, also einen echten Klon der ersten Platte erzeugen. Oder, man könnte eben die erste Platte wieder herstellen.
Also, vielleicht nochmal zu dieser Methode, weil die fast nie so erwähnt wird:
Eine 1TB große Platte, die mit dd gecloned wird, erzeugt ein Image von 1TB. Deshalb muss das Ziel immer wenigstens gleich groß sein, als die Quelle.
Auch dann, wenn nur 500G an Daten auf der Platte liegen.
Durch das Füllen der Dateisysteme mit Nullen, können diese Bereiche sehr erfolgreich durch ein Komprimierungsprogramm zusammengefasst werden. Ein fertiges Image der Art, wie ich das oben ansatzweise erkläre, hätte nun also sicher weniger, als 500G.
Aktuell kann ich folgendes Beispiel aus der Praxis anfügen: eine Partition von 327G, mit 203G belegt, erzeugt ein Image von etwa 170G. Dabei wurde von mir nicht die Option --best mit gzip verwendet. Ich nutze es meist ohne weitere Option, weil es dann schneller ist (oft deutlich schneller) und die Größenunterschiede oft nur wenige Prozent darstellen.
Alle Befehle, die ich zeige, sollen ja nur Beispiel sein und keinesfalls copy_n_paste benutzt werden. Mein Betriebssystem ist nicht GNU/Linux und ich sehe nicht jedesmal die man-page für ein GNU-System nach, wenn ich hier eine Möglichkeit beschreibe. Und dd ist durchaus ein gefährlicher Befehl. Also, nicht wie cp, wo eben was falsch kopiert werden kann oder wie du, wo nur der belegte Platz gemessen wird, mit dd kann etwas geschrieben werden, das ganze Installationen zerstört, wenn es falsch angewendet wird.
Aber nochmal, wem dies zu heikel ist oder wer keine Lust dazu hat, es gibt auch andere Lösungen. Jedenfalls muss erst ein solches BACKUP angefertigt werden. MUSS MUSS MUSS.

Trotzdem braucht man das in der Regel nicht mehr, weil gängige Distributionen in der Regel alles richtig machen. Beinahe.
Ein wichtiges Unterscheidungsmerkmal ist, ob ich ein (U)EFI System mit einem GPT-Schema benutze, oder ein herkömmliches BIOS mit MBR. Das ist wichtiger, als man vielleicht denkt. Meiner Erfahrung nach bootet auf einigen UEFI-Systemen etwa eine Ubuntu-Installations-DVD trotzdem im sogenannten Legacy-Mode, also nicht UEFI. Das ist super schlecht, denn dann kann wird eine Installation auch im nicht UEFI-Modus stattfinden und das kann deine Windows-Installation unerreichbar machen, wenn diese in UEFI passiert ist. Es gibt einfache Möglichkeiten, herauszufinden, in welchem Modus ein GNU/Linux gestartet ist. Finde erst heraus, in welchem Modus dein Windows läuft und wünsche dir dann für deine Linux-Installation den gleichen Modus. Und es gibt da irgendwelche Handgriffe, wie man dann doch eine Installations-DVD im UEFI-Modus starten kann.
Das ist also auch wichtig, vorher zu wissen.
Es genügt nicht nur, ob ein PC auch UEFI kann, man muss wissen, ob das Windows auch den UEFI-Modus nutzt und dann sollte man sein GNU/Linux ebenfalls so installieren und wenn Windows das nicht nutzt, dann auch GNU/Linux nicht so installieren. Also keinen Mischmasch.

Weniger schlimm ist das (und alle anderen Möglichkeiten der Verwirrung), wenn man für die neue Installation eine neue Platte wählt, die dann über das BIOS-Bootmenü des PCs ausgewählt werden kann. Das kann auch ein USB-Stick sein oder eine externe Platte oder SSD. Da kann man dann auch einen Mischbetrieb unbedenklich realisieren, muss aber peinlichst darauf achten, dass GRUB seinen Bootloader nicht auf die falsche Platte schreibt, also etwa dorthin, wo Windows liegt. Man sieht ja leicht, dass es hier mehrere Möglichkeiten gibt, die absolut Verwirrung stiften können. UEFI-Systeme haben eine extra EFI-Partition und die enthält den eigentlichen Starter des OS. Nehmen wir an, Windows liegt auf der ersten Platte und hier gibt es auch eine EFI-Partition, dann würde in diese normalerweise auch Ubuntu oder wer auch immer sein System eintragen, das auf einer weiteren Partition liegt oder einer separaten Platte. Das alles kann vollkommen problemlos laufen. Es kann aber auch total desaströs enden, vor allem, wenn der Mischmasch in die Quere kommt und jedes System den anderen den Boden unter den Füßen weg zieht.
Ist ein Medium (externe Platte oder zweite Platte) über das Bootmenü erreichbar und erfolgt die Installation korrekt (wozu am einfachsten die eingebaute Platte ausgebaut wird und dann für Dateisystem-Angaben Labels genutzt werden), dann kan ein Bootmechanismus quasi unabhängig benutzt werden. Die eine Platte kann UEFI sein, die andere Legacy-Mode.
Also, eigenes Medium, durch BIOS-Boot-Menü ansprechbar, hat viele Vorteile oder anders gesagt, weniger Fallstricke.

Grundsätzlich sind Zugriffe auf NTFS-Dateisysteme aus GNU/Linux sowohl schreibend, als auch nur lesend, kein Problem (aber immer noch experimentell). Wenn die Dateisysteme verschlüsselt sind, gibt es nur ganz wenige Algorithmen, die sowohl in der Freien Welt, als bei Microsoft werden werden können. Ich möchte mal behaupten, dass es fast immer nicht geht, verschlüsselte Dateisysteme aus der einen Welt in der anderen Welt einzubinden. Auch deshalb bin ich persönlich immer sehr dagegen, komplette Dateisysteme zu verschlüsseln.

Virtuelle Maschinen sind oft erstaunlich performant. Sie haben nur sehr wenig Overhead und tatsächlich sind die meisten Rechner eh viel schneller, als man so denkt. Fast immer ruhen sie sich aus und sind gar nicht belastet. Man braucht allerdings schon ausreichend RAM. Der Austausch der Daten ist so eine Sache. Ein Austauschordner ist einfach und der kann natürlich auch ein komplettes Dateisystem darstellen. In der Regel möchte man genau das aber nicht, sondern alle VMs sollen genau nur einen bestimmten Bereich haben, wo sie sich austauschen können.
Meine Win10-VM unter FreeBSD auf meinem nicht mehr neuen Laptop ist deutlich schneller, als die OEM-Installation, die mein Bruder mit seinem neuen Laptop bekommen hat. In meiner VM läuft eine Microsoft Version, also nicht OEM und nicht irgendwo geklaut, direkt bei Microsoft downgeladen und nach meinen Wünschen konfiguriert.
Ich glaube deshalb nicht, dass eine VM nicht genügen könnte. Deshalb wäre das immer mein erster Versuch. Kein Aufwand, keine Kosten, gutes Ergebnis, meist ausreichend gut.

Noch ein Nachsatz zu Win10, das ich quasi gar nicht kenne und bisher nur in der VM betreibe. Ich habe gelesen, dass es per Default gar nicht mehr wirklich abschaltet, sondern in einen Power-Safe-Mode geht, irgendeine Hybernation macht.
So etwas ist immer extrem schlecht für Dual-Boot-Systeme, wenn die Daten austauschen wollen. In das hybernierende Image kommt man ja nicht hinein und darin liegen die aktuellen Daten des Systems.
Man kann das irgendwie abschalten und Win10 zum Ausschalten bewegen, in meiner VM macht es das automatisch richtig.

Beiträge: 681

Geschlecht: Männlich

3

02.09.2019, 02:11

Die Frage: ich will Linux auf einem Windows-PC parallel zu nutzen

zuerst solltest Du wissen welches Linux Du benutzen möchtest. Ubuntu, Kubuntu, Lubuntu, Knoppix, Suse oder Debian?
Debian ist der Baustein für Knoppix.
dann musst Du darauf achten dass 32BIT-Systeme bald nicht mehr unterstützt werden.Du solltest darauf achten dass Du eine 64BIT .iso benutzt.

Linux neben Windows ist nicht leicht.
Du musst wissen wie fiel HD brauchst Du für Windows.

Beispiel: ich hatte mal eine 500GB auf 350 reduziert und 150 für Linux.
Linux lief Problemlos aber Windows musste ich Software deinstallieren damit ich wieder Platz habe.

Du solltest deine Festplatte /sda mit Windows nicht verändern für Linux sondern eine zweite Platte /sdb kaufen um dort Linux zu installieren.es reichen 200GB für Ubuntu und 80GB für Knoppix.

klaus2008

Meister

Beiträge: 2 719

Geschlecht: Männlich

4

08.09.2019, 12:36

Wahl des Bootmediums mit UEFI/BIOS vs. GRUB oder Windows-Bootmanager

Hallo!

Grundsätzlich denke ich, dass man bei normalen, modernen persönlichen Computern auf den GRUB2 für einen Dual-Boot verzichenten kann, weil die UEFI/BIOS-Systeme die Möglichkeit anbieten, das Boot-Laufwerk auszuwählen. Damit bleiben die Anpassungen minimal, insbesonders bei der Installation des zweiten Betriebssystems auf einer separaten Festplatte. Man könnte dann auch eines der jetzt günstig zu erstehenden SSD-Modelle für das Linux-System einplanen.

Das wesentliche Problem bei allen Rechnern mit mehreren parallel installierten Betriebssystemen sehe ich im Datenaustausch zwischen den Systemen. Falls dieser regelmäßig erforderlich ist, sollte man dafür eine separate Partition einplanen und auf keinen Fall eine Systempartition nehmen. Dann müsste ein Dateisystem gewählt werden, welches von allen Betriebssystemen verwendet werden kann. Für einfache Fälle reicht vermutlich die NTFS-Unterstützung von Linux aus. Trotzdem wäre es vermutlich überlegenswert, ob man unter Windows einen Treiber für das EXT[234]FS installiert.

In jedem Fall gilt, was schon zuvor erwähnt wurde und nicht oft genug wiederholt werden kann: Eine Backup-Lösung ist Pflicht!

Beide Systeme müssen regelmäßig mit Updates versorgt werden. Beide Systeme benötigen ein Antivren-Schutz-Konzept, sobald es einen Bereich für die gemeinsame Dateinutzung gibt. Dieses muss ebenfalls regelmäßig aktualisiert werden. Dann sollte man vor jeder Verwendung der Austauchpartition einen Sicherheitscheck durchführen und sich nicht darauf verlassen, dass "Linux total sicher ist, wenn es um Schadprogramme geht". Erst neulich gab es eine Meldung, dass auch unattraktive Betriebssysteme wie MacOS mit Schadsoftware beglückt werden. Bedenkt man die zahlreichen Server mit Linux-System als Basis, kann man nicht mehr nachvollziehen, weshalb ein Konstrukteur von Schadsoftware sich unbedingt auf die Microsoft-Welt einschränken soll. Die wirtschaftlich relevanten Daten liegen wohl kaum auf privat genutzten Spiele-Rechnern.

Gruß
Klaus

Linux HardwareLinux Computer & PCs | Linux Notebooks & Laptops | Geek Shirts | Geek und Nerd Shirt Shop