26.03.2023, 16:56 UTC+2

Sie sind nicht angemeldet.

  • Anmelden
  • Registrieren

Lieber Besucher, herzlich willkommen bei: Knoppix Forum | www.KnoppixForum.de. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

1

29.06.2021, 02:47

Datenträger HD sda7/ Ubuntu 18.04 auf Konsistent Prüfen

Mein Rechner EFI i686/64Bit - (i386/32Bit)

Hallo Klaus2008; pit234a
Immer wenn ich Testdisk von Knoppix 8.6.1 sdb3 oder 9.1 USB Starte bekomme ich den Hinweis das sich auf sda/ Partitionen b.z.w. Cylinder Überschneiden.

Quellcode

1
2
3
4
5
6
7
8
Disk /dev/sda - 2000 GB / 1863 GiB - CHS 243201 255 63

Warning: the current number of heads per cylinder is 255
but the correct value may be 128.
You can use the Geometry menu to change this value.
It's something to try if
- some partitions are not found by TestDisk
- or the partition table can not be written because partitions overlaps.

bis Oktober 20 hatte ich Ubuntu 20.04 auf sda6/ bis zum Stillstand, danach Ubuntu 18.04 auf sda7/ neu Installiert auf sda6/ ist jetzt Debian 10.6

sda7/ war bis Okt. 20 sda2/ Primär Knoppix 8.6.1
sda2/ gelöscht, sda6/ Sekundär vergrößert jetzt sda7/ Ubuntu 18.04.

Schon bei Ubuntu 20.04 auf sda6/ bemerkte ich bis Okt.20 immer häufiger Stillstand. Ich musste fast immer den Strom Ausschalten weil nichts mehr ging.
Seit dem vermute ich schon Fehler auf der Festplatte und das lese ich immer bei Testdisk.

Mit Testdisk habe ich neben erfolgreicher Datenrettung schon genug andere Fehler gemacht.

Ich fand dann fsck zum Datenträger Prüfen.
Fsck:
fsck.ext4 :ich muss ext4 angeben sonst wird ext2 benutzt
fsck.fat :für WindowsXP ab Windows 7 NTFS vfat bin ich mir nicht mehr sicher ich hatte Win7 nicht lange genug, exfat müsste DOS sein. Ich benutze kein Windows mehr habe aber noch FAT32 auf externen HD Platten.

-c Nach defekten Blöcken suchen und diese zur Liste der defekten Blöcke hinzufügen
-v Ausführliche Ausgaben
-p automatische Reparatur (keine Fragen)
-z undo_file :Eine Datei zum rückgängig machen der Änderungen erzeugen

Ich prüfe erst mit -c und ausführlicher Bericht -v
-p -z benutze ich erst wenn ich weiß was defekt ist.
(bei Knoppix 9.1 muss ich statt dev/ = media/ eingeben.)
der Datenträger darf nicht gemountet sein.
Erster Test nur mit -c

Quellcode

1
2
3
4
5
6
7
8
9
10
11
12
13
root@Microknoppix:/home/knoppix# fsck.ext4 -c /dev/sda7
e2fsck 1.44.5 (15-Dec-2018)
Checking for bad blocks (read-only test): done                                                 
/dev/sda7: Updating bad block inode.
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information

/dev/sda7: ***** FILE SYSTEM WAS MODIFIED *****
/dev/sda7: 380442/30597120 files (0.5% non-contiguous), 77512703/122378906 blocks
root@Microknoppix:/home/knoppix#

files (0.5% non-contiguous)
zweiter Test:

Quellcode

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
root@Microknoppix:/home/knoppix# umount /dev/sda7
root@Microknoppix:/home/knoppix# fsck.ext4 -c -v /dev/sda7
e2fsck 1.44.5 (15-Dec-2018)
Checking for bad blocks (read-only test): done                                                 
/dev/sda7: Updating bad block inode.
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information

/dev/sda7: ***** FILE SYSTEM WAS MODIFIED *****

      380442 inodes used (1.24%, out of 30597120)
        1583 non-contiguous files (0.4%)
         366 non-contiguous directories (0.1%)
             # of inodes with ind/dind/tind blocks: 0/0/0
             Extent depth histogram: 348617/249/1
    77512703 blocks used (63.34%, out of 122378906)
           0 bad blocks
          12 large files

      308628 regular files
       37844 directories
           7 character device files
           0 block device files
           0 fifos
          53 links
       33953 symbolic links (31559 fast symbolic links)
           1 socket
------------
      380486 files
root@Microknoppix:/home/knoppix#

Bei beiden Bis 100% 0/0/0 errors.
Testdisk Geometry:

Quellcode

1
2
3
4
5
6
7
8
9
10
11
Disk /dev/sda - 2000 GB / 1863 GiB - CHS 243201 255 63, sector size=512

Because these numbers change the way that TestDisk looks for partitions
and calculates their sizes, it's important to have the correct disk geometry.
PC partitioning programs often make partitions end on cylinder boundaries.

A partition's CHS values are based on disk translations which make them
different than its physical geometry. The most common CHS head values
are: 255, 240 and sometimes 16.

 [ Cylinders ]  [   Heads   ]  [  Sectors  ]  [Sector Size] >[    Ok     ]

Diese Anzeige verstehe ich nicht wenn wie o.g. 255 b.z.w.128 angegeben wird. Was sucht die 240 da? Was ist mit 16 gemeint?

2

29.06.2021, 10:36

Das fällt mir sehr schwer, eine kleine Antwort zu schreiben und ganz bewusst nicht auf die Details einzugehen. Denn meiner Meinung nach sind diese Details heute relativ belanglos geworden und sollten bestmöglich ignoriert werden.
Diese Begriffe stammen aus vergangenen Zeiten, wo Festplatten noch ohne integrierte Controller ausgeliefert wurden und danach dann von Festplatten, die nur geringe Kapazität hatten und deren Controller die tatsächlichen Werte der vorhandenen HW nach außen spiegelten.
Heute kann man den Angaben dieser Controller gar nicht mehr trauen. Deine Platte ist eine 2TB und es würde mich sehr wundern, wenn die keine 4K-Sektoren hätte. Der Controler sagt aber nach außen, dass sie 512B groß sind. Das machen heute viele Controler so, sie "lügen", damit sie zu alten Systemen kompatibel bleiben.
Außerdem geht man Besten eh gleich zu SSDs und da bleiben alle diese Werte dann ohnehin eher akademisch.

Nicht ganz so akademisch ist indessen grundsätzlich die Frage danach, wie man Partitionen günstig anlegt.
Aber auch dabei möchte ich nicht in die Details gehen. Das ist den Aufwand nicht wert. Nach meiner Erfahrung machen diverse Installationsroutinen hier eher Mist, während Partitionen mit gparted relativ gut und einfach ausgerichtet werden können. Wobei ich überhaupt nicht gerne viele Partitionen anlege, aber das ist ein anderes Thema.
Anstatt mir also nun Gedanken zu machen, wie groß meine Sektoren in Wahrheit wohl sind und dann mühevoll die vielfachen von 512, 1024 oder 4k zu berechnen, nehme ich lieber gleich 1M und erschlage damit alle Möglichkeiten, die heute so bekannt sind. Bei dem Platzangebot spielen die paar Byte heute keine Rolle mehr, die ich dabei verliere. (Ja, neuerdings gehe ich sogar immer häufiger auf 100M spare das hier aber aus).
Zuerst kommt also ein frier Bereich von 1M, dann die erste Partition in einer Größe als ganzzahliges Vielfaches von 1M, dann wieder 1M freier Bereich, dann die nächste Partition wie eben und so weiter und dann am Schluss ebenfalls wieder ein freier Bereich, nicht zu klein.
Wenn man also immer in ganzzahligen Vielfachen von 1M vorgeht, passen dazu auch alle üblichen Inoden-Größen der unterschiedlichen Dateisysteme und man braucht sich auch hier kaum jemals Gedanken zu machen.
Mit gparted können sogar nachträglich noch Korrekturen vorgenommen werden, obwohl dabei immer die Gefahr von Datenverlust besteht und alle erweiterten Partitionen liegen ja in einer Primären Partition und können nicht daraus verschoben werden.

Erweiterte Partitionen sind ebenfalls veraltet und sollten meiner Ansicht nach eh besser nicht benutzt werden. Das ist ein extrem armseliges Hilfskonstrukt. Wenn man tatsächlich viele Partitionen braucht (nein, eigentlich immer) sollte man GPT benutzen und den veralteten MBR-Standard vergessen. GPT ist viel flexibler und sicherer. Alle Rechner, die UEFI können, sollten auch GPT können.
Also, GPT-Schema, 1M frei, 500M EFI-SYS in einem FAT(32), 1M frei, 8000M SWAP (oder was auch immer), 1M frei, 92000M EXT4 (oder was auch immer), Rest frei. Dann sein System als EFI-System installieren und alle weiteren Systeme, die man noch so testen möchte, in eine virtuelle Umgebung legen.

fsck und testdisk arbeiten beide nicht direkt mit Partitionen und können mitunter falsche oder missverständliche Angaben ausgeben.
Auch fdisk ist veraltet und man kann dem nicht wirklich trauen.
mmls aus dem sleuthkit ist recht zuverlässig und eben gparted, zumindest für die gebräuchlichen Partitionen und Dateisysteme.
gparted kann auch (beschränkt) Dateisysteme auf Konsistenz prüfen und nutzt dazu die installierten fsck-SW automatisch ziemlich gut.
Partitionen ansehen, anlagen, verschieben, ausrichten: nur mit gparted!

testdisk ist generell kein (gutes) Analysewerkzeug.
Ich sage mal: der kluge Nutzer braucht niemals in seinem Leben testdisk.
Auch fsck braucht er höchst selten, denn die Dateisysteme können sich selbst überprüfen (kann man einstellen und eben auch verhindern). Außerdem gibt es moderne Dateisysteme, die qua Design schon sicherer sind (CoW-Dateisysteme, wie ZFS oder BTRFS).
Jedenfalls sind deine Dateisysteme soweit in Ordnung und zeigen keine auffälligen Fehler.

Das bedeutet aber nicht, dass nicht doch ein Defekt in deinem PC vorliegt, evtl auch auf der Platte.
Tatsächlich kann man sich aber auch vorstellen, dass geschilderte Hänger wirklich durch ein unzugängliches Layout zumindest begünstigt werden.

Schreib-Lese-Probleme kann man auf die Spur kommen, wenn man testweise einige Dateien von a nach b kopiert, Prüfsumme vergleicht, dann von b nach c kopieren, Prüfsummen vergleichen und Daten in b und c löschen und wieder von vorne. Wenn es Probleme gibt, sollten die schon aktiv gemeldet werden. Wenn deine Festplatte smart ist, kann man mittels smartctl (dazu gibt es auch eine GUI, vielleicht gsmartcntl?) nachgesehen werden, wieviele Fehler dort notiert sind. Beispiele kann ich vielleicht heute Abend von meinem PC aus einfügen.
Das Kopieren kann man mit unterschiedlicher SW durchführen. Die Dateien sollten insgesamt groß genug sein und möglichst nicht im RAM gepuffert werden. Man will ja Zugriffe auf die Platte und nicht in den RAM.

Ich würde das so machen, also zunächst die Schreib-Lese-Tests eine Weile laufen lassen und mit smartctl nachsehen.
Und ich würde entweder eine (oder besser zwei) neue Platten (SSDs) kaufen, wenn ich auch nur die geringsten Probleme sehe.
Und ich würde unter keinen Umständen dieses Layout behalten und alle Partitionen neu einrichten, mit GPT und EFI-SP.

3

30.06.2021, 14:14

S.M.A.R.T. smartctl habe ich bei Wiki Ubuntuuser angelesen. Er wird regelmäßig beim Booten automatisch ausgeführt, ich kann ihn auch erzwingen und die Optionen ändern das er bei jedem Start ausgeführt wird.
Seit Ubuntu 9.04 Installiere ich Ubuntu immer auf einer Erweiterten Partition sda/.
Bestimmt hatte ich damals eine falsche Option benutzt.
Seit 19 habe ich Ubuntu 18.04 auf 64GB USB primär, seit 20 die 20.04 ohne Komplikationen.
Ich hatte 20 bestimmt 2-4 Start den letzten etwa Okt.20 wo ich glaubte das CMOS ist kaputt.
Das Beste wird sein ich kaufe einen neuen Rechner denn mein jetziger ist nicht der Jüngste und war Benutzt als ich ihn bekam. Ein neuer Rechner kann auch gebraucht sein aus A&V aber jünger als 6 Jahre. Meine jetzige Platte kann ich dann als sdb/ einbauen oder über USB benutzen.
Der neue Rechner kann auch UEFI sein seit 20 weiß ich wie ich damit Umgehen muss oder kann.
Bis dahin kann ich mit smartctl und fsck den Rechner am Leben halten.
Testdisk Geometry werde ich nicht Ändern weil ich nicht wirklich weiß welche Ziffern bei Cylinders; Heads; Sectors eingetragen werden und diese Werte müssen stimmen. Weil ich so etwas noch nie gemacht habe werde ich das auch nicht tun.
Danke für deine Antwort.

4

30.06.2021, 14:21

Testdisk Geometry werde ich nicht Ändern weil ich nicht wirklich weiß welche Ziffern bei Cylinders; Heads; Sectors eingetragen werden und diese Werte müssen stimmen. Weil ich so etwas noch nie gemacht habe werde ich das auch nicht tun.


sieh dir doch mal die Ausgabe von gparted an. Das ist viel einfacher zu lesen, besser geeignet und könnte auch zu Änderungen bzw Dateisystem-Prüfungen benutzt werden.

5

30.06.2021, 16:21

Ubuntu 20.04 USB Gparted V1.0.0
e2fsck -f -y -v -C 0 ‘/dev/sda7‘
-f Die Überprüfung erzwingen
-y Alle Fragen mit „Ja” beantworten
-v Ausführliche Ausgaben
-C Fortschrittsbalken anzeigen;

Keine Fehler aber ich verstehe dann die Warnung bei testdisk bestimmt Falsch.
Ist das kein wirklicher Schaden sondern ein Hinweis?

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »ubuntuli« (30.06.2021, 17:12)


6

30.06.2021, 19:06

Keine Fehler aber ich verstehe dann die Warnung bei testdisk bestimmt Falsch.
Ist das kein wirklicher Schaden sondern ein Hinweis?


nun, das sind ja zunächst zwei vollkommen unterschiedliche Sachen.
Mit fsck wird das Dateisystem überprüft, das auf der Partition /dev/da7 liegt. Dateisysteme liegen eigentlich immer auf irgendwelchen Partitionen und können eben auch kaputt gehen.
fsck prüft und/oder repariert Dateisysteme.

testdisk meckert etwas an, das an der Geometrie deiner Partitionen liegen würde. Das hat gar nichts mit dem Dateisystem darauf zu tun.
testdisk nutzt dabei das (veraltete) Verständnis, wie Festplatten aufgebaut sind und liest die Informationen aus dem Controller. Die Ausgabe von testdisk würde ich nicht ernst nehmen.
Aber trotzdem mal ein Beispiel für "schlecht gemacht".
Wie schon gesagt, vermute ich sehr stark, dass deine Platte bereits (intern) 4K-Sektoren hat. Sie meldet sich aber als 512B-Sektoren-Platte beim System. Wenn du nun eine Partition so anlegst, dass sie einem vielfachen von 512 entspricht (was ja in der ersten Annahme richtig wäre und deshalb von manch einem Installer auch so gemacht wird), kannst du aber sehr schnell "daneben" liegen und nicht die 4K-Sektor-Grenze treffen. Versteht man das? ich bleibe bei den ganz kleinen Zahlen:
wenn du eine Partition anlegst, die bei 1536 Byte endet, liegst du vollkommen gut, was 512B-Sektoren angeht, benutzt nämlich genau drei davon, 3 x 512 = 1536.
Wenn aber deine tatsächliche Sektoren-Größe 4K sei, also 4096, landest du ja mitten auf einem Sektor und wahrhaftig kann es sogar sein, dass du selbst oder ein Installer noch nicht mal in vielfachen von 512 gerechnet hatte, denn du könntest ja auch eine Partition bei 1500 Byte enden lassen, weil das eine schönere Zahl ist.
Wird klar, was ich meine?
Die verschiedenen Betriebssysteme wissen oft nicht, wie sie vorhandene Information nutzen und sehr viele User kümmern sich darum auch nicht.
Wenn aber Partitionen mitten in einem Sektor enden, ist das sehr schlecht, wenn ein anderes System die Information nun anders handhabt.
Dadurch werden leicht Überschneidungen erkannt, weil ein einziger Sektor ja von zwei Partitionen benutzt werden kann.
Günstigerweise legt man deshalb Partitionen immer genau auf die Grenzen der Sektoren und lässt zwischen ihnen zur Sicherheit auch noch etwas freien Platz. Also, das muss nicht sein, schadet aber auch nichts. Freier Platz nach der letzten Partition ist wichtiger.
Nunja, was spricht dagegen, alle Platten so zu behandeln, dass sie 4K Sektoren hätten? Damit trifft man immer auch 2K, 1K und 512B Sektoren. Und deshalb nehme ich gleich 1M und treffe noch mehr mögliche Sektoren, die es derzeit noch gar nicht gibt. Ist eben sehr viel einfacher zu rechnen.
Mal das Layout von einem meiner zuletzt angefertigten Knoppix-Sticks als Beispiel:

Quellcode

1
2
3
4
5
6
7
8
9
10
11
12
13
14
pit@Celsius ~:- > mmls -B /dev/da0
GUID Partition Table (EFI)
Offset Sector: 0
Units are in 512-byte sectors

      Slot      Start        End          Length       Size    Description
000:  Meta      0000000000   0000000000   0000000001   0512B   Safety Table
001:  -------   0000000000   0000204799   0000204800   0100M   Unallocated
002:  Meta      0000000001   0000000001   0000000001   0512B   GPT Header
003:  Meta      0000000002   0000000033   0000000032   0016K   Partition Table
004:  000       0000204800   0000409599   0000204800   0100M   EFI
005:  -------   0000409600   0000614399   0000204800   0100M   Unallocated
006:  001       0000614400   0245555199   0244940800   0116G   
007:  -------   0245555200   0245759999   0000204800   0100M   Unallocated
Also, alles zu erklären, würde hier sicher zu weit gehen. Das System meiner Wahl hat leider kein so tolles Tool, wie gparted. Die Ausgabe von mmls zeigt zwei Partitionen, eine 100M große EFI und eine 116G große, die ich mal DATA nenne und es zeigt als Unallocated die freien Bereiche (in diesem Fall 100M) vor und nach jeder Partition. Weiter oben erklärte ich schon, dass ich heute lieber sogar auf 100M gehe und nicht mehr auf 1M. Und ich bitte zu bemerken, dass hier das Tool ebenfalls 512B-Sektoren-Größe ausgibt.
vielleicht noch eine andere Ausgabe zum gleichen Sachverhalt:

Quellcode

1
2
3
4
5
6
7
pit@Celsius ~:- > gpart show da0
=>       34  245759933  da0  GPT  (117G)
         34     204766       - free -  (100M)
     204800     204800    1  efi  (100M)
     409600     204800       - free -  (100M)
     614400  244940800    2  ms-basic-data  (117G)
  245555200     204767       - free -  (100M)
Das mag dazu genügen.

smartctl
Das grafische Tool heißt gsmartcontrol, womit man sich einen Überblick verschaffen kann und dann auch Statistiken zu den Platten ansehen oder (eingeschränkt, vor allem im Betrieb) auch testen kann (womöglich nur als super-user).
Also, wenn hier viele Errors gelistet sind, ist das super schlecht.
Bei HDs kommen immer mal wieder Errors vor (vor allem bei HDs), die nicht zu wichtig genommen werden müssen. Aber ein schlechtes Zeichen sind sie jedenfalls. Und es gibt nicht wenige User, die auf die Angaben trauen und Platten tauschen, wenn smartctl entsprechende Meldungen absetzt.
Also, smartctl ist ja der Befehl, den auch gsmartcontrol nutzt, der aber auch als Dämon laufen kann und so konfiguriert, dass er nicht nur dauerhaft überwachen kann, sondern auch Ereignisse meldet (etwa per Email). Wenn ich damit auf eine meiner Platten sehe und "error" herausfische, dann sehe ich:

Quellcode

1
2
3
4
5
6
7
8
9
pit@Celsius ~:- > smartctl -a /dev/ada0 | grep -i error
					without error or no self-test has ever 
Error logging capability:        (0x01)	Error logging supported.
					SCT Error Recovery Control supported.
187 Uncorrectable_Error_Cnt 0x0032   100   100   000    Old_age   Always       -       0
195 ECC_Error_Rate          0x001a   200   200   000    Old_age   Always       -       0
199 CRC_Error_Count         0x003e   100   100   000    Old_age   Always       -       0
SMART Error Log Version: 1
No Errors Logged
und das ist gut, aber womöglich etwas doof zu lesen und daher der Tip, mit der GUI mal zu spielen.
Wie zuverlässig die Angaben von smartctl wirklich sind, da scheiden sich die Geister der Praktiker. Ich nehme sie nicht allzu ernst und habe es auch nicht als daemon laufen, bin aber auch privat und Endanwender.
Jedenfalls können wir damit viel besser viel mehr sehen, als ohne es.

7

30.06.2021, 22:14

Wird klar, was ich meine?

Also ist die Warnung bei testdisk weil es mit veralteten Standardwerten arbeitet. Wenn eine HD größer als erwartet ist erscheint diese Warung. Verstehe ich das richtig?

1995 hatte mein i186 fdisk nicht meine neue Platte 1.2 GB erkannt. Ging nur bis 800MB. Ich musste damals einen Bootmanager installieren damit ich Windows 95 auf 1.2GB installieren kann. Das ist jetzt kein Vergleich zu testdisk, fällt mir gerade ein.

8

01.07.2021, 08:06

Also ist die Warnung bei testdisk weil es mit veralteten Standardwerten arbeitet. Wenn eine HD größer als erwartet ist erscheint diese Warung. Verstehe ich das richtig?


ganz so hatte ich das nicht gemeint.
Wenn es keine Probleme gibt, würde ich die Warnungen aus testdisk ignorieren, weil mir bewusst ist, dass es auf Daten basiert, die es vom Controller der HD bekommt und die können falsch sein und dann kann testdisk womöglich etwas sehen, das gar nicht da ist.

Wenn es Anlass zu Zweifel gibt, ist testdisk kein Mittel der Wahl, um die "Geometrie" zu prüfen oder sie gar zu verändern.
testdisk ist eh kein Mittel der Wahl, um außerhalb absoluter Notfälle damit irgendwas zu machen.
Wenn man die "Geometrie" halbwegs sicher prüfen will, nimmt man gparted und sieht hin oder vielleicht mmls aus dem sleuthkit. Ich meine, der sleuthkit ist bei neueren Knoppixen bereits installiert.
gparted ist ja eine (sehr hilfreiche) GUI zu parted. Du kannst auch einfach mit parted /dev/sda und anschließend einem p und enter die Partitionstabelle von sda auslesen. Siehe auch die man page von parted.

9

01.07.2021, 12:02

[gelöst]

Diese Warnung lese ich immer egal welchen Datenträger ich benutze HD oder USB. Danach geht es auch Normal weiter. Wenn ich auf Geometry gehe gibt es keine Warnungen und kann mit OK Weiter machen.

2013 hatte ich mit Knoppix Flasch testdisk eine wichtige Datei von Windows XP FAT32 wieder hergestellt die ich versehentlich gelöscht hatte und den Papierkorb gelehrt. Freeware und 30 Tage Test hat das nicht gebracht und Vollversionen kosten Geld. Die Datei war zwar schon frei gegeben mit _ aber die Größe, Name und Endung steand noch da. Auf USB kopiert und den ersten Buchstaben geändert.

Linux HardwareLinux Computer & PCs | Linux Notebooks & Laptops | Geek Shirts | Geek und Nerd Shirt Shop