Zum Inhalt springen

Heisenberg420

Mitglied
  • Gesamte Inhalte

    147
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von Heisenberg420

  1. 😆👍 Genau das wollte ich wissen. Weil's Spaß macht 😅 Storj ist ein sehr Interessantes aktives Projekt mit einer noch aktiveren Community. Und 'ne gute Anlage ist es auch noch. Ja, für jeden Node umbedingt eine eigene Identity erstellen. Zum aktuellen Zeutpunkt würde es Jahre dauern bis der gefüllt ist. Außerdem wird seitens Storj max 24TB pro Node empfohlen.
  2. Achja du lässt ja alles im RAID laufen. Würde ich nicht machen. Dann lieber noch mehr Nodes 😁 Aber das ist ja jedem selbst überlassen und das schöne bei Storj, dass man ein bischen experimentieren kann. Nach 23 Stunden waren die letzten 2 rsync durchgänge abgeschlossen. Insgesamt habe ich nun wieder 10 Tage für 7.4TB in 5 Durchgängen benötigt wobei die letzten beiden bei ausgeschalteten Node liefen. Ich hatte so eine Gesamtoffline Zeit von 28 Stunden. Meine Online Zeit ist von 99.8% auf 95.7% - 95.9% gesunken. Wenn man bedenkt dass der Node 28 Stunden Offline war erscheint mir das sehr fair. Ich hab schlimmeres befürchtet. Ich hatte auch noch drüber nachgedacht anders zu formatieren, da hatte ich aber schon 6 Tage hinter mir und kein Bock mehr noch mal neu anzufangen 😅 Bei mir sind 5.854.680 Inodes für 7.4TB belegt. Die zu löschen würde allein 2 Tage dauern 😒 Ich hatte bei der letzten Migration noch andere Daten auf der Festplatte und konnte die HDD nicht formatieren. Im Nachhinein wäre es schneller gewesen die übrigen Daten runter zu ziehen und die ganze Platte bzw. Partition zu löschen. Naja learning by doing 😄
  3. Die sind aber nicht alle für Storj oder? Wenn doch auf wievielen Subnetzen? Das dauert ja gefühlte 20 Jahre bis die voll sind 😲 Hab ich auch getan. Alle meine 8TB Nodes sind nun durch 14TB ersetzt. Die 8TB Festplatten werden dann als "kleine" Nodes eingesetzt. Somit betreibe ich dann an beiden DSL Anschlüssen jeweils 20TB. Mein erster Node ist gerade beim letzten rsync durchlauf. Leider entsteht dadurch wieder eine Downtime von einem Tag. Ich weiß nicht ob es am RaspberryPi und dem USB Port liegt oder ob es einfach die Masse an Millionen von Dateien sind die dafür verantwortlich sind dass ein einziger Durchgang über 12 Stunden dauert. Mein Node ist nun seit gestern 13.30 Uhr offline, vor einer Stunde hab ich den Durchgang mit --delete gestartet. Ich hoffe dass ich die 24 nicht voll bekomme, gehe aber davon aus dass es nun noch mal 12 Stunden dauert und dann bin ich gespannt- oder auch besorgt wie sich mein Online Status verändert. Auch habe ich leider nach wie vor Probleme mit meiner immer wechselnden IP wegen der Zwangstrennung. Dadurch wird es für mich leider sehr schwer den Online Status wieder nach oben zu bekommen. Ich habe fast täglich immer 2 Minuten die Probleme machen weil das Update der IP nicht schnell genug statt findet. Und durch die immer wiederkehrenden 2 Minuten Downtime sinkt mein Online Status von Tag zu Tag ganz minimal und ich erreiche die 30 Tage gar nicht damit er wieder steigt. Ist ein großes Problem für mich und eine Dauerhafte Beschäftigungstherapie in den letzten Wochen um da eine Lösung zu finden 🥱 Insgesamt bin ich nun mit 6 Nodes in 4 verschiedenen Subnetzen dabei mit einer Gesamtkapazität von 56TB.
  4. Die Downtime wird momentan ja auch nicht bestraft. Deshalb gibt es auch keine Mail wenn dein Node offline ist. Ich glaube vor 3- oder 4 Versionen wurde wieder was eingeführt was aber vorerst nur ein Test für Storj ist wie verlässlich das Tracking System bezüglich Downtimes ist. skunk kann da sicher nochmal genauer drauf eingehen oder du schaust die letzten Changelogs durch. Ich habe letzte Woche auch meinen zweiten Node auf eine größere Festplatte migriert... 9 Tage für 6,4TB.... die letzten 2 Tage habe ich den Node dann auch ausgeschaltet weil das Synchonisieren dann deutlich schneller ging. Aktuell migriere ich meinen Node 4 auf eine größere Festplatte. Bin jetzt seit 2 1/2 Tagen dabei für 1.6TB... Hab den Node heute auch wieder ausgeschaltet. Was ne Quälerei mit rsync.... Noch kann man es so machen. mit 1.15.3 kam nun auch noch der Online Status dazu und mein Audit und Suspension Status ist doch wieder auf 100% gewachsen.
  5. Dann ist alles gut. Bei meinem 1. Node stehen 3 Satelliten auf 99,9995% Mit dem neuen Update wird das dann denke ich als 99,8% oder 99,9% angezeigt. Wird wohl wegen meinem Mountfehler "damals" sein. Suspension = Suspendierung
  6. Guten Morgen. Ich konnte gestern mittels UplinkCLI das Bucket löschen in dem sich die abgebrochenen Uploads befanden. Das Bucket war nicht leer, man konnte darin aber nichts sehen. Ich konnte das Bucket nur mittels --force löschen. Nach einigen Stunden passt es wieder mit dem Speicherplatz.
  7. Meinst du die Remote-Volume Größe? Die steht auf 50MB. Ich konnte nun auch erfolgreich Tardigrade in meine Nextcloud integrieren -> Screenshot 😍🎉 Edit: Hier mal eine Demodatei -> Tardigradeshare. Gefällt mir sehr gut mit der Karte. 👍 Sehr praktisch jetzt. Ich hoste meine Cloud zuhause auf einem RaspberryPi4 und hab dafür keine Ports freigegeben. Wenn ich jetzt mal eine Datei teilen will kann ich diese einfach in den Tardigrade Ordner schieben und sie über Tardigradeshare teilen.
  8. Ich konnte nun auch erfolgreich das Tardigrade S3Gateway im Docker starten und Verbinden. Gefällt mir soweit sehr gut. Wenn da noch eine Geschwindigkeitsbegrenzung möglich wäre dann wäre es perfekt. Ich habe dort auch alles gefunden was ich vorher in Filezilla hochgeladen habe. Kann es sein dass abgebrochene Uploads irgendwie unsichtbar sind? Ich hab mal alles gelöscht und es sind noch knapp 8GB belegt. Diese 8GB habe ich gestern mit Duplicati hochgeladen bis ich den Upload abgebrochen habe. Dem scheint auch noch immer so.
  9. Ich habe gestern schon mit FileZilla rumgespielt und finde die Bedienung dort nochmal einfacher. Liegt aber villeicht auch daran dass ich täglich mit FileZilla arbeite. Aber: Ich sehe die Dateien die ich mit Duplicati in mein Bucket hochgeladen habe nicht in FileZilla. Dort sind alle Ordner leer. Ich habe die Ordner auch schon gelöscht und die Datenbank in Duplicati gelöscht. Wenn ich nun auf der Tardigrade Webseite schaue sind die Daten aber laut Speicheranzeige noch vorhanden. Und: Die Geschwindigkeitsbegrenzung greift weder in FileZilla, noch in Duplicati. Wenn ich mich einem VPS verbinde greift die Begrenzung wieder. Das ist ziemlich blöd mit nur 10Mbit. Ich lade gerade ein größeres Archiv hoch, der Upload läuft sehr stabil und lastet mein Upload vollkommen aus. Edit: Nach mehreren Minuten scheint die Begrenzung in Filezilla nun doch zu funktionieren. Edit2: Nein doch nicht. FileZilla zeigt zwar an dass mit nur xxx kib geladen wird, der Upload ist aber trotzdem voll ausgelastet. Beende ich FileZilla beruhigt sich der Upload auch wieder.
  10. Die habe ich so wie es in der Anleitung steht vorgenommen. Ich hab das noch nicht ganz raus, nutze das ganze auch erst seit 2 Wochen und hab mich noch nicht recht damit beschäftigt. Ich war erstmal froh dass ich es über haupt hinbekommen habe Sync Lösung war villeicht auch falsch. Ich habe Tardigrade vor kurzem einfach mal so genutzt dass ich Dateien hochgeladen habe und diese auf einen anderen Rechner wieder heruntergeladen habe, dort weitere hinzugefügt habe und diese wieder auf den anderen Rechner herunter geladen habe. Das hat sehr gut geklappt außer dass ich eine Fehlermeldung erhalten habe dass Lokale Dateien nicht vorhanden sind und ich die Datenbank reparieren muss. Wie gesagt ich hab mich damit noch nicht weiter außeinander gesetzt weil ich dort eher Dateien speicher die ich sonst nirgendwo hochladen würde. Ich benutze sonst gar kein Sync weil ich ebenfalls immer ne VPN Verbindung nach Hause habe. Nur meine Browser synchronisieren sich. Was ich bei Duplicati nicht verstehe: Wie bekomme ich Dateien oder gar den ganzen Ordner gelöscht?
  11. Bislang nutze ich Tardigrade als Sync Lösung zwischen mehreren Geräten und das klappt mit Duplicati mittlerweile erstaunlich gut. Außerdem sichere ich dort meine wichtigen Daten die niemanden was angehen. Hier weiß ich dass nur ich meine Daten entschlüsseln kann. Amazon und Co würde ich diese nicht anvertrauen. Man kann Tardigrade auch mittels S3 Gateway in Nextcloud integrieren, habe ich selber aber noch nicht versucht. Melde dich doch einfach mal an und Teste Tardigrade. Ich weiß nicht ob das noch immer so ist aber ich habe 50GB Speicher + Traffic Free, das ist genügend zum rumspielen und austesten.
  12. Hab ich dir schon mal geschrieben 😁 Das war die Gescichte mit dem Hoster und den vielen Nodes im Subnetz. Und mittlerweile muss der Anbieter voll mit StorjNodes sein. Dort gibts kaum Ingress. Nicht dass ich mich an alles halte.. Aber du weißt dass das gegen die AGB's verstößt? Und es kostet dich und StorjLabs unnötige ETH Gebühren 🙂
  13. Das glaube ich mittlerweile auch. Achso, das ist natürlich ein ganz anderer Schnack. Ich warte derzeit dass mein Serverhoster wieder Block Storages Verfügbar hat Interessant. Muss ich mir mal anschauen.
  14. Mir ist das beim Egress aufgefallen dass es absolut keine Veränderung gab. Ich dachte dass der Egress dann ja dementsprechend pro Node halbiert wird was aber nicht der Fall war. Mag sein dass es aber auch am niedrigen Traffic liegt. Momentan habe ich immerhin 25-30GB Egress pro Node am Tag. Alter, da will aber jemand hoch hinaus 🐵😅 Bei Aktuellen Ingress wird das ja Jahre dauern bis die Gefüllt sind 😁 Ich habe mir zum Prime Day 'ne neue 14TB WD Elements geordert und das auch nur weil mir eben aufgefallen ist dass meine Leitung doch mehr hergeben würde als bisher gedacht. An Standort 2 werde ich dann die 2x8TB laufen lassen und zuhause hab ich dann 1x 14TB und 1x 4TB Wenn ich 'ne 100MBit Leitung hätte.... 😆
  15. Bislang ist das nur eine Anmeldung um in Zukunft was Testen zu können. -> https://forum.storj.io/t/give-feedback-get-paid/9700/31 @skunk ich hab das mit den Subnetzen und den Traffic noch nicht ganz verstanden. Es heißt ja dass ein zweiter Node im gleichen Netz nur die hälfte an Traffic - oder beide Nodes am Ende jeweils 50% Traffic erhalten. Nun musste ich vor kurzem ein 8TB Node für einige Tage nach Hause holen, so hatte ich 3 Nodes in einem Netz. Die Nodes haben aber den gleichen Traffic verursacht wie an ihren eigenen Standort/Netz. Nun ist Node2 wieder an seiner eigenen Location und generiert weiterhin den gleichen Traffic wie alle 3 in meinem Subnetz.
  16. Weil er sagt dass ein Reply meist nicht möglich ist womit er Recht hat? Der Jokin wieder 😉 Edit: Sorry, übersehen dass telex auch der Threadstarter war. Mein Fehler.
  17. Macht ja aber nicht viel Sinn bei generierten E-Mail Adressen.. Da wird eine neue Generiert und fertig. Vor kurzem fragte mich jemand was ich von der und der E-Mail Adresse halte weil es eine @amazon.de Adresse war, allerdings voll mit Schreibfehlern. Jeder kann super einfach eine Fake Mail senden mit beliebiger Absenderadresse. Ich bin auch immer wieder erstaunt wieviel ich in einer Woche gewinne und wie oft mein Amazon/Paypal & Co. Konto "unbekannte Zugriffe" hat 😆 Am besten finde ich dann immer die E-Mail Adresse auf die ich diese Mails erhalte. Die nutze ich seit 10 Jahren nicht mehr für solche Konten.
  18. Facebook und vertrauen passt aber auch nicht in einen Satz. 🧐
  19. Dieser Monat hat sich mal richtig gelohnt.. Node 1 Available Used Egress Ingress Bandwidth N/A 2.5 TB 1.7 TB 0.8 TB (since Aug 1) Disk 515.1 MB 7.3 TB Node 2 Available Used Egress Ingress Bandwidth N/A 2.0 TB 0.9 TB 1.1 TB (since Aug 1) Disk 1.7 TB 5.5 TB Node 3 Available Used Egress Ingress Bandwidth N/A 2.1 TB 1.0 TB 1.1 TB (since Aug 1) Disk 1.8 TB 5.7 TB Trotz Serverkosten für Node 3 bekomme ich jetzt schon ein deutliches + raus. Ich werde nicht in weitere Festplatten investieren, ich habe vor kurzem nochmal meine Platte für Node 4 ausgetauscht da mich die SMR Platte einfach nur noch genervt hat. Meine DSL Leitungen sind diesen Monat fast immer zwischen 80 und 90 % ausgelastet gewesen 😁 Wobei zweitere noch nicht ganz so stark da der Node noch nicht voll ist. Node 4 ist nicht erwähnenswert da ich dort bisher nur 600GB eingestellt hab. Ich werde noch in einen oder auch mehrere Server investieren abhängig davon wie sich der Traffic in den nächsten Wochen verhält. btw.. ich habe den ganzen Monat nicht in meine Wallet geschaut. Schöne Überraschung. 😍 @GhostTyper storj8 Wow 😬 Edit: Gerade all meine Storj getauscht. Mit der kommenden Zahlung für August sind beide Festplatten bis auf 50€ durch Storj bezahlt. Und das nach 6 Monaten. Nice 😍
  20. Ich finde die Infobox auch nicht schön und mich Interessieren die Infos auch nicht. Deshalb nochmal meine Antworten selbst gewählt: 1: Gefällt mir nicht. 2: Gar nicht 3: Gar keine. Das ganze Forum bzw die Beiträge werden nach Links gerückt und und sehen auch nicht mehr schön aus. Irgendwie wie so'n billig Forum was ewig nicht geupdated wurde 😅 Hier in diesem Thread ist es angenehm & wie gewohnt 🙂 Bitte lasst es so wie gewohnt oder fügt eine Option ein mit der man das ganze abschalten kann.
  21. Das stimmt so nicht. Es gibt durchaus RaspiOS als 64bit Version. Allerdings ist es noch BETA. Trotztdem läuft es besser als die 32bit Version, jedenfalls in meinen Anwendungsfall. Die 64bit Version ist deutlich flotter und einige Anwendungen laufen viel stabiler, beispielsweise InfluxDB. Mit RaspiOS 32bit und InfluxDB habe ich leider nur Probleme, Zabbix läuft jedoch leider nur mit arm32 sonst würden alle meine Pis mit 64bit laufen. PS: Nach dem Flashen der SDCard eine leere Datei namens ssh auf der Boot Partition speichern. (Am besten mit Nodepad+, nicht mit dem Windows Editor) Damit aktivierst du SSH.
  22. Alle Nodes haben eine eigene IP und stehen an unterschiedlichen Orten wobei Node 1 der älteste ist. Die anderen beiden sind im 3. Monat und haben noch keinen nennenswerten Repair Egress.
  23. Ich habe nur das Root Filesystem auf die SSD verlegt. Man könnte für langsame Platten auch eine SSD Cache einrichten. Hab ich aber noch nicht gemacht und mir ist es den Aufwand für die 4TB Platte auch nicht wert. Ich habe aber auch zwischenzeitlich mal die Datenbank meines Testnodes auf die SSD verlegt. -> Anleitung. Nach 5 Tagen hab ich die Datenbank aber wieder auf die HDD zurück kopiert da ich keinen Unterschied per successrate feststellen konnte und mir somit eine mögliche Fehlerquelle erspare. Node 1 Available Used Egress Ingress Bandwidth N/A 2.4 TB 591.1 GB 1.8 TB (since Jul 1) Disk 0.8 TB 6.4 TB Node 2 Available Used Egress Ingress Bandwidth N/A 2.1 TB 234.0 GB 1.8 TB (since Jul 1) Disk 3.1 TB 4.1 TB Node 3 Available Used Egress Ingress Bandwidth N/A 2.1 TB 250.9 GB 1.8 TB (since Jul 1) Disk 3.2 TB 4.3 TB Wenn der Traffic aber so bleibt wäre ich durchaus bereit in neue Platten zu investieren.
×
×
  • Neu erstellen...

Wichtige Information

Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.