Zum Inhalt springen

Storj - Potential?


Kryptobrother

Empfohlene Beiträge

vor 34 Minuten schrieb GhostTyper:
  1. Wenn ich den DNS-Namen der Node ändern möchte, reicht es dazu auch einfach den Docker-Container neu zu starten?

Ja. Direkt beim Neustart meldet sich deine Node bei den Satellites wodurch sie sofort deine neue Adresse haben.

vor 34 Minuten schrieb GhostTyper:
  1. Gibt es eine Möglichkeit eine Node komplett platt zu machen und den Key zu reusen?

Ja und Nein. Es gibt graceful exit. Dabei wird deine Node all ihre Daten an andere Nodes abgeben. Das erspart uns den Repair Traffic und als Dank bekommst du das restliche Payout was für diesen Zweck als Sicherheit einbehalten wurde. Du kannst die Node also jederzeit Platt machen. Den Key kannst du aber nicht erneut benutzen. Zumindest aktuell nicht. Graceful Exit ist ein One Way Ticket.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 1 Minute schrieb GhostTyper:

Also gut. Mal gucken, wie ich ohne Downtime diese Node verkleinert kriege, so dass ich keinen Key verschwende.

Auf keinen Fall Daten löschen! Das mag das System überhaupt nicht und wird zügig mit einer Disqualifikation reagieren.

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 3 Wochen später...
vor 27 Minuten schrieb GhostTyper:

Ich habe eine E-Mail bekommen, dass ich meine Node unbedingt updaten muss. Dann ist mir aufgefallen, dass das automatische Update mit wachtower derzeit auf keiner meiner nodes funktioniert - hat es aber Mal.

Ist das bekannt oder habe ich da nur etwas bei mir vermurxt?

Das ist Absicht. Würden alle Nodes zur gleichen Zeit updaten, wäre das Netzwerk offline für einige Minuten. Um das zu vermeiden haben wir Watchtower ein deutliches größeres Interval mitgegeben. Ich glaube es würde normalerweise bis zu 3 Tage dauern bis die Node automatisch updated.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb GhostTyper:

Watchtower hat aber 27.0 ausgelassen und jetzt sind wir schon bei 27.1. (=Kein Update seit 2 Wochen.)

Ich habe jetzt manuell von 26.1 (oder 2?) auf 27.1 upgedated.

27.1 wurde gestern veröffentlich. Wie kommst du auf 2 Wochen?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 32 Minuten schrieb GhostTyper:

Weil die Uptime 2 Wochen war und 27.0 ausgelassen wurde vom watchtower.

27.0 wurden ebenfalls diese Woche gebaut aber nicht veröffentlicht. Von daher alles in Ordnung.

Eine Release Woche sieht in der Regel wie folgt aus:
1. Am Freitag vor dem Release erstelle ich den ersten Entwurf des Changelogs. Welche Features haben es bereits auf den Master Branch geschafft und werden mit dem nächsten Release veröffentlicht?
2. Ich gehe den Entwicklern auf die Nerven und frage nach was mit den Änderungen ist, die es noch nicht auf den Master Branch geschafft haben.
3. Ich bereite meine Testumgebung vor. Ich nutze dafür eine VM. Einmal frische Daten mit der aktuellen Version hochladen und am Ende einen neuen Snapshot der VM erstellen.
4. Am Montag mache ich ein paar Probeläufe. VM Snapshot wiederherstellen, auf neue Version updaten, etwas rumspielen um zu sehen ob es grundsätzlich funktioniert. Je nachdem was an Features neu hinzugekommen ist, muss ich meinen Testplan ein wenig anpassen.
5. Am Dienstag erstelle ich das erste Release Tag. In diesem Fall war das die 27.0.
6. Jetzt geht der Spaß so richtig los. Ich bin zwar scheiße freundlich aber ich habe das letzte Wort. Ich zwinge die Entwickler genau das zu machen was sie nur sehr ungern machen. Die übliche Ausrede "Bei mir lokal funktioniert es" wird von mir nur beantwortet mit "Dann schlage ich vor wir findest raus warum es auf dem Server nicht funktioniert. Wir haben einen Tag um den Fehler zu beheben sonst sage ich das Release ab. Wenn du Hilfe brauchst dann ruf einfach. Ich zeige dir gern wie du das auf dem Server nachstellen kannst und gern teste ich auch jeden denkbaren Fix der dir einfällt."
7. Am Mittwoch hat der betroffene Entwickler seinen Fix bereit gestellt. Das hat dieses mal super funktioniert. Ich habe ein 27.1 erstellt und erneut meine Tests durchgeführt und dieses mal ohne größere Beanstandungen. 27.1 wurde am Ende veröffentlicht.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb GhostTyper:

Okay. Ich dachte, ich bekomme diese E-Mail nur, weil etwas bei STORJ festgestellt hat, dass meine Node noch auf alter Software läuft.

Ne so fortschrittlich sind wir noch nicht. Wir arbeiten noch an gezielten Emails. Aktuell gehen derartige Emails einfach an alle.

  • Sad 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

Langfristig geplant ist, dass wir Emails an Storage Nodes senden wenn wir ein Problem erkennen. Hauptsächlich geht es dabei um fehlerhafte Audits oder Offline. Ich habe bei mir einmal im Jahr ein Problem mit dem Port Forwarding weil die Mac Adresse meiner Storage Node sich ändern kann und mein Router dann mit dem Port Forwarding durcheinander kommt. Beim letzten mal habe ich das erst nach 2 Tagen bemerkt und korrigiert. Eine Email Benachrichtigung wäre für solche Fälle wünschenswert. Wie so oft ist Zeit aber Mangelware und so müssen diese tollen Features noch etwas warten. Bis dahin senden wir einfach Emails an verschiedene Mail Listen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb GhostTyper:

Müsste ich eigentlich für jede Node eine Überweisung bekommen? Oder gibt es ein Minimum unter dem nicht überwiesen wird?

Ich ahne worauf du hinaus möchtest. Du hast 4 Überweisungen bekommen und verstehst jetzt nicht so richtig warum ausgerechnet 4.

Nehmen wir als Beispiel meine 3 Storage Nodes. 2 meiner Storage Nodes laufen auf einer Wallet Adresse. Die 3. Storage Node habe ich auf einer separaten Wallet Adresse. Ich möchte beide Setups später vergleich können daher die Trennung.

Beim Payout bekomme ich jetzt 8 Überweisungen. Ich bekomme eine Überweisung von jedem der 4 Satellites. Die beiden Storage Nodes, die sich bei mir ein Wallet teilen, bekommen die Summe als eine Überweisung ausgezahlt. Auch das dann jeweils von jedem der 4 Satellites. Die Trennung nach Satellite ist notwendig weil eine der Satellites sich entscheiden könnte die Storage Nodes zu betrügen und einfach nur einen Bruchteil der Gelder auszuzahlen. Würden dir die 4 Satellites zusammen addieren, könntest du nicht mehr sagen bei welchem Satellite du dich beschweren musst.

Bearbeitet von skunk
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 20 Stunden schrieb GhostTyper:

Wenn Satellites nicht vertraut werden muss, können dann auch andere Leute Satellites aufsetzen?

Einen Satellite aufsetzen ist kein Problem. Schwierig ist es das Vertrauen der Storage Nodes zu gewinnen und Kunden zu finden die einem Geld bezahlen. Ohne das ist der Satellite zwar lauffähig aber nutzlos.

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 4 Wochen später...

Hallo @skunk,

gibt es mittlerweile News zum "release" jetzt am Januar? Werden schon Live-Daten auf die Nodes gespielt?

Ich habe bemerkt, dass sich meine Nodes sehr Asynchron verhalten. Also z.B. diese beiden Dashboards:

     Bandwidth        3.2 PB       2.1 TB     1.7 TB     367.6 GB (since Jan 1)
          Disk        1.4 TB     637.8 GB

vs

     Bandwidth        3.2 PB     55.5 GB     41.0 GB     14.5 GB (since Jan 1)
          Disk        2.0 TB     33.9 GB

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Minuten schrieb GhostTyper:

gibt es mittlerweile News zum "release" jetzt am Januar?

Sorry ich habe das hier wieder etwas schleifen lassen. Das hier wurde vor kurzem veröffentlicht: https://storj.io/blog/2020/01/what-to-expect-in-production/

vor 7 Minuten schrieb GhostTyper:

Werden schon Live-Daten auf die Nodes gespielt?

Da du jetzt nach keinem Verhältnis gefragt hast, kann ich die Frage mit einem klaren Ja beantworten. Ich vermute aber mal verglichen mit unseren Performance Tests ist es noch vergleichsweise wenig. So genauen kann ich das nicht sagen.

vor 12 Minuten schrieb GhostTyper:

Ich habe bemerkt, dass sich meine Nodes sehr Asynchron verhalten.

Ich hatte da schon ein paar Ideen das weiter zu verfolgen aber bisher noch nicht die Zeit es umzusetzen. Als Storage Node Operator würde ich gern bei jedem Download so viele Daten wie möglich über meinen "Kunden" sammeln. Eventuell lässt sich ein Muster finden mit dem man bei Uploads entscheiden kann welche Daten besonders wertvoll sind und welche Daten nur unnötig Platz verbrauchen. Keine Ahnung ob das überhaupt möglich ist aber ein Versuch ist es wert.

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 2 Wochen später...

Eine meiner Nodes hat "relativ viel" (so gefühlt) Egress-Traffic nach der Ansicht der Konsolen-Dashboards:

                   Available       Used     Egress      Ingress
     Bandwidth        3.2 PB     4.0 TB     3.5 TB     433.0 GB (since Jan 1)
          Disk        1.3 TB     0.7 TB

Diese Angaben sollten den Traffic im Monat Januar darstellen und decken sich auch so ungefähr mit meinem gemessenen Traffic.

Heißt das, dass ich mit dieser Node bis jetzt im Januar 3,5 TB * 20 $/TB = 70 $ in STORJ Token verdient habe müsste?

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 2 Wochen später...
Am 22.1.2020 um 07:57 schrieb GhostTyper:

Heißt das, dass ich mit dieser Node bis jetzt im Januar 3,5 TB * 20 $/TB = 70 $ in STORJ Token verdient habe müsste?

Ja genau das bedeutet das. Auf Grund von Surge Pricing dürfte es sogar die Doppelte Summe sein. Davon wird dann aber erstmal nur 25% ausgezahlt. 75% werden einbehalten als Anreiz das Netzwerk nicht unkontrolliert zu verlassen. In Monat 3-6 sind es 50%, 6-9 25%, danach 0%, im Monat 15 gibt es 50% der einbehaltenen Summe zurück, durch Graceful Exit kann man die komplette Summe bekommen. Das ist die Kurzfassung.

Bitte aber die Erwartungen nicht zu hoch schrauben. Vieles davon ist weiterhin von unseren Download Tests. Ich würde erwarten, dass der Traffic im nächsten Monat geringer ausfällt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ansonsten gibt es gute Nachrichten, die ich natürlich posten muss. Wir sind jetzt offiziell in early access: https://storj.io/blog/2020/01/announcing-early-access-for-tardigrade/

Wer sich als User anmeldet, bekommt einen 1 TB Gutschein. Die Performance kann sich jetzt auch sehen lassen. Einfach anmelden und selbst ausprobieren. Ich bin sehr an eurem Feedback interessiert. Wer kann möge bitte einen Speedtest ausführen und hier berichten.

Bearbeitet von skunk
Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich habe zwei Fragen für 's Townhall-Dingsbums eingereicht. Ich hoffe, die werden beantwortet. Ich nehme Mal an, Du wirst den Link hier posten.

Ansonsten hab' ich jetzt 9 Storage-Nodes eingerichtet, alle mit 2 TB Disk netto. Die eine Node von oben hat bis jetzt 5.2 TB egress. Alle anderen Nodes sind eher schlechter in der Statistik, aber auch jünger.

Manche der Nodes habe ich mit anderer E-Mail-Adresse registriert und manche anderen lasse ich mit anderer Wallet-Adresse laufen um zu sehen, ob es da Unterschiede in der Auslastung gibt.

Meine Strategie ist es jetzt so viele Nodes wie möglich "aufzuwärmen". Und wenn ich dann am Ende sehe, dass dort tatsächlich etwas dabei 'rum kommt bin ich auch bereit die Nodes auf anderen Storage mit mehr Disk-Space umzuziehen und dann die Nodes zu vergrößern.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...

Wichtige Information

Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.