Zum Inhalt springen

Neuromorphe Computerplatform


Crypto_love

Empfohlene Beiträge

Hallo! 👋

Ich schaue mich ständig nach neuen Investitionsmöglichkeiten (auch im Kryptobereich) um und ein Kollege aus der IT Branche hat gerade angefangen den Dynex coin zu minen.

Von dem habe ich bis jetzt noch nie etwas gehört, aber er ist von der Idee dahinter extrem überzeugt. Es sollte der erste neuromorphe supercluster sein, welcher alle Computer im Netzwerk miteinander verbinden kann (so hätte ich das zumindest verstanden 😅) Das hätte natürlich enormes Potential wenn es stimmt.

Ich würde mich über weitere Infos freuen wenn ihr was dazu habt!

Danke!!

LG Sandra
Link zu diesem Kommentar
Auf anderen Seiten teilen

Hey Chantal,

Danke für deine Antwort, ich bin leider auch keine Spezialistin, aber soweit mir mein Kollege das erklärt hat, funktioniert neuromorpes computing ähnlich dem menschlichen Gehirn. Somit ist eine schnelle Verbindung unter den "Synapsen" möglich, welche sich selbst organsieren und dadurch deutlich effizientere arbeiten.

Und welche Vorteile es hat, wenn sich weltweit zigtausende Rechner zu einem Supercluster verbinden können um Rechenprobleme zu lösen, kann ich mir auch nur schwer vorstellen. Dass hätte wahrscheinlich große Auswirkungen auf viele Bereiche. Daher finde ich es ja auch so interessant und habe gehofft es hat wer mehr Infos dazu :)

Danke!

LG Sandra

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 31 Minuten schrieb Crypto_love:

Hey Chantal,

Danke für deine Antwort, ich bin leider auch keine Spezialistin, aber soweit mir mein Kollege das erklärt hat, funktioniert neuromorpes computing ähnlich dem menschlichen Gehirn. Somit ist eine schnelle Verbindung unter den "Synapsen" möglich, welche sich selbst organsieren und dadurch deutlich effizientere arbeiten.

Und welche Vorteile es hat, wenn sich weltweit zigtausende Rechner zu einem Supercluster verbinden können um Rechenprobleme zu lösen, kann ich mir auch nur schwer vorstellen. Dass hätte wahrscheinlich große Auswirkungen auf viele Bereiche. Daher finde ich es ja auch so interessant und habe gehofft es hat wer mehr Infos dazu :)

Danke!

LG Sandra

Klingt nicht so, als würde ich einem evtl. neuromorph funktionierendem Computercluster meine Finanzen anvertrauen wollen. Könnte Fehler machen, Entscheidungen zu meinen Ungunsten treffen oder Burnout bekommen... Es sei denn, das Netzwerk nennt sich Bankberater. Dann würd ich zumindest mal n Termin machen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Crypto_love Und Suchmaschinen verwendest du warum nicht?

https://www.datacenter-insider.de/was-ist-neuromorphes-computing-was-sind-neuromorphe-chips-a-842952/

Auf speziell dafür designten Chips geht das, aber wie sich "zigtausende Rechner" selbst organisieren sollen ist völlig unklar. Für mich hört sich das nach so was wie den magnetischen Spritsparern an: einfach ein paar Fachbegriffe sinnlos zusammengewürfelt...

  • Love it 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb Crypto_love:

Danke für deine Antwort, ich bin leider auch keine Spezialistin, aber soweit mir mein Kollege das erklärt hat, funktioniert neuromorpes computing ähnlich dem menschlichen Gehirn. Somit ist eine schnelle Verbindung unter den "Synapsen" möglich, welche sich selbst organsieren und dadurch deutlich effizientere arbeiten.

Gibt es schon. Man nennt sowas eine KI bzw machine learning. Man definiert wie viele Synapsen man haben möchte und füttert diese Synapsen mit Trainingsdaten. Funktioniert sehr gut bei Mustererkennung. Versagt dann aber schnell wenn eine Situation eintritt die in den Trainingsdaten nicht vorhanden war. Mit mehr Rechenleistung kann man auch mehr Synapsen einfügen aber das Resultat wird dadurch nicht zwingend besser sondern in vielen Fällen sogar schlechter. Stichwort overfitting.

vor einer Stunde schrieb Crypto_love:

Und welche Vorteile es hat, wenn sich weltweit zigtausende Rechner zu einem Supercluster verbinden können um Rechenprobleme zu lösen, kann ich mir auch nur schwer vorstellen. Dass hätte wahrscheinlich große Auswirkungen auf viele Bereiche. Daher finde ich es ja auch so interessant und habe gehofft es hat wer mehr Infos dazu :)

Ich würde dir empfehlen mal nachzuschlagen woran die anderen Projekte gescheitert sind, die das zuvor versucht hatten. Die Rechenleistung zusammen schalten ist einfach.

Das Problem was du in dem Netzwerk haben wirst ist mein Pi4. Das was dem Pi4 an Rechenleistung fehlt gleiche ich durch Manipulation des Quellcodes aus. Mein Pi4 wird jede ihm anvertraute Aufgabe in Rekordzeit falsch lösen. Wer überprüft die Rechenergebnisse? Wer überprüft ob die Überprüfung korrekt war? Ist das dann noch effizient wenn jede Rechenoperation gleich doppelt und dreifach überprüft werden muss?

Das zweite Problem was du in dem Netzwerk haben wirst ist mein Hochleistungsserver. Der wird die ihm anvertraute Aufgabe dieses mal in Rekordzeit richtig lösen jedoch ein Teil seiner Rechenzeit dafür nutzen mir einen zusätzlichen Vorteil zu verschaffen. Sagen wir zum Beispiel die Aufgabe wäre dein Trading Bot. Was glaubst du was mein Hochleistungsserver in der Millisekunde macht in der das Rechenergebnis vorliegt kurz bevor es an dich zurück gesendet wird? Und das ist kein Einzelfall. Es gibt sehr viele Anwendungsfälle bei denen die zigtausende Rechner zwar etwas ausrechnen sollen aber gefälligst nicht reinschauen sollen was sie da gerade ausgerechnet haben.

Ich wünsche viel Glück bei der Umsetzung...

  • Love it 1
  • Thanks 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 18 Stunden schrieb Crypto_love:

ein Kollege aus der IT Branche hat gerade angefangen den Dynex coin zu minen.

Von dem habe ich bis jetzt noch nie etwas gehört, aber er ist von der Idee dahinter extrem überzeugt.

Und warum genau braucht es den "Dynex Coin" für diese Idee?

Wo ist der Code dazu?

Immerhin gibt es ein Whitepaper: https://github.com/dynexcoin/Dynex-Whitepaper/blob/main/Dynex-whitepaper.pdf

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hurraaaa, endlich etwas Arbeit für meine verwaisten Spartan7-Boards. 

Ich hatte auch schon mal so einen Gedanken, bin aber an den von Skunk beschriebenen Problemen nicht vorbei gekommen.
Was wohl eine Akida-Instanz auf der Blockchain anrichten könnte :)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Schönen guten Morgen!

Vielen Dank für die tolle Expertise hier!! Vorallem für den ausführlichen Bericht von @skunk!

Was ich in den letzten Jahren schmerzhalft gelernt habe, ist, dass ich versuche zu vertehen in was ich investieren. Das gilt bei Aktien aber noch viel mehr bei Kryptowährungen! Und in dem Thema bin ich erst am Anfang. 😇

@Theseus Danke! Ich habe mir das whitepaper durchgelsesen, das liest sich für mich als Laie schon sehr proffesionell, allerdings verstehe ich tats. nur die Hälfte. 😅

Aber ich sehe es gibt einige Risiken!

@skunk könntest du mir das mit dem overfitting bitte genauer erklären, dh nicht je mehr Rechenpower desto besser?

Ich denke ich werde das Projekt einmal im Auge behalten aber nichts überstürzen. Die Euphorie von meinem Kollegen hat mich doch etwas mitgerissen...

LG

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb Jokin:

...und das bleibt sehr, sehr vage. "Exchange computing power for coins" könnte (!) eine Proof-of-Work-Blockchain bedeuten. Die könnte das von @skunkbeschriebene Überprüfungsproblem lösen - aber ganz bestimmt nicht auf "effiziente" Weise 😉.

Die Gleichsetzung von Mining-ASICs mit FPGAs gleich im Vorwort ist auch schon technisch falsch. Nein, da wartet keine weltweite Infrastruktur darauf, für diesen Zweck vernetzt zu werden.

Besonders niedriger Energieverbrauch, weil die Hardware nur bei neuem Input aktiv wird - ja, aber sie steht dazwischen im Standby und tut nichts. Spart im Betrieb, aber man hält jede Menge teuer hergestellte Hardware im Standby auf Vorrat. Ob das insgesamt, abseits von ein paar speziellen Problemen, wirtschaftlich ist?

Auch die "Konkurrenz" schläft nicht. Moore's Law bei Halbleitern gilt noch mindestens 10 Jahre weiter, Quantencomputer fangen grade erst an.

 

  • Love it 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb Crypto_love:

@skunk könntest du mir das mit dem overfitting bitte genauer erklären, dh nicht je mehr Rechenpower desto besser?

Es geht eher um die Anzahl der Synapsen. Nehmen wir an du willst eine KI schreiben die Bilder von Hunden und Katzen unterscheiden soll. Beim Training fütterst du die KI mit tausenden von Bildern. Und dann hast du nochmal ein weiteres Paket von Bildern mit der du überprüfst wie zuverlässig die KI jetzt die Bilder unterscheiden kann.

Jetzt hast du ein paar Stellschrauben mit denen du spielen kannst. Du kannst die Anzahl der Synapsen erhöhen oder verringern. Du kannst die Synapsen anders anordnen. Du kannst beim Training einzelne Synapsen kurzzeitig deaktivieren (Dropout) um damit die anderen Synapsen zu zwingen ein Alternative Lösung für das Problem zu finden.

Wenn du an all diesen Stellschrauben spielst kommst du irgendwann zu der Erkenntnis, dass es einen Punkt gibt ab dem die KI beim finalen Test schlechter abschneidet wenn du zum Beispiel die Anzahl der Synapsen weiter erhöhst. Das nennt man Overfitting. Die Kunst ist es nun genau die richtige Anzahl an Synapsen und genau die richtige Anordnung der Synapsen zu finden um die besten Testergebnisse zu bekommen. Idealerweise schafft die KI die vollen 100%.

Rechenleistung ist keine Stellschraube. Je mehr Rechenleistung du hast um so schnell kannst du das Training durchlaufen. Am Ergebnis ändert es jedoch nichts. Natürlich ist es unsinnig mit zu wenig Rechenleistung an den Start zu gehen und dann Jahre für das Training aufzuwenden. Wenn du also eine KI für das autonome fahren trainieren möchtest dann wird die wohl etwas mehr Synapsen brauchen als zum Unterscheiden von Hunden und Katzen. Dafür ist dann auch mehr Rechenleistung notwendig. Auch für diese KI wird es einen Punkt geben ab dem zusätzliche Synapsen das Testergebnis schlechter werden lassen. Die eigentliche Kunst ist es am Ende die Sweat Spot mit idealerweise 100% Testergebnis zu finden.

vor 39 Minuten schrieb bulsan:

...und das bleibt sehr, sehr vage. "Exchange computing power for coins" könnte (!) eine Proof-of-Work-Blockchain bedeuten. Die könnte das von @skunkbeschriebene Überprüfungsproblem lösen - aber ganz bestimmt nicht auf "effiziente" Weise 😉.

Proof of Work ist das eigentlich nicht. Nehmen wir vielleicht erstmal ein Beispiel bei dem Vertrauen kein Thema ist. Du hast eine Reihe von Messwerten und möchtest eine Hochrechnung haben. Was du recht einfach machen kannst ist ein Docker Container zu scripten, der das für dich macht. Jetzt hast du sehr viele Messreihen und willst zu jeder Messreihe eine Hochrechnung haben. Mit Docker kein Problem weil du beliebig viele Instanzen starten kannst vorausgesetzt dir steht genug Rechenleistung zur Verfügung. Das ist der aktuelle Stand der Technik. Docker bzw Kubernets wird praktisch überall eingesetzt. Dienste wie GCP erlauben es dir sogar diese Container in der Cloud laufen zu lassen aber GCP ist alles andere als kostengünstig. Es muss doch auch mit einem dezentralen Netzwerk möglich sein Cloud Computing kostengünstig zu ermöglichen. Ja ist es. Es wurde sogar schon erfolgreich umgesetzt jedoch mit den zwei von mir beschriebenen Problemen. Bei einem dezentralen Netzwerk gibt es eine zusätzliche Bedingung. Dein Docker Container wird von jemanden ausgeführt dem du nicht vertrauen darfst. Soweit ich weiß / vermute sind genau an diesem Problem die bisherigen Umsetzungen gescheitert. Wir haben bei uns im Unternehmen zum Beispiel einen privaten Jenkins Server der dann die Finale Anwendung baut und dort zum Beispiel die Zugangsdaten für die Datenbank einträgt. Diese Zugangsdaten kann ich nicht einfach in einem dezentralen Netzwerk öffentlich zugänglich machen.

  • Love it 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 8 Stunden schrieb Theseus:

Hurraaaa, endlich etwas Arbeit für meine verwaisten Spartan7-Boards. 

Zu früh gefreut. In der Readme auf Github wird gesagt, daß es eine verilog-Referenzimplementierung gibt, allerdings glänzt die durch Unauffindbarkeit. Jetzt Zeit zu investieren und von Hand was in Verilog oder VHDL zu stricken hab ich auch keine Lust. 

Der einzige parallele Miner basiert auf Cuda, open-cl wäre schöner gewesen.

 

Für das Projekt spricht, daß wirklich dran entwickelt wird. Es scheint auch noch ziemlich jung zu sein. Aber ob es was wird, mag ich im Moment nicht beurteilen.
 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...

Wichtige Information

Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.