Zum Inhalt springen

PeWi

Mitglied
  • Gesamte Inhalte

    3.060
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von PeWi

  1. Grayscale verlangt bei seinem Fonds nicht nur den eigentlichen Preis für den BTC-Fonds, sondern auch einen zusätzlichen Ausgabeaufschlag, das Premium. Der etwas neuere kanadische BTC-ETF verzichtet auf ein Premium; seitdem wird der Grayscale Fonds praktisch nicht mehr nachgefragt.
  2. Was mich an dem Arikel vor allem stört: Das werden unnötig Extrempositionen aufgebaut - soll ich mein ganzes Geld in Kryptos oder doch lieber alles in klassische Formen der Altersanlage stecken? Dass man angesichts der bisherigen Kursexplosionen vielleicht einen (ggfs. kleinen) Teil in Kryptos stecken könnte, daran verschwenden beide "Experten" keinen Gedanken und keine Zeile. Obwohl genau diese Beimischung für konservative Investoren ideal wäre - stark begrenztes Risiko, aber Chancen auf ziemlich viel Gewinne.
  3. Die R:R-Methode steht in vielen Büchern über Trading. Und den Stop an den Punkt zu legen, an dem sich die Idee zum Trade als offensichtlich falsch herausstellt, leuchtet mir auch ein. Meistens mache ich Trendverfolgung-Strategien, da habe ich überhaupt keine Idee, wie hoch das gehen könnte, und mein Programm noch weniger. Deswegen bleibt mir da nur ein 08/15-Abstand ala "xx ATR unter dem Einstieg". An sich haben Trendverfolger einen indirekten Stop - wann eben der Trend aufhört. Ärgerlich sind da nur jähe Preisstürze, die für die Indikatoren zu schnell gehen, und die Strategie deswegen erst reagieren würde, wenn das Kind schon im Brunnen liegt. Dafür ist ein gut funktionierendes SL-Konzept sehr hilfreich. Ich hatte auch schon ein SL-Konzept, das sich wieder eingekauft hat, sobald der Preis den SL-Level wieder erreicht hat. Und eines, das nach x% Abfall den SL ausgelöst hat und nach y% Anstieg nach dem tiefsten Punkt wieder eingestiegen ist. Mit beiden Konzepten hatte ich gehofft, mir einen relativ nahen SL leisten zu können. In Summe hat beides aber ebenfalls zuviel Profitablität gefressen.
  4. Da möchte ich nochmal einhaken, da SLs bei der hohen Volatilität der Kryptos ein steter Quell der Freude sind ... Meine Backtests haben eigentlich immer ergeben, dass in Summe ein Stop-Loss dem Ergebnis abträglich ist; sowohl das Durchschnitts-Endvermögen als auch der durchschnittliche Max-Drawdown verschlechtern sich mit einem SL, und um so mehr, je dichter er sitzt. Das kommt ja nicht unerwartet, denn Absicherungen kosten üblicherweise. Trotzdem wäre es natürlich schön, wenn es pfiffigere Varianten gäbe, die in Summe kostengünstiger wären. 😉 Ich habe etwas mit Varianten herumexperimentiert. Z.B. nur dann den SL auszulösen, wenn xx% aller Coins im Besitz um mindestens y% gefallen sind. Oder zu schauen, ob sich die Korrelation der Coins über die letzten Candles erhöht hat. Meine aktuelle Variante ist, das Volumen der aktuellen Candle mit dem Durchschnittsvolumen der vorhergehenden 12 Candles zu vergleichen und bei massiver Erhöhung den SL schon eher auszulösen, während er ansonsten etwas weiter weg sitzt. In Summe hat das aber wenig geändert; die größte Verbesserung ergab sich schon ziemlich zu Anfang meiner Versuche, wenn man den SL nicht in Prozenten, sondern in ATRs angibt. Gibt es da pfiffigere Methoden, die sich programmtechnisch mit begrenztem Aufwand nutzen lassen? Irgendwas in der Art von "der Kurs beim letzten RSI-Tief minus xx ATRs" oder so?
  5. Was soll daran problematisch sein? (Vorausgesetzt, das nachfolgende stimmt!)
  6. Ich habe jetzt aus der Erinnerung an Artikel o.ä. keine Zahlen parat. (Systeme aus akademischen Papers sind oft wenig profitabel, weil sie aus Gründen der Reproduzierbarkeit oder Vergleichbarkeit mit Vorgängerpapers oft nur relativ simpel sind.) Da müsste man jemanden fragen, der ein solches System im realen Einsatz hat. Allerdings halten sich Betreiber echter, profitabler Bots gerne mit Details zurück. 😉
  7. Zwei Einwände: Je mehr man rumprobiert, bis etwas passt, desto mehr gibt man dem Zufall eine Chance, dass irgendwann etwas passt. Ist nicht TA zumindest in Teilen eine selbsterfüllende Prophezeiung? Wenn alle Leute auf den RSI(14) im 4h-Chart schauen, dann erlangt der seine Bedeutung zusätzlich auch aufgrund der selbsterfüllenden Prophezeiung. Benutzt man jetzt unübliche Indikatoren, unübliche Einstellungen oder unübliche Zeiteinheiten, dann fällt dieser Teil der "Wirksamkeit" schon mal weg. Sowas in simpler Ausprägung wird in Bots gerne als "Trendfilter" genutzt. Z.B. bei einem Bot, der Stundensignale handelt: Wenn der 4h-Trend noch oben geht, handle nur Long-Signale; wenn der 4h-Trend nach unten geht, handle nur Short-Signale. Na dann Glückwunsch! Ist doch super! 👍
  8. Deswegen ist es beim ML so wichtig, auf furchtbar vielen Daten zu trainieren. Denn nur dann fallen so komplexe Wenn & Dann Päckchen oft genug auf die Schnauze, wenn sie nicht "echt" sind. Bei weniger Daten kommt es einfach zu oft vor, dass ein zufälliges Muster signifikant erscheint, weil es eben nur ein- oder zweimal vorkommt, und es da eben zufällig klappt. Hätte man deutlich mehr Daten, käme es öfter vor, und bei "nicht-echten" Mustern dann eben auch oft genug als Fehlschlag.
  9. Wenn du in die Seite eingreifst, dann solltest du schon wissen, was du tust. Und du solltest einen Warnhinweis bekommen haben. Ich weiß allerdings nicht, ob du diesen Warnhinweis auch mit NoScript zu sehen bekommst, weil JS ja nicht grundsätzlich ausgeschaltet ist - aber dann gilt um so mehr, dass du dich dann selber um die Konsequenzen deines Tuns kümmern musst. Aus dem Quelltext der Seite: <noscript> <p class="alert alert-danger"> You've disabled JavaScript! If you submit a password in the form below, it will not be anonymised first. </p> </noscript> Da kann man dem Seitenbetreiber wirklich keinen Vorwurf machen.
  10. Ich weiß, dass das jetzt meiner vorherigen Definition widerspricht - aber das riecht eigentlich heftig nach Overfitting. 😉 Vielleicht sollte man die Definition etwas abändern zu "... immer wenn etwas sehr spezifisch festgelegt wird ..."? Nur zaghaft, weil man a) Daten unter 1h-Candlelänge rückwirkend für längere Zeiträume nur schwer bekommt und b) weil meine bisherigen Bots und Backtests nur um eine feste Candlelänge herum (wenn auch wählbar) aufgebaut waren. Ich liebäugle schon länger mit mehreren Candlelängen und habe mir als Ersatz für größere Candles bisher mit entsprechend größeren Parametern für die gewünschten Indikatoren beholfen. Seit kurzer Zeit habe ich auch Funktionen zum Runtersamplen auf größere Zeiteinheiten. NN: neuronale Netze; dNN: tiefe neuronale Netze (d.h. viele Schichten) RL: Reinforcement Learning (wenn du von "Agenten" liest, ist das normalerweise RL; das Gedächtnis von RL besteht i.A. aus einem tiefen NN) DRP: Deep Reinforcement Learning GA: genetische Algorithmen zur Optimierung von Parameterwerten (Simulation der evolutionären Auslese über mehrere Runden) GP: genetisches Programmieren zur Festlegung und Optimierung von Regeln (Simulation der evolutionären Auslese über mehrere Runden) ML: Machine Learning (Oberbegriff für diverse Verfahren wie NN/RL/GA/GP/Trees/Forests/...)
  11. Vielleicht könnte man deines als "Overfitting auf der Meta-Ebene" bezeichnen? Während Overfitting im ML-Kontext "Overfitting auf den Werten" entspricht? Aber egal, wir driften langsam in Haarspaltereien ab - ich denke, jede Seite hat genügend Beispiele gebracht, damit jeder weiß, was gemeint ist.
  12. Um das mit dem Overfitten beim automatisierten Traden noch mal zu verdeutlichen ... Nehmen wir Coinflippers Beispiel mit dem RSI kleiner 5 - angenommen, der RSI fiele in unseren Trainingsdaten dreimal unter die 5.0, und alle drei Male wären gute Käufe gewesen. Dann macht daraus die overfittende Strategie: kaufe, wenn RSI = 4.938 OR RSI = 4.422 OR RSI = 4.712 Eine nicht-overfittende Strategie macht daraus: kaufe, wenn RSI <= 4.938 Der Unterschied ist jetzt hoffentlich deutlich - die nicht-overfittende Stategie lernt ein Muster, während die overfittende Strategie lediglich auswendig lernt und reproduziert.
  13. Erst mal danke für deinen ausführlichen Post und deine ausführlichen Erläuterungen! 👍 Da reden wir möglicherweise aneinander vorbei. Im Kontekt des maschinellen Lernens heißt Overfitting eher das stumpfe Auswendiglernen von Kurspunkten und Indikatorwerten ohne die Fähigkeit des Transfers. Als simplifiziertes Beispiel: Dein Beispiel mit dem 2er Kerzen-Muster würde von einer overfittenden Strategie nur dann wiedererkannt werden, wenn nicht nur die Kerzen wieder so aussehen, sondern nur, wenn auch der Kurswert praktisch gleich ist - also keine "Ähnlichkeiten", sondern nur "Gleichheiten". Und noch ein mögliches Missverständnis: Nur weil dem genetischen Programmier-Algorithmus diverse Indikatoren als Basisbausteine gegeben werden, heißt das nicht, dass die Strategie-"Individuen" sie auch alle verwenden müssen oder werden. Im Gegenteil, ein solches Exemplar mag durchaus zum Schluss kommen, dass seine Buy-Regel lediglich aus "IF RSI < 5 THEN BUY" bestehen mag. Oder aus "IF (RSI < 5 ) AND NOT (<gegenanzeigen>) THEN BUY". Jedes Individuum würfelt ja für sich aus, wie kompliziert und verschachtelt oder eben wie einfach und simpel sein Entscheidungsbaum werden soll. Es muss nur gut genug im Vergleich zu den anderen Individuen sein, um es in die jeweils nächste Runde zu schaffen. Eine Grundlage für diese Methodik ist dann aber notgedrungen, dass man mit allen diesen Signaltypen überhaupt etwas anfangen kann. Aber mir leuchtet ein, auf was du hinauswillst. Entweder das Programm wird so komplex, dass es alle Signaltypen kennt und tatsächlich unter ihnen abwägen kann, welche es unter den momentanen Umständen heranziehen soll. (Das mag mit tiefen NNs im Rahmen von Reinforement Learning o.ä. möglich sein.) Oder - eher der Level von Hobbyprogrammiern wie mir - es sollte sich auf einen funktionierenden Signaltypen (mit eventuellen Gegenanzeigen) beschränken und nicht versuchen, die eierlegende Wollmilchsau anzustreben. Weil im allgemeinen maschinelle Strategien nicht dein intuitives Niveau erreichen, lässt man idealerweise mehrere parallel laufen, beobachtet ihre Ergebnisse und schaltet jede Strategie einzeln je nach aktueller Performance zwischen Paper Trading und echtem Trading hin und her. Mal laufen eine Zeit lang Mean Reversion-Strategien besser, mal Trend-Strategien, mal sind Strategien auf dem 4h-Chart profitabler, mal auf dem 1h-Chart, ... wenn du nach Z-Score und Monk suchst, der hat dazu einiges geschrieben. Dieses "fang an" irritiert mich immer - ich habe seit dreieinhalb Jahren Bots mit eigenen Geld laufen. Ich habe welche in Python entwickelt, ich habe welche in Go entwickelt, ich habe welche für Polo, für Bina und für Kraken gebaut. Und ich habe für jeden dieser Bots -zig Strategien, zwischen denen ich in der Config umstellen kann. Ist das genug angefangen? 😜 Aber ich habe im Forum schon öfters geschrieben, dass ich mit meinen Bastelstrategien nicht so erfolgreich/profitabel bin, wie ich es gerne wäre. Und deshalb habe ich angefangen, mich für komplexere Geschichten wie NNs, RL und GA/GP zu interessieren. Dass das mangels Vorwissen und aufgrund von weniger freier Zeit als früher zäher und frustrierender voran geht, ist halt so. Und wenn ich nach einiger Beschäftigung mit NNs/RL zu dem Schluss komme, dass ich da nur wenig weiterkomme und auch mal ein anderes Gebiet wie GA/GP beschnuppern möchte, das mir vermutlich mehr liegt, weil es näher am "normalen" Programmieren liegt als NN/RL, dann ist das halt auch so. Deswegen baue ich im Hintergrund auch immer wieder an meinen bisherigen Bots weiter. 😉 Das aktive Beschäftigen mit Gegenanzeigen mache ich bisher auf jeden Fall zu wenig - das ist ein guter Punkt, mit dem ich mich auf jeden Fall mehr beschäftigen muss.
  14. Falls sie wirklich falsch sind - und nicht nur nicht deinen Ansichten entsprechen - dann wäre es doch hilfreich, wenn du bei deiner Replik eine Begründung dazuschreibst, die so gehalten ist, dass sie der durchschnittliche Leser auch nachvollziehen kann. Oder? Der Thread soll doch einen Mehrwert für die Leser haben? Solche Sätze wie "... tritt nur auf, wenn man ein System auf den genommenen Datensatz zu sehr optimiert, ohne die Flexibilität des Referenzdatensatzes zu berücksichtigen" klingen im ersten Moment zwar toll und richtig kompetent, sind aber letztendlich genauso platt wie Binsenweisheiten. Wer nicht eh' schon weiß, was damit gemeint ist, dem verhelfen diese Sätze auch nicht zu mehr Einsichten. Wer lässt denn sofort alles liegen und stehen, sobald es einen neueren heißen Scheiß gibt? 😜
  15. Da ich sie immer lese, muss es wohl am Inhalt liegen, der mich nur begrenzt überzeugt. 😉 Die von dir immer wieder beschriebene Methode (Position Sizing + Equity Modelling) verhindert IMHO kein Overfitting. Sie verhindert "nur", dass schlecht laufende Strategien auf die Finanzen deines Accounts merklich durchschlagen. Eine Strategie mit massivem Overfitting wäre dann halt fast durchgehend auf Paper Trading. Deine heutige, deutlich längere Liste an Punkten gefällt mir auch schon besser - Punkt 1 ist die Kunst, während deine restlichen Punkte 2 bis 5 IMHO eher Handwerk sind (zugegebenermaßen sehr wichtiges). Und hier sind wir uns wieder einig.
  16. Eigentlich sind alle Verfahren Methoden zum Finden von Patterns, ich würde GP davon nicht ausnehmen. Den einzigen ernsthaften Unterschied sehe ich darin, dass man bisher auf GP wohl nicht so einfach große Resourcen draufwerfen kann wie auf alles, was mit NNs zu tun hat. (Zumindest habe ich bisher noch nichts von hardware-beschleunigtem GP gelesen.) Und das macht zugegebenermaßen einen deutlichen Unterschied, wenn man professionell Geld verdienen möchte. Da hätte ich gerne etwas "Butter bei die Fische", bevor ich dir das so einfach abnehme. 😉
  17. Deswegen ist ein Mantra beim maschinellen Lernen, dass man sehr viel mehr Daten braucht, als man annehmen würde. Meine konventionellen Backtests gehen mit Stunden -Candles über einzelne Halbjahre (oder mal bis zu einem ganzen Jahr). Bei NNs rechnet man eher mit 1min-Candles über 5 Jahre oder gleich Tick-Daten über diesen Zeitraum. Diese riesigen Datenmassen haben zwei Vorteile: Zum einen kann das maschinelle Lernen potentiell mehr Erfahrung sammeln und damit mehr Nuancen erfassen, zum anderen verhindern große Datenmengen Overfitting. (Das ist für mein Projekt aber nur schöne Theorie; weder habe ich soviele Daten in solch feiner Auflösung, noch könnte ich die damit verbundenen Rechenzeiten mit meiner Hardware stemmen. Und ich habe auch nicht die finanziellen Möglichkeiten, mir einfach ein Monster-Rig mit soundsoviel Monster-Grafikkarten hinzustellen, um dank Cuda damit die fetten NNs berechnen zu lassen.) Aus theoretischer Sicht würde ich sagen, dass deine Einwände lediglich erweiterte Regeln darstellen. Interessant - Nebenthema - finde ich auch, wie Googles AlphaZero Go gespielt hat und die höchsten Go-Danträger der Welt besiegt hat. AlphaZero wurde attestiert, dass es - im Gegensatz zu bisherigen Programmen - höchst überraschend und intuitiv spiele. So ein Hardware- und Software-Aufwand ist natürlich beliebig über unseren Möglichkeiten, zeigt aber, dass maschinelles Lernen grundsätzlich durchaus deine geforderte Intuition entwickeln kann. Eine Frage an dich, weil ich das selber nicht einschätzen kann: Meinst du, dass ein Programm mindestens dein Niveau haben müsste, um profitabel zu sein? Oder reicht auch weniger? Noch ein paar Nachträge zu deinem langen Post (schön, das sich tatsächlich jemand Gedanken macht, die über Einzeiler hinausgehen!): Ein breites "Methoden-Können" ist kein Overfitting. Overfitting ist mehr das Auswendig-Lernen der Kurse und das damit ermöglichte Abspulen von ziemlich perfekten Aktionen. Deswegen sind frühere Versuche der Mustererkennung wie z.B. Gesichtserkennung gescheitert. Sowas explizit zu programmieren hat trotz erheblicher Anstrengungen nie jemand geschafft. Der Durchbruch kam erst, als man tiefe NN sich selber organisieren ließ. Heutige State-of-the-Art-Trading-Systeme (also nix, was man als Privatmensch kaufen könnte) beziehen deshalb Informationen aus so vielen Quellen wie möglich, der Chart ist nur eine davon. Sentiment-Beurteilung z.B. ist IIRC inzwischen Standard. Das ist die spannende Frage - wieviel ist nötig, um damit zumindest ein bisschen Geld zu verdienen? Falls du mit deinem Wissen und deinen Fähigkeiten gerade so profitabel sein solltest, dann hat dieses Projekt keinen praktischen Nutzen. Denn so ein Niveau wird das, was ich bauen möchte, keinesfalls erreichen. Es wäre aber natürlich trotzdem ein interessantes und lehrreiches Projekt - rein für den Spass ... 😉 Mein Gedankengang ist eher: Gibt es für mein kleines Geld Nischen, die den Profis zu klein sind? Wo gehobelt wird, da fallen Späne - kann ich irgendwie Späne aufsammeln gehen?
  18. Das ist vermutlich mein größtes Handicap. Ich bin selber kein Trader und habe nur Theoriewissen aus Büchern. Theoriewissen hat aber noch nix mit Können zu tun. Insofern probiere ich notgedrungen viel über Backtests aus. Und ich erlebe es dauernd, dass mir toll und einleuchtend erscheinende Ideen im Backtest um die Ohren fliegen. Das ist aber gerade der Witz an maschinellem Lernen - die Maschine leitet aus dem Datenmaterial selber eigene Regeln ab. (Damit das überhaupt funktionieren kann, muss man im Gegenzug aber einiges an Mühe reinstecken, um Overfitting zu vermeiden und zu "generellen" Regeln zu kommen.) Und zumindest auf dem Gebiet des maschinellen Lernens hat es sich schon oft als Irrweg herausgestellt, wenn ein menschlicher Experte Vorgaben an die Maschine macht. Nach ersten Anfangserfolgen fährt das ganze normalerweise recht schnell in eine Stagnation - trotz guter Experten - und erreicht erst dann weitere Verbesserungen, wenn man auf die Experten-Vorgaben verzichtet und die Maschine frei und selber lernen lässt. Literatur dazu: "The Bitter Lesson" http://www.incompleteideas.net/IncIdeas/BitterLesson.html
  19. Das empfinde ich auch ein bisschen als Einschränkung. Wenn man sieht, wie aufwendig in "Elementarschritten" alleine schon sowas wie RSI ist, dann halte ich die Chance für recht gering, dass GP einen sinnvollen neuen Indikator erfinden kann. Zumindest für ein GP in dem Umfang, den ein interessierter Amateur noch handlen kann. 😉 Würde es für GP ebenfalls so professionelle Bibliotheken wie für NNs geben - samt der entsprechenden Beschleunigung durch passende Hardware - wäre sicherlich auch etwas mehr möglich. Aber unter den gegebenen Umständen finde ich den Ansatz aus dem letzten Paper sehr sinnvoll, Basiskonzepte wie MAs, MA-Kreuzungen, Channelausbrüche und ähnliches als basisbausteine zur Verfügung zu stellen und über GP "nur" passende Kombinationen davon zu finden.
  20. Auf Github und Co habe ich schon gestöbert, aber bisher sieht es so aus, als müsste man das alles selber programmieren. 😉 Insofern stecken wir noch in der Theorie. Üblicherweise begrenzt man die Baumtiefe, um Overfitting zu vermeiden.
  21. Ein interessantes Paper zum Thema: A real-time adaptive trading system using Genetic Programming https://www.researchgate.net/publication/227623866_A_real-time_adaptive_trading_system_using_Genetic_Programming Ein Nachteil dieses Papers ist das relative hohe Alter (von 2001) und die dadurch bedingte schwache Rechenkraft der damaligen PCs im Vergleich zu heute (vermutlich Pentium III oder weniger). (Edit: Getradet wird in diesem Paper auf dem Forex-Markt. Hier gibt es einen großen Unterschied zum Aktien- oder Kryptomarkt: Der langfristige Erwartungswert bei Forex liegt bei Null, d.h. es gibt bei Forex kein langfristiges Wachstum, weswegen Buy-and-Hold-Strategien hier sinnlos sind. Bei Aktien und Kryptos laufen Optimierungen von Strategien u.U. in die Buy-and-Hold-Falle, d.h. sie kaufen einmalig und halten.) Nichtsdestotrotz ist vieles aus dem Paper interessant: Der hier verwendete Ansatz ist - im Gegensatz zu den üblichen Papers über maschinelles Traden - stark am Vorgehen menschlicher Trader orientiert, nicht an theoretisch-akademischen Grundmodellen. Als Erfolgskriterium wird nicht einfach ein möglichst hoher Profit angestrebt, sondern die Stirling Ratio (Profit geteilt durch maximalen Drawdown), was laut Paper von menschlichen Tradern bevorzugt würde (kann ich nicht beurteilen). Es wird keine einzelne Strategie benutzt, sondern es werden im Portfolio parallel die besten 20 Strategien gleichzeitig ausgeführt. Über den von durch GP festgelegten Strategien steht noch ein "Cash Management", das eigenständig einen Stoploss führt und aktive Trades in zu großem Verlust schließt, bevor die GP-Strategie das ggfs selbst merkt. Interessant ist auch, dass im ersten Ansatz auch die Verwendung mehrerer Candlegrößen gleichzeitig innerhalb jeder Strategie geplant wurde. Aufgrund der damals extrem hohen Rechenzeiten und Schwierigkeiten mit Overfitting wurde das im weiteren Verlauf leider wieder fallen gelassen. Die Tradingregeln werden nicht beliebig "erfunden", sondern basieren auf ein paar Standardmethoden (MA-Kreuzungen, RSI-Schwellwerte, Channel-Breakout u.ä.), die über AND, OR und XOR miteinander verknüpft werden. (Abschreckendes Beispiel: In einem anderen Paper durfte das GP Trading-Regeln auf der Basis des Preises und der vier Grundrechenarten erfinden - da kamen dann so einleuchtende Sachen heraus wie: wenn das Quadrat des Preises minus Preis plus 95 ...) Zu ihren Ergebnissen - ihre Resultate sind leider nicht so überzeugend: Die Out-of-Sample-Performance ihres Strategie-Portfolios sank ziemlich schnell ab. Verschiedene Versuche mit periodischem Retraining oder adaptivem Retraining (d.h. nach Überschreitung gewisser Verluste) ergaben schlechtere Werte als bei Beibehalten der ursprünglich ermittelten Strategien. Sie vermuten, dass ihr Retraining lediglich zur Anpassung an die letzten lokalen Markterhältnisse führt, d.h. Reduzierung der globalen Anteile zugunsten von Overfitting an die gerade erlebte Marktsituation. Generell, so schreiben sie, war ihr Hauptproblem, das sie an der Verbesserung/Erweiterung ihrer Methodik gehindert habe, aber die arg begrenzte Rechenkraft. Ihr Modell nutzte nur 50 Individuen und 6 Generationen, brauchte aber pro Iteration schon 2h bis 4h Rechenzeit.
  22. Jetzt warten wir erst einmal mal ab, ob @Amsinoch irgendetwas erreichen kann. Beim simplen Copy & Paste aus dem Google-Cache würde leider viel an Metainformationen u.ä. verloren gehen, es blieben hauptsächlich die puren Texte.
  23. Wir bekommen aber auch nur die mit, die fragen. Wie viele mit der Suchfunktion des Forums etwas finden und dann zufrieden sind, bleibt im Dunkel. In Summe wirst du vermutlich trotzdem Recht haben. 😉
  24. Danke! Sollte sich im schlechtesten Fall doch nichts mehr restaurieren lassen: Im Google-Cache waren (zumindest gestern) noch 33 der 47 Seiten drin. Bei den ersten Seiten sind die Lücken größer, bei den neueren Seiten fehlen nur wenige. Als absoluten Notnagel könnte man daraus die wichtigsten Infos exzerpieren und per Hand neu posten.
  25. Ich habe spasseshalber mal in die Wayback Machine geschaut, die hat aber leider nur die allererste Seite. Wenn der Thread im Google Cache noch drin ist, dann dort schleunigst alle Seiten rauskopieren ... (Edit: Der hat anscheinend auch nur noch Fragmente ... schade ...)
×
×
  • Neu erstellen...

Wichtige Information

Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.