03 Apr. 2023 20:41

Air Gapping für LLMs


*Einsetzen für internationales Moratorium für LLMs und GAIs *Wir geben uns zehn Jahre um darüber nachzudenken, wie eine GAI den Untergang der Menschheit verursachen kann *Wir geben uns ein Jahrzehnt für Forschung an der Frage, wie und ob man eine GAI, die intelligenter ist als man selber überhaupt alignen kann *Wir geben uns ein Jahrzent, Gesetze zu formulieren, wie wir mit GAI umgehen, die intelligenter ist als wir, welche Rechte wir ihr zugestehen sollten bzw. müssen. Es ist vielleicht auch einfach unethisch eine GAI zu erzeugen, auch wenn es aus versehen ist. *Alle Organisationen und Individuen, die AGI oder LLMs implementieren bevor eine plausible Alignmentstrategie entwickelt wird, müssen mit allen Mitteln daran gehindert werden, eine Singularität zu erzeugen. *Neue LLM-Versionen oder Versuche eine GAI zu erzeugen dürfen auch danach nur auf System durchgeführt werden, die airgapped sind Warum? https://www.youtube.com/watch?v=AaTRHFaaPG8

03 Apr. 2023 20:41

Review of request

Reviewing

Reply Report
Support (out of 0 rates)
Follow