Kein Blatt vor dem Mund - Frei Schnauze

  • wie muss die KI entscheiden

    Wenn ich richtig liege, ist KI per Definition mehr als die Abarbeitung eines menschenfestgelegten Regelwerks. KI entwickelt sich eigenständig weiter.

    Jetzt könnte man zynisch sagen, dass es dann nicht mehr in der Verantwortung des Programmierers liegt, was das Maschinchen da treibt.

    Mich überzeugen die Ziele des autonomen Fahrens nicht. Total energieaufwändiger Individualverkehr? Es gibt längst bessere Konzepte.

    Und mit einer Reduzierung des Strassenverkehraufkommens sinken dann auch automatisch die Unfallzahlen.

    Juni , lies bitte Quality Land - ich bin gespannt, ob es Dich packt? Drohnen mit Flugangst und Kampfroboter mit posttraumatischer Belastungsstörung...
    Mich hat es köstlich amüsiert, obwohl es eine Welt knapp vor der bitteren Wahrheit beschreibt.

  • Wie alles was der Mensch erfindet oder programmiert, kann zum Guten wie auch zum Schlechten eingesetzt werden. Gerade jetzt läuft eine med. Erprobungsphase bzgl. KI- Insulinpumpe. Wenn es denn funktionieren sollte wäre es bestimmt ein Segen für alle betroffenen Diabetiker....man wird irgendwann bestimmt erfahren wie sich dieses Teil in der Realität schlägt, wenn man nichts hört ist der Versuch fehlgeschlagen.🤷‍♀️

    Ich stimme Dir zu Elke was das autonome Fahren betrifft. Es werden ja bereits irgendwo in Deutschland zu Testzwecken autonome Busse eingesetzt, freiwillig würde ich da nie einsteigen.

    #IchDampfeIchWähle #

  • KI entwickelt sich eigenständig weiter

    KI hat nicht viel mit echter Intelligenz zu tun. Ja, sie lernt dazu aber immer auf einer vorgegebenen Basis. KIs sind fachidioten: sie können das bisschen, für das sie entwickelt werden besonders gut. Ein links und rechts nebenher gibt es aber nicht.

  • Definiere Intelligenz... Illmix

    Ein Schachroboter ist noch keine KI, sondern profitiert nur von der schnellen Rechenleistung.

    Auf die Schnelle finde ich: Fähigkeit [des Menschen], abstrakt und vernünftig zu denken und daraus zweckvolles Handeln abzuleiten.

    Definiere Vernunft...

    "Bob und Alice" entwickelten mit der Zeit Ihre eigene effiziente Sprache, kennst Du wahrscheinlich. Das kommt meinem Begriff von KI schon näher.

  • Mal was ganz anders: flaywer.de ist mit einem neuen Konzept online.


    Zitat aus dem Newsletter:

    Unsere Auswahl an TPA / TFA, Capella, FlavorWest und Flavorah ist größer, als je zuvor mit 253 TPA Aromen, 338 FlavorWest Aromen, 143 Capella Aromen und 94 Aromen von Flavorah. Dazu kommen 100 neue Aromen aus der Super Aromas Serie von Sobucky und 96 unglaublich leckere Aromen von Delishus. Besonders über Delishus freuen wir uns sehr. Weitere Grundaromen sind in Planung. [...] Mehr Auswahl, günstigere Preise, Originalgebinde und frischere Aromen, die nach ihrem Bedarf importiert werden, bedeuten eine längere Lieferzeit

  • @KI

    das, was derzeit existiert (bekannt) ist eher das, was Illmix beschreibt. Ich würde aber unter künstlicher Intelligenz etwas mehr verstehen, das künstlich kann man meiner Meinung nach streichen, denn Intelligenz ist nun mal Intelligenz. Wir sind alle ebenfalls nur "künstlich" intelligent, denn auch wir sind nur programmiert durch unsere Gene und den Einflüssen, denen wir eben ausgesetzt sind/waren (oder eben nicht). In meinen Augen ist Intelligenz nicht Wissen, sonder das anwenden des Wissens, um eine Aufgabe zu erfüllen. Macht die Natur schon viel länger als es Menschen überhaupt gibt. Ob die nun eine Made mit einem Grashalm aus einem Astloch picken oder einen Autounfall vermeiden oder zu anderen Planeten fliegen ist, ist nur eine Detailfrage, eine Abstufung auf der Intelligenzmesslatte. Wir Menschen sind auch nur Fachidioten, denn ich kenne keinen, der in allem immer alles kann/richtig macht. Einige können halt nur ein Fach, manche ein paar mehr, aber keiner alles. Das kann am ehesten die Schwarmintelligenz, wie uns die Natur/das Tierreich immer wieder eindrucksvoll zeigt. Wir Menschen sind da eher schlecht. Computerintelligenz ist wohl eher die nächste Evolutionsstufe, denn dort besteht die Möglichkeit, das eben ganz viele "Fachidioten" zu einer Schwarmintelligenz werden und somit etwas entsteht, das Mensch sich heute nicht in Gänze vorstellen kann (und wahrscheinlich auch nie wirklich verstehen). Wir Menschen sind ein Teil dessen, evtl. kein unwichtiger, aber eben nur ein Teil. Unsere "Fachidiotie" ist aber wohl eher die Fantasie und das umsetzen diese in reale Dinge. Ich denke, das wir eines Tages verschmolzen sein werden, das irgendwann kaum noch eine Grenze zwischen Mensch und Maschine gezogen werden kann. Wie mit einem Organ, das zwar auch außerhalb alleine "leben" kann, aber erst im Verbund mit dem restlichen System zu etwas mehr wird, als ein Stück Fleisch, das Stoffwechselt.

    Eine Utopie von mir ist ja, das "Intelligenz" an sich eine Art Wesen ist, das zeitlos auf diesem Planeten erst Amöben, dann Tiere und Menschen hervorbrachte, die letztlich dann Maschinen entwickeln, um sich durch Raum und Zeit wohin auch immer bewegen zu können.

    Genug gesponnen :D Halt einfach nur mal Denkspielereien

    Wissen nutzt nur wenn man es anwendet. :midi36:

    footer1580945957_19460.png

    Es wurde bereits alles gesagt - nur noch nicht von jedem ;) (Karl Valentin)

  • Ein Schachroboter ist noch keine KI, sondern profitiert nur von der schnellen Rechenleistung

    Das liegt daran wie er funktioniert: wenn er nach dem schachregelwerk einfach alle möglichen Züge durchrechnet die auf den aktuellen spielstand beruhen und dabei den bestmöglichen zieht, ist es keine KI. Wenn er das regelwerk als Grundlage hat und aus Erfolgen und Verlusten seiner und deiner Züge lernt, dann ist es eine KI. Sowas habe ich mal für eine Konvention programmiert, zum anlernen habe ich die KI einfach eine Woche gegen sich selber antreten lassen. Lässt du diese KI jetzt Dame spielen, weiß sie gar nicht was das ist und versagt auf ganzer Linie.

    Science fiction

    Drohnen mit Flugangst und Kampfroboter mit posttraumatischer Belastungsstörung

    Ist weit weg von dem, was wir heute unter KI verstehen. 3s ist schlicht ein Fehler bei einer KI etwas menschliches zu erwarten.

    Terminator kommt der Sache näher, zumindest der Grundgedanke: gib einer KI die Möglichkeit Ziele für Atomraketen zu bestimmen und sie autonom abzuschießen, gib ihr ein lasches regelwerk alle Daten zu analysieren und die Aufgabe den Planeten vor großen Gefahren zu beschützen, könnte das Ergebnis dieser KI sein, dass der Mensch selber die Gefahr ist und die Nuklearraketen zündet um den Menschen auszulöschen. Trauma und Angst wurden dabei ausbleiben.

  • Elke

    Hab den Newsletter auch gelesen, bin mal sehr gespannt, ob deren Konzept aufgeht. Ist schon sehr mutig, da mit langen Lieferzeit und so zu agieren. Aber hier kann es sogar sein, das die bevorstehenden Änderungen denen in die Hände spielen, denn besser lange warten als gar nix mehr bekommen (bzw. nur noch das, was dann eben Mainstream ist)

    Wissen nutzt nur wenn man es anwendet. :midi36:

    footer1580945957_19460.png

    Es wurde bereits alles gesagt - nur noch nicht von jedem ;) (Karl Valentin)

  • Wenn man nach den Aromen von Delishus googelt, trifft man häufig auf Aromen von Mom & Pop mit selbigem Namen. :/

    Falls es sich nur um umgefüllte M&P Aromen handelt, dann gibt es diese hier günstiger

    https://www.aromenversand.com/Mom-Pop_1

    Die Sobucky Super Aromas gibt es hier günstiger

    https://www.lebensmittelaromen.eu/produkt-katego…r/super-aromas/

    Einmal editiert, zuletzt von DEATHROW (12. September 2021 um 15:40)

  • Der Computer in einem selbstfahrenden Fahrzeug hat schon eine KI würde ich sagen.

    Einem Schachcomputer könnte man sowas nicht beibringen, denn die anderen "Figuren" auf dem "Spielfeld" halten sich eben nicht immer an die "Spielregeln".

    Unberechenbares Verhalten ist genau das, eben unberechenbar.

    Das größte Problem für jeden Computer in einem solchen Fahrzeug ist und bleibt der Mensch mit seinen teilweise irrationalen Entscheidungen (plötzliche Spurwechsel ohne zu blinken oder eine Vollbremsung auf freier Strecke ohne erkennbaren Anlass usw.). Wenn alle Fahrzeuge selbstfahrend wären (und dementsprechend mit einer KI ausgestattet wären) und eventuell auch miteinander vernetzt wären, dann wüsste eine KI zu jeder Zeit wo sich die anderen Fahrzeuge in ihrer Umgebung befinden, in welche Richtung die fahren, wie schnell die sich bewegen usw.

    In dem Fall blieben die menschlichen Fußgänger weiter eine mögliche Ursache für "Probleme". Man müsste also der KI beibringen immer damit zu rechnen das ein Fußgänger plötzlich etwas tut was er nach den "Regeln" eigentlich nicht tun dürfte (vorallem Kinder neigen ja dazu spontan zu handeln und nicht über die Konsequenzen ihres handelns nachzudenken). Wobei natürlich das Problem bliebe das die KI einen Fußgänger erstmal als genau das erkennen können müsste.

    Die Regel Nummer Eins für jede KI muss dabei sein das die Sicherheit der Insassen höchste Priorität hat (die Insassen werden zu den "Schutzbefohlenen" der KI). Wenn die Sicherheit der Insassen nicht gefährdet ist, dann hat das Leben aller anderen Menschen höchste Priorität (die Sicherheit anderer Fahrzeuge und anderer Gegenstände spielt immer nur eine untergeordnete Rolle). Eine solche Gewichtung muss sein und es ist besser das wir Menschen diese Gewichtung vornehmen, denn es könnte unangenehm werden wenn wir einen Computer eine solche Gewichtung vornehmen lassen (ich möchte nicht das ein Computer darüber entscheidet wie wichtig oder unwichtig ich bin).

    Wenn diese Grundregeln gelten, dann ist klar wie eine KI in der von Illmix beschriebenen Situation entscheiden würde. Die KI würde nicht in die Wand steuern, aber eine Vollbremsung durchführen und alles versuchen um eine Kollision zu vermeiden. Wenn die Physik dann verhindert das die KI diese Kollision vermeiden kann, wer ist dann schuld?

    Und bitte kommt mir nicht mit "aber ein menschlicher Fahrer würde unter Umständen sich dafür entscheiden doch in die Mauer zu fahren", denn das ist ein Denkfehler. Wie weiter oben beschrieben sind die Insassen die Schutzbefohlenen der KI. Wenn wir also die KI durch einen menschlichen Fahrer ersetzen, dann müsste da ein Vater oder eine Mutter am Steuer sitzen und hinten sitzen seine/ihre Kinder und ich wage doch arg zu bezweifeln das irgendein Vater oder irgendeine Mutter in der Situation das Fahrzeug in die Mauer steuern würde und dabei ihre eigenen Kinder töten würde (ich kenne Mütter die würden ohne mit der Wimper zu zucken die halbe Menschheit plattfahren um ihre eigenen Kinder zu schützen). Wenn die KI warum auch immer alleine unterwegs wäre, dann würde Regel Nummer Zwei greifen und die KI würde ohne zu zögern in die Mauer steuern (menschliches Leben ist mehr wert als ein Fahrzeug).

  • Und bitte kommt mir nicht mit "aber ein menschlicher Fahrer würde unter Umständen sich dafür entscheiden doch in die Mauer zu fahren", denn das ist ein Denkfehler

    Ich habe mich schoneinmal bewusst dafür entschieden eine Leitplanke als Bremshilfe zu nutzen, mit dem Wissen, dabei draufgehen zu können. Hier hatte ich beim Anflug genug Zeit zu denken und nicht nur zu reagieren. Das wiederauffangen des Fahrzeuges war wieder Instinkt und Reflex.

    Das ist nur ein kleiner Beweis dafür, dass du vielleicht eine Vorstellung hast, wie Sie auch viele vorgetragen haben. Aber es gibt genügend Menschen, die an der Entwicklung beteiligt sind, die da auch meine Auffassung teilen: damit ist das diskussionwürdig. Du bewertest das Leben eines Menschen in dem Fahrzeug höher als das des Menschen außerhalb.

    Richtig ist: wenn die autonomen im eigenen System agieren, indem nichts anderes sich zu bewegen hat, nur dann könnte man es so handhaben, wie bei dem traurigen Beispiel in der fertigungshalle: der Mensch hat eine Gefahrenzone betreten in der er nichts zu suchen hat, die entwickelten Schutzmechanismen haben zwar gegriffen aber konnten die Physik nicht überlisten. Eine Tragödie, aber kein Grund das System abzuschalten.

    Ich habe vor einigen Jahren noch in einer engen Straße gewohnt, ein paar Häuser weiter eine Kita, durch Gebüsch war der Einblick zum kitazuweg erst einsehbar, wenn man schon davorstand. Hier bin ich immer mit höchster Aufmerksamkeit extrem langsam an dem Zugang vorbeigefahren, weil ich weiß: sobald da plötzlich ein Kind ausbüchst und auf die Straße springt, geht es durch meinen Radkasten.

    Also Bau das geschlossene System so, dass Menschen, Kleinkinder die diese Regeln weder verstehen noch wahrnehmen auch nicht reinkommen. Bei dir Kita hätte ein einfaches Törchen gereicht, aber auch hier hat schon der Mensch versagt.

    Generell halte ich es nicht für unmöglich so ein System zu schaffen, aber wir sind noch sehr weit davon entfernt das flächendeckend umzusetzen, schon alleine weil wir alles, was wir bisher unter Infrastruktur Straßenverkehr verstehen einstampfen und neu aufbauen müssten. Eine charmante Vision ist: du hast nicht dein Fahrzeug, sondern es holt dich ein verfügbares Fahrzeug ab. Hier könnten die Fahrzeuge, die 80% der Zeit nur rumstehen wegrationalisiert werden. Sag jetzt mal jemand Carsharing 😂

    3 Mal editiert, zuletzt von Illmix (12. September 2021 um 18:39)

  • Ich habe ja gesagt das man eben nicht von einem menschlichen Fahrer alleine ausgehen kann. Hättest du die Leitplanke auch dann als Bremshilfe benutzt wenn da noch andere mit in deinem Auto gewesen wären (mit dem Wissen das deine Entscheidung deren Leben hätte kosten können)? Eventuell ja, wenn du der Überzeugung gewesen wärst das dieses Manöver die höchsten Überlebenschancen (für dich und die Passagiere) geboten hätte.

    Man darf eine KI die einen Menschen durch die Gegend kutschiert nicht mit einem Menschen vergleichen der dasselbe alleine tut. Das ist kein fairer Vergleich.

    Wenn man in ein autonomes Fahrzeug steigt dann geht man davon aus das die KI das Leben des "Passagiers" schützt (und der Fahrer eines solchen Fahrzeugs wird zum Passagier sobald die KI die Steuerung übernimmt). Die KI darf nicht für den Passagier entscheiden ob der bereit ist sein Leben zu riskieren (in der Situation könnte der Fahrer eines solchen Fahrzeugs natürlich ins Lenkrad greifen und damit die Steuerung selbst übernehmen, aber damit würde der Fahrer ja wieder selbst entscheiden ob er sein Leben riskieren will oder nicht. Die KI kann und darf das nicht entscheiden).

  • Es ging darum, dass ich mich selber einem höheren Risiko ausgesetzt habe, aber anderen dadurch weniger gefährdet. Das widerspricht total dem Ansatz "die Insassen des Fahrzeuges werde als erstes geschützt, dann allen weiteren" eine starre leiplanke nimmt deutlich weniger Energie auf, als ein in fahrtrichtung quer rutschendes Fahrzeug, das ich auf der Fahrerseite erwischt hätte. Wie ich bei 2. Insassen gehandelt hätte weiß ich nicht. Liegt am Insassen 😂 Aber das spielt bei dem Gedankenmodell keine große Rolle: ich war Lenkende Intelligenz und insasse gleichzeitig. Was ist passiert: ich hatte den Schaden und derjenige für den ich die Leitplanke geknutscht habe ist unbeschadet zum stehen gekommen und ist einfach weitergefahren. Ja leck mich doch 😂

    Wir könnten uns hier weiter im Kreis drehen, aber es ist sinnlos: ich will keine KIs vor der Haustür rumfahren haben, die ihre Insassen höher bewertet als mich oder meine Familie. Hier ein Ranking zu erstellen ist und bleibt für mich falsch. Und das schreibe ich als Entwickler, der seit den 90ern voll auf KIs abfährt 😂

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!