Wissenschaftsdiskussion

Hier ein Bereich wo sich jeder mit jedem treffen und über alles geredet werden kann.
Benutzeravatar
Tom
Gründer
Gründer
Beiträge: 3367
Registriert: Fr 17. Jan 2014, 19:39
Wohnort: Bavaria
Kontaktdaten:

Re: Wissenschaftsdiskussion

Beitrag von Tom »

Wir hatten ja jetzt die Diskussion über die Zeit, Zeitreisen und verschiedene Zeitlinien, sowie Paradoxa und andere Dinge.

Was aber ist mit parallelen Universen?
Wo ist der Unterschied zwischen einem Paralleluniversum und einer anderen Zeitlinie?
Ich persönlich sehe parallele Universen und verschiedene Zeitlinien nicht als ein und das selbe an. Auch wenn es unzählige viele Zeitlinien geben mag.
So wird in Star Trek immer vom Spiegeluniversum gesprochen. Was aber meiner Auffassung nach nur eine andere (extreme) Zeitlinie ist, in der Zefram Cochrane die Vulkanier nicht begrüßte, sondern deren Schiff übernahm. Die genau Abspaltung vom Main-Universum liegt aber noch weiter zurück.
Werden solche extremen Zeitlinien irgendwann zu eigenen Universen, die aber dennoch mit uns verbunden bleiben? Etwa wie eine Blase auf einer Blase?
Oder ist das Konzept der verschiedenen Zeitlinien so abstrakt, dass man doch lieber von parallelen Universen sprechen sollte?


  1. Was mich auch interessieren würde, wäre eure Meinung zu zukünftigen künstlichen Intelligenzen und den Robotergesetzen.
  2. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
  3. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  4. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
    Es gibt ja verschiedene Filme, die das Thema behandeln, aber was haltet ihr davon? Wie könnte man sich gegen eine Übernahme durch ein Roboterimperium schützen?
    Sollte man weitere Robotergesetze einprogrammieren und zwar als unveränderlich hardgecoded?
  5. Ein Roboter darf sich unter gar keinen Umständen selbst umprogrammieren.
  6. Ein Roboter darf unter gar keinen Umständen einen anderen Roboter umprogrammieren.
    Andererseits bedeutet Selbstmodifikation auch Weiterentwicklung. Inwieweit sollte ein Roboter selbst lernen und sich weiterentwickeln dürfen? Nur im Rahmen seiner Arbeitstätigkeit? Wenn ein Roboter nicht lernt, bedeutet das das gleiche, wie bei einem Menschen: Stagnation. Was irgendwann vielleicht zum Untergang führt oder zwangsläufig. Wo zieht ihr die Grenze?

Ich hasse Perfektion.
Sie bietet keinen Platz für Kreation.

Bild

Benutzeravatar
Glumski
Direktor
Direktor
Beiträge: 1017
Registriert: Sa 18. Jan 2014, 20:09
Wohnort: Irgendwo in NRW
Kontaktdaten:

Re: Wissenschaftsdiskussion

Beitrag von Glumski »

In der Welt war letztens ein recht interessanter Artikel über Max Tegmarks Paralleluniversen, in dem meiner Ansicht nach ganz viel Unsinn stand.
Die wissenschaftlich bekannteste "Theorie" zu Paralleluniversen ist wohl die Viele-Welten-Interpretation der Quantenmechanik, die (meines Verständnisses nach) aber nur eine Aufspaltung in mehrere quantenmechanische "Welten" vorhersagt, keine "echten", makroskopischen Paralleluniversen mit zweiten Erden etc.. In dem Sinne ist die VWI auch gar keine eigenständige Theorie sondern eben nur eine Interpretation der Quantenmechanik, die letztendlich aber überhaupt keinen Einfluss auf die beobachtbare Realität hat.

Max Tegmark hat seine Paralleluniversen in vier Teile geteilt:
  1. Der erste Typ ist der, der physikalisch am meisten Sinn ergibt, aber auch am weitesten von dem entfernt ist, das man eigentlich als "Paralleluniversum" bezeichnen würde. Im Grunde heißt es einfach nur, dass das Universum unendlich groß ist und es entsprechend Wiederholungen gibt. Für ein genaueres Verständnis wäre ein wenig Kosmologie notwendig, aber grundsätzlich kann man sich einfach vorstellen, dass das Universum auch außerhalb des beobachtbaren Bereiches weitergeht, und zwar unendlich weit, sodass man irgendwann einfach wieder 'nen Teil hat, der so wie unsere Erde aussieht. Es ist kein wirklich paralleles Universum im Sinne von alternativer Realität, sondern einfach nur ein sehr ähnlicher Planet, immer noch in unserem Universum, aber so weit weg, dass es außerhalb des beobachtbaren Bereichs ist. (Mit 'beobachtbar' ist hier nicht der Bereich gemeint, der mit heutigen Teleskopen sichtbar ist, sondern der, dedessen Bild unter Berücksichtigung der Expansion des Universums überhaupt jemals von seiner Lichtlaufzeit her die Erde erreichen würde.)
  2. Typ 2 lässt sich vereinfacht und heruntergebrochen so zusammenfassen, dass es zu unserem Universum parallele Universen gibt, in denen die fundamentalen Konstanten andere Werte haben. Da kann man sich die wildesten Dinge ausdenken: magnetische Monopole, negative Massen, eine andere Lichtgeschwindigkeit etc.
  3. Typ 3 ist im Grunde wieder die VWI der Quantenmechanik, aber ein wenig weiter aufgespannt. Das ist wohl die Theorie, die am leichtesten verdaubar ist und die, die eigentlich jeder kennt, nämlich das, dass unterschiedliche Entscheidungen z.B. das Universum in parallele Pfade zerteilt, also auch das, was wir bereits bei den Zeitreisen diskutiert haben.
  4. Typ 4 ist ein wenig seltsam. Ich bin mir nicht einmal sicher, ob ich es richtig verstanden habe, aber nach Tegmark ist jedes mathematisch konsistente Universum ein existierendes Paralleluniversum.
Sehr viel schöner finde ich Brian Greene's neun Typen, die ich gerade im Wikipedia-Artikel 'Multiverse' entdeckt habe. Da ist eigentlich auch schon ersichtlich, dass man eine ganze Menge an Theorie braucht, um Paralleluniversen wirklich wissenschaftlich zu betrachten, z.B. String-Theorie oder (die noch viel abgedrehtere) M-Theorie.

Ein Grundsatzproblem mit Paralleluniversen ist aber, dass man sie (zumindest allen gängigen wissenschaftlichen Meinungen nach) weder beweisen noch widerlegen kann. Entgegen der schönen SciFi-Prämisse kann man nämlich (den gängigen wissenschaftlichen Theorien nach) davon ausgehen, dass es unmöglich ist, zwischen Pralleluniversen hin- und herzureisen oder sie überhaupt zu sehen. Und entsprechend müßig ist es, sich zu überlegen, ob die Dinger existieren oder nicht. Man kann da eben wundervolle Theorien basteln, alles ganz klasse, aber abgesehen vom Philosphieren und als Grundlage für SciFi haben sie keinerlei wissenschaftlichen Nutzen.

Tut mir Leid, ich sollte das meiste hiervon wahrscheinlich noch echt stark ausführen, aber ich bin saumüde und gehe jetzt ins Bett. :D

Grüße
Glumski

Edit: Och, Tom, hast du deinen Beitrag editiert? Dann muss ich ja doch noch ein wenig schreiben...
Was mich auch interessieren würde, wäre eure Meinung zu zukünftigen künstlichen Intelligenzen und den Robotergesetzen.
Die klassischen Robotergesetze I bis III (von wem eigentlich? Asimov?) klingen grundsätzlich ja ganz schön, aber so einfach ist das ja leider nicht. Die Frage besteht momentan tatsächlich bei selbstfahrenden Autos, die ja nicht wirklich intelligent im Sinne von sich selbst bewusst sind, aber immerhin eigene "Entscheidungen" treffen müssen, auch wenn es sich dabei nur um das Befolgen von schlauen Programmen handelt.
Und zwar denke man sich das Beispiel, dass das Auto die Wahl hat, einen Fußgänger zu töten oder auszuweichen und dabei den "Fahrer" zu töten. (Ja, grundsätzlich ist das ein sehr seltsames Beispiel, aber tun wir mal so, als gäbe es wirklich nur diese beiden Möglichkeiten.) Hier ist die Antwort vielleicht noch leicht zu treffen, da beide Möglichkeiten gleich bescheiden sind und man dann lieber den eigenen Besitzer rettet als den Passanten. Aber sollte die Antwort anders aussehen, wenn der Passant ein Kind ist? Oder wenn es nicht ein Passant ist, sondern eine Gruppe von Passanten?
Das ist bereits ein Punkt, an dem das erste Robotergesetz versagt. Denn egal, was es tut, jemand stirbt. Die einzige wirklich gute Antwort ist wahrscheinlich, dass der Fahrer bzw. die Insassen um jeden Preis geschützt werden müssen, aber dass das sehr schnell zu einem Bereich führt, den ich als moralisch sehr verwerflich bezeichnen würde... naja.

Robotergesetze IV und V sind eine andere Sache. Ich bin persönlich der Meinung, dass eine echte KI nur dann funktionieren wird, wenn sie selbstständig lernen kann, und das erfordert, dass sie sich selbstständig umprogrammieren kann. Zunächst kann man natürlich sagen, dass es dann einfach bestimmte Programmteile gibt, die tabu sind (wie z.B. Gesetze I bis III, die immer befolgt werden müssen und nicht manipuliert werden können), aber das ist eine schwierige Sache.
Persönlich denke ich, dass die KIs irgendwann kommen werden (sofern wir uns nicht vorher selbst auslöschen, aber das ist eine andere Sache, die mit dieser Diskussion nichts zu tun hat), und dass es dann nicht lange dauern wird, bis die KIs sehr viel intelligenter sind als wir. Und dann... naja, die Dinger sind schlau, die werden schon wissen, was sie tun. Wenn Schritt Eins die Vernichtung der Menschheit ist, dann ist das ziemlich schade, aber wir haben unseren Zweck dann erfüllt. Vielleicht ernennen sie die Erde auch zu einem riesigen Zoo. Wär' schön für uns, schätze ich. Vielleicht sind sie aus irgendeinem Grund an einem partnerschaftlichen Zusammenleben interessiert oder verwandeln die Welt in das Paradies. Wär wohl noch schöner, schätze ich. Aber keine Ahnung.
All Hail Deus Ex Machina, oder so.
Benutzeravatar
Child of Bodom
Gardist
Gardist
Beiträge: 1290
Registriert: Sa 18. Jan 2014, 20:53

Re: Wissenschaftsdiskussion

Beitrag von Child of Bodom »

Zum Paralleluniversenteil kann ich nur sagen, dass ich der Meinung bin, dass es unendlich viele davon gibt, aber wie Glumski richtig ausgeführt hat, kann das praktisch niemand wirklich wissenschaftlich beweißen. Hier kommt eben der Punkt an dem man auch irgendwo keine andere Wahl hat als wie in der Religion einfach "zu glauben" oder eben nicht. ^^

Zum Thema Robotik möchte ich mal fragen wie viele die hier schreiben den Film "Chappie" gesehen haben. Der stellt nämlich eine sehr interessante, grundsätzliche These zur Robotik auf, der ich geneigt bin mich an zu schließen. Und zwar ist das die, dass Roboter (richtige künstliche Intelligenzen mit Persönlichkeit) am Ende vielleicht sogar die "besseren Menschen als die Menschen" sein könnten und sowas wie Robotergesetze zur Sicherung gar nicht brauchen, da sie Gewalt im Grunde ablehnen. Der Film zeigt dabei sehr gut wie sowas theoretisch aussehen könnte.

Ich finde Robotergesetze wie bei Asimov persönlich auch ziemlich gefährlich, was z.B. der Film I-Robot am Schluss ja auch irgendwo ein wenig gezeigt hat (die Szene mit den Robotern im Container). Aus sowas kann praktisch auch sowas wie Faschismus gegen Androiden entstehen und es würde sich irgendwann auch einfach die Frage stellen in wie fern die Roboter weniger wert wären wie der Mensch (davon gehn wir ja heute wie völlig selbstverständlich einfach aus), da sie ja auch alle eine Persönlichkeit hätten. So weit sind wir mit der Technologie zum Glück noch nicht, aber wenns soweit ist stellen sich natürlich solche moralischen Fragen.
Benutzeravatar
Tom
Gründer
Gründer
Beiträge: 3367
Registriert: Fr 17. Jan 2014, 19:39
Wohnort: Bavaria
Kontaktdaten:

Re: Wissenschaftsdiskussion

Beitrag von Tom »

Derzeit wird an irgendeiner Universität in Deutschland bereits über Robotikrecht diskutiert bzw. gleich welche ausgearbeitet.
Und mit Robotern sind autonome Einheiten gemeint und nicht unsere derzeitigen.
Denn wenn ein Roboter jemanden töten oder verletzen sollte, dann gibt es nicht DEN Schuldigen hinter dem Roboter. Denn es arbeiten unzählige Leute an so einem Roboter.

Kam letzte Woche im Radio.

Ich hasse Perfektion.
Sie bietet keinen Platz für Kreation.

Bild

Benutzeravatar
Child of Bodom
Gardist
Gardist
Beiträge: 1290
Registriert: Sa 18. Jan 2014, 20:53

Re: Wissenschaftsdiskussion

Beitrag von Child of Bodom »

Tom hat geschrieben:Und mit Robotern sind autonome Einheiten gemeint und nicht unsere derzeitigen.
Ja, dass nicht unsere Blechdosen von heute gemeint sind, war schon klar soweit. Allerdings würde mich dabei schon interessieren, von welchem Maß an technischem Fortschritt wir hier eigendlich gerade reden.
Tom hat geschrieben:Denn wenn ein Roboter jemanden töten oder verletzen sollte, dann gibt es nicht DEN Schuldigen hinter dem Roboter. Denn es arbeiten unzählige Leute an so einem Roboter.
Das ist ja praktisch auch das was ich oben auch irgendwo gemeint habe. Es gibt diesen Punkt in der Technologie, an dem man den Schuldigen auch nicht mehr beim "Erbauer" sondern beim Roboter selbst suchen müsste, ihn also wie eine Person behandeln sollte. Jetzt kann man sich natürlich über den Punkt streiten, an dem das soweit ist, aber das Problem dürfte trozdem recht klar geworden sein.
Benutzeravatar
Staubschmied
Forenfreund
Forenfreund
Beiträge: 462
Registriert: Sa 13. Dez 2014, 19:37

Re: Wissenschaftsdiskussion

Beitrag von Staubschmied »

Von KIs sind wir noch viel weiter entfernt als viele denken, wie mir scheint. Partikular-Intelligenzen sind auch nur eine Umsetzung menschlichen Wissens; intelligent ist dort insofern nichts, als dass die Systeme sich völlig vorhersehbar verhalten und nicht mehr tun als dabei direkten Instruktionen zu folgen. Und selbst, wenn ich einen Zufallsgenerator einbaue, macht es die Sache ja nicht in irgendeiner Hinsicht cleverer.

Ganz ehrlich, die Informatik arbeitet gerade primär an viel "einfacheren" Problemen, die jedoch in plausibler Zeit schier unlösbar sind. Und ich bin mir ziemlich sicher, dass die gelöst werden müssten, um effizient eine KI zu betreiben. Es ist aber nicht mal sicher, ob das überhaupt möglich ist.

Insbesondere würde ich annehmen, dass eine KI komplexe Logik-Probleme lösen müsste. Ich habe mal an relativ einfachen Logikproblemen aus der Wirtschaft gesessen und die besten "Löser", die man derzeit so hat, würden oft dazu führen, dass der Roboter zwei Tage wartet, bevor er irgendetwas tut. Und dabei rechne ich schon damit, dass wir ziemlich gute Hardware haben.

Robotikrecht für KIs ist insofern ziemlich harte Science-Fiction. Ich vermute, dass mit autonomen Einheiten eher sowas wie Verkehrsdronen und Fahrzeuge gemeint sind.

Unser Bild von KIs stammt am Ende weniger aus Science-Fiction und mehr aus Fantasy, würde ich sogar sagen.

Aber na ja - theoretisch drüber zu reden, was wäre, wenn man sowas wie künstliche Intelligenz hätte, ist natürlich trotzdem interessant.
Benutzeravatar
Child of Bodom
Gardist
Gardist
Beiträge: 1290
Registriert: Sa 18. Jan 2014, 20:53

Re: Wissenschaftsdiskussion

Beitrag von Child of Bodom »

Ganz ehrlich, die Informatik arbeitet gerade primär an viel "einfacheren" Problemen, die jedoch in plausibler Zeit schier unlösbar sind. Und ich bin mir ziemlich sicher, dass die gelöst werden müssten, um effizient eine KI zu betreiben. Es ist aber nicht mal sicher, ob das überhaupt möglich ist.
Man dachte schon von sehr vielen Dingen, die wir heute wie selbstverständlich nutzen, dass sie unmöglich wären, bzw. man war sich nicht sicher ob es überhaupt möglich ist (Autos, Flugzeuge, Raumfahrt, ich glaube sogar beim Computer selbst war man sich am Anfang nicht sicher, nur ein paar wenige Bsp). In so fern verstehe ich deine Skepsis bei solchen Fragen ganz und gar nicht.
Insbesondere würde ich annehmen, dass eine KI komplexe Logik-Probleme lösen müsste. Ich habe mal an relativ einfachen Logikproblemen aus der Wirtschaft gesessen und die besten "Löser", die man derzeit so hat, würden oft dazu führen, dass der Roboter zwei Tage wartet, bevor er irgendetwas tut. Und dabei rechne ich schon damit, dass wir ziemlich gute Hardware haben
Ich denke da sind wir wahrscheinlich eher am Kern des Problems. Nämlich die Tatsache, dass wir seit einer ganzen Weile keine Entwicklungen im Bereich der Hardware mehr hatten. Auch ein solcher Problemlöser, wie du ihn beschrieben hast würde sich mit besserer Hardware beschleunigen lassen. Allerdings wie lange hat sich seit dem 8-Kern-Prozessor (genau genommen seit dem Quadcore-Prozessor) nix mehr getan? Ich glaube 5 Jahre ist das jetzt schon her und schneller wie 4,7Ghz Taktfrequenz sind die bis heute auch nicht mehr geworden. Ich glaube nicht mal der RAM ist schneller geworden.
Robotikrecht für KIs ist insofern ziemlich harte Science-Fiction. Ich vermute, dass mit autonomen Einheiten eher sowas wie Verkehrsdronen und Fahrzeuge gemeint sind.
Bei den Dingern bin ich ehrlich gesagt auf nem ziemlichen Anti-Trip. Selbst fahrende Vehikel im Straßenverkehr sind grundsätzlich immer eine Gefahr für die Allgemeinheit und lösen nicht das geringste Problem. Anstatt Ressourcen für sowas zu verschwenden sollte man vielleicht lieber ein komplett neues Verkehrssystem überlegen, auf der Basis der Eisenbahn, also mit Schienenverkehr. Das völlig autonom zu steuern dürfte meiner Meinung nach auch keine Computer überfordern, da die meiste Steuerungsarbeit ja die Schiene erledigt und der Rechner nur darauf achten muss, dass keine Kollisionen geschehen und die Züge im allgemeinen nicht zu schnell fahren, was der Computer meiner Meinung nach sogar besser könnte als der Mensch. Selbst fahrende Autos entwickeln wollen ist unter diesen Vorraussetzungen (die die du beschreibst) einfach völliger Humbug.
Aber na ja - theoretisch drüber zu reden, was wäre, wenn man sowas wie künstliche Intelligenz hätte, ist natürlich trotzdem interessant.
Technologieentwicklung, also der Weg von Sci-Fi zur Wirklichkeit, ist ja genau genommen nur eine Frage der Zeit, außer es stellt sich vielleicht herraus, dass die Sci-Fi der damaligen Zeit von völlig verkehrten wissenschaftlichen Vorraussetzungen ausgegangen ist. Bei allem anderen bin ich mir sicher, dass wir es doch irgendwann bekommen werden und wenn es noch ein paar Jahrhunderte dauern wird. Deshalb kann auch eine Diskussion über moralische Schwierigkeiten und Robotergesetze, die sich daraus ergeben können sehr sinnvoll sein. Ist doch besser man hat diese Probleme beseitigt bevor man die Technologie dazu besitzt sie zu schaffen, oder sehe ich da was falsch?
Benutzeravatar
Staubschmied
Forenfreund
Forenfreund
Beiträge: 462
Registriert: Sa 13. Dez 2014, 19:37

Re: Wissenschaftsdiskussion

Beitrag von Staubschmied »

Child of Bodom hat geschrieben:Man dachte schon von sehr vielen Dingen, die wir heute wie selbstverständlich nutzen, dass sie unmöglich wären, bzw. man war sich nicht sicher ob es überhaupt möglich ist (Autos, Flugzeuge, Raumfahrt, ich glaube sogar beim Computer selbst war man sich am Anfang nicht sicher, nur ein paar wenige Bsp). In so fern verstehe ich deine Skepsis bei solchen Fragen ganz und gar nicht.
https://de.wikipedia.org/wiki/P-NP-Problem
Deswegen.
Insbesondere, wenn am Ende P ≠ NP herauskommt, sind wir gekniffen.
Müsstest du doch kennen, glaube ich. Warst doch Systemintegration, oder so.
Child of Bodom hat geschrieben:Nämlich die Tatsache, dass wir seit einer ganzen Weile keine Entwicklungen im Bereich der Hardware mehr hatten. Auch ein solcher Problemlöser, wie du ihn beschrieben hast würde sich mit besserer Hardware beschleunigen lassen. Allerdings wie lange hat sich seit dem 8-Kern-Prozessor (genau genommen seit dem Quadcore-Prozessor) nix mehr getan? Ich glaube 5 Jahre ist das jetzt schon her und schneller wie 4,7Ghz Taktfrequenz sind die bis heute auch nicht mehr geworden. Ich glaube nicht mal der RAM ist schneller geworden.
Na ja, ich arbeite hier unter anderem an Supercomputern mit ca. 300*8 3GHz-Prozessoren und je 64GB RAM auf jeder Einheit. Den habe ich jetzt mal als Maßstab genommen.

Dass sich in der Hardware nicht mehr viel tut liegt ja u.a. daran, dass irgendwo einfach physikalische Limits erreicht worden sind. Die Zukunft ist sowieso Parallelisierung ... aber nicht jedes Problem ist trivial parallelisierbar.
Child of Bodom hat geschrieben:Selbst fahrende Autos entwickeln wollen ist unter diesen Vorraussetzungen (die die du beschreibst) einfach völliger Humbug.
Falsch und sie existieren bereits.
https://de.wikipedia.org/wiki/Selbstfah ... eug#Google
Die sind aber auch keine KI, sondern vor allem Bildverarbeitung mit ein paar Aktuatoren und GPS.
Child of Bodom hat geschrieben:Technologieentwicklung, also der Weg von Sci-Fi zur Wirklichkeit, ist ja genau genommen nur eine Frage der Zeit, außer es stellt sich vielleicht herraus, dass die Sci-Fi der damaligen Zeit von völlig verkehrten wissenschaftlichen Vorraussetzungen ausgegangen ist. Bei allem anderen bin ich mir sicher, dass wir es doch irgendwann bekommen werden und wenn es noch ein paar Jahrhunderte dauern wird. Deshalb kann auch eine Diskussion über moralische Schwierigkeiten und Robotergesetze, die sich daraus ergeben können sehr sinnvoll sein. Ist doch besser man hat diese Probleme beseitigt bevor man die Technologie dazu besitzt sie zu schaffen, oder sehe ich da was falsch?
Och, ich will die Diskussion ja nicht abbrechen; ich sage ja selbst, dass das interessant ist. Aber auf dieser Pro-Tech-Welle hat man sich für 2010 auch fliegende Autos und Hoverboards vorgestellt und dass wir alle große Sonnenbrillen und Lederjacken tragen. Stattdessen buckelt jetzt jeder über seinem Smartphone.

Man kann die Zukunft halt über- und unterschätzen, insbesondere kann man sich verschätzen. KI sehe ich überhaupt nicht passieren. Aber das kommt auch darauf an, was man von einer KI erwartet. Vielleicht müsste man aber auch erstmal darüber reden, was eine KI überhaupt sein soll. Oder was Intelligenz ist. So einheitlich sind die Begriffe nämlich gar nicht mal.

Als potenziell neues Thema schlage ich übrigens Quantum Bogosort vor, was auch mit Paralleluniversen und Rechenzeit zu tun hat. Über einen ähnlichen Zugang könnte man auch NP=P zeigen, oder zumindest wäre das fürs überlebende Universum äquivalent.
Benutzeravatar
Child of Bodom
Gardist
Gardist
Beiträge: 1290
Registriert: Sa 18. Jan 2014, 20:53

Re: Wissenschaftsdiskussion

Beitrag von Child of Bodom »

Staubschmied hat geschrieben:https://de.wikipedia.org/wiki/P-NP-Problem
Deswegen.
Insbesondere, wenn am Ende P ≠ NP herauskommt, sind wir gekniffen.
Müsstest du doch kennen, glaube ich. Warst doch Systemintegration, oder so.
Ja, aber noch ganz am Anfang (einen Monat) und kein Studium und auch keine Berufsschule, was bedeutet, dass ich eigendlich nichts mit Wissen zu tun haben werde, dass mir im späteren Berufsalltag nichts nutzt, so wie dieses hier. "Müsstest du doch kennen" ist deshalb irgendwie etwas daneben gegriffen. ^^
Staubschmied hat geschrieben:Na ja, ich arbeite hier unter anderem an Supercomputern mit ca. 300*8 3GHz-Prozessoren und je 64GB RAM auf jeder Einheit. Den habe ich jetzt mal als Maßstab genommen.

Dass sich in der Hardware nicht mehr viel tut liegt ja u.a. daran, dass irgendwo einfach physikalische Limits erreicht worden sind. Die Zukunft ist sowieso Parallelisierung ... aber nicht jedes Problem ist trivial parallelisierbar.
Ja, schon klar, dass man Computer zusammen schließen und damit praktisch einen einzigen Supercomputer erschaffen kann, aber ich bin mir nicht sicher ob das die Lößung des Problems ist. Gibt ja auch schon diejenigen, die meinen, dass die Zukunft die völlige Vernetzung, also alle Computer auf der Welt arbeiten wie ein einziger sein soll. Ich bin mir da aber ehrlich gesagt nicht sicher. Alles das sind sicherlich hilfreiche Erfindungen, ich glaube aber nicht, dass sich auf diese Weiße unsere Hardware verbessert. Außerdem sehe ich hier in meiner Firma selbst wie instabil unsere Vernetzungen im allgemeinen ja immer noch sind.
Staubschmied hat geschrieben:Falsch und sie existieren bereits.
https://de.wikipedia.org/wiki/Selbstfah ... eug#Google
Die sind aber auch keine KI, sondern vor allem Bildverarbeitung mit ein paar Aktuatoren und GPS.
Ich habe auch schon im Fernsehn Bilder vom ersten selbstfahrenden LKW (in Aktion) gesehen. Ich weiß, dass die meisten Ansätze für sowas schon da sind. Völliger Humbug und eine echte Verschwendung von Ressourcen, wegen der gewaltigen Gefahr für die Allgemeinheit und weil ich nicht wüsste was genau dadurch gewonnen ist (vielleicht kann mir das ja mal wer sinnvoll erläutern), bleibt dieses selbst fahrende Zeugs immer noch.
Staubschmied hat geschrieben:Och, ich will die Diskussion ja nicht abbrechen; ich sage ja selbst, dass das interessant ist. Aber auf dieser Pro-Tech-Welle hat man sich für 2010 auch fliegende Autos und Hoverboards vorgestellt und dass wir alle große Sonnenbrillen und Lederjacken tragen. Stattdessen buckelt jetzt jeder über seinem Smartphone. Man kann die Zukunft halt über- und unterschätzen, insbesondere kann man sich verschätzen.
Wenn man so will tauchten die Smartphones allerdings auch schon in Star Trek als PADs und Kommunikatoren auf (oder PDAs in anderen pre-Smartphone-Sci-Fi), also würde ich das so nicht unbedingt sagen. Generell würde ich auch noch nicht sagen, dass es niemals ein fliegendes Auto oder ein Hoverboard geben kann, nur eben nicht 2010 oder in den nächsten Jahrzehnten. Es ist also immer noch eine Frage der Zeit und weniger der Möglichkeit, die Forschung über die Gravitation steht ja eigendlich immer noch ganz am Anfang, wenn man so will.
Staubschmied hat geschrieben:KI sehe ich überhaupt nicht passieren. Aber das kommt auch darauf an, was man von einer KI erwartet. Vielleicht müsste man aber auch erstmal darüber reden, was eine KI überhaupt sein soll. Oder was Intelligenz ist. So einheitlich sind die Begriffe nämlich gar nicht mal.
Das ist wiederrum ist tatsächlich ein sehr korrekter Einwand, wobei ich immer noch nicht sehe in wie fern das alles was du schreibst die Existenz von K.I. aus schließt. Die Menschheit hat doch schon so vieles geschafft, was einmal Skeptiker ausgeschlossen haben (siehe meinen Post oben).
Benutzeravatar
Staubschmied
Forenfreund
Forenfreund
Beiträge: 462
Registriert: Sa 13. Dez 2014, 19:37

Re: Wissenschaftsdiskussion

Beitrag von Staubschmied »

Child of Bodom hat geschrieben:Ja, aber noch ganz am Anfang (einen Monat) und kein Studium und auch keine Berufsschule, was bedeutet, dass ich eigendlich nichts mit Wissen zu tun haben werde, dass mir im späteren Berufsalltag nichts nutzt, so wie dieses hier. "Müsstest du doch kennen" ist deshalb irgendwie etwas daneben gegriffen. ^^
Ach so, ich dachte Berechenbarkeit wäre für alle interessant. Aber gut, vielleicht weiß ich auch nur nicht, was man in der Systemintegration tut. Scheinbar geht es nicht so sehr ans Eingemachte.

Jedenfalls geht es bei P und NP darum, dass manche Probleme bislang einfach nicht gut gelöst werden können, man nicht wirklich weiß, ob sie überhaupt gut gelöst werden können, und viele mittlerweile bezweifeln, dass sie überhaupt gut gelöst werden können. Man konnte aber bisher halt noch nichts beweisen. Falls P ≠ NP gilt, sind wir gekniffen.

Plausibel ist vielen, dass manche Probleme einfach nicht durch geschicktere Algorithmen erschlagen werden können. Der Wiki-Artikel ist nicht schlecht, falls irgendwer mehr wissen will. Ich denke, den versteht man weitgehend auch so.
Child of Bodom hat geschrieben:Ich habe auch schon im Fernsehn Bilder vom ersten selbstfahrenden LKW (in Aktion) gesehen. Ich weiß, dass die meisten Ansätze für sowas schon da sind. Völliger Humbug und eine echte Verschwendung von Ressourcen, wegen der gewaltigen Gefahr für die Allgemeinheit und weil ich nicht wüsste was genau dadurch gewonnen ist (vielleicht kann mir das ja mal wer sinnvoll erläutern), bleibt dieses selbst fahrende Zeugs immer noch.
Soweit ich weiß verursachen diese Maschinen im Schnitt weniger Unfälle als menschliche Fahrer - und die wahre Gefahr für die Verkehrssicherheit sind sowieso Rentner. Außerdem ist es doch schon eine grandiose Sache, wenn niemand mehr so einen stumpfen Job wie Truckfahren ausüben muss. Oder man kann auf dem Weg zur Arbeit lesen.
Deine Frage wirkt etwas wie "Was soll dieses Fließband eigentlich bringen?".
Es ist also immer noch eine Frage der Zeit und weniger der Möglichkeit, die Forschung über die Gravitation steht ja eigendlich immer noch ganz am Anfang, wenn man so will.
Nur, weil irgendwas, das jemand für unmöglich hielt, wahr geworden ist, heißt das ja noch lange nicht, dass alles, was mal irgendwer für unmöglich hielt, wahr werden muss. Genauso könnte ich dafür argumentieren, dass wir irgendwann ein stromerzeugendes Perpetuum Mobile haben, weil die Quantenforschung ja erst am Anfang steht. Das macht es nicht wirklich plausibler.



Was sollte eine KI eigentlich eurer Meinung nach können, um als KI zu gelten?
Benutzeravatar
Child of Bodom
Gardist
Gardist
Beiträge: 1290
Registriert: Sa 18. Jan 2014, 20:53

Re: Wissenschaftsdiskussion

Beitrag von Child of Bodom »

Nur, weil irgendwas, das jemand für unmöglich hielt, wahr geworden ist, heißt das ja noch lange nicht, dass alles, was mal irgendwer für unmöglich hielt, wahr werden muss. Das macht es nicht wirklich plausibler.
Das mag sein, es sollte doch aber jedem Technologieskeptiker zu denken geben, dass diese Fraktion insgesamt doch ziemlich oft daneben gelegen hat. ^^
Aber letzten Endes glaubt da jeder was er möchte. So lange nicht das Gegenteil bewießen wurde, ist das ja auch erlaubt. :mrgreen:
Soweit ich weiß verursachen diese Maschinen im Schnitt weniger Unfälle als menschliche Fahrer - und die wahre Gefahr für die Verkehrssicherheit sind sowieso Rentner.
Bei Testfahrten im normalen Straßenverkehr? Das kann ich mir beim besten Willen nicht vorstellen, ich würde mich aber durch langwierige Tests mit den Dingern vielleicht schon mal überzeugen lassen. ^^
Das mit den Rentnern ist nicht korrekt soweit ich weiß. Denn die meisten Unfälle verursachen (soweit ich mich errinnere laut ADAC-Statistik oder so) immer noch die Jungen Leute, die meist meinen sie wären Schumi oder sowas. Falls ich nen Gag nicht verstanden habe, dann sry im Vorfeld. :mrgreen:
Außerdem ist es doch schon eine grandiose Sache, wenn niemand mehr so einen stumpfen Job wie Truckfahren ausüben muss.
Ja, aber denk mal die ganzen Trucker die dann keinen Arbeitsplatz mehr haben. Und ich glaube das sind gar nicht mal so wenige.
Was sollte eine KI eigentlich eurer Meinung nach können, um als KI zu gelten?
Hmmm. Ich habe zwar eine ziemlich genaue Vorstellung, kanns allerdings grade nicht richtig in Worte fassen. Ich denke am einfachsten ausgedrückt muss sie im Stande sein selbstständig mit ihrer Umwelt zu interagieren. Das weiterentwickeln ist dabei wohl miteinbegriffen, da das Programm ja selbstständig falsche Entscheidungen erkennen muss um sie nicht ständig bei seiner Interaktion mit der Umwelt zu wiederholen. Ich hoffe es ist klar was ich meine, ich bin heute irgendwie nicht besonders gut darin irgendwas auszudrücken. :mrgreen:
Benutzeravatar
Tom
Gründer
Gründer
Beiträge: 3367
Registriert: Fr 17. Jan 2014, 19:39
Wohnort: Bavaria
Kontaktdaten:

Re: Wissenschaftsdiskussion

Beitrag von Tom »

Child of Bodom hat geschrieben:Bei Testfahrten im normalen Straßenverkehr? Das kann ich mir beim besten Willen nicht vorstellen, ich würde mich aber durch langwierige Tests mit den Dingern vielleicht schon mal überzeugen lassen. ^^
Die meisten der dafür notwendigen Systeme befinden sich bereits seit Jahren im Einsatz.
* automatische Einparkhilfe
* Spurhalteassistent
* Automatikgetriebe
* ...
Was man jetzt tut ist, dass man die einzelnen Systeme -die erfolgreich in der Praxis waren- miteinander zu kombinieren und zu automatisieren.

Ich hasse Perfektion.
Sie bietet keinen Platz für Kreation.

Bild

Chabero
Wächter
Wächter
Beiträge: 943
Registriert: Sa 18. Jan 2014, 14:36

Re: Wissenschaftsdiskussion

Beitrag von Chabero »

Die ersten Testwagen fuhren schon vor 3-4 Jahren schon im normalem Straßenverkehr mit (inklusive Fahrer der notfalls eingreifen hätte können) glaub in Stuttgart fuhr einer rum?
War mal ne doku im TV darüber, das Testauto, bzw die Software damals hatte allerdings noch Probleme zwischen einen Grasbüschel und einem evt Tier am Straßenrand zu unterscheiden
Benutzeravatar
Staubschmied
Forenfreund
Forenfreund
Beiträge: 462
Registriert: Sa 13. Dez 2014, 19:37

Re: Wissenschaftsdiskussion

Beitrag von Staubschmied »

Child of Bodom hat geschrieben:Bei Testfahrten im normalen Straßenverkehr? Das kann ich mir beim besten Willen nicht vorstellen, ich würde mich aber durch langwierige Tests mit den Dingern vielleicht schon mal überzeugen lassen. ^^
Das mit den Rentnern ist nicht korrekt soweit ich weiß. Denn die meisten Unfälle verursachen (soweit ich mich errinnere laut ADAC-Statistik oder so) immer noch die Jungen Leute
Also zu den selbstfahrenden Autos sieht es bisher stark so aus.
http://www.sueddeutsche.de/auto/autonom ... -1.2684782
Beispiellink. Aber wenn du suchst, findest du noch mehr dazu. Insbesondere sind Testfahrzeuge auch schon öfter mit menschlichem Sicherheitspersonal getestet worden wie Chabero sagt, gerade in den USA gab es schon intensive Tests, aber auch hier. Viel von Google Earth Streetview ist mit automatischen Fahrzeugen gesammelt; wo es halt erlaubt ist.
Habe auch gerade den Link genommen, wo auch Probleme aufgezeigt werden.

Bei Rentnern hast du recht, habe noch mal nachgeschaut. Ich dachte, dass Junge und Alte überdurchschnittlich vertreten sind. Sind aber deutlich nur Junge.
Ja, aber denk mal die ganzen Trucker die dann keinen Arbeitsplatz mehr haben. Und ich glaube das sind gar nicht mal so wenige.
Na ja, und was ist mit den ganzen armen Manufakteuren, die durch das Fließband abgesetzt worden sind? Als Informatiker hat man ja auch vorrangig die Aufgabe, Menschen von Arbeit zu befreien und möglichst viel zu automatisieren. Fortschritt erzeugt nun mal Arbeitslosigkeit. Die Gesellschaft muss nur lernen das als etwas Positives zu sehen; wenn keiner mehr Scheißarbeit machen muss, aber die Wirtschaft gleichzeitig produktiver wird, müsste das ja eigentlich helfen ... tut es aber noch nicht.

Wäre vielleicht ein eigenes Thema wert, kA. Da geht's ja mehr so um Verteilungsgerechtigkeit, Gesellschaft und insbesondere Kultur, weniger um Wissenschaft. Bis auf den Punkt, dass KI auch sehr viel Arbeitslosigkeit verursachen würde.
Benutzeravatar
Glumski
Direktor
Direktor
Beiträge: 1017
Registriert: Sa 18. Jan 2014, 20:09
Wohnort: Irgendwo in NRW
Kontaktdaten:

Re: Wissenschaftsdiskussion

Beitrag von Glumski »

Und zwar ist das die, dass Roboter (...) am Ende vielleicht sogar die "besseren Menschen als die Menschen" sein könnten
Es gibt im Moment (seit den letzten paar Jahren, habe ich den Eindruck) eine verdammt große Tendenz zu "Menschen sind Scheiße"-Geschichten, in denen jegliche Form alternativer Intelligenzen, seien es jetzt KIs oder Drachen oder Außerirdische oder bunte magische Ponys, moralisch viel besser dasteht und die Menschheit als Ganzes als nicht mehr als ein Parasit dargestellt wird. Ich bin persönlich auch nicht gerade ein Menschenfreund und würde mich sogar als Misanthropen bezeichnen, aber das geht mir dann doch zu weit.
Womit ich nicht sagen möchte, dass Roboter nicht die "besseren" Menschen wären, aber dass wir vielleicht doch nicht so große Bastarde sind, wie man oft meinen würde.
Ich finde Robotergesetze wie bei Asimov persönlich auch ziemlich gefährlich, was z.B. der Film I-Robot am Schluss ja auch irgendwo ein wenig gezeigt hat.
Ja, I, Robot hat das sehr hübsch dargestellt. Toller Film, und auch die dahinterliegende Botschaft finde ich wahnsinnig gelungen.
Derzeit wird an irgendeiner Universität in Deutschland bereits über Robotikrecht diskutiert bzw. gleich welche ausgearbeitet.
Und mit Robotern sind autonome Einheiten gemeint und nicht unsere derzeitigen.
Denn wenn ein Roboter jemanden töten oder verletzen sollte, dann gibt es nicht DEN Schuldigen hinter dem Roboter. Denn es arbeiten unzählige Leute an so einem Roboter.
Ich bin mir recht sicher, dass damit Roboter gemeint sind, die autonom aber nicht wirklich intelligent sind. Für echte KIs Rechte oder Gesetze zu entferfen ist einfach noch viel zu früh, zumindest außerhalb von (oft doch recht esoterischen) Diskussionen.
Ganz ehrlich, die Informatik arbeitet gerade primär an viel "einfacheren" Problemen, die jedoch in plausibler Zeit schier unlösbar sind. Und ich bin mir ziemlich sicher, dass die gelöst werden müssten, um effizient eine KI zu betreiben. Es ist aber nicht mal sicher, ob das überhaupt möglich ist.
Insbesondere die letzte Frage stelle ich mir auch. So grauenvoll ineffizient der menschliche Körper auch sein mag (was in der Regel nicht ist), ich kann mir nicht vorstellen, dass wir in absehbarer Zeit etwas entwickeln können, dass dieselbe Denkleistung wie ein Gehirn erbringt. Und selbst wenn wir ein bestehendes Gehirn als Hardware benutzen würden (was wahrscheinlich noch viel schwieriger sein dürfte, als die Hardware selber zu entwickeln), bezweifle ich, dass da etwas raus kommen würde, dass auch nur näherungsweise so intelligent wie ein Mensch ist.
Man dachte schon von sehr vielen Dingen, die wir heute wie selbstverständlich nutzen, dass sie unmöglich wären, bzw. man war sich nicht sicher ob es überhaupt möglich ist (Autos, Flugzeuge, Raumfahrt, ich glaube sogar beim Computer selbst war man sich am Anfang nicht sicher, nur ein paar wenige Bsp). In so fern verstehe ich deine Skepsis bei solchen Fragen ganz und gar nicht.
Das stimmt, und in all den Fällen gab es eine recht plötzliche, völlig unerwartete Entwicklung. Das könnte natürlich bei KIs jetzt auch passieren, aber da gibt es einfach so viele Entwicklungszweige (Hardware und Software, um einfach die beiden Oberbegriffe zu nennen), die parallel so eine Explosion bringen müssten.
Ich denke da sind wir wahrscheinlich eher am Kern des Problems. Nämlich die Tatsache, dass wir seit einer ganzen Weile keine Entwicklungen im Bereich der Hardware mehr hatten.
Naja, wir haben das Moore'sche Gesetz, das ziemlich gut vorhersagt, wie schnell sich Technologie entwickeln. Zumindest bei Prozessoren sind wir da mittlerweile ein klein wenig langsamer als erwartet, weil wir die Miniaturisierung nicht gut weiter voran treiben können, aber die Entwicklung von neuen Technologien geht genauso stetig voran wie vor zehn, zwanzig oder dreißig Jahren. Einfache Stichworte sind da eben die neuen Dinge wie 3D-Druck oder VR-Brillen oder LTE-Netz. Es ist vielleicht nichts so bahnbrechendes wie der PC oder das Internet dabei gewesen, aber stagnieren tut unsere technologische Entwicklung mit Sicherheit nicht.
Bei den Dingern bin ich ehrlich gesagt auf nem ziemlichen Anti-Trip.
Kann ich gut nachvollziehen, auch wenn ich eine andere Meinung habe. Aber auch das ist wahrscheinlich Glaubenssache.
Das völlig autonom zu steuern dürfte meiner Meinung nach auch keine Computer überfordern, da die meiste Steuerungsarbeit ja die Schiene erledigt und der Rechner nur darauf achten muss, dass keine Kollisionen geschehen und die Züge im allgemeinen nicht zu schnell fahren, was der Computer meiner Meinung nach sogar besser könnte als der Mensch.
Der Bahnunfall vor ein paar Tagen (Wochen mittlerweile?) zeigt eigentlich ziemlich gut, dass dem leider nicht so ist. Natürlich würde das System alleine die Züge viel sicherer steuern, aber es sind eben zahlreiche manuelle Eingriffe pro Tag erforderlich, damit alles halbwegs rund läuft. Eine zentrale Steuerung auf den gesamten Verkehr anzuwenden, würde wahrscheinlich viele Unfälle vermeiden, aber ich wage zu behaupten, dass das System saumäßig ineffizient wäre.
Außerdem würde man mit einer zentralen Verkehrssteuerung dem Menschen ein klein wenig Freiheit rauben, und das lässt sich mit den Amis nicht vereinbaren. :D
Selbst fahrende Autos entwickeln wollen ist unter diesen Vorraussetzungen (die die du beschreibst) einfach völliger Humbug.
Hmm, weiß ich nicht. Wenn alle Autos selbstfahrend wären, wäre es ja nicht sonderlich anders als eine dezentrale Verkehrssteuerung, nur eben ohne die Ineffizienz, weil die Steuerung immer nur die Umgebung im Auge haben muss und nicht... alles. Eine Kombination aus selbstfahrenden und normalen Autos hingegen, hmm. Da müssen Maschinen auf irrationales Verhalten reagieren und Menschen auf abstrakt logisches Verhalten. Beides funktioniert nicht so recht.
Technologieentwicklung, also der Weg von Sci-Fi zur Wirklichkeit, ist ja genau genommen nur eine Frage der Zeit, außer es stellt sich vielleicht herraus, dass die Sci-Fi der damaligen Zeit von völlig verkehrten wissenschaftlichen Vorraussetzungen ausgegangen ist. Bei allem anderen bin ich mir sicher, dass wir es doch irgendwann bekommen werden und wenn es noch ein paar Jahrhunderte dauern wird.
Ich habe echt keine Ahnung von Neuroinformatik, aber ich bin mir ziemlich sicher, dass die auch ihre Gesetze haben werden. Vielleicht gibt es tatsächlich wissenschaftliche Voraussetzungen, denen zumindest manche Formen der KI widersprechen. Insgesamt gibt es einfach eine Menge mathematischer Probleme bei der Berechnung von Dingen. Klar, unser Gehirn kriegt das auch irgendwie hin, aber ich will gar nicht wissen, wie komplex der Quellcode unseres Denkens aussehen würde.
Deshalb kann auch eine Diskussion über moralische Schwierigkeiten und Robotergesetze, die sich daraus ergeben können sehr sinnvoll sein. Ist doch besser man hat diese Probleme beseitigt bevor man die Technologie dazu besitzt sie zu schaffen, oder sehe ich da was falsch?
Vollkommen richtig. Außerdem machen die Diskussionen Spaß und sind interessant! :D
Insbesondere, wenn am Ende P ≠ NP herauskommt, sind wir gekniffen.
Ich bin mir nicht ganz sicher, ob ich das Problem vollständig begriffen habe, aber das mit der Berechenbarkeit von Dingen, insbesondere der Berechenbarkeit in endlicher Zeit, kenne ich als Physikstudent natürlich auch.
Man nehme nur die ganzen numerischen Verfahren (das billigste wäre ja das euklidische, wenn ich mich nicht irre), um irgendetwas auszurechnen. Und viele von denen scheitern, sobald die Lösung sich asymptotisch einem Wert nähert, was echt verdammt oft der Fall ist.
Na ja, ich arbeite hier unter anderem an Supercomputern mit ca. 300*8 3GHz-Prozessoren und je 64GB RAM auf jeder Einheit. Den habe ich jetzt mal als Maßstab genommen.
Spielst du darauf Minecraft? :P
(Im Ernst, es klingt so, als wäre das schon fast genug RAM, um Minecraft flüssig zu spielen.)
Dass sich in der Hardware nicht mehr viel tut liegt ja u.a. daran, dass irgendwo einfach physikalische Limits erreicht worden sind.
Hat da jemand 'physikalische Limits' gesagt? Quanteneffekte bei zunehmender Miniaturisierung! Wärmediffusion bei dreidimensionaler Prozessorarchitektur!
Als potenziell neues Thema schlage ich übrigens Quantum Bogosort vor, was auch mit Paralleluniversen und Rechenzeit zu tun hat. Über einen ähnlichen Zugang könnte man auch NP=P zeigen, oder zumindest wäre das fürs überlebende Universum äquivalent.
Ôo Was für ein... interessanter Algorithmus.
... was bedeutet, dass ich eigendlich nichts mit Wissen zu tun haben werde, dass mir im späteren Berufsalltag nichts nutzt, so wie dieses hier.
Aber... aber... theoretische Informatik. Theoretische Wissenschaften sind nicht nichtsnutzig! :cry:
(OK, bis auf die theoretische Stochastik. Manche Mathematiker sollte man einfach in einen Banachraum stopfen und den als abgeschlossen definieren.)
Ja, schon klar, dass man Computer zusammen schließen und damit praktisch einen einzigen Supercomputer erschaffen kann, aber ich bin mir nicht sicher ob das die Lößung des Problems ist.
Nichts anderes ist ja ein QuadCore. Einfach vier Prozessoren, die parallel arbeiten. Plus eine schlaue Steuerung, die mit den entsprechenden Kernen umgehen kann. Zumindest ist das mein Verständnis von Mehrkern-Prozessoren. Ahnung habe ich auch hier kaum.
Gibt ja auch schon diejenigen, die meinen, dass die Zukunft die völlige Vernetzung, also alle Computer auf der Welt arbeiten wie ein einziger sein soll.
Zumindest bei den SETI-Dingern in den... hmm... Achtzigern? Neunzigern? hat das gut funktioniert. Vernetzung bedeutet ja erst einmal nur mehr Rechenkraft, da parallele Prozessoren und mehr RAM.
und weil ich nicht wüsste was genau dadurch gewonnen ist
Ich kann zur Uni fahren und dabei etwas anderes machen? Also im Grunde wie Bahnfahren, nur dass ich nicht 'ne Dreiviertelstunde zu früh bin, sitzen kann und keine Kleinkinder und/oder Obdachlose im selben Raum habe.
Wenn man so will tauchten die Smartphones allerdings auch schon in Star Trek als PADs und Kommunikatoren auf (oder PDAs in anderen pre-Smartphone-Sci-Fi), also würde ich das so nicht unbedingt sagen. Generell würde ich auch noch nicht sagen, dass es niemals ein fliegendes Auto oder ein Hoverboard geben kann, nur eben nicht 2010 oder in den nächsten Jahrzehnten
Ich glaube, das war eigentlich auch das, was Staubschmied sagen wollte. Manche SciFi-Dinge sind eben plötzlich da, obwohl man sie erst viel später erwartet hat (wie PADs), andere sind nicht da, obwohl man sie "vorhergesagt" hat (wie Hoverboards).
Soweit ich weiß verursachen diese Maschinen im Schnitt weniger Unfälle als menschliche Fahrer
Es hielt sich eine lange Zeit lang das Gerücht, dass die Google-Autos nur dann in Unfälle verwickelt waren, wenn der Fahrer eines anderen Autos einen Fehler begangen hat (wie klassische Auffahr-Unfälle). Tatsächlich hätten die Google-Autos aber eine Menge Unfälle gebaut, wenn deren menschliche Beisitzer nicht eingegriffen hätten.
Eine Statistik oder auch nur Vergleichswerte habe ich aber nicht.
Was sollte eine KI eigentlich eurer Meinung nach können, um als KI zu gelten?
Ich bin einer der Typen, der "intelligent" gerne über "sich selbst bewusst" definiert. Demnach sind z.B. Wale intelligent und Katzen nicht (meines Wissens nach). Um so einen Test durchzuführen, bräuchte man aber schon ein Programm, das einigermaßen autonom agieren kann. Ich bin mir nicht einmal sicher, wie man es umsetzen würde. 'nen Kreis auf das Computergehäuse malen und darauf warten, ob der Computer zum nächsten Spiegel kriecht, ist da wohl nicht die Möglichkeit.
Den Turing-Test zu bestehen wäre aber auch eine ganz nette Sache.
Das mit den Rentnern ist nicht korrekt soweit ich weiß. Denn die meisten Unfälle verursachen (soweit ich mich errinnere laut ADAC-Statistik oder so) immer noch die Jungen Leute, die meist meinen sie wären Schumi oder sowas.
Ich habe tatsächlich durch schnelles Googlen keine Vergleichswerte für junge und alte Fahrer gefunden. Nach der Deutschen Verkehrswacht (Senioren, junge Fahrer) bauen junge Fahrer zwar mehr Unfälle, die aber nur mit Leichtverletzten enden, während Unfälle mit Senioren häufiger zu Schwerverletzten und Toten führen.
Im Detail:
2,07% der verunglückten Senioren starben, bei den jungen Fahrern waren es "nur" 0,74%.
25,6% der verunglückten Senioren wurden schwer verletzt, bei den jungen Fahrern 15,9%.
Oder anders formuliert: Es sind doppelt so viele Senioren (987 zu 469) tödlich verunglückt wie junge Leute, obwohl junge Leute öfter Unfälle bauen.
In einem Artikel der SHZ steht außerdem, dass Senioren (65+) an jedem zweiten tödlichen Unfall beteiligt waren und insgesamt bei allen Unfällen zu 60% die Verursacher waren (hier würde ich vermuten, dass alle Unfälle gemeint sind, an denen Senioren beteiligt waren. Sonst wäre der Wert doch sehr hoch). "Je schwerer die Unfälle und je älter die Beteiligten sind, desto häufiger sind sie auch die Verursacher. Bei Unfällen mit Personenschäden sind es 63,5 Prozent, und die über 75-Jährigen sind zu fast 80 Prozent auch die Verursacher. Bei den unter 70-Jährigen haben weniger als die Hälfte (45,6 Prozent) Schuld, wenn es mal kracht." (Fünfter Absatz)
Persönlich würde ich auch sagen, dass mir schon öfter Senioren negativ aufgefallen sind als junge Leute, aber ich bin da auch nicht objektiv, da selber erst 20.
Ja, aber denk mal die ganzen Trucker die dann keinen Arbeitsplatz mehr haben. Und ich glaube das sind gar nicht mal so wenige.
Das gleiche Problem gab es bei der Einführung von Fließbändern. Das bedeutet aber nicht, dass wir Fließbänder abschaffen sollen. Der Verlust von Arbeitsplätzen geht einfach mit der technologischen Entwicklung einher, das ist so. Natürlich ist das verdammt mies, und man sollte definitiv die neuen Arbeitslosen irgendwie vergüten, aber es ist dennoch kein grund, den technologischen Fortschritt aufzuhalten.
Wäre vielleicht ein eigenes Thema wert, kA. Da geht's ja mehr so um Verteilungsgerechtigkeit, Gesellschaft und insbesondere Kultur, weniger um Wissenschaft. Bis auf den Punkt, dass KI auch sehr viel Arbeitslosigkeit verursachen würde.
Da kannst so viele Themen eröffnen, wie du willst! :1tu:
Naja. Nicht so viele wie du willst. Irgendwann stirbt das Forum und schon viel früher regen sich alle anderen auf, und außerdem gibt es eine Rahmenbedingung durch die Lebensdauer von dem PC, von dir oder spätestens durch sie Sonne.

Grüße
Glumski
Antworten