Das ist derselbe.Pluto hat geschrieben: Die Frage ist, ob er den Gott der Menschen, oder den Gott der Computer anbetet.
Wir sind nach dem Ebenbild Gottes gebildet, wir bilden die Computer nach unserem Ebenbild.
Das ist derselbe.Pluto hat geschrieben: Die Frage ist, ob er den Gott der Menschen, oder den Gott der Computer anbetet.
1Johannes4 hat geschrieben: ↑Mi 30. Jan 2019, 13:05trotz so mancher Euphorie über die „Leistungen“ von KI, leidet die Technologie der neuronalen Netze meiner Meinung nach noch immer unter Kinderkrankheiten,
1Johannes4 hat geschrieben: ↑Mi 30. Jan 2019, 13:05weil nicht immer klar ist, worauf das jeweilige neuronale Netz nun wirklich antrainiert wurde.
1Johannes4 hat geschrieben: ↑Mi 30. Jan 2019, 13:05Dieser Einfluss von Umgebungen würde z.B. auch besonders deutlich, als es um das „Erkennen“ von Zügen ging: zeigte man dann ein Bild von einem Tier auf Schienen, meinte die KI, dass es sich um einen Zug handeln müsse.
1Johannes4 hat geschrieben: ↑Mi 30. Jan 2019, 13:05Solche Beispiele machen eben auch deutlich, dass man nicht blindlings den Resultaten von neuronalen Netzen trauen sollte, sondern sich auch mal fragen kann, ob man wirklich immer solchen an sich statistisch gewonnenen Aussagen eine solche immense Bedeutung beimessen sollte.
1Johannes4 hat geschrieben: ↑Mi 30. Jan 2019, 13:05Besonders kritisch kann es z.B. im Bereich der Personalbeschaffung sein, wenn ein Unternehmen die Lebensläufe der vorhandenen Mitarbeiter zum Maßstab machen würde. Ist ein Unternehmen z.B. mehrheitlich durch weiße Männer geführt, würden die Merkmale männlich und weiss sich auch auf die zukünftige Personalauswahl als besonderes Qualitätsmerkmale zeigen (wohlgemerkt nicht ausdrücklich, aber das neuronale Netz würde dergleichen doch bevorzugen).
den Hautarzt. Übrigens aus dem gleichen Grund wie ich einen menschlichen Piloten vorziehe: weil derjenige auch ein persönliches Interesse daran haben wird, dass das Flugzeug nicht abstürzen wird. Eine KI kennt keine Konsequenz von Fehlentscheidungen, wird also nur mit Fehlern 1. und 2. Art entsprechend ihrer Programmierung umgehen. Für einen Patienten ist es wohl wichtiger, dass ein Hautkrebs nicht fälschlich als gesunde Hautstelle eingeschätzt wird als umgekehrt eine gesunde Hautstelle fälschlich als Hautkrebs (was natürlich auch nicht toll ist).AlTheKingBundy hat geschrieben: ↑Mi 30. Jan 2019, 13:21Wenn Dir ein Hautarzt also durch Bildanalyse eines Leberflecks mit einer Wahrscheinlichkeit von 80% sagen kann, ob es ein Hautkrebs ist, eine KI aber mit 90%, was wählst Du dann?
Entweder KI führt dergleichen vor Augen und führt dazu, dass man als Mensch seine ethischen Vorstellungen hinterfragt, oder es wird bis zum Sanktnimmerleinstag ewig so weitergehen, weil die KI eben sagen wird, dass es so am Besten sei.AlTheKingBundy hat geschrieben: ↑Mi 30. Jan 2019, 13:21Interessant ist doch, dass wir ach so aufgeklärten Menschen immer noch sexistisch, diskriminierend und rassistisch unterwegs sind, wir wollen es nur nicht wahrhaben.
1Johannes4 hat geschrieben: ↑Do 31. Jan 2019, 01:51den Hautarzt. Übrigens aus dem gleichen Grund wie ich einen menschlichen Piloten vorziehe: weil derjenige auch ein persönliches Interesse daran haben wird, dass das Flugzeug nicht abstürzen wird.
1Johannes4 hat geschrieben: ↑Do 31. Jan 2019, 01:51Eine KI kennt keine Konsequenz von Fehlentscheidungen, wird also nur mit Fehlern 1. und 2. Art entsprechend ihrer Programmierung umgehen. Für einen Patienten ist es wohl wichtiger, dass ein Hautkrebs nicht fälschlich als gesunde Hautstelle eingeschätzt wird als umgekehrt eine gesunde Hautstelle fälschlich als Hautkrebs (was natürlich auch nicht toll ist).
1Johannes4 hat geschrieben: ↑Do 31. Jan 2019, 01:51Im Übrigen eignen sich statistische Herangehensweisen nur richtig gut für den Berg eine Gauß‘schen Kurve. Hat man es mit einem „Ausreißer“ zu tun, liegen solche Tests eher mal daneben. Deswegen gibt es in der Medizin eine Masse an Behandlungen, die evidenzbasiert erfolgt, also gemäß statistisch gewonnenen Erkenntnissen, aber auch sogenannte individuelle Heilversuche.
1Johannes4 hat geschrieben: ↑Do 31. Jan 2019, 01:51Wenn bei einer Krebserkrankung die beste der möglichen Behandlungen nur eine dürftige Erfolgsaussicht hat, wird ein Arzt diese dennoch vorschlagen, denn es gilt ja „alles“ zu gewinnen. Aber manche Leute würden dann solcher Medizin nur vorwerfen, dass sie mit dem Sterben der Leute nur Geld verdienen will.
1Johannes4 hat geschrieben: ↑Do 31. Jan 2019, 01:51Entweder KI führt dergleichen vor Augen und führt dazu, dass man als Mensch seine ethischen Vorstellungen hinterfragt, oder es wird bis zum Sanktnimmerleinstag ewig so weitergehen, weil die KI eben sagen wird, dass es so am Besten sei.AlTheKingBundy hat geschrieben: ↑Mi 30. Jan 2019, 13:21Interessant ist doch, dass wir ach so aufgeklärten Menschen immer noch sexistisch, diskriminierend und rassistisch unterwegs sind, wir wollen es nur nicht wahrhaben.
1Johannes4 hat geschrieben: ↑Do 31. Jan 2019, 01:51Nur mal so aus Neugier: bei autonomen Fahrersystemen in Autos - wie hoch sollte da die Sicherheit sein, dass das Auto keinen Fußgänger überfahren wird?