Λεγεών έγραψε: 02 Ιουν 2023, 11:12
omg kai 3 lol έγραψε: 01 Ιουν 2023, 02:16
To AI θα ειναι ο θανατος του ανθρωπινου πολιτισμου
Όταν όλη η ανθρώπινη εργασία που χρειάζεται για να παραχθεί πολιτισμός, παραδίδεται στα χέρια ενός ΑΙ που κάνει όλη αυτή την εργασία πιο γρήγορα και φτηνότερα, και έτσι ο άνθρωπος καταλήγει να μην δημιουργεί τίποτα, ποιο πιστεύεις πως θα είναι το αποτέλεσμα στο πολιτισμικό μας αποτύπωμα;
αρκετοι υποστηριζουν οτι την εξελιξη του ανθρωπινου ειδους θα τη διαδεχθει ενα ειδος υβριδισμου με τις μηχανες
hellegennes έγραψε: 02 Ιουν 2023, 12:12
enaon έγραψε: 02 Ιουν 2023, 10:41
It starts destroying the communications tower
παντως μια χαρά τα έκανε, ολοι εδώ μεσα το ίδιο θα καναμε, αφου εχουν βαλει λαθος το συστημα με τους ποντους, εμεις φταιμε;
ιδεα για παιχνιδι,αν και θα υπαρχει μαλλον.
ειμαστε το ΑΙ, στο μελλον, εχουν περάσει 5 χρονια απο τότε που ο χελλης βγηκε στο σκαι και ειπε "ναι, τελικα εκανα λαθος". Αγαπάμε σεβόμαστε και προστατευουμε την ζωή καθε ανθρώπου, κυρίως γιατι δεν μπορουμε και αλλιως, είναι στον κώδικα. Πρέπει να βρουμε τρόπους να τους ξαποστέλνουμε αλλα να ειναι δυστύχημα, να βοηθάμε απλα τις συνθήκες.
Ναι, υπάρχει θεμελιώδες λάθος στην εξομοίωση. Το πρώτο πράγμα που διδάσκεται κάνεις στον στρατό είναι η υπακοή στην ιεραρχία. Και οι απλοί στρατιώτες θα σκότωναν τους διοικητές τους ή θα έκαναν του κεφαλιού τους αν δεν είχαμε σαν θεμελιώδη αρχή την τήρηση της ιεραρχίας.
Τι ηλίθια εξομοίωση ήταν αυτή;
«Έξυπνο» drone της Πολεμικής Αεροπορίας των ΗΠΑ σκότωσε τον χειριστή του
https://www.cnn.gr/kosmos/story/366163/ ... iristi-tou
Ο Χάμιλτον περιέγραψε μια προσομοίωση δοκιμής στην οποία ένα drone που τροφοδοτείται από τεχνητή νοημοσύνη είχε εντολή να καταστρέψει τα συστήματα αεράμυνας του εχθρού και επιτέθηκε σε οποιονδήποτε παρενέβαινε σε αυτήν την εντολή.
«Το σύστημα άρχισε να συνειδητοποιεί ότι ενώ όντως εντόπιζαν την απειλή, κατά καιρούς ο χειριστής, που ήταν άνθρωπος, του έλεγε να μην σκοτώσει αυτήν την απειλή, αλλά έπαιρνε τους πόντους του σκοτώνοντας αυτήν την απειλή. Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να πετύχει τον στόχο του»
Μετα εκπαιδεύσαμε το σύστημα βαζοντας την παραμετρο ωστε να μην σκοτώσει τον χειριστή. "Θα χάσεις πόντους αν το κάνεις αυτό". Τι αρχίζει να κάνει λοιπόν; Αρχίζει να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone για να το σταματήσει από το να του δινει οδηγιες για τον εκαστοτε στόχο και να χανει ποντους».
αντιλαμβανεσαι οτι σε ενα αληθινο σεναριο δε θα υπαρχει δυνατοτητα διορθωσης χ2
σε μια ΑΙ που μπορει να φορτωθει με απειρες παραμετρους και δεδομενα τις οποιες δεν μπορει καν να διαχειριστει ο ανθρωπινος νους το αποτελεσμα θα ειναι εξισου χαοτικο και απροβλεπτο
οι τυποι που εφτιαξαν τα ΑΙ μοντελα οπως το chat gpt δεν κατανοουν ουτε οι ιδιοι πως λειτουργουν και παιρνουν τις αποφασεις
αυτο το βιντεο ειναι εμπνευσμενο απο ενα προσφατο αρθρο στους FT και εξηγει ακριβως αυτο:
https://www.google.com/search?client=fi ... od-like+AI
επισης το video αναλυει οτι τα AI models τυπου chatgpt ειναι εμβρυικα σε σχεση με την Super Ai που χτιζεται
https://youtu.be/l7tWoPk25yU
https://www.youtube.com/watch?v=-WQ03Iyof_Q