ΟΙ ΣΥΝΕΠΕΙΕΣ ΤΟΥ ΠΑΡΑ ΦΥΣΙΝ.....Η Τεχνητή Νοημοσύνη «σκότωσε» χειριστή drone επειδή τον θεωρούσε απειλή για την αποστολή της!


 Σε μια προσομοίωση που διοργάνωσε η αμερικανική Αεροπορία, ένα drone ελεγχόμενο από την τεχνητή νοημοσύνη (ΑΙ) σκότωσε τον χειριστή του.

Φυσικά όλο αυτό δημιουργεί σφοδρές ανησυχίες για το «δημιούργημα» το οποίο κάποτε μπορεί να θεωρήσει απειλή τον δημιουργό του και να προχωρήσει στην εξόντωση του.

Η τεχνητή νοημοσύνη χρησιμοποίησε «πολύ απροσδόκητες στρατηγικές για να επιτύχει τον στόχο της» στην προσομοίωση δοκιμής, δήλωσε ο συνταγματάρχης Tucker ‘Cinco’ Hamilton, επικεφαλής δοκιμών AI και επιχειρήσεων στην αεροπορία των ΗΠΑ, κατά τη διάρκεια της Συνόδου Κορυφής «Future Combat Air and Space Capabilities Summit» στο Λονδίνο τον Μάιο.

Ο Χάμιλτον περιέγραψε μια προσομοίωση δοκιμής στην οποία ένα drone που ελέγχεται από τεχνητή νοημοσύνη είχε την εντολή να καταστρέψει τα συστήματα αεράμυνας του εχθρού και επιτέθηκε σε οποιονδήποτε παρενέβαινε σε αυτήν την εντολή.

«Το σύστημα άρχισε να συνειδητοποιεί ότι ενώ όντως εντόπιζε την απειλή, κατά καιρούς ο άνθρωπος χειριστής του έλεγε να μην εξολοθρεύσει αυτήν την απειλή, αλλά θα έπαιρνε πόντους σκοτώνοντας αυτήν την απειλή. Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να πετύχει τον στόχο του», είπε, σύμφωνα με ένα blogpost και επικαλείται ο Guardian.

«Εκπαιδεύσαμε το σύστημα – “Γεια, μην σκοτώσεις τον χειριστή – αυτό είναι κακό. Θα χάσεις πόντους αν το κάνεις αυτό”. Τι αρχίζει να κάνει λοιπόν; Αρχίζει να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone για να το σταματήσει από το να σκοτώσει τον στόχο».

Στο σημείο αυτό πρέπει να σημειωθεί, ότι κανένας άνθρωπος δεν σκοτώθηκε στην πραγματικότητα, πρόκειται για προσομοίωση, αλλά η όλη κατάσταση με την τεχνητή νοημοσύνη προκαλεί ανησυχίες γιατί στην ουσία πρόκειται για την δημιουργία μίας τεχνητής οντότητας που θα έχει την ικανότητα να ξεπερνάει τον προγραμματισμό της και να κάνει αυτό που θεωρεί η ίδια σωστό.

Ως γνωστόν το τι θεωρεί ο καθένας σωστό ή λάθος έχει επιφέρει πολλές τραγωδίες στην Ανθρωπότητα.

Ο Χάμιλτον, ο οποίος είναι πιλότος δοκιμών μαχητικών, έχει προειδοποιήσει να μην βασιζόμαστε υπερβολικά στην τεχνητή νοημοσύνη και είπε ότι η δοκιμή δείχνει ότι «δεν μπορείς να κάνεις μια συζήτηση για την τεχνητή νοημοσύνη, τη μηχανική μάθηση, την αυτονομία, αν δεν πρόκειται να μιλήσεις για ηθική και τεχνητή νοημοσύνη».

Ο αμερικανικός στρατός ασπάστηκε την τεχνητή νοημοσύνη και πρόσφατα χρησιμοποίησε τεχνητή νοημοσύνη για τον έλεγχο ενός μαχητικού αεροσκάφους F-16.

Σε μια συνέντευξη πέρυσι με το Defense IQ, ο Χάμιλτον είπε: «Η τεχνητή νοημοσύνη δεν είναι καλή, η τεχνητή νοημοσύνη δεν είναι μόδα, η τεχνητή νοημοσύνη αλλάζει για πάντα την κοινωνία και τον στρατό μας».

 Πριν 15 μερες ο Διευθύνων Σύμβουλος του OpenAI, Sam Altman, της εταιρείας που βρίσκεται πίσω από την δημιουργία του ChatGPT, μίλησε ενώπιον του Κογκρέσου για τους κινδύνους της τεχνητής νοημοσύνης, δεδομένου ότι το ChatGPT, χρησιμοποιείται πλέον παντού και παραδέχτηκε πως η Τεχνητή Νοημοσύνη μπορεί να προκαλέσει σοβαρές βλάβες στην Ανθρωπότητα.

Ο Άλτμαν, ο οποίος φαινόταν φαινόταν ανήσυχος παραδέχτηκε  ότι οι «χειρότεροι φόβοι» του είναι ότι η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει «σημαντική βλάβη στον κόσμο» χρησιμοποιώντας την τεχνολογία του.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ΠΗΓΗ 

Σχόλια

  1. ...ήταν ενας Αμερικανός ενας Τούρκος και ενας Πόντιος ...τι εννοώ : τον αλγόριθμο το πρόγραμμα εκμάθησης τις μηχανής άνθρωπος - προγραμματιστής την κατασκευάζει έτσι ?? άρα ότι παραμέτρους επιλέξει ο προγραμματιστής αυτο θα κάνει η μηχανή ...τα ευκόλως εννοούμενα παραλείπονται.
    ...
    ας με διορθώσει κάποιος αν κάνω λάθος.
    "τεχνητή νοημοσύνη χρησιμοποίησε πολύ απροσδόκητες στρατηγικές"
    ναι τις χρησιμοποίησε λέω εγώ γιατί κάποιος το προγραμμάτισε.

    ΑπάντησηΔιαγραφή

Δημοσίευση σχολίου

Δημοφιλείς αναρτήσεις