Ο διευθύνων σύμβουλος της OpenAI Σαμ Αλτμαν δεν μάσησε τα λόγια του: “Αν η Τεχνητή Νοημοσύνη πάρει τον λάθος δρόμο, τότε ‘τη βάψαμε’ όλοι μας. Πρέπει να δράσουμε από κοινού με την κυβέρνηση ώστε να προλάβουμε αυτό το ενδεχόμενο”.
Πώς η τεχνολογία επηρεάζει την εκπαίδευση / Κίνδυνοι & Επιπτώσεις / Συμβουλές για την ορθή χρήση!
“Grooming” / Ο αντίκτυπος της διαδικτυακής αποπλάνησης !
Σύμφωνα με τον Altman, θα πρέπει να συσταθεί το συντομότερο δυνατό μια ειδική υπηρεσία που θα χορηγεί άδειες για τη δημιουργία μοντέλων τεχνητής νοημοσύνης μεγάλης κλίμακας και θα σχολιάζει τους κανόνες ασφαλείας. Όπως γράφει συγκεκριμένα η Washington Post, ο Altman έχει ταχθεί υπέρ μιας σειράς ρυθμίσεων -συμπεριλαμβανομένης μιας νέας κυβερνητικής υπηρεσίας επιφορτισμένης με τη δημιουργία προτύπων για τον χώρο- για να αντιμετωπιστούν οι αυξανόμενες ανησυχίες ότι η τεχνητή νοημοσύνη θα μπορούσε να διαστρεβλώσει την πραγματικότητα και να δημιουργήσει πρωτοφανείς κινδύνους για την ασφάλεια. Συγκέντρωσε μια σειρά από “επικίνδυνες” συμπεριφορές που επιδεικνύουν τεχνολογίες όπως το ChatGPT, συμπεριλαμβανομένης της διάδοσης “μιας διαδραστικής παραπληροφόρησης” και της συναισθηματικής χειραγώγησης.
Πρότεινε επίσης ότι οι εμπειρογνώμονες θα μπορούσαν να διεξάγουν ανεξάρτητους ελέγχους, δοκιμάζοντας τις επιδόσεις των μοντέλων σε διάφορες μετρήσεις.
Υποστήριξε ότι η διαδικασία της OpenAI για την ανάπτυξη μοντέλων τεχνητής νοημοσύνης δίνει χρόνο στα θεσμικά όργανα να κατανοήσουν τις πιθανές απειλές και επιβεβαίωσε ότι η εταιρεία του θα συνεχίσει να αναπτύσσει την τεχνολογία παρά τους πιθανούς κινδύνους.
Τα μέλη της υποεπιτροπής δικαστικών υποθέσεων της Γερουσίας εξέφρασαν βαθύ φόβο για την ταχεία ανάπτυξη της τεχνητής νοημοσύνης, προτείνοντας επανειλημμένα ότι οι πρόσφατες εξελίξεις θα μπορούσαν να είναι πιο διαδραστικές από το Διαδίκτυο – ή τόσο επικίνδυνες όσο η ατομική βόμβα. Νομοθέτες και από τα δύο κόμματα έχουν εκφράσει ανοιχτά την ιδέα της δημιουργίας μιας νέας κυβερνητικής υπηρεσίας επιφορτισμένης με τη ρύθμιση της τεχνητής νοημοσύνης, αν και προηγούμενες προσπάθειες για τη δημιουργία μιας συγκεκριμένης υπηρεσίας που θα εποπτεύεται από τη Silicon Valley έχουν βαλτώσει στο Κογκρέσο.
Ο Altman δήλωσε ότι το OpenAI έχει υιοθετήσει ορισμένες πολιτικές για την αντιμετώπιση αυτών των κινδύνων, οι οποίες περιλαμβάνουν την απαγόρευση της χρήσης του ChatGPT για τη “δημιουργία μεγάλου όγκου υλικού προεκλογικής εκστρατείας”.
Νέα εφαρμογή COSMOTE CHRONOS / Τα σπουδαιότερα μνημεία της πολιτιστικής μας κληρονομιάς ζωντανεύουν ξανά στο κινητό σας!
Όσον αφορά τη ρύθμιση, η Ευρώπη ελπίζει να αναλάβει και πάλι το προβάδισμα με ένα προσαρμοσμένο ρυθμιστικό πλαίσιο, όπως έκανε με τον κανονισμό για τα προσωπικά δεδομένα, και στις 12 Μαΐου οι ευρωβουλευτές ενέκριναν νέους κανόνες διαφάνειας και διαχείρισης κινδύνων για τα συστήματα τεχνητής νοημοσύνης. Όπως αναφέρθηκε, τα συστήματα ΤΝ με απαράδεκτο επίπεδο κινδύνου για την ασφάλεια των ανθρώπων θα απαγορεύονται αυστηρά, συμπεριλαμβανομένων των συστημάτων που αναπτύσσουν τεχνικές υποσυνείδητης ή σκόπιμης χειραγώγησης, εκμεταλλεύονται τα τρωτά σημεία των ανθρώπων ή χρησιμοποιούνται για “κοινωνική αξιολόγηση” (ταξινόμηση ατόμων με βάση την κοινωνική τους συμπεριφορά, την κοινωνικοοικονομική τους κατάσταση, την προσωπική τους κατάσταση, τα χαρακτηριστικά τους).