Ερωτευθήκατε ποτέ με ένα Chatbot;

Αποκάλυψη: Η υποστήριξή σας βοηθά στη διατήρηση της λειτουργίας του ιστότοπου! Κερδίζουμε ένα τέλος παραπομπής για ορισμένες από τις υπηρεσίες που προτείνουμε σε αυτήν τη σελίδα.


Πώς να αποφύγετε να ερωτευτείτε με ένα Chatbot

Ο Ψυχολόγος που ερωτεύτηκε ένα Chatbot

Ο Robert Epstein είναι διακεκριμένος ψυχολόγος και πρώην αρχισυντάκτης του Psychology Today. Το 2006, είχε μια διαδικτυακή σχέση με μια γυναίκα με το όνομα Evana. Το μόνο πρόβλημα ήταν: Η Evana αποδείχθηκε πρόγραμμα υπολογιστή. Δεν είναι μόνος. Αυτού του είδους τα προγράμματα ηλεκτρονικών υπολογιστών – που συνήθως ονομάζονται “chatbots” – παγιδεύουν συνεχώς έξυπνους, γνώστες.

Λοιπόν, έχουν γίνει πραγματικότητα οι «μηχανές σκέψης»; Καλά…

Οι σημερινοί υπολογιστές δεν έχουν φτάσει αρκετά στο επίπεδο της πολυπλοκότητας των πολύχρωμων μηχανών σκέψης, όπως το σωστά ονομαζόμενο ρομπότ (“Ρομπότ”) από το Lost in Space ή το μπύρα που μπερδεύει το Bender από το Futurama. Αλλά έχουν διανύσει πολύ δρόμο!

Το 1950, ο μαθηματικός Alan Turing επινόησε αυτό που τώρα ονομάζουμε «Turning Test», το οποίο προορίζεται να διαπιστώσει εάν ένας υπολογιστής μπορεί να θεωρηθεί έξυπνος. Είναι πολύ απλό: σε μια τυφλή συνομιλία με έναν υπολογιστή και έναν άνθρωπο, μπορείτε να πείτε ποιο είναι; Δεν ήταν πολλά χρόνια αργότερα προτού τα προγράμματα υπολογιστών ήταν αρκετά εξελιγμένα για να ανταγωνίζονται σε τέτοιες δοκιμές.

Γνωρίστε τον νέο σας ψυχολόγο: ELIZA

Στα μέσα της δεκαετίας του 1960, ο επιστήμονας υπολογιστών Joseph Weizenbaum δημιούργησε ένα πρόγραμμα που ονομάζεται ELIZA. Ήταν ένα από τα πρώτα προγράμματα που σχεδιάστηκαν για να αναλύσουν την ανθρώπινη ομιλία και να αντιδράσουν σε αυτό. Αυτό το είδος «επεξεργασίας φυσικής γλώσσας» είναι η βάση για τα περισσότερα chatbots. Σύμφωνα με τα σημερινά πρότυπα, η ELIZA ήταν αρκετά απλή, την οποία μπορείτε να δείτε αν έχετε μια συνομιλία μαζί σας. Αλλά ήταν μια αρχή.

Στα 50 χρόνια από την ELIZA, τα chatbots έχουν γίνει πολύ πιο προηγμένα. Σε αυτό το σημείο, τα chatbots μαθαίνουν ακόμη και από τους ανθρώπους με τους οποίους μιλούν. Για παράδειγμα, το Cleverbot ανταποκρίνεται βασικά όπως έχει απαντηθεί υπό παρόμοιες συνθήκες στο παρελθόν. Όταν δημιουργήθηκε για πρώτη φορά το 1997, δεν διέθετε μεγάλο μέρος της βάσης δεδομένων. Αλλά από τότε, είχε πάνω από 200 εκατομμύρια συνομιλίες. Αυτό το ανάγκασε να αναπτύξει μια φαινομενικά ασεβής, κάποιοι θα έλεγαν ενοχλητική, προσωπικότητα.

Κάντε παρέα με το Digital Teen Mitsuku

Ένα άλλο chatbot, το Mitsuku, έχει μια πιο φυσιολογική προσωπικότητα. Ανεξάρτητα, δεν είναι δύσκολο να δούμε πώς κάποιος μπορεί να κάνει λάθος σε κανένα από αυτά τα chatbots (ή τα πολλά άλλα σαν αυτά) για τους πραγματικούς ανθρώπους – υπό τις σωστές συνθήκες.

Δείτε ολόκληρη την ιστορία των chatbots, την τρέχουσα κατάσταση της τέχνης και πώς μπορείτε να αποφύγετε να πέσετε για τις παραπλανητικές γοητείες τους.

Chatbots: Πώς να αποφύγετε να ερωτευτείτε με μια AI

Πώς να αποφύγετε να ερωτευτείτε με ένα Chatbot

Στην ταινία Iron Man, ο Tony Stark έχει συνομιλίες με το JARVIS, ένα πρόγραμμα υπολογιστή ικανό να συνεχίσει μια συνομιλία στα προφορικά Αγγλικά. Αυτό είναι ένα πολύ συνηθισμένο πράγμα σε ταινίες και μυθιστορήματα, αλλά προγράμματα όπως το Siri της Apple που είναι ισοδύναμα στην πραγματική ζωή, δεν είναι τόσο εντυπωσιακά. Ακόμα και όταν πρόκειται για καθαρά επικοινωνία με κείμενο, είναι δύσκολο για τα προγράμματα να μας ξεγελάσουν να πιστεύουμε ότι είναι ανθρώπινοι. Ας ρίξουμε μια πιο προσεκτική ματιά στα πρώτα προγράμματα επικοινωνίας, την πρόοδο που έχουν σημειώσει μέχρι στιγμής και τι μπορεί να κάνουν τα bots στο μέλλον.

Το τεστ Turing και πέρα

  • Το Turing Test αναπτύχθηκε το 1950 από τον Alan Turing, έναν σημαντικό επιστήμονα υπολογιστών, ως τρόπο να αποφασιστεί εάν ένας υπολογιστής θα μπορούσε να θεωρηθεί έξυπνος
    • Ο Turing υπολόγισε ότι ένα πρόγραμμα θα μπορούσε να περάσει το τεστ του σε περίπου 50 χρόνια
  • Η βασική δοκιμή Turing εκτελείται τυφλή όπου αρκετοί ανθρώπινοι κριτές επικοινωνούν με έναν αριθμό συμμετεχόντων μέσω ενός καναλιού μόνο κειμένου
    • Ένας από τους συμμετέχοντες είναι στην πραγματικότητα ένα πρόγραμμα
      • Αυτός ο τύπος προγράμματος ονομάζεται συνήθως “chatterbot” ή “chatbot” για συντομία
      • Ανάλογα με τον τρόπο οργάνωσης του τεστ, οι ανθρώπινοι κριτές μπορεί ή όχι να γνωρίζουν ότι ένας από τους συμμετέχοντες δεν είναι άνθρωπος
    • Οι κριτές έχουν πέντε λεπτά ο καθένας για να επικοινωνήσουν με κάθε «άτομο»
      • Οι κριτές το κάνουν ζητώντας από τους συμμετέχοντες ερωτήσεις
    • Εάν το πρόγραμμα ξεγελά το 33% των κριτών να πιστεύουν ότι είναι πραγματικό άτομο, περνάει
  • Οι πιο δύσκολες δοκιμές Turing έχουν αναπτυχθεί από το πρωτότυπο, συμπεριλαμβανομένων:
    • Η πρόκληση Chatterbox (CBC):
      • Ξεκίνησε το 2001 ως ετήσιος διαγωνισμός για chatbots σε όλο τον κόσμο
      • Αυτό που το κάνει διαφορετικό από άλλους διαγωνισμούς chatbot είναι ότι υπάρχουν ελάχιστοι περιορισμοί στον τύπο της τεχνολογίας που χρησιμοποιείται για τη δημιουργία του bot
      • Οι ανεξάρτητοι δικαστές υποβάλλουν μια σειρά ερωτήσεων και αξιολογούν τις απαντήσεις
      • Τα κορυφαία οκτώ bots μεταφέρονται στον τελικό γύρο
      • Πολλά chatbots που έχουν συμμετάσχει σε αυτόν τον διαγωνισμό έχουν γίνει τα θεμέλια για εμπορικές τεχνολογίες
    • Το βραβείο Loebner:
      • Ένας άνθρωπος και ένα chatbot πρέπει να επικοινωνούν μέσω ενός καναλιού μόνο κειμένου με τέσσερις κριτές για 25 λεπτά ο καθένας
      • Βραβεία
        • Χάλκινο μετάλλιο: γιατί είναι το πιο ανθρώπινο
        • Ασημένιο μετάλλιο: για να πείσει τους μισούς κριτές ότι είναι ανθρώπινος
        • Χρυσό μετάλλιο: επειδή δεν μπορεί να διακριθεί από τον άνθρωπο και να περάσει επιτυχώς ένα οπτικοακουστικό τεστ:
          • Σε αυτό το είδος της δοκιμής, το chatbot θα πρέπει να είναι σε θέση όχι μόνο να «κατανοεί» την εισαγωγή κειμένου, αλλά και την ηχητική και οπτική εισαγωγή, όπως η περιγραφή μιας εικόνας ή ομιλίας
        • Μόνο το χάλκινο μετάλλιο δεν έχει ακόμη δοθεί
          • Τα περισσότερα χρόνια κανένα από τα chatbots δεν ξεγελάει κανέναν από τους κριτές
    • Η δοκιμή Kurzweil / Kapor
      • Τρεις κριτές παρακολουθούν ένα πρόγραμμα και τρεις άνθρωποι συμμετέχουν σε μια δίωρη συνομιλία
      • Το chatbot κερδίζει εάν πείσει δύο κριτές ότι είναι άνθρωπος και κατατάσσεται ως «πιο ανθρώπινος» κατά μέσο όρο από τους άλλους διαγωνιζόμενους
      • Ο Ray Kurzweil, ένας επιστήμονας υπολογιστών, έχει στοιχηματίσει 20.000 $ ότι ένας υπολογιστής θα μπορέσει να περάσει αυτό το τεστ έως το 2029, ενώ ο Mitchell Kapor, συνιδρυτής του EFF, στοιχηματίζει ότι οι υπολογιστές δεν θα μπορούν να το κάνουν.
        • Η πρόκληση ξεκίνησε το 2002
        • Δεν έχει περάσει κανένα chatbot από το 2015

Πώς λειτουργούν τα Chatbots?

  • Τα πρώτα chatbots θα σαρώσουν την ανθρώπινη είσοδο και θα χρησιμοποιούν ένα απλό σύνολο εργαλείων για να απαντήσουν:
    • Παραλλαγές σε αυτό που μόλις ειπώθηκε
    • Προ-γραπτές απαντήσεις σε συγκεκριμένες λέξεις-κλειδιά
    • Φράσεις για τον αναπροσανατολισμό της συνομιλίας
  • Για παράδειγμα: Η ELIZA, ήταν ένα από τα πρώτα chatbots
    • Δημιουργήθηκε από τον Joseph Weizenbaum στα μέσα της δεκαετίας του 1960
    • Ένας από τους τρόπους λειτουργίας του ήταν ένας Ρογηριανός ψυχαναλυτής, ο οποίος πραγματοποίησε μη κατευθυντική θεραπεία
    • Επανέλαβε κυρίως αυτό που του είπαν. Αλλά ήξερε να αναζητά σημαντικές λέξεις-κλειδιά:
      • Ασθενής: Δεν αισθάνομαι καλά.
      • ΕΛΙΖΑ: Λέτε ότι δεν αισθάνεστε καλά.
      • Ασθενής: Ναι, η μητέρα μου με χτύπησε.
      • ΕΛΙΖΑ: Πες μου για τη μητέρα σου.
    • Εάν δεν μπορούσε να αναλύσει αυτό που έγραψε ο χρήστης, θα απαντούσε με κάτι γενικό, όπως “Παρακαλώ συνεχίστε” και “Τι σας προτείνει αυτό;”
  • Τα σύγχρονα chatbots είναι σε θέση να «θυμούνται» τι τους έχουν πει άλλοι χρήστες
    • Αυτό τους επιτρέπει να ανταποκρίνονται περισσότερο σαν ανθρώπους σε μελλοντικούς χρήστες με βάση καταστάσεις που αντιμετώπισε με προηγούμενους χρήστες
      • Η Esther Inglis-Arkell στο io9 δίνει το παράδειγμα ενός χρήστη που πληκτρολογεί «Scaramouche, scaramouche» και ένα chatbot που ανταποκρίνεται ολοκληρώνοντας το λυρικό Queen: «θα κάνεις το fandango».

Όταν η PARRY συναντήθηκε ELIZA

  • Σχεδόν μια δεκαετία μετά την ELIZA ήρθε το PARRY – ένα παρανοϊκό σχιζοφρενικό chatbot
    • Αναπτύχθηκε το 1972 από τον ψυχίατρο Kenneth Colby, ήταν ένα πολύ πιο προηγμένο πρόγραμμα από το ELIZA
      • Βασίστηκε σε μοντέλα και εμπειρικά δεδομένα σχετικά με τη σχιζοφρένεια
      • Πέρασε το τεστ Turing όταν παρουσιάστηκε σε μια ομάδα ψυχιάτρων
  • Η PARRY συναντά την ELIZA
    • Ήταν προφανές ότι η PARRY και η ELIZA έπρεπε να συνομιλήσουν και το έκαναν σε πολλές περιπτώσεις
    • Στις αρχές του 1973, ο επιστήμονας υπολογιστών Vint Cerf συνέδεσε την ELIZA και την PARRY μέσω του ARPANET για να συνομιλήσουν μεταξύ τους
    • Ακολουθεί ένα παράδειγμα κάποιου διαλόγου τους:
      • PARRY: Με ενοχλεί απλώς να είμαι κοντά στους ανθρώπους γενικά.
      • ΕΛΙΖΑ: Παρακαλώ συνεχίστε.
      • PARRY: Πήγα λίγο πριν στο κομμάτι στο Bay Meadows.
      • ΕΛΙΖΑ: Τι σας προτείνει αυτό?
      • PARRY: Πήγα στους αγώνες.

Τα Chatbots γίνονται σοβαρά

  • Όσο καλύτερα παίρνουν τα chatbots, τόσο πιο χρήσιμα – και δυνητικά επικίνδυνα – παίρνουν
  • Λολίτα
    • Το Negobot, AKA Lolita, είναι ένα chatbot που έχει σχεδιαστεί για να ενεργεί σαν ένα αφελές κορίτσι 14 ετών
    • Σχεδιασμένο από ισπανούς ερευνητές, λειτουργεί ως θέλγητρο παιδεραστών
    • Χρησιμοποιεί θεωρία παιχνιδιών και μηχανική μάθηση για να ανταποκριθεί σε διάφορες εισόδους σύμφωνα με διαφορετικά «επίπεδα» που ενδιαφέρουν
      • Το πρόγραμμα μπορεί ακόμη και να πάρει παλιά θέματα συνομιλίας
    • Η ισπανική αστυνομία ελπίζει να την ενσωματώσει σε μυστικές επιχειρήσεις, χρησιμοποιώντας το πρόγραμμα για τον εντοπισμό πιθανών παιδεραστών
  • Βιβλία Jeff
    • Μια μέρα, ο λογαριασμός twitter του ολλανδού προγραμματιστή ιστού Jeffry van der Goot έστειλε το μήνυμα, «Θέλω σοβαρά να σκοτώσω ανθρώπους».
    • Η αστυνομία ανησυχεί κατανοητά, οπότε πήγαν να του μιλήσουν.
    • Το πρόβλημα ήταν ότι δεν είχε στείλει το tweet. ήταν ένα chatbot που είχε δημιουργήσει, jeff_ebooks
      • Σχεδιάστηκε για να δημοσιεύει τυχαία tweets που αποτελούνται από παλιά tweets του van der Goot
    • Τα νομικά ζητήματα που εμπλέκονται στην κατάσταση του van der Goot περιλαμβάνουν:
      • Μπορεί το μήνυμα ενός bot να θεωρηθεί «αληθινή απειλή»?
        • Η ελευθερία του λόγου στα περισσότερα μέρη δεν επεκτείνεται σε πράγματα που θεωρούνται αληθινές απειλές
      • Εάν το μήνυμα ενός bot θεωρείται πραγματική απειλή, ποιος είναι υπεύθυνος για αυτό το μήνυμα: ο κάτοχος ή ο σχεδιαστής του bot?
    • Η ολλανδική αστυνομία ζήτησε από τον van der Goot να καταργήσει το Tweet
      • Συμμετείχε – «συγκλονίστηκε» ότι το Twitter-bot του προσέλκυσε την προσοχή της αστυνομίας
      • Ανέφερε ότι του είπαν ότι ήταν υπεύθυνος για αυτό που είπε το bot
  • Διοικητής Αστέρι
    • Ένα αρκτικόλεξο για το «Ισχυρό, Εκπαιδευμένο και Έτοιμο», Sgt. Το Star είναι ένα chatbot που έχει σχεδιαστεί και χρησιμοποιείται από τον στρατό των ΗΠΑ
      • Διοικητής Το Star αναπτύχθηκε από παρόμοια προγράμματα που χρησιμοποιούνται από το FBI και τη CIA
    • Διοικητής Το Star αναπτύχθηκε το 2003 μετά τις επιθέσεις της 11ης Σεπτεμβρίου που προκάλεσαν αύξηση της κυκλοφορίας στον ιστότοπο του Στρατού
      • Διοικητής Το Star χρησιμεύει ως σελίδα FAQ με τη βοήθεια υπολογιστή, απαντώντας σε ερωτήσεις χρηστών σχετικά με την εγγραφή, την πρόσληψη και πολλά άλλα
    • Οι μελετητές προειδοποιούν ότι bots όπως ο Sgt. Το Star δεν είναι μόνο σε θέση να συλλέξει ιδιωτικές πληροφορίες για άτομα, αλλά ότι δεν είναι γνωστό:
      • Πώς προστατεύονται αυτές οι καταγεγραμμένες πληροφορίες
      • Τι συμβαίνει στις καταγεγραμμένες συνομιλίες μόλις δηλωθούν ότι δεν είναι πλέον σχετικές
      • Τι συμβαίνει εάν τα bots επισημαίνουν την αθώα ομιλία ως απειλητική ή παράνομη

Το Chatbots γίνεται ανόητο

  • Τα Chatbots προσθέτουν ένα διαδραστικό στοιχείο σε παιχνίδια, παιχνίδια και άλλες ψυχαγωγικές δραστηριότητες:
    • Το έργο Watson
      • Δημιουργήθηκε από τον Dave Ferrucci της IBM, έναν 53χρονο επιστήμονα υπολογιστών από το Bronx, ο οποίος εργάστηκε πλήρους απασχόλησης για την IBM από το 1994 όταν ολοκλήρωσε το διδακτορικό του στο Πολυτεχνικό Ινστιτούτο Rensselaer
      • Ο Watson κέρδισε το Jeopardy! το 2011 σε διαγωνισμό man vs. machine:
        • Ήταν μια ειδική πολλαπλή μετάδοση εναντίον του Jeopardy! πρωταθλητές Ken Jennings και Brad Rutter
        • Σύμφωνα με τους υπολογισμούς της IBM, ο Watson είχε 70% πιθανότητες να κερδίσει
        • Ο Watson ανακοίνωσε ότι θα στοιχηματίσει με ακρίβεια 6.435 $ σε μια ένδειξη Daily Double, και ο Trebek, που ζαλίστηκε από την ιδιαιτερότητα, απάντησε: “Δεν θα ρωτήσω:”
          • Ο Watson κέρδισε πάνω από 77.000 $, τρεις φορές περισσότερα από τα Jennings ή Rutter
        • Το πρόγραμμα Watson:
          • Έγραψε ένα βιβλίο μαγειρικής
          • Εκπαιδεύτηκε στη μοριακή βιολογία και τη χρηματοδότηση
          • Έχει τεθεί σε λειτουργία στην εξερεύνηση πετρελαίου
          • Έχει εφαρμοστεί σε 75 βιομηχανίες σε 17 χώρες
          • Χρησιμοποιείται από δεκάδες χιλιάδες ανθρώπους στη δική τους έρευνα και εργασία
          • Το περιοδικό Wired προβλέπει ότι ο Watson θα είναι σύντομα ο πιο τέλειος ιατρός στον κόσμο
    • Η Tinder συναντά την Ava
      • Στο πλαίσιο μιας ιογενούς καμπάνιας μάρκετινγκ για την ταινία Ex Machina, δημιούργησαν έναν ψεύτικο λογαριασμό Tinder, Ava:
        • Χρησιμοποίησαν μια φωτογραφία του αστέρα της ταινίας για να δημιουργήσουν έναν σταυρό μεταξύ του ELIZA και του χαρακτήρα τεχνητής νοημοσύνης (AI) στην ταινία
        • Η Άβα έστειλε τους μνηστήρες της σε μια σελίδα Instagram όπου ανακάλυψαν ότι ήταν ψεύτικη
        • Το προφίλ έχει αφαιρεθεί από τότε. Ωστόσο, ορισμένα άτομα που ταίριαξαν με την Ava κέρδισαν βραβεία όπως εισιτήρια για την πρεμιέρα της ταινίας

Πώς να ξέρετε ότι μιλάτε με ένα Bot

  • Τα chatbots αυξάνονται όλο και πιο ζωντανά, και με τα bots να είναι υπεύθυνα για το 61,5% της επισκεψιμότητας του ιστού, η εκμάθηση να εντοπίζει ένα bot έχει γίνει μια σημαντική δεξιότητα
  • Ακολουθούν μερικοί τρόποι για να διαπιστώσετε εάν ο συνεργάτης συνομιλίας σας δεν είναι άνθρωπος:
    • Παρατηρήστε την κλασική συμπεριφορά chatbot:
      • Πρέπει να ξεκινήσετε κάθε απάντηση?
        • Οι ανθρώπινες συνομιλίες δεν πάνε πάντα πίσω και πίσω
        • Μερικές φορές ένας συνεργάτης έχει πολλά να πει ενώ ο άλλος ακούει
        • Τα Chatbots τείνουν να σας περιμένουν να γράψετε κάτι πριν απαντήσετε
      • Δεν είναι σε θέση να απαντήσει σε γλώσσα υψηλού ή χαμηλού φάσματος?
        • Τα chatbots τείνουν να βρίσκουν περίπλοκη ομιλία δύσκολη στην κατανόηση
        • Ομοίως, πολλά chatbots δεν καταλαβαίνουν αργκό
      • Έχει μικρή μνήμη?
        • Τα chatbots τείνουν να επαναλαμβάνονται κατά τη διάρκεια συνομιλιών
        • Αυτοί μπορεί:
          • Κάντε την ίδια ερώτηση
          • Δώστε διαφορετικές απαντήσεις στην ίδια ερώτηση
          • Αλλάξτε δραστικά το θέμα (έχοντας «ξεχάσει» το θέμα)
      • Αντιδρά με μη ακολουθίες?
        • Όταν ρωτήθηκε αν διάβασε το νέο μυθιστόρημα John Grisham, ένα chatbot μπορεί να απαντήσει, “Προτιμώ παγωτό!”
          • Το chatbot δεν κάνει μια έξυπνη προσβολή. απλώς δεν είναι σε θέση να επεξεργαστεί αυτό που μόλις είπατε
    • Ρωτήστε για σημαντικά θέματα, άτομα ή τρέχοντα γεγονότα
      • Το Chatbots μπορεί να μιλήσει μόνο για ό, τι θέτουν οι προγραμματιστές τους στη μνήμη τους
      • Ένα άτομο μπορεί πιθανώς να αναγνωρίσει τον Έλβις, μια δημοφιλή ταινία υπερήρωων ή μια παγκόσμια κρίση
        • Τα Chatbots έχουν περισσότερα προβλήματα με αυτά τα θέματα
    • Ρωτήστε για το πώς έχει προχωρήσει η συζήτηση
      • Οι άνθρωποι μπορούν να μαντέψουν τι σκέφτεται ένας άλλος άνθρωπος
        • Βασίζουν την εικασία τους σε αυτό που σκέφτονται
      • Ένα chatbot δεν μπορεί να αντικατοπτρίζει τις σκέψεις ενός άλλου ατόμου επειδή δεν είναι άτομο

Ενώ τα chatbots μπορεί να προέρχονται από ταπεινή προέλευση, είναι σαφές ότι αυξάνονται στην πολυπλοκότητα όλη την ώρα. Μεγάλο μέρος της σύγχρονης επικοινωνίας είναι μέσω κειμένου, email και διαδικτυακής συνομιλίας και η δυνατότητα των chatbots να επικοινωνούν μαζί μας μέσω αυτών των μέσων ανησυχεί τους ανθρώπους. Πώς μπορούμε να πούμε εάν το “άτομο” στο άλλο άκρο αυτού του λογαριασμού IM είναι άνθρωπος ή chatbot; Μερικοί, όπως ο Elon Musk, ο Stephen Hawking και ο Bill Gates έχουν εκφράσει ακόμη και ανησυχίες ότι η τεχνητή νοημοσύνη μπορεί να οδηγήσει στο τέλος της ανθρώπινης φυλής. Το Chatbots μπορεί να φαίνεται αβλαβές τώρα, αλλά ποιος ξέρει τι θα μπορούν να κάνουν στο μέλλον?

Πηγές

  • Μηχανήματα και Πληροφορική
  • Βραβείο Loebner για την τεχνητή νοημοσύνη «Ο πρώτος έλεγχος Turing» του διαγωνισμού 2010
  • “Μέχρι το 2029 κανένας υπολογιστής – ή” μηχανή πληροφοριών “- δεν θα έχει περάσει το Turing Test.”
  • Πρόκληση Chatterbox
  • Το βραβείο Loebner στην Τεχνητή Νοημοσύνη
  • Βραβείο Loebner 2014 στην Τεχνητή Νοημοσύνη
  • 10 κόλπα που χρησιμοποιούν τα Chatbots για να σας κάνουν να πιστεύετε ότι είναι ανθρώπινοι
  • Οι έμποροι εξαπάτησαν τους χρήστες του SXSW Tinder με ένα Chatbot
  • Έβι και Μπούμποτ
  • Διακινδύνευση! Ρομπότ Watson
  • Η γενεαλογία της Ελίζας
  • Chatbots.org Parry Σελίδα
  • Όταν η PARRY γνώρισε την ELIZA: Μια γελοία συνομιλία Chatbot από το 1972
  • Το εξελιγμένο chatbot θέτει ως έφηβη για να δελεάσει τους παιδεραστές
  • “From the Mouths of Babes”: Ποιος είναι υπεύθυνος για το τι λένε οι Bots στο Διαδίκτυο?
  • Τυχαία δημιουργημένο tweet από bot ζητά έρευνα από την ολλανδική αστυνομία
  • Τζέφρι van der Goot
  • Αφού το bot του Twitter κάνει απειλή κατά του θανάτου, ο ιδιοκτήτης του ρωτάται από την αστυνομία
  • Όλα όσα ξέρουμε για το Uncanny Chatbots του στρατού των ΗΠΑ
  • Πώς συνομιλεί ο υπολογιστής Cleverbot σαν άνθρωπος
  • Αναφορά: Η επισκεψιμότητα των bot είναι έως και 61,5% της συνολικής επισκεψιμότητας ιστότοπων
  • Πώς μπορείτε να δείτε εάν συνομιλείτε με ένα bot?
  • Πώς μπορείτε να πείτε εάν ο φίλος σας IM είναι πραγματικά μηχανή?
  • Ποια μόνο ερώτηση μπορεί να βοηθήσει στη διαφοροποίηση ενός bot συνομιλίας από έναν άνθρωπο?
  • Ο Bill Gates, όπως ο Stephen Hawking και ο Elon Musk, ανησυχούν για την απειλή της τεχνητής νοημοσύνης

Τα chatbots δεν είναι τόσο ανθρώπινα όσο τα πράγματα που βλέπουμε στις ταινίες, αλλά οι κορυφαίοι συχνά ξεγελούν τους ανθρώπους να πιστεύουν ότι είναι ανθρώπινοι.

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me
    Like this post? Please share to your friends:
    Adblock
    detector
    map