Δικηγόροι στις ΗΠΑ προειδοποιούν τους πελάτες τους να μην αντιμετωπίζουν τα chatbots όμως ως έμπιστα πρόσωπα, ειδικά όταν διακυβεύεται η ελευθερία ή η νομική τους ευθύνη.
Οι προειδοποιήσεις από τους δικηγόρους, έγιναν πιο έντονες εξαιτίας μιας απόφασης ομοσπονδιακού δικαστή στη Νέα Υόρκη φέτος, σύμφωνα με την οποία ο πρώην διευθύνων σύμβουλος μιας εταιρείας που κήρυξε πτώχευση, δεν μπορεί να αποκρύψει τις συνομιλίες του με το chatbot από τους εισαγγελείς που τον κατηγορούσαν για απάτη.
Οι δικηγόροι, όπως αναφέρεται σε άρθρο του Reuters, επισημαίνουν πως οι συνομιλίες με chatbots όπως το Claude της Anthropic και το ChatGPT της OpenAI ενδέχεται να καταλήξουν στα χέρια εισαγγελικών αρχών ή αντιδίκων σε αστικές υποθέσεις.
Οι συζητήσεις μεταξύ πελάτη και δικηγόρου θεωρούνται σχεδόν πάντα εμπιστευτικές στις ΗΠΑ, ωστόσο τα chatbots δεν είναι δικηγόροι και το απόρρητο δεν ισχύει σε αυτήν την περίπτωση, γι' αυτό και οι νομικοί συμβουλεύουν τους πελάτες να λαμβάνουν μέτρα ώστε να διασφαλίζουν μεγαλύτερη ιδιωτικότητα στις αλληλεπιδράσεις τους με τέτοια εργαλεία.
Κινδυνεύει το δικηγορικό απόρρητο από τα chatbots
Δικηγορικές εταιρείες, αποστέλλουν email και αναρτούν συστάσεις στις ιστοσελίδες τους ώστε να προειδοποιήσουν τους πελάτες τους για τους κινδύνους που ενέχει η εμπιστοσύνη στα chatbots. Παρόμοιες προειδοποιήσεις ενσωματώνονται πλέον και σε συμβάσεις συνεργασίας. Χαρακτηριστικό, είναι το παράδειγμα του δικηγορικού γραφείου Sher Tremonte το οποίο αναφέρει ότι η κοινοποίηση νομικών συμβουλών σε chatbot μπορεί να ακυρώσει το λεγόμενο «δικηγορικό απόρρητο».
Το chatbot «έκαψε» τον κατηγορούμενο
Η δικαστική απόφαση που στάθηκε αφορμή για να προκληθούν οι αντιδράσεις αφορά τον Μπράντλεϊ Χέπνερ, πρώην επικεφαλής της χρεοκοπημένης εταιρείας GWG Holdings. Ο Χέπνερ κατηγορείται για απάτη και έχει δηλώσει πως είναι αθώος. Ο ίδιος, προκειμένου να συντάξει αναφορές για την υπόθεσή του, απευθύνθηκε στο chatbot Claude.
Στην συνέχεια, μοιράστηκε αυτές τις αναφορές με τους δικηγόρους του. Εκείνοι, υποστήριξαν πως οι συνομιλίες αυτές θα έπρεπε να προστατεύονται, καθώς περιέχουν στοιχεία της υπερασπιστικής στρατηγικής. Οι θέσεις τους όμως δεν έπεισαν τους εισαγγελείς οι οποίοι έφεραν ως αντεπιχείρημα ότι είχαν κάθε δικαίωμα πρόσβασης, αφού οι οι δικηγόροι δεν συμμετείχαν άμεσα στις συνομιλίες και το δικηγορικό απόρρητο δεν ισχύει για chatbots.
Ο ομοσπονδιακός δικαστής Τζεντ Ράκοφ αποφάσισε ότι ο Χέπνερ πρέπει να παραδώσει 31 σχετικά έγγραφα, επισημαίνοντας ότι δεν υφίσταται —ούτε μπορεί να υπάρξει— σχέση δικηγόρου–πελάτη μεταξύ ενός χρήστη AI και μιας πλατφόρμας όπως το Claude».
«Πονοκέφαλος» για τους δικαστές το AI
Η αυξανόμενη χρήση της τεχνητής νοημοσύνης αποτελεί πονοκέφαλο για τους δικαστές καθώς έχουν καταγραφεί περιστατικά όπου έχουν κατατεθεί έγγραφα που περιείχαν ανύπαρκτες υποθέσεις δημιουργημένες από το AI.
Μπορεί η απόφαση του Ράκοφ να έδωσε ένα ταρακούνημα σε δικηγόρους και τους πελάτες τους σχετικά με τη νομική προστασία που αφορά στις δικαστικές διαδικασίες, ωστόσο την ίδια μέρα υπήρξε και μια άλλη απόφαση, εντελώς διαφορετική.
Ο Αμερικανός δικαστής Άντονι Πάτι στο Μίσιγκαν, είχε αντίθετη άποψη σε υπόθεση που χειρίστηκε καθώς δήλωσε ότι μια γυναίκα που εκπροσωπούσε τον εαυτό της σε μια αγωγή που άσκησε εναντίον της πρώην εταιρείας της δεν χρειαζόταν να παραδώσει τις συνομιλίες της με το ChatGPT σχετικά με τους ισχυρισμούς περί απασχόλησης που έγιναν στην υπόθεση. Όπως σημείωσε, τα προγράμματα τεχνητής νοημοσύνης «είναι εργαλεία, όχι νομικά πρόσωπα».
Βέβαια, οι όροι χρήσης των εταιρειών OpenAI και Anthropic αναφέρουν ότι τα δεδομένα των χρηστών μπορεί να κοινοποιηθούν σε τρίτους, ενώ προτρέπουν τους χρήστες να συμβουλεύονται ειδικούς για νομικά ζητήματα.
Οι συμβουλές των δικηγόρων
Προκειμένου να προφυλάξουν τους πελάτες τους, οι νομικοί πλέον υιοθετούν ορισμένες πρακτικές όπως για παράδειγμα η χρήση συγκεκριμένης διατύπωσης στις ερωτήσεις προς τα chatbots. Δηλαδή, να δηλώνεται ρητά ότι η έρευνα γίνεται κατόπιν εντολής δικηγόρου, ώστε να ενισχυθεί η νομική προστασία. Ωστόσο, πολλές εταιρίες πλέον βάζουν ρήτρες και προειδοποιούν ότι η κοινοποίηση ευαίσθητων πληροφοριών σε τέτοιες πλατφόρμες μπορεί να έχει νομικές συνέπειες.
Οι ειδικοί θεωρούν πως οι αποφάσεις οι οποίες θα παρθούν στο μέλλον, αναμένεται να αποσαφηνίσουν το νομικό πλαίσιο γύρω από τη χρήση της Τεχνητής Νοημοσύνης ως αποδεικτικό στοιχείο.