Κυρώσεις για σύνταξη δικογράφων με ChatGPT: Παραπομπές σε ανύπαρκτη νομολογία
Πονοκέφαλο έχει προκαλέσει στην Αμερική η χρήση ChatGPT για νομική έρευνα και τεκμηρίωση και τη σύνταξη δικογράφων. Σε πολλές περιπτώσεις οι χρήστες, προσπαθώντας προφανώς να επωφεληθούν από την ταχύτητα της εφαρμογής, αλλά και από την φαινομενική αρτιότητα και εγκυρότητα των αποτελεσμάτων που βγάζει, παρέλειψαν να επαληθεύσουν τις απαντήσεις της. Ως αποτέλεσμα κατέθεσαν δικόγραφα στα δικαστήρια με παραπομπές σε ανύπαρκτες δικαστικές αποφάσεις, οι οποίες πέρα από πλαστό αριθμό, έφεραν και αναληθή στοιχεία για τη σύνθεση του δικαστηρίου που υποτίθεται ότι τις εξέδωσε!
Στην περίπτωση των δικηγόρων Schwartz και LoDuca στην υπόθεση Roberto Mata vs. Avianca, υπεβλήθησαν ποινές για παρέλκυση της δίκης και απόπειρα παραπλάνησης του δικαστηρίου. Μεταξύ άλλων, υποχρεούνται να ενημερώσουν για την κύρωση που τους επεβλήθη τόσο τους πελάτες τους στην οικεία υπόθεση, όσο και τους ψευδώς μνημονευόμενους δικαστές στις επινοημένες δικαστικές αποφάσεις. Απολογούμενοι οι συνάδελφοι παραδέχτηκαν τη χρήση ChatGPT για την υποστήριξη των ισχυρισμών τους («αναζήτηση νομοθεσίας και νομολογίας για το ζήτημα αν η αναστολή πτώχευσης παρατείνει την περίοδο παραγραφής για μια απαίτηση βάσει της Σύμβασης του Μόντρεαλ»), αλλά δήλωσαν μη εξοικειωμένοι με τη λειτουργία της. Παρότι μπορούσαν να φανταστούν ότι οι ad hoc δικαστικές αποφάσεις που τους εμφάνισε σε απάντηση των ερωτημάτων τους θα μπορούσαν να είναι αδημοσίευτες, να έχουν προσβληθεί με ένδικα μέσα και ίσως ανατραπεί, πάντως δεν υποπτεύθηκαν ότι θα μπορούσαν να είναι κατασκευασμένες.
Αναρωτιέται κανείς αν εν προκειμένω θα μπορούσε να αποδοθεί ελαττωματική λειτουργία στο ChatGPT και να καταλογιστεί ευθύνη στην Open AI, που το αναπτύσσει και το διαχειρίζεται, για τη ζημία από το ξεμπρόστιασμα των Schwartz και LoDuca…