Η σκιά του «Silent AI» πάνω από τα χαρτοφυλάκια Αστικής Ευθύνης, το νομικό προηγούμενο που αλλάζει τα δεδομένα της υπαιτιότητας και η μετάβαση σε μοντέλα Affirmative Coverage.

Analysis / Casualty & General Liability

Η ιστορία στην ασφαλιστική αγορά έχει την τάση να επαναλαμβάνεται. Μία δεκαετία μετά την αναστάτωση που προκάλεσε το «Silent Cyber», οι Underwriters στο Λονδίνο και τις ΗΠΑ βρίσκονται αντιμέτωποι με έναν νέο, ίσως πιο πολύπλοκο κίνδυνο συσσώρευσης (accumulation risk): την έκθεση στη «Σιωπηρή Τεχνητή Νοημοσύνη» (Silent AI).

Καθώς η ενσωμάτωση της AI μετατοπίζεται από τα τμήματα R&D στην κεντρική επιχειρησιακή λειτουργία, το ερώτημα για τους ασφαλιστές Casualty δεν είναι πλέον θεωρητικό. Αφορά τη δομική ακεραιότητα των συμβολαίων Αστικής Ευθύνης.

Η Έκθεση: Από το «Gap» στο «Accumulation»

Σύμφωνα με νομικές αναλύσεις (Kennedys, Browne Jacobson), το φαινόμενο του Silent AI δημιουργείται όταν τα συμβατικά ασφαλιστήρια δεν περιλαμβάνουν ρήτρες που να ορίζουν, να περιορίζουν ή να αποκλείουν ζημιές προερχόμενες από αλγοριθμικά συστήματα.

Για τους αναλογιστές και τους risk managers, αυτό συνιστά εφιάλτη τιμολόγησης. Σε αντίθεση με τους παραδοσιακούς κινδύνους, το AI φέρει χαρακτηριστικά συστημικού ρίσκου. Μια αστοχία σε ένα ευρέως διαδεδομένο μοντέλο Generative AI (το οποίο μπορεί να χρησιμοποιείται ταυτόχρονα από χιλιάδες ασφαλισμένους σε διαφορετικούς κλάδους) δύναται να πυροδοτήσει ένα κύμα απαιτήσεων που θα διαπεράσει οριζόντια το χαρτοφυλάκιο μιας ασφαλιστικής, ενεργοποιώντας ταυτόχρονα πολλαπλά συμβόλαια που δεν είχαν τιμολογηθεί για τέτοια έκθεση.

Το Νομικό Ορόσημο: Η υπόθεση Air Canada

Η αγορά παρακολουθεί στενά τη διαμόρφωση της νομολογίας, η οποία φαίνεται να κλείνει την πόρτα σε κάθε προσπάθεια αποποίησης ευθύνης.

Το σημείο καμπής θεωρείται η πρόσφατη νομική έκβαση στην υπόθεση Moffatt v. Air Canada. Το δικαστήριο απέρριψε κατηγορηματικά τον ισχυρισμό της εταιρείας ότι το AI chatbot της λειτουργούσε ως ξεχωριστή οντότητα για την οποία δεν έφερε ευθύνη. Η απόφαση αυτή αποκρυσταλλώνει τη νομική αρχή ότι οι «παραισθήσεις» (hallucinations) ενός συστήματος AI και οι εσφαλμένες συμβουλές που παρέχει, συνιστούν άμεση ευθύνη της εταιρείας που το χρησιμοποιεί (Deployer liability).

Για τους Underwriters, αυτό σημαίνει ότι η γραμμή άμυνας «σφάλμα λογισμικού» καταρρέει. Η ζημιά μετατρέπεται σε κλασική απαίτηση Αστικής Ευθύνης ή Επαγγελματικού Λάθους.

Ο Ρυθμιστικός Επιταχυντής: GDPR & EU AI Act

Πέρα από τη νομολογία, η πίεση εντείνεται δραματικά από το ρυθμιστικό πλαίσιο, δημιουργώντας έναν παράλληλο κίνδυνο. Στην ΕΕ, το GDPR ήδη επιβάλλει αυστηρές υποχρεώσεις διαφάνειας και λογοδοσίας σε αυτοματοποιημένες διαδικασίες λήψης αποφάσεων.

Ωστόσο, με την έλευση του EU AI Act, η συμμόρφωση αποκτά σαφέστερο και αυστηρότερο πλαίσιο: τα συστήματα AI κατηγοριοποιούνται βάσει ρίσκου, εισάγονται ειδικές υποχρεώσεις για τα “high-risk” συστήματα (π.χ. πιστοληπτική αξιολόγηση, προσλήψεις) και προβλέπονται σημαντικά διοικητικά πρόστιμα. Για τους ασφαλιστές, αυτό σημαίνει ότι μια αστοχία ή μεροληψία ενός συστήματος AI δεν δημιουργεί μόνο απαιτήσεις αστικής ευθύνης έναντι τρίτων, αλλά δυνητικά και παράλληλη έκθεση σε ρυθμιστικά πρόστιμα και δαπανηρές κανονιστικές διερευνήσεις.

Η συζήτηση για το AI Liability, επομένως, δεν μπορεί πλέον να αποκοπεί από τη στρατηγική συμμόρφωσης (compliance strategy) των επιχειρήσεων.

Η Στρατηγική της Αγοράς: Affirmative AI Coverage

Ως απάντηση στην αβεβαιότητα, η διεθνής αγορά εγκαταλείπει σταδιακά την παθητική στάση. Η τάση που κυριαρχεί πλέον στο Λονδίνο είναι η μετάβαση σε Ρητή Κάλυψη (Affirmative Coverage).

Η φιλοσοφία των νέων προγραμμάτων που εισάγονται στην αγορά βασίζεται σε τρεις τεχνικούς πυλώνες:

Segregation of Risk (Διαχωρισμός Κινδύνου): Διακρίνεται σαφώς το προφίλ κινδύνου μεταξύ των Developers (που φέρουν την ευθύνη του κώδικα και της εκπαίδευσης του μοντέλου) και των Deployers (που φέρουν την ευθύνη της χρήσης και της επίβλεψης).

Performance & Intangible Assets: Οι νέες καλύψεις επεκτείνονται πέραν της σωματικής βλάβης ή υλικής ζημίας, καλύπτοντας οικονομικές απώλειες τρίτων από αλγοριθμική υπο-απόδοση ή μεροληψία (bias), καθώς και έξοδα νομικής υπεράσπισης έναντι ρυθμιστικών αρχών.

Sub-limiting Exposure: Για να προστατευθούν τα κεφάλαια από το ρίσκο συσσώρευσης, οι ασφαλιστές εισάγουν ειδικά υπο-όρια (sub-limits) για περιστατικά AI εντός των γενικότερων συμβολαίων, ή δημιουργούν standalone προϊόντα με ξεχωριστό capacity.

Το Ελληνικό Τοπίο: Λειτουργικός Μετασχηματισμός και Κίνδυνος

Στην ελληνική αγορά, τα δεδομένα δείχνουν ότι ο κίνδυνος έχει ήδη παρεισφρήσει στα χαρτοφυλάκια corporate και commercial lines.

Η περίοδος των πιλοτικών εφαρμογών έχει παρέλθει. Στατιστικά στοιχεία και αναφορές της αγοράς επιβεβαιώνουν ότι κρίσιμοι κλάδοι –όπως ο τραπεζικός, το λιανεμπόριο και οι τηλεπικοινωνίες– έχουν ενσωματώσει πλήρως λύσεις Generative AI για λήψη αποφάσεων (decisioning), πιστοληπτική αξιολόγηση και εξυπηρέτηση πελατών.

Το συμπέρασμα για την εγχώρια ασφαλιστική βιομηχανία είναι σαφές: Η διατήρηση «σιωπηλών» συμβολαίων αποτελεί πλέον στρατηγικό ρίσκο. Η υιοθέτηση εξειδικευμένων ρητρών και προϊόντων AI Liability δεν αποτελεί απλώς ευκαιρία ανάπτυξης εργασιών, αλλά αναγκαία κίνηση για τη θωράκιση των αποτελεσμάτων underwriting απέναντι σε έναν κίνδυνο που είναι ήδη παρών.

       Πηγές

Μιλάνος Δημήτρης 
Υπεύθυνος Κλάδου Υγείας & Γενικών Ασφαλίσεων
DAES London Market Insurance Brokers
📧Email:info@daes.gr
📞 Τηλέφωνο: +30 215 560 9900