Τεχνητή Νοημοσύνη – Πέντε Οικονομικά Στοιχεία Που Δεν Πρέπει Να Αποκαλύπτουμε Σε Chatbot

Share

Η τεχνητή νοημοσύνη έχει γίνει αναπόσπαστο κομμάτι της καθημερινότητας, προσφέροντας χρήσιμα εργαλεία για ποικίλες ανάγκες. Ωστόσο, όταν χρησιμοποιείται ανεύθυνα, μπορεί να θέσει σε κίνδυνο προσωπικά και οικονομικά δεδομένα. Είναι καθοριστικής σημασίας να γνωρίζουμε ποιες πληροφορίες δεν θα πρέπει ποτέ να αποκαλύπτουμε σε chatbots.

Σύμφωνα με έρευνα της Cisco και δημοσίευμα της Washington Post, το 29% των χρηστών μαζί παγκοσμίως έχει εισαγάγει ευαίσθητα προσωπικά δεδομένα, όπως οικονομικές ή ιατρικές πληροφορίες, σε συστήματα τεχνητής νοημοσύνης, ενώ το 84% ανησυχεί για τις πιθανές διαρροές αυτών των δεδομένων.

Μία μελέτη του Πανεπιστημίου Στάνφορντ αποκάλυψε πως μεγάλες εταιρείες τεχνολογίας, όπως η Amazon, Google, Meta, Microsoft και OpenAI, εκμεταλλεύονται τις συνομιλίες των χρηστών με σκοπό την εκπαίδευση των μοντέλων τους. Μάλιστα, ορισμένες διατηρούν τα δεδομένα των χρηστών επ’ αόριστον, αυξάνοντας τον κίνδυνο κακής χρήσης τους.

Η αποδοχή της τεχνητής νοημοσύνης για οικονομικούς συμβουλών αυξάνεται κατακόρυφα. Σύμφωνα με την TD Bank, το ποσοστό των Αμερικανών που αξιοποιεί τέτοια εργαλεία για οικονομικές αποφάσεις εκτινάχθηκε από 10% σε 55% εντός ενός έτους, φθάνοντας το 77% στη Γενιά Ζ και το 72% στους millennials.

Ειδικοί προειδοποιούν πως υπάρχουν πέντε κατηγορίες εγγράφων που πρέπει να αποφεύγουμε να κοινοποιούμε σε chatbots:

  • Ονοματεπώνυμο, διεύθυνση, αριθμός ταυτότητας ή κοινωνικής ασφάλισης: Αυτές οι πληροφορίες δεν πρέπει να διακινούνται σε συνομιλίες με chatbots, καθώς η ασφάλεια τους είναι αβέβαιη.
  • Πληροφορίες για επαγγελματική κατάσταση: Οποιαδήποτε λεπτομέρεια μπορεί να οδηγήσει σε επιθέσεις phishing, όπου οι εγκληματίες αξιοποιούν πραγματικά δεδομένα για να εξαπατήσουν τα θύματα.
  • Ακριβή ποσά χρεών: Οι απατεώνες μπορούν να χρησιμοποιήσουν τέτοιες πληροφορίες σε συνδυασμό με άλλες διαρροές για να εξαπατήσουν τους χρήστες.
  • Αναλυτικά έξοδα: Μικρές αναφορές σε αγορές ή ποσά μπορούν να δώσουν πρόσβαση σε προσωπικά δεδομένα ή τραπεζικούς λογαριασμούς.
  • Έγγραφα με προσωπικά στοιχεία: Αυτά περιλαμβάνουν φορολογικές δηλώσεις και αποδείξεις, των οποίων η κοινοποίηση απαγορεύεται ακόμα και αν μερικές πληροφορίες έχουν διαγραφεί. Όπως σημειώνουν οι ειδικοί, «ό,τι δεν θα δίναμε σε έναν άγνωστο, δεν πρέπει να το δίνουμε ούτε στην τεχνητή νοημοσύνη».

Το λεγόμενο «παράδοξο της ιδιωτικότητας» αναδεικνύει την αντίφαση στην οποία βρίσκονται οι χρήστες: αν και ανησυχούν για την ασφάλεια των προσωπικών τους πληροφοριών, συνεχίζουν να τις κοινοποιούν σε εφαρμογές AI. Μελέτη του Πανεπιστημίου Τόνγκτζι στη Σαγκάη έδειξε ότι οι χρήστες, κάτω από τη ψευδαίσθηση ανθρώπινης επικοινωνίας των chatbots, αναπτύσσουν μεγαλύτερη εμπιστοσύνη, επηρεαζόμενοι τόσο από λογικούς όσο και συναισθηματικούς παράγοντες.

Για την ασφαλή χρήση της τεχνητής νοημοσύνης, είναι σημαντικό να κάνουμε ερωτήσεις για γενικά θέματα, χωρίς να αποκαλύπτουμε προσωπικά στοιχεία. Η έγκαιρη προσαρμογή των ρυθμίσεων απορρήτου, η απενεργοποίηση λειτουργιών μνήμης και η επιλογή εκδόσεων που δεν χρησιμοποιούν τις συνομιλίες για εκπαίδευση του μοντέλου συμβάλλουν στη διασφάλιση των δεδομένων μας. Όσο λιγότερα πληροφορίες μοιραζόμαστε, τόσο πιο ασφαλείς θα είμαστε στο ψηφιακό περιβάλλον.

ΟΙ ΑΘΛΗΤΙΚΕΣ ΜΕΤΑΔΟΣΕΙΣ ΤΗΣ ΗΜΕΡΑΣ - ΠΡΟΓΡΑΜΜΑ ΤΗΛΕΟΡΑΣΗΣ
ΟΙ ΑΘΛΗΤΙΚΕΣ ΜΕΤΑΔΟΣΕΙΣ ΤΗΣ ΗΜΕΡΑΣ