Διεπιστημονική Προσέγγιση στην Ηθική της Τεχνολογίας μέσα από το νέο Μεταπτυχιακό Πρόγραμμα του Ιονιου Πανεπιστημίου

Οι πολυδιάστατες ηθικές προκλήσεις που εγείρει η τεχνητή νοημοσύνη, από την διαφάνεια και τις προκαταλήψεις, την προστασία των προσωπικών δεδομένων, τις ανισότητες και την παραπληροφόρηση έως ακόμη και τον έλεγχο των μηχανών από τον άνθρωπο, αποτελούν το αντικείμενο του νέου μεταπτυχιακού προγράμματος σπουδών για την Ηθική στην Τεχνολογία της Πληροφορίας, το οποίο εγκαινιάζει το Τμήμα Πληροφορικής του Ιονίου Πανεπιστημίου. Μιλώντας στο ΑΠΕ-ΜΠΕ οι δημιουργοί του προγράμματος, ο ομότιμος Καθηγητή Χειρουργικής, πρώην Πρύτανης του Δημοκρίτειου Πανεπιστημίου Θράκης, Ακαδημαϊκός και Πρόεδρος της Ελληνική Εταιρεία Βιοηθικής Κωνσταντίνος Σιμόπουλος και ο Καθηγητής Βιοπληροφορικής του Τμήματος Πληροφορικής του Ιονίου Πανεπιστημίου, Μέλος του Συμβουλίου διοίκησης, Επιστημονικά Υπεύθυνος του Εργαστηρίου Βιοπληροφορικής και Ανθρώπινης Ηλεκτροφυσιολογίας και Διευθυντής του νέου μεταπτυχιακού προγράμματος Παναγιώτης Βλάμος, εξήγησαν ότι το μεταπτυχιακό «Ηθική στην Τεχνολογία της Πληροφορίας» προετοιμάζει επαγγελματίες από διάφορους κλάδους να διαχειριστούν τις προκλήσεις αυτές.

Ερώτηση: Εάν θέλαμε να δούμε το πανόραμα των προκλήσεων που παρουσιάζει η Τεχνητή Νοημοσύνη σήμερα, τι θα συμπεριλαμβάνατε;

Κωνσταντίνος Σιμόπουλος: Τα ηθικά ζητήματα που συνδέονται με την τεχνητή νοημοσύνη είναι πολυδιάστατα και σχετίζονται με την επίδραση της τεχνολογίας στις κοινωνίες, αλλά και τα άτομα. Ξεκινούν από τη διαφάνεια και την εξηγησιμότητα -τα συστήματα τεχνητής νοημοσύνης να μπορούν να εκφράζουν τις διαδικασίες λήψης αποφάσεων με τρόπο που να μπορούν να κατανοήσουν οι άνθρωποι- καθώς πολλά συστήματα ΤΝ, ιδιαίτερα εκείνα που βασίζονται σε βαθιά μηχανική μάθηση (deep learning), λειτουργούν ως «μαύρα κουτιά», δηλαδή χωρίς να είναι σαφής ο τρόπος με τον οποίο λαμβάνονται οι αποφάσεις. Η έλλειψη διαφάνειας μπορεί να οδηγήσει σε δυσπιστία και δυσκολία στον έλεγχο της δικαιοσύνης και της ακρίβειας των αποφάσεων.

Ένα δεύτερο μεγάλο ζήτημα είναι οι προκαταλήψεις και οι διακρίσεις. Τα συστήματα ΤΝ εκπαιδεύονται σε δεδομένα που ενδέχεται να περιέχουν κοινωνικές, φυλετικές, ή έμφυλες προκαταλήψεις. Αν τα δεδομένα είναι μεροληπτικά, τα αποτελέσματα της ΤΝ μπορεί να αναπαράγουν ή και να ενισχύσουν τις διακρίσεις, π.χ. αποφάσεις για προσλήψεις, δάνεια ή ποινική δικαιοσύνη.

Στη συνέχεια είναι η ιδιωτικότητα και η προστασία των δεδομένων. Τα συστήματα ΤΝ συχνά επεξεργάζονται μεγάλο όγκο προσωπικών δεδομένων, εγείροντας ανησυχίες για την ασφάλεια και την ιδιωτικότητα. Η μη εξουσιοδοτημένη χρήση ή διαρροή δεδομένων μπορεί να παραβιάσει την ιδιωτικότητα των ατόμων και να οδηγήσει σε κακή χρήση πληροφοριών.

Είναι η ευθύνη και η υπευθυνότητα. Ποιος ευθύνεται όταν ένα σύστημα ΤΝ λαμβάνει μια λανθασμένη ή ηθικά αμφισβητήσιμη απόφαση; Είναι ο προγραμματιστής, ο οργανισμός ή το ίδιο το σύστημα; Η ασάφεια σχετικά με την ευθύνη μπορεί να αποτρέψει τη λήψη μέτρων και τη λογοδοσία.

Είναι η ανεργία και η κοινωνική ανισότητα. Η αυτοματοποίηση μέσω ΤΝ μπορεί να οδηγήσει σε απώλεια θέσεων εργασίας, ιδιαίτερα σε κλάδους που βασίζονται σε επαναλαμβανόμενες εργασιακές διαδικασίες. Η αύξηση της ανεργίας και η διεύρυνση του χάσματος πλούτου μπορούν να προκαλέσουν κοινωνικές αναταραχές και ανισότητες.

Είναι ο εθισμός και η ψυχική υγεία. Πλατφόρμες που βασίζονται σε ΤΝ, όπως τα μέσα κοινωνικής δικτύωσης, χρησιμοποιούν αλγόριθμους για να διατηρούν τους χρήστες συνδεδεμένους για μεγαλύτερο διάστημα. Αυτή η πρακτική μπορεί να οδηγήσει σε εθισμό, απώλεια παραγωγικότητας και προβλήματα ψυχικής υγείας.

Είναι η χρήση για στρατιωτικούς και κατασταλτικούς σκοπούς. Η ΤΝ μπορεί να χρησιμοποιηθεί σε οπλικά συστήματα, επιτήρηση ή άλλες στρατιωτικές εφαρμογές. Η ανάπτυξη αυτόνομων όπλων εγείρει ανησυχίες για την αποσταθεροποίηση της ειρήνης και την παραβίαση των ανθρωπίνων δικαιωμάτων.

Είναι οι περιβαλλοντικές επιπτώσεις. Η εκπαίδευση μεγάλων μοντέλων ΤΝ απαιτεί τεράστιους υπολογιστικούς πόρους, κάτι που αυξάνει την ενεργειακή κατανάλωση. Οι επιπτώσεις στο περιβάλλον είναι σημαντικές, εντείνοντας την κλιματική κρίση.

Είναι η παραπληροφόρηση και οι ψευδείς ειδήσεις. Η ΤΝ χρησιμοποιείται για τη δημιουργία ψεύτικου περιεχομένου (λ.χ., deepfakes, ψευδείς ειδήσεις). Η διάδοση ψευδών πληροφοριών μπορεί να επηρεάσει την κοινή γνώμη, να προκαλέσει κοινωνικές εντάσεις και να χειραγωγήσει εκλογές.

Και τέλος είναι η αυτονομία και ο ανθρώπινος έλεγχος. Η υπερβολική αυτονομία στα συστήματα ΤΝ μπορεί να μειώσει τον ανθρώπινο έλεγχο και να οδηγήσει σε μη αναστρέψιμες αποφάσεις. Η αδυναμία ελέγχου μπορεί να απομακρύνει την ευθύνη από τους ανθρώπους και να δημιουργήσει συστήματα που λειτουργούν ενάντια στα ανθρώπινα συμφέροντα.

Το συγκεκριμένο μεταπτυχιακό είναι το πρώτο στην Ελλάδα που ασχολείται με την ηθική των τεχνολογιών, της επιστήμης δεδομένων, της τεχνητής νοημοσύνης. Στο εξωτερικό αντίστοιχα, όχι όμως πανομοιότυπα, μεταπτυχιακά διοργανώνουν τμήματα των Πανεπιστημίων του Stanford, του Edinburgh, της Arizona, του Twente και του Cambridge. Σε αυτά τα μεταπτυχιακά η εστίαση αφορά στα ηθικά ζητήματα των επιστημών, κυρίως της Ιατρικής και της Βιολογίας, από τη σκοπιά της Βιοηθικής.

Ερώτηση: Σε αυτή τη βάση έχει χτιστεί και το δικό σας μεταπτυχιακό;

Παναγιώτης Βλάμος: Το πρόγραμμα ενθαρρύνει ενεργά τη συνεργασία μεταξύ διαφορετικών επιστημονικών πεδίων, αναγνωρίζοντας ότι τα πολύπλοκα ηθικά ζητήματα που προκύπτουν από την τεχνολογική πρόοδο απαιτούν πολυδιάστατες προσεγγίσεις. Μέσα από διαδραστικές ομαδικές εργασίες, μελέτες περιπτώσεων και βιωματικά εργαστήρια, οι φοιτητές από διαφορετικά υπόβαθρα – όπως η Πληροφορική, η Νομική, η Φιλοσοφία, η Κοινωνιολογία και οι Βιοεπιστήμες – συνεργάζονται για να αναλύσουν και να επιλύσουν σύνθετα προβλήματα που συνδέονται με την «Ηθική στην Τεχνολογία της Πληροφορίας».

Αυτό φαίνεται έντονα και από τον μεγάλο αριθμό προσκεκλημένων ομιλητών, από διεθνώς αναγνωρισμένους ειδικούς επιστήμονες από τον Ακαδημαϊκό χώρο, από τον τραπεζικό κλάδο, από το δικαστικό σώμα, από τη Βιομηχανία, από την Ελλάδα και το εξωτερικό, οι οποίοι θα προσφέρουν ανεκτίμητες γνώσεις και εμπειρίες και οι οποίοι θα ενισχύσουν την διεπιστημονική φύση του προγράμματος.

Η διεπιστημονική προσέγγιση είναι κρίσιμη, καθώς οι τεχνολογίες που επηρεάζουν την κοινωνία δεν είναι απλά τεχνικές καινοτομίες, αλλά φέρουν σημαντικές κοινωνικές, ηθικές και νομικές συνέπειες. Για παράδειγμα, οι γιατροί ασχολούνται με την ασφάλεια ιατρικών δεδομένων, οι νομικοί με τη συμμόρφωση σε κανονιστικά πλαίσια, οι φιλόσοφοι με την ανάλυση ηθικών διλημμάτων, ενώ οι οικονομολόγοι αξιολογούν τον οικονομικό αντίκτυπο των τεχνολογιών.

Οι επαγγελματίες Υγείας, όπως οι γιατροί και οι νοσηλευτές, καλούνται όλο και περισσότερο να ενσωματώσουν προηγμένες τεχνολογίες, όπως η τεχνητή νοημοσύνη και τα συστήματα ανάλυσης δεδομένων, στις κλινικές τους πρακτικές. Αυτό δημιουργεί σημαντικές προκλήσεις σχετικά με τη διαχείριση ευαίσθητων προσωπικών δεδομένων, τη διασφάλιση της ιδιωτικότητας των ασθενών και την αντιμετώπιση ηθικών διλημμάτων που προκύπτουν από τη χρήση νέων τεχνολογιών.

Οι νομικοί θα αποκτήσουν εξειδικευμένη γνώση για κανονιστικά πλαίσια όπως ο GDPR, αλλά και για ζητήματα όπως τα δικαιώματα στην τεχνητή νοημοσύνη, η αστική ευθύνη για τεχνολογικές αποφάσεις και η πνευματική ιδιοκτησία.

Οι φιλόσοφοι προσφέρουν μοναδική οπτική σε ηθικά ζητήματα, όπως τα όρια της τεχνητής νοημοσύνης, η αυτονομία των συστημάτων και οι κοινωνικές επιπτώσεις της τεχνολογίας.

Οι κοινωνιολόγοι θα μελετήσουν πώς η τεχνολογία επηρεάζει την κοινωνική δυναμική, την ανισότητα, την κοινωνική δικαιοσύνη και την πρόσβαση σε πληροφορίες.

Οι οικονομολόγοι θα αναλύσουν τον οικονομικό αντίκτυπο των τεχνολογικών καινοτομιών, τις στρατηγικές επενδύσεις σε ηθικά βιώσιμες τεχνολογίες και τον ρόλο της κανονιστικής συμμόρφωσης στη μείωση του κινδύνου.

Θα ήθελα να κάνω ειδική μνεία και στους βιολόγους, ιδιαίτερα όσες και όσους δραστηριοποιούνται σε τομείς όπως η Βιοπληροφορική, η Γενετική, η Μοριακή και Συστημική βιολογία και η Βιοϊατρική έρευνα, έρχονται καθημερινά αντιμέτωποι με ηθικά διλήμματα που αφορούν τη συλλογή, ανάλυση και αξιοποίηση βιολογικών δεδομένων. Η ραγδαία εξέλιξη τεχνολογιών, όπως η γονιδιακή επεξεργασία (π.χ. CRISPR), η ανάλυση μεγάλων δεδομένων και η τεχνητή νοημοσύνη στη Βιολογία, δημιουργεί σημαντικές προκλήσεις σχετικά με την ασφάλεια των δεδομένων, τη συναίνεση των συμμετεχόντων και τις πιθανές συνέπειες των επιστημονικών ανακαλύψεων.

Το πρόγραμμα προσφέρει στους βιολόγους τη δυνατότητα να εμβαθύνουν σε ζητήματα ηθικής και δεοντολογίας που σχετίζονται με τη χρήση ευαίσθητων βιολογικών πληροφοριών και την εφαρμογή καινοτόμων τεχνολογιών στην καθημερινή πρακτική τους. Παράλληλα, τους παρέχει τα απαραίτητα εργαλεία για να αξιολογούν τις κοινωνικές, νομικές και ηθικές συνέπειες της έρευνάς τους, ενισχύοντας την υπεύθυνη και βιώσιμη ανάπτυξη της επιστήμης. Έτσι, οι βιολόγοι αποκτούν μια ολιστική προσέγγιση στην εργασία τους, ικανή να γεφυρώσει το χάσμα μεταξύ επιστημονικής προόδου και κοινωνικής ευθύνης.

Ερώτηση: Είναι σημαντικό η ΤΝ να αναπτυχθεί και να χρησιμοποιηθεί με τρόπους που εξυπηρετούν την ανθρωπότητα και προάγουν τη βιωσιμότητα, τη δικαιοσύνη και τον σεβασμό στα ανθρώπινα δικαιώματα. Πώς το διασφαλίζετε;

Κωνσταντίνος Σιμόπουλος : Η ιδέα για το μεταπτυχιακό, ρίζωσε μετά συνέδριο που διοργανώθηκε στην Κέρκυρα σχετικά με τα Ανθρώπινα Δικαιώματα στην Εποχή της Πληροφορίας. Εκεί διαπιστώσαμε ότι η ηθική, ειδικά στο χώρο των νέων τεχνολογιών, κυρίως της τεχνητής νοημοσύνης, είναι κάτι που απασχολεί έντονα την κοινωνία και είναι «ώριμο» πλέον να συζητηθεί και γιατί όχι, να διδαχθεί. Οι βασικοί στόχοι του μεταπτυχιακού είναι η δημιουργία κανονισμών και πολιτικών για την ηθική χρήση της ΤΝ, η ανάπτυξη τεχνολογιών που προάγουν τη διαφάνεια και τη δικαιοσύνη, η εκπαίδευση προγραμματιστών και χρηστών σε ηθικά ζητήματα και η συμμετοχή της κοινωνίας και η πολυφωνία στις συζητήσεις για την ανάπτυξη της ΤΝ.

Οι φοιτητές μαθαίνουν να αξιολογούν και να διαμορφώνουν πολιτικές που προάγουν τη δεοντολογία στην τεχνολογία. Το πρόγραμμα παρέχει εργαλεία ανάλυσης πολιτικών και μελέτης κανονιστικών πλαισίων, ενισχύοντας την ικανότητά τους να συνεισφέρουν σε ηθικά βιώσιμες τεχνολογικές στρατηγικές.

Το πρόγραμμα, επίσης, εξετάζει πώς οι τεχνολογικές καινοτομίες μπορούν να επηρεάσουν το περιβάλλον και την κοινωνία. Οι φοιτητές εκπαιδεύονται να ενσωματώνουν τη βιωσιμότητα στη λήψη αποφάσεων, αξιολογώντας τον αντίκτυπο των τεχνολογιών σε περιβαλλοντικό και κοινωνικό επίπεδο.

Μέσα από ειδικά σεμινάρια και εργαστήρια, οι φοιτητές αναπτύσσουν δεξιότητες ηγεσίας που επικεντρώνονται στη διαχείριση ηθικών ζητημάτων. Ενισχύεται η ικανότητά τους να καθοδηγούν ομάδες και οργανισμούς με βάση αξίες διαφάνειας, δικαιοσύνης και κοινωνικής ευθύνης.

Ερώτηση: Θα χρησιμοποιήσετε τεχνητή νοημοσύνη στη διδασκαλία των ηθικών θεμάτων του προγράμματος;

Παναγιώτης Βλάμος: Βεβαίως, το πρόγραμμα χρησιμοποιεί εργαλεία τεχνητής νοημοσύνης για την ανάλυση ηθικών διλημμάτων και την προσομοίωση πραγματικών σεναρίων. Οι φοιτητές αλληλεπιδρούν με προηγμένα συστήματα που τους βοηθούν να κατανοήσουν τις προκλήσεις και τις ευκαιρίες της τεχνητής νοημοσύνης από ηθική σκοπιά.

Να συμπληρώσω ότι οι απόφοιτοι μπορούν να εργαστούν σε τομείς όπως η τεχνολογική πολιτική, η συμμόρφωση με κανονιστικά πλαίσια, η ηθική συμβουλευτική σε τεχνολογικές εταιρείες, καθώς και σε ερευνητικά κέντρα που ασχολούνται με την ηθική της τεχνολογίας.

©amna.gr
WP2Social Auto Publish Powered By : XYZScripts.com