Περιγραφή

Στόχος της εργασίας είναι η διερεύνηση του τρόπου με τον οποίο τεχνικές Explainable AI (π.χ. SHAP, LIME, Attention mechanisms) μπορούν να ενισχύσουν την κατανόηση και αξιοπιστία συστημάτων ανίχνευσης ανωμαλιών σε UAV–GCS επικοινωνίες. Ο φοιτητής θα μελετήσει υπάρχουσες μεθοδολογίες ανίχνευσης (ML/DL μοντέλα όπως LSTM και Autoencoders) και θα εξετάσει πώς η ενσωμάτωση XAI συμβάλλει στη μείωση ψευδών συναγερμών και στην ενίσχυση εμπιστοσύνης των χειριστών. Μέσα από βιβλιογραφική έρευνα και πειραματική αναπαραγωγή σε μικρά datasets, θα παραχθούν παραδείγματα ερμηνεύσιμων μοντέλων. Η εργασία θα υποστηρίξει τη διατριβή με θεωρητικό υπόβαθρο πάνω στην ανάγκη για επεξηγήσιμη τεχνητή νοημοσύνη σε κρίσιμες εφαρμογές UAV.