Research Overview

As artificial intelligence evolves, my current research focuses on the privacy risks and ethical implications of Large Language Models (LLMs) like GPT and BERT. These models can generate highly realistic text but may also unintentionally expose private information.

  • Data Leakage: Risk of reproducing memorized personal or confidential training data.
  • Membership Inference: Attacks that infer whether a user’s data was part of the training set.
  • Re-identification Threats: De-anonymizing users through model outputs.
  • Ethical Deployment: Study of secure and responsible use in sensitive contexts.
  • Adaptive Mitigation: Exploring differential privacy, federated learning, and prompt filtering as defensive strategies.

My Ph.D. addressed a pressing cybersecurity challenge: detecting and mitigating the spread of fake news, misinformation, and disinformation on online social networks.

  • Multimodal Content Analysis: Combining text and image signals to identify deception.
  • Contextual Analysis: Considering metadata, post interactions, and social cues.
  • External Evidence: Using web scraping to validate claims against trusted sources.
  • Explainability (XAI): Interpretable results using LIME and VilBERT.

My Master's focused on optimizing virtual machine placement in cloud computing environments where multiple VMs share physical resources.

I designed methods to mitigate performance interference between co-hosted VMs by:

  • Modeling resource contention dynamics.
  • Implementing smart placement algorithms in CloudSim.
  • Improving energy efficiency and allocation fairness.

Aperçu de Recherche

Je concentre actuellement mes recherches sur les risques de confidentialité liés aux grands modèles de langage (LLMs) tels que GPT et BERT. Bien qu’efficaces, ces modèles peuvent involontairement divulguer des données sensibles.

  • Fuite de données : Reproduction d’informations privées apprises pendant l’entraînement.
  • Inférence d’appartenance : Détection si une donnée utilisateur a été utilisée dans l’entraînement.
  • Ré-identification : Risque de lever l’anonymat via les sorties du modèle.
  • Déploiement éthique : Utilisation sécurisée dans des contextes sensibles.
  • Contre-mesures adaptatives : Apprentissage fédéré, confidentialité différentielle, filtrage de prompts.

Mon doctorat a porté sur la détection et la réduction de la propagation des fausses informations dans les réseaux sociaux, avec une approche basée sur les agents intelligents.

  • Analyse multimodale : Corrélation entre texte et image.
  • Analyse contextuelle : Métadonnées et signaux sociaux.
  • Validation externe : Vérification via des sources fiables et scraping web.
  • IA explicable : LIME et VilBERT pour justifier les décisions du système.

Ma recherche de master traitait de l’optimisation du placement des machines virtuelles (VM) dans le cloud afin d’éviter les interférences de performance entre VMs co-hébergées.

  • Modélisation des conflits de ressources.
  • Placement intelligent sous CloudSim.
  • Meilleure efficacité énergétique et équité d’allocation.