Date de publication6 May 2025 - 14:41
Code d'article : 676224

Le régime sioniste doit être condamné pour l'application de l'intelligence artificielle à des fins militaires 

Taghrib(APT)
Taghrib(APT)-Le hojjatoleslam val-moslemin Dr. Hamid Shahriari, Secrétaire général du Conseil mondial du rapprochement des écoles islamiques (CMREI), a souligné la nécessité d'une analyse structurelle des méfaits de l'intelligence artificielle et a appelé à la condamnation des applications militaires de cette technologie par le régime sioniste.
Le régime sioniste doit être condamné pour l
Le hojjatoleslam wal-moslemin Dr. Hamid Shahriari, secrétaire général du (CMREI), qui s'est rendu au Qatar pour participer au 26e Forum de jurisprudence islamique, a exprimé ses points de vue et observations sur les discours des participants concernant les décisions de l'intelligence artificielle et ses règles et son éthique, soulignant la nécessité d'une classification structurelle dans l'analyse des méfaits de l'intelligence artificielle, en déclarant : La liste des méfaits de l'intelligence artificielle nécessite un cadre logique et structurel qui comprend les dimensions techniques, éthiques, sociales, économiques et idéologiques. Il est donc proposé de classer ces dommages en cinq niveaux : dimension jurisprudentielle, dimension sécuritaire et politique, dimension technico-systémique, dimension économique et dimension socioculturelle.

« Bien que le simple fait de mentionner les dommages soit nécessaire, cela ne suffit pas. » Au contraire, les menaces existentielles et philosophiques, notamment au niveau du futur, doivent être exprimées plus largement et documentées avec des preuves réelles et des exemples objectifs. Ces menaces incluent des scénarios liés à la superintelligence artificielle, au manque de contrôle à long terme sur les systèmes intelligents autonomes et à la délégation de décisions fatidiques à des systèmes irresponsables et à des gouvernements irresponsables, a-t-il ajouté.

Nous devons également faire preuve d’une plus grande sensibilité aux applications actuelles de cette technologie. » L’arme intelligente qui a été utilisée dans l’assassinat du martyr Yahya Sinwar et du martyr Ismail Haniyeh doit être sérieusement étudiée lors de cette conférence, et les actions du régime sioniste à cet égard doivent être condamnées. Ce régime usurpateur dispose d’armes nucléaires, d’armes intelligentes et d’armes chimiques, et il appartient aux organes jurisprudentiels d’expliquer l’interdiction d’utiliser ces armes. Par ces utilisations, ce régime usurpateur met gravement en danger la sécurité mondiale, porte atteinte à la paix juste et bafoue la dignité humaine, a souligné le religieux iranien.

Le Secrétaire général du CMREI a noté : « Il est nécessaire d’utiliser des sources internationales crédibles pour comprendre le problème et en saisir les dimensions. » Parmi ces sources figurent le document de l’IEEE sur l’éthique de l’intelligence artificielle (2019), le rapport de l’UNESCO sur l’éthique de l’intelligence artificielle (2021), que le professeur Dr Yasser Ajiel Al-Nashmi a également mentionné dans son discours, et la loi de l’Union européenne sur l’intelligence artificielle, qui, a-t-il souligné, fournit des cadres précis et comparables pour évaluer les dommages et les risques.

En conclusion, il a estimé nécessaire d'adopter une approche analytique et axée sur les problèmes plutôt qu'une approche purement rhétorique et d'avertissement, ajoutant : « Utiliser des expressions telles que : « L'intelligence artificielle est un outil pour tuer, tromper et tromper » a davantage un aspect d'avertissement qu'un aspect analytique. » Un tel langage peut ne pas être convaincant pour le public universitaire ou international et doit être réécrit dans le cadre d’analyses institutionnelles et méthodologiques. En outre, s’il est louable de souligner des concepts tels que la discrimination algorithmique, le manque de transparence et la faible responsabilité, cela ne suffit pas ; Il nous faut plutôt analyser attentivement les mécanismes techniques à l’origine de ces dommages, tels que : la structure des réseaux neuronaux, l’apprentissage automatique et la nature des données utilisées dans la formation et le big data. En fin de compte, toutes ces questions doivent être examinées d’une manière qui préserve la dignité humaine et empêche la mécanisation de la société humaine.
https://taghribnews.com/vdcb50b0arhbz5p.kiur.html
votre nom
Votre adresse email
Security Code