Juste après des générations de principes danois, suédois, allemand et russe, l'Estonie a accédé à l'indépendance en 1918. Inclus de force en URSS en 1940 - une motion jamais reconnue par les États-Unis et de nombreuses autres nations - elle a retrouvé sa flexibilité en 1991 en utilisant l'échec de L'Union Soviétique. Parce que les dernières troupes russes sont parties en 1994, l'Estonie continue d'être libérée pour annoncer les liens monétaires et politiques avec l'Occident. Il est devenu membre à part égale de l'OTAN et de l'UE au printemps 2004, a officiellement rejoint l'OCDE fin 2010 et a utilisé l'euro comme monnaie officielle le 1er janvier 2011. L'Estonie, partie de l'UE depuis 2004 et la zone euro étant donné que 2011, a une économie globale moderne dépendante du marché et l'un des nombreux a augmenté pour chaque montant de revenu par habitant dans l'Union européenne et la région baltique, mais son économie globale est extrêmement dépendante du commerce, la laissant sensible aux chocs externes. Les gouvernements suivants de l'Estonie ont recherché une industrie gratuite, un programme financier favorable aux entreprises et des politiques financières qui ont abouti à des budgets de dépenses équilibrés et également au ratio dette financière / PIB le moins cher à l'intérieur de l'UE. Le climat économique bénéficie de solides industries de l'électronique et des télécommunications et de solides liens industriels avec la Finlande, la Suède, l'Allemagne et la Fédération de Russie. Le développement du PIB de 4,9% en 2017 de l'économie a été le plus facile des 6 dernières années, laissant le climat économique estonien à son meilleur endroit en raison de la crise financière il y a dix ans. Pour la première fois depuis de nombreuses années, l'efficacité du travail a été plus rapide que les coûts salariaux en 2017. L'inflation a également augmenté en 2017 pour atteindre 3,5%, ainsi que des taux mondiaux plus élevés pour les repas et l'énergie, ce qui fait beaucoup parler de la consommation de l'Estonie. L'Estonie est confrontée à une pénurie de travail, à la fois qualifié et non qualifié, même si le gouvernement fédéral a modifié sa législation en matière d'immigration pour permettre un emploi plus facile de travailleurs internationaux hautement certifiés, et une croissance des revenus qui dépasse les avantages en termes d'efficacité. Le gouvernement fédéral poursuit en outre des initiatives pour améliorer la croissance de la productivité en accordant une attention aux améliorations qui mettent l'accent sur les démarrages technologiques et le commerce électronique. Par rapport à d'autres pays européens, séminaire entreprise l'Estonie compte une grande proportion d'habitants nés à l'étranger et de leurs jeunes. Près des deux tiers de la population sont des Estoniens culturels. Les Russes sont la minorité la plus importante, comprenant environ un quart particulier des citoyens. Les Ukrainiens, les Biélorusses et les Finlandais sont bien connus des autres minorités ethniques. Il existe quelques différences linguistiques et culturelles nationales parmi les ethnies estoniennes; notamment, les individus Seto du sud-est de l'Estonie communiquent un dialecte distinct de l'estonien et ils font partie d'une tradition religieuse orthodoxe orientale, tandis que les insulaires de l'archipel Muhu dans l'ouest ont également leur dialecte particulier et discutent d'un certain nombre d'affinités ethniques avec les les gens de la Scandinavie.
mercredi 24 mars 2021
vendredi 19 mars 2021
Les systèmes d'armes intelligents
Qu'est-ce qui rend les systèmes d'armes IA si controversés?
La principale préoccupation du Conseil était la possibilité qu'un système d'armes IA ne puisse pas fonctionner comme prévu, avec des résultats potentiellement catastrophiques. L'apprentissage automatique incorporé dans les systèmes d'armes pourrait apprendre à mener des attaques involontaires contre des cibles que l'armée n'a pas approuvées et à aggraver un conflit. Ils pourraient d'une autre manière s'échapper du domaine d'utilisation pour lequel ils avaient été conçus et se lancer avec des résultats désastreux.
Comme l'a fait remarquer l'ancien secrétaire à la Marine Richard Danzig, chaque fois qu'une organisation utilise un système technologique complexe pour réaliser sa mission, elle joue dans une certaine mesure à la roulette technologique. »Analyses de l'incident nucléaire de Three Mile Island en 1979 et de la navette spatiale Challenger de 1986 les catastrophes ont montré qu'une combinaison de facteurs organisationnels, techniques et institutionnels peut amener ces systèmes à se comporter de manière non intentionnelle et conduire à des catastrophes. Le ministère de la Défense a consacré des ressources substantielles à découvrir les causes de l'incident de 1988 où le croiseur USS Vincennes a abattu un vol civil iranien tuant 290 personnes. Cette tragédie qui n'a rien à voir avec les techniques avancées de machine learning, mais les systèmes d'armes IA posent de nouveaux défis éthiques qui appellent à une nouvelle réflexion.
Principes des systèmes d'armes IA
Parmi ces principes, plusieurs points clés ressortent. L'une d'elles est qu'il n'y a pas d'exemption des lois de la guerre existantes pour les systèmes d'armes IA, qui ne devraient pas causer de souffrances inutiles ni être aveugles par nature. L'utilisation de l'IA pour soutenir la prise de décision sur le terrain comprend le devoir de prendre des précautions possibles pour réduire le risque de préjudice pour la population civile. »
Le ministère de la Défense a toujours testé et évalué ses systèmes pour s'assurer qu'ils fonctionnent de manière fiable comme prévu. Mais le Conseil d'administration avertit que les systèmes d'armes IA peuvent être non déterministes, non linéaires, de grande dimension, probabilistes et en apprentissage continu. » Lorsqu'elles présentent ces caractéristiques, les techniques traditionnelles de test et de validation sont insuffisantes. »
Le Comité a vivement recommandé que le Ministère élabore des stratégies d'atténuation et des exigences technologiques pour les systèmes d'armes IA qui présentent un risque prévisible d'escalade involontaire. » Le groupe a souligné les disjoncteurs mis en place par la Securities and Exchange Commission pour arrêter les échanges sur les échanges comme modèles. Ils ont suggéré des analogues dans le contexte militaire, y compris des limitations sur les types ou les quantités de force que certains systèmes sont autorisés à utiliser, le découplage de divers cyber-systèmes d'IA les uns des autres, ou des autorisations en couches pour diverses opérations. »
Jeudi 4 octobre 2018
La directive 3000.09 de 2012 du Ministère recommandait que les commandants et les opérateurs soient toujours en mesure d'exercer des niveaux appropriés de jugement humain »sur l'utilisation d'armes autonomes sur le terrain. L'idée était que les contextes dans lesquels les systèmes d'IA pourraient être utilisés dans l'armée diffèrent en tant de détails cruciaux qu'aucune règle plus précise ne peut être formulée dans l'abstrait. Le Conseil a accepté ce raisonnement. Il n'a pas essayé de rendre ce guide plus précis, affirmant que c'est plutôt une norme de continuer à l'utiliser. » Mais il a ajouté d'autres éléments à ces directives à travers une discussion sur un interrupteur d'arrêt pour les systèmes d'armes AI.
Le Conseil a débattu publiquement de la possibilité pour les humains de désactiver les systèmes d'armes IA, même après leur activation. La discussion a semblé tourner sur la question de savoir si les systèmes devraient être suffisamment lents pour que les humains interviennent, ce qui dans de nombreux cas irait à l'encontre de l'objectif. En fin de compte, le Conseil a convenu qu'il devait y avoir un interrupteur d'arrêt, mais qu'il pourrait être déclenché automatiquement sans intervention humaine. De cette façon, le Conseil a reconnu la réalité qu'en raison de l'ampleur des interactions, du temps et des coûts, les humains ne peuvent pas être «dans la boucle» tout le temps. » D'autres, dont Dantzig, ont noté que les communications et la vitesse de traitement inclinent l'équation contre la prise de décision humaine. » Le rapport va au-delà de la dépendance à l'égard des décideurs humains pour recommander la conception de systèmes qui peuvent se désengager ou se désactiver automatiquement lorsqu'ils commencent à dévier.
Mise en œuvre de ces principes
Le Comité a indiqué qu'il y avait déjà eu des exercices avec le personnel du DOD pour voir comment certains principes fonctionneraient dans la pratique. Il serait particulièrement important de mettre en œuvre l'une des recommandations les plus réfléchies et les plus pertinentes du Conseil, à savoir élaborer une typologie de gestion des risques. Ce cadre introduirait des applications militaires basées sur l'IA sur la base de leurs considérations éthiques, de sécurité et de risque juridique "avec l'adoption rapide de technologies matures dans les applications à faible risque et une plus grande précaution dans les applications moins matures qui pourraient entraîner des conséquences néfastes plus importantes."