@misc{Ghalachyan_Gevorg_Defining, author={Ghalachyan, Gevorg}, address={Երևան}, howpublished={online}, publisher={ԱԵԳՄՄ հրատ.}, publisher={«ԱՐՑԱԽ» հրատ.}, abstract={This article aims to present the fairness bias in the models of artificial intelligence. First, it introduces use cases and legislative constrains of automated decision making towards sensitive features. Then using academic datasets, the historical human bias, measures of dataset fairness, and the effective way of choosing the respective metric are presented. And last, different AI models are estimated to show the replication of decision bias from data to models. Հոդվածի նպատակն է ներկայացնել արհեստական բանականության մոդելներում արդարության շեղումը։ Նաև և առաջ ներկայացվում են կիրառության օրինակներ և օրենսդրական սահմանափակումներ, որոնք առնչվում են որոշումների կայացման ավտոմատ համակարգերում զգայուն փոփոխականներին։ Այնուհետև օգտագործելով ակադեմիական տվյալներ՝ ներկայացրել ենք մարդու կողմից թույլ տրված պատմական շեղումը, դրա քանակական չափորոշիչները և համապատասխան ցուցանիշի ընտրության արդյունավետ մեթոդները։ Վերջում գնահատվել են արհեստական բանականության մի քանի մոդելներ՝ ցույց տալու տվյալներից մոդելներ շեղման կրկնօրինակումը։ Целью данной статьи является представление предвзятого отношения к справедливости в моделях искусственного интеллекта. В первую очередь показаны варианты использования и законодательные ограничения автоматического принятия решений в отношении чувствительных атрибутов. Затем, используя академические наборы данных, мы представляем допущенную человеком историческую предвзятость, ее количественные параметры и эффективные методы выбора соответствующих показателей. В заключение была проведена оценка нескольких моделей искусственного интеллекта с целью продемонстрировать закономерность отклонений данных моделей.}, type={Հոդված}, title={Defining and Detecting Fairness Bias for Binary Classification Problem in Financial Analysis}, keywords={Economics}, }