הגינות
מערכות AI צריכות להתייחס לכל האנשים בצורה הוגנת. לדוגמה, נניח שאתה יוצר מודל למידת מכונה כדי לתמוך בבקשה לאישור הלוואה עבור בנק. המודל צריך לחזות אם ההלוואה צריכה להיות מאושרת או לא מבלי לכלול הטיה כלשהי המבוססת על מגדר, מוצא אתני או גורמים אחרים שעלולים לגרום ליתרון או חיסרון לא הוגנים לקבוצות ספציפיות של מועמדים.
הוגנות של מערכות שנלמדו במכונה היא תחום פעיל מאוד במחקר מתמשך, וקיימים פתרונות תוכנה מסוימים להערכה, כימות והפחתה של חוסר הוגנות במודלים שנלמדו במכונה. עם זאת, כלים לבדם אינם מספיקים כדי להבטיח הוגנות. שקול הוגנות מתחילת תהליך פיתוח היישום; סקירה מדוקדקת של נתוני האימון כדי לוודא שהם מייצגים את כל הנושאים שעשויים להיות מושפעים, והערכת ביצועי חיזוי עבור סעיפי משנה של אוכלוסיית המשתמשים שלך לאורך מחזור החיים של הפיתוח.
אמינות ובטיחות
מערכות AI צריכות לפעול בצורה אמינה ובטוחה. לדוגמה, שקול למערכת תוכנה מבוססת בינה מלאכותית לרכב אוטונומי; או מודל למידת מכונה המאבחן תסמינים של מטופלים וממליץ על מרשמים. חוסר אמינות במערכות מסוג זה עלול לגרום לסיכון משמעותי בחיי אדם.
כמו בכל תוכנה, פיתוח יישומי תוכנה מבוססי בינה מלאכותית חייב להיות נתון לתהליכי בדיקה וניהולי פריסה קפדניים כדי להבטיח שהם יפעלו כצפוי לפני השחרור. בנוסף, מהנדסי תוכנה צריכים לקחת בחשבון את האופי ההסתברותי של מודלים של למידת מכונה , וליישם ערכי סף מתאימים בעת הערכת ציוני ביטחון עבור תחזיות.
פרטיות ואבטחה
מערכות AI צריכות להיות מאובטחות ואמורות לכבד את הפרטיות. מודלי למידת המכונה שעליהם מבוססות מערכות AI מסתמכים על כמויות גדולות של נתונים, שעשויים להכיל פרטים אישיים שיש לשמור על פרטיותם. גם לאחר שהמודלים מאומנים והמערכת נמצאת בייצור, הם משתמשים בנתונים חדשים כדי לבצע תחזיות או לנקוט פעולה שעשויה להיות כפופה לחששות פרטיות או אבטחה; לכן יש ליישם אמצעי הגנה מתאימים להגנה על נתונים ותוכן של לקוחות.
הכללה
מערכות AI צריכות להעצים את כולם ולעורר עניין בקרב אנשים. בינה מלאכותית צריכה להביא תועלת לכל חלקי החברה, ללא קשר ליכולת פיזית, מגדר, נטייה מינית, מוצא אתני או גורמים אחרים.
אחת הדרכים למטב את ההכללה היא להבטיח שהעיצוב, הפיתוח והבדיקה של היישום שלך יכללו קלט מקבוצה מגוונת ככל האפשר של אנשים.
שקיפות
מערכות AI צריכות להיות מובנות. המשתמשים צריכים להיות מודעים לחלוטין למטרת המערכת, כיצד היא פועלת ואילו מגבלות צפויות לה.
לדוגמה, כאשר מערכת AI מבוססת על מודל למידת מכונה, עליך בדרך כלל לגרום למשתמשים להיות מודעים לגורמים שעשויים להשפיע על דיוק התחזיות שלה, כגון מספר המקרים המשמשים לאימון המודל, או התכונות הספציפיות שיש להן את ההשפעה הרבה ביותר על התחזיות שלו. עליך גם לשתף מידע על ציון הביטחון עבור תחזיות.
כאשר יישום AI מסתמך על נתונים אישיים, כגון מערכת זיהוי פנים שמצלמת תמונות של אנשים כדי לזהות אותם; עליך להבהיר למשתמש כיצד נעשה שימוש בנתונים שלו ונשמרים, ולמי יש גישה אליהם.
אחריות
אנשים צריכים להיות אחראים למערכות AI. למרות שנראה כי מערכות AI רבות פועלות באופן אוטונומי, בסופו של דבר זו אחריותם של המפתחים שאימנו ואימתו את המודלים שבהם הם משתמשים, והגדירו את ההיגיון שמבסס החלטות על תחזיות מודלים כדי להבטיח שהמערכת הכוללת עומדת בדרישות האחריות. כדי לסייע בעמידה ביעד זה, מעצבים ומפתחים של פתרון מבוסס בינה מלאכותית צריכים לעבוד במסגרת של עקרונות ממשל וארגון המבטיחים שהפתרון עומד בסטנדרטים אתיים ומשפטיים המוגדרים בבירור.