Роботодавці повинні забезпечити, щоб їхні команди використовували штучний інтелект як інструмент для пришвидшення виконання основних завдань, не розвиваючи при цьому залежності, яка притупляє їхню здатність приймати рішення та вирішувати проблеми.
Такої думки дотримується доктор Райн Шерман, головний науковий співробітник Hogan Assessments, спеціаліст із залучення та розвитку талантів.
Доктор Шерман посилається на останні дані індексу тенденцій роботи Microsoft, згідно з якими понад 75% працівників інтелектуальної праці вже використовують штучний інтелект (ШІ) на роботі.
У цьому інтерв’ю доктор Шерман зазначає, що, оскільки інструменти штучного інтелекту впроваджуються в повсякденну роботу по всій Ірландії, з’являється нова тенденція на робочому місці: зростання так званих «зомбі зі штучним інтелектом».
Він радить роботодавцям і працівникам остерігатися небезпеки надмірного використання штучного інтелекту у своїх повсякденних функціях, зокрема застерігаючи від відмови від відповідальності за ключові рішення, що мають вирішальне значення для їхнього бізнесу.
Звичайно, і це справжній ризик, на який організації повинні звернути увагу. Проблема не в тому, що штучний інтелект повністю замінює роботу; проблема в тому, що він може поступово замінити мислення, якщо стане за замовчуванням, а не інструментом. Багато систем штучного інтелекту розроблені для того, щоб пришвидшити та спростити виконання завдань: складання електронних листів, узагальнення документів і навіть пропонування рішень. Хоча це створює короткострокове підвищення продуктивності, це також може призвести до ледь помітного, але важливого зрушення: люди перестають глибоко займатися самою роботою.
Як і будь-який когнітивний «м’яз», такі навички, як критичне мислення, вирішення проблем і прийняття рішень, потребують регулярного використання для підтримки гостроти. Якщо працівники постійно передають ці процеси на аутсорсинг штучному інтелекту, ці можливості можуть з часом послабитися. На перший погляд, люди можуть здаватися високопродуктивними (швидко та ефективно виробляти результати), але під ногами їхня здатність досліджувати інформацію, оскаржувати припущення або робити незалежні судження може почати згасати.
Це особливо актуально для фахівців на початку кар’єри, які традиційно набувають досвіду шляхом повторення та вирішення проблем. Якщо ці моменти навчання ігнорувати, існує ризик створення робочої сили, яка є ефективною, але менш здатною справлятися зі складністю чи неоднозначністю без технологічної підтримки. У цьому сенсі надмірна залежність від штучного інтелекту не створює негайного дефіциту навичок, а створює відкладений, який може стати помітним лише тоді, коли організаціям потрібне глибше обмірковування, а вони не знаходять його легкодоступним.
Важливо наголосити, що така поведінка не пов’язана з інтелектом чи здібностями, а з природними схильностями людей до роботи та прийняття рішень. Певні риси особистості можуть робити людей більш схильними покладатися на штучний інтелект як на «безпечний» або ефективний шлях.
Наприклад, люди з нижчим рівнем допитливості можуть бути менш мотивованими досліджувати альтернативи або ставити під сумнів результати, створені штучним інтелектом. Якщо хтось менш схильний запитувати «чому» або «що, якби», він, швидше за все, сприйме те, що система надає, за чисту монету. Так само може відігравати певну роль вищий рівень обережності, люди, які більше уникають ризику, можуть надавати перевагу штучному інтелекту, оскільки він здається безпечнішим та більш перевіреним варіантом, ніж прийняття самостійних рішень.
Ще одним фактором є зниження самооцінки. Коли люди сумніваються у власних судженнях, вони можуть покладатися на ШІ як на зовнішній авторитет, навіть коли їхні власні знання можуть додати цінності. З часом це може посилити цикл, коли впевненість ще більше знижується, оскільки можливості практикувати самостійне мислення зменшуються.
Зрештою, сильна схильність до конформізму також може сприяти цьому. У середовищах, де інструменти штучного інтелекту широко впроваджуються, деякі співробітники можуть відчувати тиск щодо дотримання «норм» і покладатися на них беззаперечно. Таке поєднання не вказує на недолік, а радше на модель поведінки, яку організації повинні розпізнавати та активно керувати нею.
Ключовим для організацій по всій Ірландії є свідоме балансування короткострокового підвищення ефективності з довгостроковим нарощуванням потенціалу. Штучний інтелект, безсумнівно, може підвищити продуктивність, але підприємствам потрібно переконатися, що це не відбувається за рахунок людського судження та досвіду.
Один із найефективніших способів зробити це – винагороджувати мислення, а не лише швидкість. Якщо показники ефективності зосереджуватимуться виключно на результатах та ефективності, працівники природно прагнутимуть використовувати штучний інтелект якомога більше. Однак, якщо організації також визнають критичне мислення, креативність та прийняття обґрунтованих рішень, вони чітко сигналізують про те, що ці навички все ще важливі.
Розвиток грамотності у сфері штучного інтелекту – ще один важливий крок. Працівники повинні розуміти не лише те, як використовувати інструменти штучного інтелекту, але й їхні обмеження, коли результати можуть бути упередженими, неповними або вимагати інтерпретації людиною. Це усвідомлення заохочує більш збалансований підхід, коли штучний інтелект використовується як допомога, а не як заміна мислення.
Організації також повинні створювати середовище, де заохочуються запитання та виклики. Коли співробітники почуваються психологічно безпечно, щоб досліджувати результати ШІ, пропонувати альтернативи або брати на себе відповідальність за рішення, вони з більшою ймовірністю залишатимуться когнітивно залученими. На практиці це може означати вбудовування моментів рефлексії в робочі процеси, заохочення команд до пояснення своїх міркувань або навіть навмисне обмеження використання ШІ в певних завданнях розробки.
Зрештою, мета полягає не в зменшенні використання штучного інтелекту, а в забезпеченні його цілеспрямованого використання, покращення людських можливостей, а не їх заміни.
Оскільки технології самі по собі не формують поведінку, це роблять люди, і лідери, зокрема, відіграють вирішальну роль у заданні тону. Інструменти штучного інтелекту будуть широко доступні в організаціях, але способи їх використання суттєво відрізнятимуться залежно від пріоритетів керівництва та культурних сигналів.
Якщо керівники понад усе наголошують на швидкості, ефективності та результатах, працівники, природно, більше покладатимуться на штучний інтелект. У таких середовищах зростає ризик поведінки «штучного зомбі», оскільки люди оптимізують показники продуктивності, а не глибину мислення. З часом це може створити культуру, де питання та незалежні судження бувають депрієторними.
І навпаки, якщо лідери активно моделюють допитливість, критичне мислення та вдумливе прийняття рішень, вплив штучного інтелекту може бути дуже різним. Коли лідери ставлять допитливі запитання, цінують різноманітні точки зору та демонструють, що прийнятно оскаржувати результати, незалежно від того, чи створені людиною, чи штучним інтелектом, вони підкреслюють важливість когнітивної взаємодії.
Лідери також впливають на те, наскільки безпечно люди почуваються, думаючи самостійно. У культурах, де помилки караються або швидкість переоцінюється, працівники можуть за замовчуванням використовувати штучний інтелект, щоб мінімізувати сприйнятий ризик. Натомість, середовища, які заохочують навчання, експерименти та рефлексію, з більшою ймовірністю виховують людей, які використовують штучний інтелект як підсилювач свого мислення, а не як опору.
У цьому сенсі майбутнє штучного інтелекту на робочому місці визначається не складністю технології, а вибором, який лідери роблять щодо того, як її інтегрувати в повсякденну практику. Інструмент може бути тим самим, але результат повністю залежить від культури, яка його оточує.