AIと良い関係を築くための課題を洗い出そう | Design Leaders Collective

Design Leaders Collectiveは2022年4月からスタートしたエンタープライズで働くデザイナー向けのイベントです。スタートアップ、制作会社、代理店など組織体制や規模によって抱える課題は様々。本イベントでは、エンタープライズで働くデザイナーが直面する課題の情報共有とディスカッションを目的としています。

2023年4月のイベントでは参加者の意見を交えながら、AI の可能性と課題について情報交換しました。

もくじ

  • 利活用だけでない問いかけ
  • 今のAIツールはブラックボックス
  • AIツールにある隠れたバイアス
  • 課題提示からはじめてみる

利活用だけでない問いかけ

デザイナーは、PhotoshopやIllustratorなどのお馴染みのツールを通じてAIの恩恵を受けています。かつては多くの時間を費やす必要があった背景の切り抜きやノイズ除去などの作業が、今ではわずか数秒で完了するようになりました。また、ChatGPTStable Diffusion のようなツールを通して新たな可能性を模索している方もでてきています。

例えば Stelfie というアートワークを作っている方は Stable Diffusion で生成した画像を Photoshop で調整しながら独自の表現を生み出しています。ただ、プロンプトやパラメーターを駆使すれば良いわけではなく、アーティストの表現力が組み合わさることで、作品がよりダイナミックに仕上がっているのが分かります。

2023年に入ってから、AIが様々なサービスで利用されるようになりました。まさに「ブーム」と呼んでも過言ではなく、デザイナーの中にもAIを取り入れたアプリやサービスを設計中の方もいるでしょう。そんな中で、ツールの使いこなしはもちろん大切ですが、「これは利用者にとって良いものなのか?」「行動や心理にどのような影響を及ぼすのか」といった問いかけも忘れてはならないことです。

今のAIツールはブラックボックス

A picture containing monitor, kitchen appliance, microwave, appliance Description automatically generated

ボタンがひとつしかない架空の電子レンジ

DLC で紹介したボタンがひとつしかない電子レンジ。押すだけで調理ができるかもしれませんが、時には過熱してしまったり、ちょっと違う感じに調理されてしまうこともあります。もちろんこれは架空の製品ですが、今の AI ツールはボタンがひとつしかない電子レンジと近い存在です。

現在のAIツールは、時折予期しない結果をもたらし、人間の視点や直感が必要とされることがあります。しかし、なぜそのような結果が生じたのか理解できず、良い結果を得るための手がかりも見つからない、ブラックボックスのような状況です。

ニールセン博士らが1990年に発表し、現在も使用されているヒューリスティック評価には、「システム状態の可視性」と「ユーザーの主導権と自由」が使用性向上のための要素として挙げられています。しかし、ボタンがひとつしかない電子レンジではシステム状態が可視化されず、ユーザーにコントロールの余地がありません。このようなブラックボックス化したデザインは良くないとされていますが、現在のAIツールでも同様の状況が当たり前のように存在しています。

ボタンがひとつだけの電子レンジに対する信用は、ユーザー次第です。精度が向上し、自分の好みにほぼ100%調理できるようになると、一部の人々は信頼感を持つかもしれません。しかし、システムの状態が可視化されず、ユーザーが主導権を持てない点は、一般的に良いデザインとは考えにくいでしょう。

AIツールにある隠れたバイアス

シンプルで対話型のChatGPTは確かに便利ですが、必ずしも優れたデザインとは言えません。シンプルなUIには、様々なバイアスが潜んでいます。たとえば、ChatGPTのGPT-3モデルでは、学習データの7割が英語で、日本語はわずか1.2%(参照)、さらにカタルーニャ語などのマイナーな言語は0.02%と極めて少ないです(参照)。このため、学習データが不足している言語では、シンプルな質問でさえ適切な回答が得られないことがあります。バイアスの問題や、さまざまな言語への対応が求められる中で、ChatGPTのデザインは今後も改善が必要だと言えるでしょう。

ChatGPTを使って英語のプロンプトを日本語に変換し、より大きなデータに基づいた回答を得ることはできますが、英語圏の考え方や価値観が大半を占めるAIの情報が必ずしも適切とは限りません。異なる文化や言語に対する理解や、地域特有の知識が不足している場合、回答が正確でなかったり、文化的に不適切なものになる可能性があります。

しかし、信頼性のあるAIデザインを実現することは容易ではありません。どのデータをどのように解釈し、出力しているかを説明することは非常に困難です。シンプルにすることで説明が容易になるかもしれませんが、その結果正確性が失われ、信頼性がさらに低下することがあります。現状の「説明できないが、それらしい回答が得られる」状況を理想的とは言い難いです。

課題提示からはじめてみる

今回は DLC 参加者からもAIの課題について提案していただきました。先述した学習言語の割合によるバイアスだけでなく、以下のような問題点が指摘されました。

参加者といっしょに AI の課題を出し合いました

GoogleによるAIに必要なデザインパターンを示すガイドライン「People + AI Guidebook」は、AIデザインにおいて非常に参考になります。このガイドラインでは、Transparency(透明性)Reliabiluty (確実性)、User Control (ユーザーコントロール)などの観点から、具体的なデザインパターンが紹介されています。

AIデザインをしていく上でさらなる議論が必要なトピック

現在はAIに関する規制がまだ整備途中であるものの、利用する機会が今後どんどん増えてくることが予想されます。そのため、デザイナーや開発者は利用者にやさしいAIとの関わり方を考えることが重要です。

AIに限らず、デジタルスペース全体で信頼性が問われる時代になっています。フェイクニュースの拡散やデマ情報が氾濫するソーシャルメディアの現状を踏まえると、デザイナーには単に使いやすく見た目が良いだけではなく、信頼性のあるプロダクトを作ることが求められます。

AI時代のデザイナーには、プロダクトの透明性、信頼性、ユーザーコントロールなどを重視したデザイン思考が欠かせません。これにより、利用者が安心して使用できるプロダクトを提供することが可能となり、デジタルスペースにおける信頼性の向上にも寄与できるでしょう。