自動チャットボットはチャットしません、彼らは議論しますか?
自動チャットボット—それらは何についてですか?
私たちは自動チャットボットとの愛憎関係を持っています。私たちは彼らと遊ぶのが大好きですが、チャットボットが私たちの質問に答えたり、私たちの要求を満たすことができないとイライラします。チャットボットを作成する人は、チャットボットを可能な限り人間にするという課題から成功しますが、これを達成するために数千の可能な条件付き順列を作成することを見つけます。
自動化されたチャットボットと人間のように対話したいというこの相互の願望は、自然言語処理(NLP)を通じてボットの能力を推進しました。チャットボットボットの背後で学習している機械学習は、決定木ロジックに基づいて構築されており、事前に決定された入力と出力のシーケンスを交換します。しかし、自然な会話はこのようなものではありません。
自然な会話のパターンを歪める
自然な会話と同様に、人間と自動チャットボットは交代で話したり、メッセージを交換したりします。自然な話し合いでは、視覚的な手がかりや声のトーンがなくても、話している内容に関係なく、重なり合う話し合い、交代の間に発生する沈黙の意味、修復の努力の意味もあります誤解。これらの行動は、実際には順番を変えることの意味の構成要素であり、自然な会話に固有のものです。彼らは会話を前進させ、会話が展開するにつれて彼らの背後にある意図を明らかにするのに役立ちます。
チャットボットからディベートボットへの移行?
相互作用のパターンに関しては、これらのチャットボットは、自然な会話よりも、討論で事前に割り当てられたターンの前後の性質との共通点があります(Sacks et al、1974)。自動チャットボットの仕事が「フェッチに行く」ことである場合、「こんにちは」などの社会的な優しささえ必要ですか?チャットボットを人間化することで、誤ったユーザー期待管理を設定する責任がありますか?それとも、これは笑顔のサービスですか?
チャットボットがチャットしていない可能性があるという考えは、ほぼ哲学的な質問を示しています。なぜボットは人間のようで、どのような能力を備えている必要があるのでしょうか。チャットボットの自動化に関して、私たちが実際に自動化しているのは何ですか?
交代
より正確で関連性の高い応答を提供するために、自動チャットボットはGoogleの会話型検索と同様の方法でNLPを活用しています。これにより、よりインテリジェントな処理が実現しますが、それでも、人間とボットの両方が、一度に1つのメッセージまたは1つの適切に構築されたマルチスタックを送信するなど、適切に整理された順番で話すことに依存しています。チャットボットと人間の両方がマルチスタックを送信できますが、人間のマルチスタックはチャットボットよりもはるかに破壊的です。チャットボットの次の応答を無関係または不適切なものにする可能性があり、その結果、Q&Aなどのペアのアクションが不十分になり、ユーザーが不満を感じるようになります。
自然な会話はペアのアクションで構成されておらず、次々にきちんと生成されるため、単一のペアの交換のセットではなく、チャットボットの相互作用全体の分析を開始する必要があります。また、人間がこれらの破壊的なマルチスタックを作成するときに、「会話」をよりよく聞くことができるように、介入が必要です。
沈黙の意味
人間とチャットボットの相互作用を管理する1つの方法は、アニメーションを使用することです。アニメーションはローダーの形式であり、「…入力中」または「お待ちください」は、透明性を管理し、会話を前進させ続けることで、ボットとユーザーの両方に双方向のメリットをもたらします。会話の順番を主張することで、問題のある人間のマルチスタックを減らしようとするのに役立ちます。
GoogleのデザイナーであるAdrianZumbrunnenが「アニメーションがなければ、会話はありません」と述べたように、これは大部分が当てはまります。時間的遅延を肯定的または否定的な応答に関連付けるのと同じように、ボットは応答ラグの同じ意味を推測できますか?技術力が低いのか、チャットインターフェースのアフォーダンスを使って考える時間を稼いでいるのかを理解することは、修理の意思を感知するときに直面する興味深い課題です。
ボットは人間である必要がありますか?
Googleは人間のふりをしていません。検索用語の分析では、非常に人間的な質問をしていることが示されていますが。さらに、グーグルが無関係な結果を示したり、一致しないものを提示したりした場合、検索語が正しくないことを自分のせいにします。 「グーグル」は会話として設定されているのではなく、検索として設定されているため、私たちはより寛容です。より人間的な見た目や感じのボットに共感するが、機械的なボットにはあまり共感しないという事実は、インタラクションに関しては必ずしも不利ではありません。ユーザーの期待を設定するのに役立ちます。
間違ったインターフェース?
一連の条件付き制御ステートメントに基づいて構築された自動チャットボットを強化する決定木は、アドベンチャーゲームのダイアログと類似点を共有しています。
バンダースナッチ 、昨年末のNetflixのブラックミラーシリーズの最新作は、自由意志を探求する「ChooseYourOwnAdventure」映画です。 Netflixは、選択の軌跡を保存して、後で物語の中で展開できるようにする「状態追跡」も開発しました。 Bandersnatchは、Twine(チャットボットの決定木を設計するためにも使用されるインタラクティブフィクションを書くための決定木ツール)で書かれた250のセグメントで構成される分岐物語です。それでは、映画のように、チャットボットはアドベンチャーゲームのインターフェースの親しみやすさとユーザーインターフェース(UI)の特性を利用できるのでしょうか?
現在のチャットボットインターフェースは、限られた画面サイズ、限られた単一メッセージ長を提供し、通常、画面の右下隅にあります。 ICQのような古い学校のメッセンジャーサービスからのUIの継承を評価する一方で、自動チャットボットの全画面表示をまだ行っていないのはなぜですか?
予測から管理まで
人間が自動化したチャットボットの相互作用によって自然な会話が歪められるのは、NLPのインテリジェンスにもかかわらず、自動化されたチャットボットとの相互作用が依然として複雑な感情に直面している理由を説明するのに役立つ場合があります。 UIのアフォーダンスと、自然な会話に参加することの意味についての学習された行動のおかげで、沈黙、ターンオーバーラップ、会話の修復に意味があります。
自動チャットボットの応答は、必ずしも人間である必要はありません。非常に人間的な方法で管理する必要があります。
自動制御システム