JP2019087257A - 社会的交流をガイドするためのシステムおよび方法 - Google Patents

社会的交流をガイドするためのシステムおよび方法 Download PDF

Info

Publication number
JP2019087257A
JP2019087257A JP2018209324A JP2018209324A JP2019087257A JP 2019087257 A JP2019087257 A JP 2019087257A JP 2018209324 A JP2018209324 A JP 2018209324A JP 2018209324 A JP2018209324 A JP 2018209324A JP 2019087257 A JP2019087257 A JP 2019087257A
Authority
JP
Japan
Prior art keywords
social
response
interaction
cues
social interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018209324A
Other languages
English (en)
Inventor
ピーター・ヘンリー・トゥ
Peter Henry Tu
タオ・ガオ
Tao Gao
ジリン・トゥ
Jilin Tu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2019087257A publication Critical patent/JP2019087257A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/167Personality evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

【課題】社会的交流をガイドするためのシステムおよび方法を提供する。【解決手段】社会的キューを解釈し、そのような分析を使用して推奨される反応を提示することによって社会的交流を改善するための社会的交流システムおよびその動作が、提供される。社会的交流システムは、社会的交流の最中に環境内の1名以上の個人の社会的インジケータデータを取得するための1つ以上のセンサを含み、社会的インジケータデータは、1名以上の個人の振る舞いに関する。さらに、社会的交流システムは、社会的インジケータデータを使用して1名以上の個人の社会的状態を判定し、社会的状態の分析に基づいて社会的交流に対する個人の最適な社会的反応を決定するように構成された処理システムを含む。社会的交流システムは、個人に最適な社会的反応を示すフィードバックシステムをさらに含む。【選択図】図1

Description

本発明の実施形態は、広くには、社会的交流(social interaction)の解釈および分析に関し、より詳細には、社会的キュー(social cue)を解釈し、そのような分析を使用して推奨される反応を提示することによって社会的交流を改善するための方法および装置に関する。
一般的な社会的キューを認識する個人の能力が、有効かつ有意義なやり方で他者と関わり、相互に交流するための礎石であると理解される。しかしながら、さまざまな理由で、多くの状況において、コミュニケーションを行う個人の間の差異(例えば、文化の違い)によるものであっても、あるいは個人のうちの1名の状態によるものであっても、社会的キューを認識するための個人の能力が妨げられ、あるいはより困難になる可能性があることが知られている。
社会的キューを認識するための能力の主な例は、自閉症スペクトラム障害(ASD)を抱える人々に関する。すなわち、ASDを抱える一部の人々においては、表情および身体表現の背後にある社会的意味を読み取ることができないなど、社会的交流の際に他者が示す社会的キューを認識することが困難であり、したがって、そのような人々は、他者との社会的な交流において困難を抱える可能性がある。社会的キューを認識しない個人は、キューに適切に反応できない可能性が高く、これは、社会的交流に悪影響を及ぼしかねない。
ASDを抱える個人のための重要な対処の機構として、社会的状況に適切に反応できるよう、一般的な社会的キューを認識する学習が含まれる。例えば、高機能の自閉症者は、社会的交流の際に語られた冗談を認識することを学んでいるかもしれない。彼は、その冗談を面白いと思わないかもしれないが、社会的礼儀として多くの場合に冗談に反応して笑うことが必要であることを学んでいる。高機能の自閉症者にとって、このような社会的交流に関する対処の機構を作り上げるときに、社会的キューを特定する支援が有益となり得る。
ASDを抱える一部の個人は、さまざまな対処のやり方を学習できるが、ASDを抱える他の個人は、特定の社会的キューを認識する先天的な能力を欠いている。例えば、ASDを抱える一部の個人においては、パラ言語のキューの認識が困難である一方で、他の者においては、表情または身体表現の識別が困難である可能性がある。特定の社会的キューを認識する先天的な能力が欠けている場合、個人は、そのキューに関する対処のやり方を作り上げることができないかもしれない。特定の社会的キューを認識する先天的な能力を欠いている個人にとって、社会的交流の際の社会的キューを特定する支援が、有益となり得る。
多くの個人は、一般的な社会的キューを認識することができるが、微妙な社会的キューまたは異文化からの社会的キューを特定する支援を使用することができる。例えば、個人が、多数の人々との社会的交流に関係しているが、或る人物からの重要な社会的キューを、他者に注意を集中させている場合に認識し損ねる可能性がある。さらに、或る者が、外国文化の人々との社会的交流に携わり、その文化の一般的な社会的キューを理解できない可能性がある。社会的キューの特定を支援することで、それらのキューへの個人の適切な反応を手助けし、社会的交流を改善することができる。
したがって、社会的交流を改善するための装置および方法を設計することが、望ましいと考えられる。
本発明は、社会的キューを解釈し、そのような分析を使用して推奨される反応を提示することによって、社会的交流を改善するための方法および装置に関する。
本発明の一態様によれば、社会的交流システムが、社会的交流の最中に環境内の1名以上の個人の社会的インジケータデータを取得するための1つ以上のセンサを含み、社会的インジケータデータは、1名以上の個人の振る舞いに関する。さらに、社会的交流システムは、社会的インジケータデータを使用して1名以上の個人の社会的状態(social state)を判定し、社会的状態の分析に基づいて社会的交流に対する個人の最適な社会的反応を決定するように構成された処理システムを含む。社会的交流システムは、個人に最適な社会的反応を示すためのフィードバックシステムをさらに含む。
本発明の別の態様によれば、社会的交流においてユーザを支援するシステムが、1名以上の個人の社会的表出(social expression)を表すデータを取得する1つ以上のセンサと、社会的表出データから社会的キューを抽出し、1名以上の個人と社会的に交流するユーザを支援するために社会的キューに基づいて社会的反応を決定するようにプログラムされた処理システムとを含み、社会的反応は、社会的帰結(social outcome)に基づく所定のポリシーを適用することによって決定される。さらに、システムは、社会的反応をユーザへと示すフィードバックシステムを含む。
本発明のさらに別の態様によれば、社会的帰結を最適化するためのコンピュータプログラムを保存した非一時的なコンピュータ可読記憶媒体が開示され、コンピュータプログラムは、プロセッサによって実行されたときに、1つ以上のセンサを使用して社会的交流に関与する1名以上の人物のデータを取得すること、このデータを使用して社会的交流からの社会的キューを抽出すること、社会的交流に関与する1名以上の人物の社会的キューに基づいて社会的状態を推定すること、および社会的帰結に基づいて推奨される行動を最適化するポリシーを使用して、社会的状態を社会的交流に関係する個人の推奨される行動へとマッピングすることを、プロセッサに実行させるインストラクションを含んでいる。
種々の他の特徴および利点が、以下の詳細な説明および図面から明らかになるであろう。
図面は、本発明の実施について現時点で考えられる好ましい実施形態を示す。
壁に取り付けられたセンサを有する本発明の一実施形態による社会的交流システムの絵画図である。 個人によって着用された本発明の一実施形態による社会的交流システムの絵画図である。 個人の社会的交流を支援するために社会的交流システムによって実行される本発明の一実施形態による技術を説明するフロー図である。
本発明の動作の環境が、社会的交流を改善するために個人によって使用される社会的交流システムに関して説明される。しかしながら、本発明が、社会的交流に関連する情報を求める他の人々による使用にも等しく適用可能であることを、当業者であれば理解できるであろう。さらに、本発明は、着用可能な社会的交流システムまたは着用ではない社会的交流システムに関して説明される。しかしながら、当業者であれば、本発明が着用可能なシステムおよび着用ではないシステムの両方からの構成要素を含む社会的交流システムに等しく適用可能であることを、さらに理解できるであろう。
図1を参照すると、社会的交流において個人を支援するための本発明の実施形態による社会的交流システム10が示されている。社会的交流システム10は、好ましくは、1つ以上のセンサ12を使用して、社会的交流の最中に環境16における1名以上の個人14の社会的インジケータデータを取得する。1つ以上のセンサ12は、1名以上の個人14の振る舞いに関する社会的インジケータデータを取得するための音響センサ18、視覚センサ20、生理学的センサ、または任意の他のセンサを含むことができる。社会的インジケータデータを、社会的交流に関与する個人14または個人のグループからの視覚的、聴覚的、または生理学的なキューを解釈するために使用することができる。社会的交流システム10は、社会的キューを自動的に解釈することによって、個人の社会的交流への参加を支援することができ、キューに関するフィードバックをリアルタイムで個人へと提供することができる。例えば、社会的交流システム10を、ASDを抱える個人のために、自立への移行を促進するように仕立てることが可能である。
一実施形態において、センサ12は、好ましくは、社会的交流システム10がセンサを備えていない1名以上の個人14から社会的インジケータデータを取得するように、非侵襲の離れたセンサ22である。センサ12を、環境16の任意の適切な場所に設置することができ、壁、天井、床、ドア、窓、家具、などに取り付けることができる。設置される環境16は、システムのユーザが改善しようとする種類の社会的交流が頻繁に行われる施設内の部屋であってよい。例えば、介護付きの生活施設の教室または共用領域が、それらの施設において生じる一般的な社会的交流からの社会的キューを取得するために、マイクロフォン24およびカメラ26を備えることができる。他の実施形態において、社会的交流システム10は、センサを備えた1名以上の個人14から社会的インジケータデータを取得する。
センサ12は、図1において、ビデオ、静止画像、または両方を取得することができるカメラ26として示されている。環境16は、複数の角度からの観察および環境16内のすべての人物14のより容易な観察のために、複数のカメラ26を備えることができる。一実施形態においては、現場が、最大6人またはそれ以上のグループの複数の人物を観察することができる複数のカメラ26を備えることができる。カメラ26は、観察対象のすべての個人14の高解像度画像の取得を担当するパンチルトズーム(PTZ)カメラ27を含むことができる。カメラ26は、環境16内の人々14から音響データを取得するためのマイクロフォン24を備えることができる。
センサ12を、処理システム28へとデータを送信するように通信可能に接続することができる。図1の実施形態は、データをクラウドベースのコンピューティングシステム30へと送信するように接続されたセンサ12を示している。さらに、図1の実施形態は、センサ12を備える環境16内に配置されたコンピューティングデバイス32へとデータを送信するように接続されたセンサ12を示している。しかしながら、センサ12を、コンピューティングデバイス32およびクラウドベースのコンピューティングシステム30のうちの1つだけ、あるいは別のコンピューティングシステムと、データの送信または受信を行うように接続してもよい。クラウドベースのコンピューティングシステム30またはコンピューティングデバイス32のいずれかを、予めプログラムされた間隔(例えば、1秒、10秒、30秒、1分、10分、1時間、または1日ごと)でカメラ26からデータを受信するようにプログラムすることができ、あるいはリアルタイムまたはほぼリアルタイムでセンサ12からデータを受信するようにプログラムすることができる。
クラウドベースのコンピューティングシステム30は、1つ以上のサーバ34と、サーバの外部に位置する1つ以上のデータベース36とを含むことができる。各々のサーバ34は、1つ以上のプロセッサ38および1つ以上のメモリ40を含むことができる。社会的インジケータデータを、1つ以上のサーバ34によって受信し、1つ以上のメモリ40または1つ以上のデータベース36に保存することができる。さらに、各々のサーバ34は、サーバ34、データベース36、コンピューティングデバイス32、および/またはセンサ12の間の有線または無線の通信を容易にするための通信コンポーネント42を有することができる。サーバ34は、タスクをより効率的な実行のためにお互いの間で分散させるために、互いに通信することができる。
プロセッサ38は、コンピュータ実行可能コードを実行することができる1つ以上のコンピュータプロセッサまたはマイクロプロセッサであってよい。コンピュータ実行可能コードを、本明細書に開示の技術を実行するためにプロセッサ38によって使用され得るプロセッサ実行可能コードを保存することができる任意の適切な非一時的媒体を備えることができるメモリ40に保存することができる。メモリ40は、プロセッサ実行可能コード、データ、データの分析結果、などを保存することができる任意の適切な種類のコンピュータ可読媒体であってよい。データベース36も、プロセッサ実行可能コード、データ、データの分析結果、などを保存することができるコンピュータ可読の非一時的な記憶媒体であってよい。メモリ40および/またはデータベース36は、振る舞いの認識分析を実行するためにプロセッサ38によって使用される認知モデルを保存することができる。センサ12から受信したデータまたはプロセッサ38によって処理されたデータの履歴を、メモリ40またはデータベース36に保存することができる。
プロセッサ38は、一般に、センサ12からのデータを使用して、1名以上の個人14からの振る舞いを分析する。プロセッサ38のユニットを、センサ12を使用して社会的信号を自動的に検出し、さまざまな社会分析を使用して社会的交流の社会的キューを抽出するようにプログラムすることができる。例えば、プロセッサ38は、社会的交流に関連するセンサ12からの信号を取得し、そのデータを使用して、交流に関与する人々14からの視覚的なキューおよび可聴のキューを抽出することができる。プロセッサ38は、社会的インジケータデータを処理するためにメモリ40に保存された種々のアプリケーションを実行することができ、プロセッサ38を、状況認識方法における最新の進歩で更新することができる。プロセッサ38は、社会的インジケータデータの分析結果をメモリ40上、データベース36上に保存することができ、さらには/あるいは分析結果をコンピューティングデバイス32へと出力することができる。
センサ12によって取得された音声信号を分析し、皮肉、あえぎ、笑い、または他の可聴のキューなどの意味的に重要な表出およびパラ言語のキューを抽出することができる。社会的交流システム10は、自然言語処理を使用して、センサ12によって捕捉された言葉でのキューを抽出することができる。ボイス・トゥ・テキストを使用して、意味的に重要な表出、発声、単語、フレーズ、または他の言葉でのキューを検出することができる。センサ12によって取得された音声信号に機械学習を適用し、皮肉、あえぎ、笑い、および他の可聴のキューを含むパラ言語のキューを計算することができる。一実施形態において、社会的交流システム10は、音声認識を実行するためにプロセッサ38を使用して個人14の振る舞いを分析する。
センサ12によって取得された視覚信号を分析して、個人14の表情、注視方向、身体の動き、身体のジェスチャ、身体の姿勢、および/または位置を含む視覚的なキュー、あるいは他の視覚的なキューを抽出することができる。社会的交流システム10は、社会的交流からの視覚的なキューを解釈するために、コンピュータビジョン(CV)技術44を使用することができる。コンピュータビジョン技術44は、社会的交流からの視覚信号を表すデータを取得し、このデータを処理して視覚的なキューを抽出するための1つ以上のカメラ26を含む。例えば、マサチューセッツ州ボストンのGeneral Electric Corp.のGE Sherlockシステムを使用して、個人14または個人のグループからの視覚信号または他の社会的信号を分析することができる。
プロセッサ38は、社会的表出データを抽出するために、さまざまなコンピュータビジョンアルゴリズムを使用することができる。例えば、社会的インジケータデータを、コンピュータビジョンアルゴリズムを使用して処理し、表出の認識または他の顔分析をもたらすことができる。コンピュータビジョンアルゴリズムは、社会的交流システム10に選択的に組み込むことができる1つ以上の社会的交流モジュールを含むことができる。モジュールは、観察および近接モジュール、感情ポーズおよびジェスチャモジュール、注視分析モジュール、および眼球46の分析モジュール、および表情モジュールのうちの1つ以上を含むことができる。
観察および近接モジュールに関しては、検出および追跡(detect−and−track)パラダイムが、距離カメラまたは赤、緑、青、および深度(RGB+D)カメラを使用して人物検出のセットを生成することができる。前景動き検出およびスライディングウィンドウ分類器が、フレームごとのやり方で、候補の人物検出のセットを生成する。フレームを比較することによって、候補の人物検出のセットを、各々の人物14の地面上の軌跡を生成するために使用することができる人物トラッカのセットに関連付けることができる。近接度、速度、定常性、または他の尺度などの尺度を、人物トラッカから抽出することができる。
感情ポーズおよびジェスチャモジュールに関しては、上体48の高解像度画像が与えられると、頭部50、肩52、肘54、および手56の位置を検出することによって感情ポーズを抽出することができる。これらの位置を検出することにより、上体48の一種の骨格モデルが得られる。上体骨格モデルの時間的変化を分析することによって、とりわけ、特定のポーズ位置およびいくつかの社会的ジェスチャを含む社会的キューを検出することができる。深層学習などの機械学習法を用いて、骨格モデルをフレームごとのやり方で抽出することができる。
注視分析モジュールに関しては、顔58の高解像度画像が与えられると、生成および判別の両方の方法を使用して、顔ランドマークモデルを顔にフィットさせることができる。顔ランドマークモデルの形状を使用して、画像を取り込むカメラ26に対する顔58の3Dポーズ位置を推定することができる。3Dポーズ位置を、注視方向の代用として使用することができる。
眼球46の分析モジュールに関しては、顔ランドマークモデルが与えられると、個々の眼球領域を特定することができる。眼球46の白色領域の空間分布をモデル化する画像処理技術を使用して、眼球の動きを検出することができる。眼球46の動きを、とりわけ、盗み見などの社会的キューまたは強い凝視などの社会的行為を検出するために使用することができる。
顔58の表情モジュールに関しては、顔ランドマークモデルが与えられると、調整された顔画像を生成することができる。判別法(例えば、深層学習法)を使用して、調整された顔画像を分類し、顔58のさまざまな表情の認識をもたらすことができる。
処理システム28は、抽出された社会的キューに基づいて社会的交流に関与する人々14の社会的状態を決定するための1つ以上の推論エンジン60を含むことができる。推論エンジン60を、メモリ40に保存し、プロセッサ38によって実行することができる。推論エンジン60は、コンピュータアルゴリズムを用いて社会的表出データを自動的に分析して、喜び、失望、敵意、興奮、怒り、恐怖、驚き、または任意の他の社会的状態を含む社会的状態を計算することができる。推論エンジン60は、親密さ状態、相互信頼のレベル、または任意の他の社会的変数を含むユーザと交流する個人14の社会的状態を判断することができる。推論エンジン60は、ベイジアン(確率論的)推論エンジン62であってよく、生成的または判別的なモデル化技術に基づいて、所与の社会的交流の現在の社会的状態を推論することができる。
例えば、処理システム28は、確率論的推論エンジン62を使用し、1名以上の個人14の振る舞いをもたらすと推定される社会的状態を推論することによって、社会的インジケータデータに基づいて社会的状態を判断することができる。また、推論エンジン60は、グループの親密さのレベルおよびグループの信頼のレベルを含むグループの振る舞いの統計を推定することができる。すなわち、社会状態は、グループの振る舞いの統計に基づいて確率論的推論エンジン62によって判断されるグループ社会的状態であってよい。以下でさらに説明されるように、推論エンジン60は、グループレベルの交流への参加を望むASDの個人のための対処の戦略を作り上げるために使用することができる社会的キューに基づく社会的状態のセットを確立することができる。
一実施形態において、推論エンジン60は、種々の認知プロセスをモデル化する人工エージェントを使用し、観察された振る舞いを反映させ、各個人の認知状態ならびにグループレベルの認知状態の解釈をもたらす前方シミュレーションの使用を含む推論手法を利用することができる。したがって、視覚信号または他の社会的信号を、その開示の全体が参照によって本明細書に援用される2016年12月6日に出願された米国特許出願第15/370,736号に記載の技術を使用して分析することができる。
グループレベルの交流に関して、社会的交流システム10は、天井に取り付けられたレンジイメージャ64および壁に取り付けられたPTZカメラ27のアレイを含む非侵襲の離れたセンサ22を使用して個人のグループ14の非言語の社会的交流を自動的に解釈することができるコンピュータビジョン技術44のセットに基づくことができる。機器を備えた現場に進入すると、すべての個人14を観察することができる。PTZカメラ27は、すべての個人14の顔58を自動的に対象とすることができる。顔の表情、注視方向、身体の動き、および/またはグループレベルの動態を、リアルタイムで抽出することができる。例えば、人物14の特定のキューを表すデータのストリームを、観察される人々14の数または構成とは無関係の現場レベルの総統計のセットへと純化させる。次いで、正/負の効果、身体活動、従事、模倣、または任意の他の社会的信号を含む社会的信号のセットを計算することができる。ベイジアン推論エンジン62を、グループの親密さ、相互信頼のレベル、または他の社会的変数を含む種々の社会的変数の状態を判断するために使用することができる。
1名以上の人物14について検出された振る舞いを、社会的交流システム10のためのグラフィカルユーザインタフェース(GUI)66として機能することができるコンピューティングデバイス32を使用して、ユーザへと提示することができる。コンピューティングデバイス32は、デスクトップコンピュータ、ラップトップコンピュータ、タブレット、スマートフォン、スマートウォッチ、または他のコンピューティングデバイスであってよい。コンピューティングデバイス32は、クラウドベースのコンピューティングシステム30から得られたデータまたは結果のフロント・エンド・ディスプレイを提供することができる。例えば、コンピューティングデバイス32は、クラウドベースのコンピューティングシステム30から受信した情報を表示するインターネットウェブサイトにアクセスすることができる。また、コンピューティングデバイス32は、社会的交流システム10を制御することができる。例えば、コンピューティングデバイス32は、コンピューティングデバイス32に保存された、センサ12および/またはクラウドベースのコンピューティングシステム30を制御またはプログラムするためのコンピュータアプリケーションを有することができる。他の実施形態において、コンピューティングデバイス32は、クラウドベースのコンピューティングシステム30を必要とせずに社会的交流システム10を動作させるために、1つ以上のサーバ34および/または1つ以上のデータベース36の機能を実行することができる。
さらに、コンピューティングデバイス32は、検出された社会的キューまたは社会的状態に関して、社会的交流システム10のユーザにフィードバックを提供することができる。フィードバックは、ユーザへと提示される視覚的な表示、可聴な表示、または物理的な表示の形態であってよい。コンピューティングデバイス32は、他者14との交流あるいは1つ以上のコンピュータ(例えば、コンピューティングデバイス32)または他の電子デバイスとの対話において個人を支援するためのフィードバックを提供することができる。一実施形態において、コンピューティングデバイス32は、個人間のコミュニケーションの際に検出された社会的キューを示すことができるスマートフォンとの対話において個人を支援することができる。別の実施形態においては、ASDを抱える個人が、コンピューティングデバイス32に直接アクセスすることができる別の人物からフィードバックを受け取ることができる。コンピューティングデバイス32から得られた知識を使用して、社会的交流の改善を求めるASDを抱えた個人のための対処の戦略を作り上げることができる。
認識および案内のためのリアルタイムでの動作に加えて、コンピューティングデバイス32は、鑑識(forensic)フィードバックモードで動作することができる。鑑識フィードバックモードは、社会的交流の概要を提供することができる。概要は、遭遇者の視覚的概要、観察された社会的キュー/社会的状態の解釈、および任意の導き出された結論の背後にある推論を含むことができる。鑑識フィードバックモードを使用した指導を受けることによって、ASDを抱える個人について、微妙な社会的キュー/社会的状態を独立して認識する能力を高めることができる。鑑識フィードバックは、人間社会のさまざまな現象についての理解を得るために使用することができ、そのような理解は、ASDの個人がどのように複雑かつ理解しにくい交流に最も上手く対処できるかについての洞察をもたらすことができる。
ここで図2を参照すると、着用可能な構成要素102を有する本発明の一実施形態による社会的交流システム100が示されている。社会的交流システム100は、好ましくは、社会的交流においてユーザ104を支援する。図1に示されている社会的交流システム10は、システムの使用者が着用するものではないが、図2は、完全に使用者の携帯デバイスである社会的交流システム100を示している。あるいは、社会的交流システム100は、個人104によって携帯される一部の構成要素と、個人から離れた場所にある他の構成要素とを含むことができる。社会的交流システム100の任意の構成要素102を、例えばBluetooth(登録商標)またはWiFi(登録商標)を介する有線リンクまたは無線リンクによる接続など、データの送信および/または受信のために互いに接続することができる。
社会的交流システム100は、1名以上の個人108の社会的表出を示すデータを取得するための1つ以上のセンサ106を含むことができる。データを、音響センサ110、視覚センサ112、または生理学的センサ114のうちの少なくとも1つから取り出すことができる。データは、社会的交流に関与する1名以上の人物108からの言語または非言語の社会的表出を示すことができる。例えば、コンピュータビジョンアルゴリズムを映像素材に適用して、表情、注視方向、眼球運動(例えば、視線をそらす)、上体の感情ポーズ、上体のジェスチャ、および/または他の社会的キューを含む多数の社会的キューを抽出することができる。センサ106は、着用センサ120、非着用センサ、または着用センサと非着用センサとの組み合わせであってよい。例えば、センサは、個人によって着用されてよく、あるいは社会的交流の現場に設置されてよい。一実施形態において、1つ以上のセンサは、少なくとも1つの着用センサ120を備えることができる。
着用センサ120は、個人が社会的交流システム100を使用している間に移動することを可能にできる。1つ以上のセンサ106は、ユーザ104または他者108が着用することができる少なくとも1つのカメラ122、少なくとも1つのマイクロフォン124、または少なくとも1つの生理学的センサ114を含むことができる。カメラ122および/またはマイクロフォン124は、個人104が着用する身体カメラ装置の一部であってよい。あるいは、着用センサデバイス120を、光学ヘッド・マウント・ディスプレイ128を有する眼鏡セット126に取り付けてもよい。例えば、社会的交流システム100は、カリフォルニア州Mountain ViewのGoogle Inc.によるGoogle Glass(商標)と同様の着用デバイス120を使用することができる。着用デバイス120は、ユーザ104と交流する人々108からの社会的信号だけでなく、ユーザ104からの社会的信号も検出することができる。例えば、生理学的センサ114によって取得された生理学的信号を分析して、血圧、心拍数、または他の生理学的キューを含む生理学的キューを抽出することができる。
処理システム130は、図2においては個人104が身につけるスマートフォン134として示されている着用可能な処理装置132であってよい。処理システム130は、好ましくは、センサ106から受信したデータを分析し、フィードバックシステム136へとデータの出力をもたらすために、1つ以上のコンピュータアルゴリズムを実行する。処理ユニット132を、センサまたはフィードバックシステムと統合して、単一の構成要素とすることができる。例えば、スマートフォン134は、マイクロフォン、カメラ、および/または加速度計を含むセンサを有することができる。さらに、スマートフォン134は、ディスプレイ、スピーカ、および/または振動デバイスを含むフィードバックシステムを有することができる。
フィードバックシステム136は、着用可能なフィードバックシステムであってよく、図2においては着用可能な拡張現実システムとして示されている。着用可能な拡張現実システム136は、リアルタイムで動作し、ヘッドアップディスプレイ128を提供するためのスマートグラス126と、可聴信号をもたらすためのイヤフォン138とを含むことができる。フィードバックは、単語、記号、画像、音色、振動、増幅、強調、または任意の他の適切な表示の形態であってよい。フィードバックは、社会的交流に関与する1名以上の個人108について検出された社会的キュー/社会的状態の識別を提示すること(共感の支援)ができ、あるいは望ましい社会的帰結を生じさせるやり方での行動を指示または助言すること(指導)ができる。
社会的交流システム100は、個人104が社会的に交流する人々108からの社会的キューを解釈し、さらには/あるいは社会的状態を識別するうえで助けとなる共感エイド(empathy aid)140として動作することができる。一実施形態において、共感エイド140は、センサ106を使用して社会的交流に関連するデータを取得し、プロセッサ132を使用して社会的キューまたは社会的状態を抽出し、フィードバックシステム136を使用して個人104へと社会的キューまたは社会的状態を知らせる。フィードバックシステム136は、社会的帰結の改善を求める個人104のためにリアルタイムで言語または非言語の社会的キューを増幅する拡張現実アシスタント142であってよい。共感エイド140は、社会的キューを解釈し、個人または個人のグループ108の社会的状態を識別することができる。例えば、共感エイド140は、複数の人々108からの社会的キューまたは社会的状態を示すことができ、あるいはグループ社会的キューおよび/またはグループ社会的状態を示すことができる。共感エイド140は、ASDを抱える人々にとって社会的交流をより良好に理解するうえで助けとなる完全に自動的な装置を提供することができる。例えば、人々のグループの全体が、社会的交流システム100の特定のユーザに怒りを抱いているかもしれない。このような状況において、社会的交流システム100からの非友好的なグループレベルの社会的状態の早期の知らせがないと、危険なグループレベルの行動につながる可能性がある。
社会的交流システム100は、個人104を社会的に交流する人々108からの社会的キューまたは社会的状態に反応するように指導するためのオラクル(oracle)144として動作することができる。一実施形態において、オラクル144は、社会的交流の帰結の改善を求める個人104に対して、リアルタイムで、社会的キューまたは社会的状態への反応において推奨される行動を提示することができる。オラクル144は、センサ106を使用して社会的交流に関連するデータを取得し、プロセッサ132を使用して推奨される行動を決定し、推奨される行動をフィードバックシステム136を使用して個人104へと示す。例えば、処理システム130を、社会的インジケータデータを使用して1名以上の個人108の社会的状態を判定し、社会的状態の分析に基づいて社会的交流に対する個人104の最適な社会的反応を決定するように構成することができる。
オラクル144によって提示される推奨される行動は、指示、命令、または信号の形態であってよい。例えば、推奨動作は、社会的交流に関与する他者108に対して社会的キューを示す(例えば、微笑む、手を振る、笑う、話す、など)ようにユーザ104に指示することができる。さらに、オラクル144は、共感エイド140を取り入れることによって、個人104に社会的キューまたは社会的状態を示すことができる。推奨される行動は、グループレベルの社会的交流への反応であってよい。例えば、推奨される行動は、複数の人々108からの社会的キューまたは社会的状態への反応、あるいはグループ社会的キューおよび/またはグループ社会的状態からの反応であってよい。フィードバックシステム136は、ユーザ104に対して社会的反応を示すことができる。オラクル144は、ASDを抱える人々にとって社会的交流をより良好に解釈して反応するうえで助けとなる完全に自動的な装置を提供することができる。加えて、オラクル144は、雇用主、教師、介護者、またはASDを抱える者と社会的に交流する任意の他の者など、ASDを抱える者との協働を試みる者にフィードバックを提供することもできる。
社会的キューに対して期待される反応が返されない場合、社会的状況がぎこちないものになりかねないことは承知のとおりであり、したがってASDを抱える者は、冗談が話された後で笑うなど、特定の振る舞いが期待される社会的状況であることを、オラクル144を使用して知ることができる。高機能の自閉症者は、冗談が話されたならば、たとえ自身はその冗談を面白いと思わなくても笑うというルールを作り上げることができる。ASDを抱える人々のために、オラクル144は、社会的キューが存在しており、キューへの反応が期待されていることを、自動的に示すことができる。一実施形態において、オラクル144は、センサ106を使用して冗談が話されたことを示す言語または非言語の社会的キューを検出し、推論エンジン146を使用して社会的状態が笑いに適していると判断し、ASDを抱える者に対して笑い始めるように指示するフィードバックをもたらすことができる。
社会的キューまたは社会的状態に反応するように個人104を指導する動作において、オラクル144は、社会的キューまたは社会的状態を、社会的交流を改善するためにユーザ104へと提案される社会的反応へとマッピングするために、所定のポリシーを使用することができる。社会的反応を、社会的帰結に基づいて所定のポリシーを適用することによって決定することができる。ポリシーを、ドメイン知識、機械学習、またはポリシーを生成することができる任意の他の技術に基づいて生成することができる。ドメイン知識および機械学習の両者は、社会的キューや社会的状態などの入力を推奨される行動へとマッピングするための自動化された方法を提供することができる。例えば、処理システム130を、1名以上の個人108と社会的に交流するユーザ104を支援するために、社会的表出データから社会的キューを抽出するようプログラムし、社会的キューに基づいて社会的反応を決定することができる。ドメイン知識が、一般的な社会的キューへとマッピングされた所定の動作を提案することができる一方で、機械学習は、これまでの社会的帰結に基づいて推奨される行動を最適化することができる。いくつかの実施形態において、ポリシーは、ドメイン知識と機械学習との組み合わせに基づくことができる。
ドメイン知識に基づくポリシーは、社会的状態と推奨される行動との間の所定の関係を有することができる。一実施形態によれば、社会的反応を決定する際に、処理システム130を、マッピングされた社会的キューと社会的反応との間の所定の関係を使用して、社会的キューを社会的反応へとマッピングすることによって、ドメイン知識を使用して所定のポリシーを適用するようにプログラムすることができる。フィードバックシステム136を使用して、個人104へと最適な社会的反応を示すことができる。別の実施形態によれば、処理システム130は、マッピングされた社会的状態と社会的反応との間の所定の関係を有するポリシーを使用して、社会的状態を最適な社会的反応へとマッピングすることによって、最適な社会的反応を決定するためにドメイン知識を使用することができる。
機械学習に基づくポリシーは、これまでの社会的帰結に基づいて今後の推奨される行動を最適化するようにポリシーを駆動することができる。機械学習は、時間の経過とともにポリシーを生成および最適化することができ、長期的な社会的帰結を最適化することもできる強化学習(RL)などの学習された枠組みを含むことができる。学習の枠組みを、所望の帰結が生じたか否かを判断するために社会的帰結の検出を向上させるためにも使用することができる。例えば、処理システム130は、社会的状態を最適な社会的反応へとマッピングするためのポリシーを使用して最適な社会的反応を決定するように処理システムを構成することによって、最適な社会的反応を決定し、最適な社会的反応が社会的交流の所望の社会的帰結をもたらすか否かを判断し、社会的帰結の分析に基づいて将来の社会的反応を最適化するようにポリシーを更新するために、強化学習を使用することができる。
特定の個人の経験に基づくポリシーの作成に加えて、複数のユーザの経験を強化学習の理論的枠組みにおいて集めることで、複数の個人の複数の経験に基づいて作成されたポリシーからの利益を、各々の個人にもたらすことができる。したがって、機械学習は、必ずしも特定のユーザ104に限定される必要はなく、多数のユーザに基づくことができる。このようにして、すべてのユーザの経験/帰結に基づいて一般的なポリシーを学習することができ、ユーザの集団の経験の集積からの利益を、各々のユーザにもたらすことができる。
学習の枠組みは、これまでの社会的帰結がどれほど肯定的または否定的であるかに基づいてポリシーを更新することができ、交流から生じる感情状態を含む社会的状態に基づいてポリシーを更新することもできる。例えば、ASDを抱える者が同僚と交流し、交流の終わりにおいて、同僚の感情状態を表情を用いて推定することができる。推定された感情状態が肯定的である場合、交流は肯定的な帰結を有すると考えることができる。社会的帰結が最適でなかった場合、将来において別の推奨される行動を示すようにポリシーを更新することができる。更新されたポリシーは、ユーザ104に対して将来の反応においてより悔恨の情を示すように推奨することができる。推奨される行動についての最良のポリシーを、観察された社会的状態および交流の帰結の両方に基づいて時間の経過とともに学習することができる。
ポリシー生成のための強化学習の枠組みは、好ましくは、状態空間、行動空間、および報酬に基づく。状態空間は、検出された社会的キューに基づく推論による社会的状態を含む。行動空間は、社会的帰結を改善するためにユーザ104へと提供されるフィードバックを含む。報酬は、社会的交流の肯定的帰結を含む。社会的反応の決定において、処理システム130を、社会的キューから決定された状態空間、状態空間から社会的反応を決定するための行動空間、および社会的反応からもたらされる1名以上の個人108と社会的に交流するユーザ104の社会的帰結に基づく報酬に基づく機械学習を使用して、所定のポリシーを適用するようにプログラムすることができる。所定のポリシーは、報酬を最大化することによって社会的反応を最適化することができる。状態空間、行動空間、および報酬の組み合わせは、肯定的な社会的帰結の可能性を高めるポリシーを定めるための学習ベースの手法を提供する。
社会的交流システム100を、特定の部分集団に合わせて仕立てることができる。ポリシーを、集団のうちの最も恩恵を被ると考えられる特定の部分集団を対象とするように生成することができる。例えば、高機能の自閉症者を、ASDを抱える者の部分集団へと分類することができる。高機能の自閉症者は、再び生じる社会的キューに対する自身の将来の反応に関して試行錯誤によって自身でルールを作り出したと気付くかもしれない。社会的交流システム100は、試行錯誤によるのではなく、迅速な実行のためのルール作成を自動化することができる。
いくつかの実施形態においては、ポリシーを、異なる種類のユーザ104ならびにユーザと交流する異なる種類の人々108を考慮するように仕立てることができる。例えば、ポリシーを、警察官、兵士、セールスマン、またはASDを抱える人々について特定的に生成することができる。
一例として、社会的交流システム100を、異国の一般市民と交流する兵士を支援するように仕立てることができる。異国の一般市民と社会的に交流するとき、文化特有の言語または非言語の社会的キューを適切に解釈して反応することが、兵士にとって困難であり得る。兵士は、兵士に社会的キューを知らせる共感エイド140または外国人との交流への反応において兵士を案内するオラクル144を使用して、異国の一般市民との社会的な交流の改善を可能にできるかもしれない。さらに、社会的交流システム100は、兵士が異国の一般市民との相互対話に必要な技能をどの程度まで取得したかを判断するために使用される心理社会的因子を測定することもできる。
別の例として、社会的交流システム100を、顧客と交流するセールスマンを支援するように仕立てることができる。共感エイド140が、社会的キューを増幅することによってセールスマンを支援することができ、あるいはオラクル144が、販売を通じてセールスマンを指導することによってセールスマンを支援することができる。オラクル144は、顧客の行動などの報酬に基づく学習の枠組みを使用することができる。例えば、オラクル144を使用しているセールスマンと交流しているときの顧客の顔画像を取得し、セールストークを助言することができる。顧客を交流に結び付ける販売時点における顧客の別の顔画像を取得することができる。販売時点からの情報が、販売された品物がオラクル144からの提案された行動に関係している旨を示す場合、交流への帰結が肯定的であると判断することができる。品物の購入は、提案された行動から遅れた報酬を構成し、したがってポリシーは、遅れた報酬に基づいて将来の提案される行動を最適化することができる。
さらに別の例として、社会的交流システム100を、患者と交流する介護者を支援するように仕立てることができる。介護者(例えば、看護師、医師、など)は、多くの場合に、介護を受ける際の協力を得るために、患者と共感または信頼の気持ちを確立させなければならない。例えば、患者は、最初に介護者との信頼または共感が確立されないと、薬の服用や痛みを伴う処置などの介護に抵抗することがある。介護者は、共感エイド140を使用して、患者が信頼または共感を覚えている旨の社会的キューを表出しているかどうかを判断することができ、介護者を、オラクル144を使用して、患者との信頼または共感の状態に達するように導くこともできる。また、社会的交流システム100を、介護が肯定的な結果を達成するやり方で与えられることを保証するために、患者との親密さを確立させるために使用することもできる。さらに、患者が、介護者が特定の社会的キューまたは社会的状態を表出しているか否かを判定するために、社会的交流システム100を使用することができる。例えば、患者は、共感エイド140を使用して、介護者が信頼および共感を示す社会的キューを表出していると判断することができ、あるいはオラクル144を使用し、介護者との信頼および共感の状態に到達させる患者の案内を支援することができる。
ここで、図1および図2を再び参照しつつ、図3を参照すると、社会的交流の改善を求める個人へとフィードバックを示すために使用される本発明の一実施形態によるプロセス200のフロー図が示されている。プロセス200は、ステップ202において、社会的交流に関与する人々からの社会的キューを識別することによって開始される。社会的キューを、1名以上の個人の社会的表出を示すデータを取得する1つ以上のセンサから収集されたデータによって識別でき、そのようなセンサは、環境内に配置され、さらには/あるいは個人106によって着用されるセンサ12であってよい。データは、表情、注視方向、眼球運動(例えば、視線をそらす)、上体の感情ポーズ、上体のジェスチャ、ならびに/あるいは個人の振る舞いまたは感情状態を示す他の社会的キューなど、社会的交流に関与する1名以上の者からの言語または非言語の社会的表出を示すことができる。
社会的交流に関与する人々からの社会的キューが識別されると、プロセス200は、ステップ204において、社会的交流に関与する人々の社会的状態を決定することによって続き、社会的状態は、社会的キューに基づいて決定される。すなわち、1つ以上のコンピュータアルゴリズムが、センサから受信したデータおよび識別された社会的キューを分析し、そこから社会的状態を抽出および決定するように機能することができる。社会的状態の決定は、個人または個人のグループの社会的キューを解釈して社会的状態を決定することを含み、個人について考えられる社会的状態として、例えば喜び、失望、敵意、興奮、怒り、恐怖、または驚きが挙げられる。さらに、社会的状態の決定は、例えば親密さの状態または相互信頼のレベルなど、個人間の社会的状態まで広がることができる。
社会的交流に関与する人々の社会的状態の決定は、個人間の社会的交流を促進するための適切な次のステップの特定を可能にする。したがって、プロセス200は、ステップ206において、社会的キューまたは社会的状態に関するフィードバックを、社会的交流の改善を求める個人へと提供することによって続く。一実施形態において、システムは、抽出された社会的キューまたは社会的状態をフィードバックシステム136を使用して個人104へと表示および中継するための共感エイドとして動作する。一例として、拡張現実アシスタント142が、グループの社会的キューおよび/または社会的状態を含む1名以上の者からの社会的キュー/状態などの言語または非言語の社会的キューを、社会的帰結の改善を求める個人104のために、リアルタイムで増幅することができる。別の実施形態において、システムは、例えば社会的キューまたは社会的状態への反応において推奨される行動をリアルタイムで個人へと提示することにより、社会的に交流する人々108からの社会的キューまたは社会的状態にどのように反応するかについて個人104を指導するオラクル144として動作する。すなわち、オラクル144は、社会的状態の分析に基づいて社会的な交流への個人104の最適な社会的反応を決定することができ、分析は、ドメイン知識、機械学習、またはポリシーを生成することができる任意の他の技術に基づき、社会的キューまたは社会的状態を社会的交流を改善するためにユーザへと提案される社会的反応へとマッピングする所定のポリシーによって実行される。次いで、オラクル144は、例えば微笑む、手を振る、笑う、話す、など、社会的キューを社会的交流に関与する他者108へと示すように個人104に指示するなどによって、推奨される行動をインストラクション、命令、または信号の形態で提示することができる。
本開示の方法および装置に関する技術的貢献は、社会的交流から社会的キューを抽出し、社会的交流の改善を求める個人104に社会的キューに関するフィードバックを提供するコンピュータによって実行される方法を提供することである。一実施形態においては、非一時的なコンピュータ可読記憶媒体に、社会的帰結を最適化するためのコンピュータプログラムが保存される。コンピュータプログラムは、プロセッサ132によって実行されたときに、1つ以上のセンサ106を使用して社会的交流に関与する1名以上の人物108のデータを取得すること、およびこのデータを使用して社会的交流から社会的キューを抽出することを、プロセッサに実行させるインストラクションを含むことができる。別の実施形態において、コンピュータプログラムは、プロセッサによって実行されたときに、社会的交流に関与する1名以上の人物108の社会的キューに基づいて社会的状態を推定すること、および社会的帰結に基づいて推奨される行動を最適化するポリシーを使用して、社会的状態を社会的交流に係わる個人104の推奨される行動へとマッピングすることを、プロセッサに実行させるインストラクションを含むことができる。インストラクションは、推奨される行動をフィードバックシステム136へと提供することを、プロセッサ132に実行させることができる。
当業者であれば、本発明の実施形態について、コンピュータプログラムを保存したコンピュータ可読記憶媒体への接続、または、コンピュータプログラムを保存したコンピュータ可読記憶媒体による制御が可能であることを、理解できるであろう。コンピュータ可読記憶媒体は、電子コンポーネント、ハードウェアコンポーネント、および/またはコンピュータソフトウェアコンポーネントのうちの1つ以上などの複数のコンポーネントを含む。これらのコンポーネントは、一般に、シーケンスの1つ以上の実装または実施形態の1つ以上の部分を実行するためのソフトウェア、ファームウェア、および/またはアセンブリ言語などのインストラクションを保存する1つ以上のコンピュータ可読記憶媒体を含むことができる。これらのコンピュータ可読記憶媒体は、一般に、非一時的および/または有形である。そのようなコンピュータ可読記憶媒体の例として、コンピュータおよび/または記憶装置の記録可能なデータ記憶媒体が含まれる。コンピュータ可読記憶媒体は、例えば、磁気、電気、光学、生物、および/または原子データ記憶媒体のうちの1つ以上を使用することができる。さらに、そのような媒体は、例えば、フロッピーディスク、磁気テープ、CD−ROM、DVD−ROM、ハードディスクドライブ、および/または電子メモリの形態をとることができる。列挙されていない他の形態の非一時的および/または有形のコンピュータ可読記憶媒体も、本発明の実施形態において使用することができる。
そのようなコンポーネントのいくつかを、システムの実装において組み合わせることができ、あるいは分割することができる。さらに、そのような構成要素は、当業者であれば理解できるとおり、いくつかのプログラミング言語のいずれかで記述または実装された一式および/または一連のコンピュータインストラクションを含むことができる。さらに、搬送波などの他の形態のコンピュータ可読媒体を使用して、1つ以上のコンピュータによって実行されたときに、シーケンスの1つ以上の実装または実施形態の1つ以上の部分を1つ以上のコンピュータに実行させるインストラクションのシーケンスを表すコンピュータデータ信号を具現化させることができる。
有益なことに、社会的交流システムは、ASDを抱える個人の社会との共存の能力を高める社会的信号増幅システムを提供することができる。社会的交流システムは、個人またはグループレベルの社会的交流を解釈し、そのような社会的交流に反応する目的で、コンピュータビジョン技術を拡張現実アシスタントと合体させることもできる。さらに、社会的交流システムは、ドメイン知識または機械学習に基づくポリシーを使用して社会的キューを推奨される行動へとマッピングすることによって、肯定的な社会的帰結を得る可能性を高めることができる。また、社会的交流システムは、社会的キューを測定し、社会的帰結の検出を改善することができる。
本明細書に記載の方法、システム、および装置の技術的効果は、社会的キューを解釈し、そのような分析を使用して、推奨される反応を提示することによって社会的交流を改善するためのコンピュータによって実行される技術を含む。
したがって、本発明の一実施形態によれば、社会的交流システムは、社会的交流の最中に環境内の1名以上の個人の社会的インジケータデータを取得するための1つ以上のセンサを含み、社会的インジケータデータは、1名以上の個人の振る舞いに関する。さらに、社会的交流システムは、社会的インジケータデータを使用して1名以上の個人の社会的状態を判定し、社会的状態の分析に基づいて社会的交流に対する個人の最適な社会的反応を決定するように構成された処理システムを含む。社会的交流システムは、個人に最適な社会的反応を示すフィードバックシステムをさらに含む。
本発明の別の実施形態によれば、社会的交流においてユーザを支援するシステムが、1名以上の個人の社会的表出を表すデータを取得する1つ以上のセンサと、社会的表出データから社会的キューを抽出し、1名以上の個人と社会的に交流するユーザを支援するために社会的キューに基づいて社会的反応を決定するようにプログラムされた処理システムとを含み、社会的反応は、社会的帰結に基づく所定のポリシーを適用することによって決定される。さらに、システムは、社会的反応をユーザへと示すフィードバックシステムを含む。
本発明のさらに別の実施形態によれば、社会的帰結を最適化するためのコンピュータプログラムを保存した非一時的なコンピュータ可読記憶媒体が開示され、コンピュータプログラムは、プロセッサによって実行されたときに、1つ以上のセンサを使用して社会的交流に関与する1名以上の人物のデータを取得すること、このデータを使用して社会的交流からの社会的キューを抽出すること、社会的交流に関与する1名以上の人物の社会的キューに基づいて社会的状態を推定すること、および社会的帰結に基づいて推奨される行動を最適化するポリシーを使用して、社会的状態を社会的交流に関係する個人の推奨される行動へとマッピングすることを、プロセッサに実行させるインストラクションを含んでいる。
本明細書は、本発明を最良の態様を含めて開示するとともに、あらゆるデバイスまたはシステムの製作および使用ならびにあらゆる関連の方法の実行を含む本発明の実施を当業者にとって可能にするために、実施例を用いている。本発明の特許可能な範囲は、特許請求の範囲によって定義され、当業者が想到する他の実施例を含むことができる。このような他の実施例は、特許請求の範囲の文言との差がない構造要素を有する場合、または特許請求の範囲の文言との実質的な差がない等価の構造要素を含む場合、特許請求の範囲内にあることが意図される。
10 社会的交流システム
12 センサ
14 個人、人物、人間
16 環境
18 音響センサ
20 視覚センサ
22 センサ
24 マイクロフォン
26 カメラ
27 パンチルトズーム(PTZ)カメラ
28 処理システム
30 コンピューティングシステム
32 コンピューティングデバイス
34 サーバ
36 データベース
38 プロセッサ
40 メモリ
42 通信コンポーネント
44 コンピュータビジョン技術
46 眼球
48 上体
50 頭部
52 肩
54 肘
56 手
58 顔
60 推論エンジン
62 ベイジアン推論エンジン、確率論的推論エンジン
64 レンジイメージャ
66 グラフィカルユーザインタフェース(GUI)
100 社会的交流システム
102 着用可能な構成要素
104 ユーザ、個人
106 センサ
108 個人、人物、人間
110 音響センサ
112 視覚センサ
114 生理学的センサ
120 着用センサ、着用デバイス、着用センサデバイス
122 カメラ
124 マイクロフォン
126 眼鏡セット、スマートグラス
128 光学ヘッド・マウント・ディスプレイ
130 処理システム
132 着用可能な処理装置、プロセッサ、処理ユニット
134 スマートフォン
136 フィードバックシステム、拡張現実システム
138 イヤフォン
140 共感エイド
142 拡張現実アシスタント
144 オラクル
146 推論エンジン

Claims (24)

  1. 社会的交流の最中に、環境(16)内の1名以上の人間(14、108)について、該1名以上の人間(14、108)の振る舞いに関係した社会的インジケータデータを取得するための1つ以上のセンサ(12、106)と、
    前記社会的インジケータデータを使用して、前記1名以上の人間(14、108)の社会的状態を判断し、
    該社会的状態の分析に基づいて、前記社会的交流への個人(104)の最適な社会的反応を決定する
    ように構成された処理システム(28、130)と、
    前記個人(104)に前記最適な社会的反応を示すためのフィードバックシステム(136)と
    を備える、社会的交流システム(10、100)。
  2. 前記処理システム(28、130)は、強化学習を使用して前記最適な社会的反応を決定し、前記処理システム(28、130)は、
    前記社会的状態を前記最適な社会的反応へとマッピングするポリシーを使用して、前記最適な社会的反応を決定し、
    前記最適な社会的反応が、前記社会的交流の望ましい社会的帰結をもたらすか否かを判断し、
    前記社会的帰結の分析に基づいて将来の社会的反応を最適化するように前記ポリシーを更新する
    ように構成されている、請求項1に記載の社会的交流システム(10、100)。
  3. 前記処理システム(28、130)は、ドメイン知識を使用し、前記社会的状態の前記最適な社会的反応へのマッピングを、マッピングされた社会的状態と社会的反応との間に所定の関係を有しているポリシーを使用して行うことによって、前記最適な社会的反応を決定する、請求項1に記載の社会的交流システム(10、100)。
  4. 前記フィードバックシステム(136)は、リアルタイムで動作する、請求項1に記載の社会的交流システム(10、100)。
  5. 前記フィードバックシステム(136)は、着用可能な拡張現実システムを備える、請求項4に記載の社会的交流システム(10、100)。
  6. 前記1つ以上のセンサ(12、106)は、少なくとも1つのカメラまたは少なくとも1つのマイクロフォンを備える、請求項1に記載の社会的交流システム(10、100)。
  7. 前記1つ以上のセンサ(12、106)は、少なくとも1つの着用可能なセンサを備える、請求項6に記載の社会的交流システム(10、100)。
  8. 前記処理システム(28、130)は、確率的推論エンジンを使用して、前記1名以上の人間(14、108)の前記振る舞いをもたらすと推定される社会的状態を推論することによって前記社会的インジケータデータに基づいて前記社会的状態を判断する、請求項1に記載の社会的交流システム(10、100)。
  9. 前記社会的状態は、前記確率的推論エンジンによってグループの振る舞いの統計量に基づいて判断されるグループの社会的状態である、請求項8に記載の社会的交流システム(10、100)。
  10. 前記処理システム(28、130)は、着用可能な処理装置である、請求項1に記載の社会的交流システム(10、100)。
  11. 社会的交流においてユーザ(104)を支援するためのシステム(10、100)であって、
    1名以上の人間(108)の社会的表出を表すデータを取得するための1つ以上のセンサ(12、106)と、
    前記社会的表出データから社会的キューを抽出し、
    前記1名以上の人間(108)と社会的に交流する前記ユーザ(104)を支援するために、前記社会的キューに基づいて社会的反応を社会的帰結に基づく所定のポリシーを適用することによって決定する
    ようにプログラムされた処理システム(28、130)と、
    前記ユーザ(104)に前記社会的反応を示すためのフィードバックシステム(136)と
    を備えるシステム(10、100)。
  12. 前記社会的反応の決定において、前記処理システム(28、130)は、ドメイン知識を使用し、前記社会的キューの前記社会的反応へのマッピングを、マッピングされた社会的キューと社会的反応との間の所定の関係を使用して行うことによって、前記所定のポリシーを適用するようにプログラムされている、請求項11に記載のシステム(10、100)。
  13. 前記社会的反応の決定において、前記処理システム(28、130)は、
    前記社会的キューから決定された状態空間、
    前記状態空間から前記社会的反応を決定するための行動空間、および
    前記社会的反応からもたらされる前記1名以上の人間(108)と社会的に交流する前記ユーザ(104)の社会的帰結に基づく報酬
    に基づく機械学習を使用して前記所定のポリシーを適用するようにプログラムされており、
    前記所定のポリシーは、前記報酬を最大化することによって前記社会的反応を最適化する、請求項11に記載のシステム(10、100)。
  14. 前記1つ以上のセンサ(12、106)は、音響センサ、視覚センサ、または生理学的センサを備える、請求項11に記載のシステム(10、100)。
  15. 前記処理システム(28、130)は、前記社会的キューに基づいて社会的状態を決定するための推論エンジンをさらに備え、
    前記所定のポリシーは、前記社会的状態を前記社会的反応へとマッピングする、請求項11に記載のシステム(10、100)。
  16. 前記フィードバックシステム(136)は、着用可能なフィードバックシステムである、請求項11に記載のシステム(10、100)。
  17. 社会的帰結を最適化するためのコンピュータプログラムを保存した非一時的なコンピュータ可読記憶媒体であって、
    前記コンピュータプログラムは、プロセッサによって実行されたときに、
    1つ以上のセンサ(12、106)を使用して、社会的交流に関与する1名以上の人間(108)のデータを取得することと、
    前記データを使用して前記社会的交流からの社会的キューを抽出することと、
    前記社会的交流に関与する前記1名以上の人間(108)の前記社会的キューに基づいて社会的状態を推定することと、
    社会的帰結に基づいて推奨される行動を最適化するポリシーを使用して、前記社会的状態を前記社会的交流に関与する個人(104)の推奨される行動へとマッピングすることと
    を該プロセッサに実行させるインストラクションを含んでいる、非一時的なコンピュータ可読記憶媒体。
  18. 前記ポリシーは、社会的状態と推奨される行動との間の所定の関係を有している、請求項17に記載の非一時的なコンピュータ可読記憶媒体。
  19. 前記ポリシーは、これまでの社会的帰結に基づいて将来の推奨される行動を最適化する、請求項17に記載の非一時的なコンピュータ可読記憶媒体。
  20. 前記データは、音響センサまたは視覚センサの少なくとも一方から取得される、請求項17に記載の非一時的なコンピュータ可読記憶媒体。
  21. 前記データは、言語または非言語の社会的表出を表す、請求項17に記載の非一時的なコンピュータ可読記憶媒体。
  22. 前記ポリシーは、遅れた報酬に基づいて将来の推奨される行動を最適化する、請求項17に記載の非一時的なコンピュータ可読記憶媒体。
  23. 前記インストラクションは、前記推奨される行動をフィードバックシステム(136)へと提供することを前記プロセッサにさらに実行させる、請求項17に記載の非一時的なコンピュータ可読記憶媒体。
  24. 前記フィードバックシステム(136)は、鑑識フィードバックモードで動作する、請求項23に記載の非一時的なコンピュータ可読記憶媒体。
JP2018209324A 2017-11-09 2018-11-07 社会的交流をガイドするためのシステムおよび方法 Pending JP2019087257A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/807,688 US20190139438A1 (en) 2017-11-09 2017-11-09 System and method for guiding social interactions
US15/807,688 2017-11-09

Publications (1)

Publication Number Publication Date
JP2019087257A true JP2019087257A (ja) 2019-06-06

Family

ID=64308487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018209324A Pending JP2019087257A (ja) 2017-11-09 2018-11-07 社会的交流をガイドするためのシステムおよび方法

Country Status (5)

Country Link
US (1) US20190139438A1 (ja)
EP (1) EP3483785A1 (ja)
JP (1) JP2019087257A (ja)
KR (1) KR20190053097A (ja)
CN (1) CN109765991A (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190179970A1 (en) * 2017-12-07 2019-06-13 International Business Machines Corporation Cognitive human interaction and behavior advisor
US11580874B1 (en) * 2018-11-08 2023-02-14 Duke University Methods, systems, and computer readable media for automated attention assessment
US11813054B1 (en) 2018-11-08 2023-11-14 Duke University Methods, systems, and computer readable media for conducting an automatic assessment of postural control of a subject
US11468783B2 (en) * 2019-06-04 2022-10-11 International Business Machines Corporation Communication devices
CN110313923B (zh) * 2019-07-05 2022-08-16 昆山杜克大学 基于联合注意能力测试和音视频行为分析的孤独症早期筛查系统
CN110516599A (zh) * 2019-08-27 2019-11-29 中国科学院自动化研究所 基于渐进式关系学习的群体行为识别模型及其训练方法
CA3153086A1 (en) * 2019-09-06 2021-03-11 Cognoa, Inc. Methods, systems, and devices for the diagnosis of behavioral disorders, developmental delays, and neurologic impairments
CN111641850B (zh) * 2020-04-23 2022-08-26 福建凯米网络科技有限公司 一种视听场所互动方法及设备
CN112698688B (zh) * 2020-10-29 2022-10-21 四川写正智能科技有限公司 一种主动触发的智能奖励方法及系统
CN112633224B (zh) * 2020-12-30 2024-03-26 深圳云天励飞技术股份有限公司 一种社交关系识别方法、装置、电子设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007047965A2 (en) * 2005-10-21 2007-04-26 Bee Visual, Llc Method and apparatus for developing a person's behavior
US10290221B2 (en) * 2012-04-27 2019-05-14 Aptima, Inc. Systems and methods to customize student instruction
US20130302766A1 (en) * 2012-05-11 2013-11-14 Robert Evan Gold Interactive, Interest Centric Communication Systems and Methods
US9262752B2 (en) * 2012-06-08 2016-02-16 Google Inc. Attendee suggestion for events based on profile information on a social networking site
US9280908B2 (en) * 2013-03-15 2016-03-08 International Business Machines Corporation Results of question and answer systems
US10474793B2 (en) * 2013-06-13 2019-11-12 Northeastern University Systems, apparatus and methods for delivery and augmentation of behavior modification therapy and teaching
AU2015218578B2 (en) * 2014-02-24 2020-06-25 Nedim T. Sahin Systems, environment and methods for evaluation and management of autism spectrum disorder using a wearable data collection device
US20160128617A1 (en) * 2014-11-10 2016-05-12 Intel Corporation Social cuing based on in-context observation
US10395552B2 (en) * 2014-12-19 2019-08-27 International Business Machines Corporation Coaching a participant in a conversation
CN105069728A (zh) * 2015-08-19 2015-11-18 南京邮电大学 一种基于无线传感网的情感推理方法
US20180284453A1 (en) * 2017-04-03 2018-10-04 Walmart Apollo, Llc Customer interaction system

Also Published As

Publication number Publication date
KR20190053097A (ko) 2019-05-17
CN109765991A (zh) 2019-05-17
US20190139438A1 (en) 2019-05-09
EP3483785A1 (en) 2019-05-15

Similar Documents

Publication Publication Date Title
JP2019087257A (ja) 社会的交流をガイドするためのシステムおよび方法
US11089985B2 (en) Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders
Benssassi et al. Wearable assistive technologies for autism: opportunities and challenges
Rossi et al. User profiling and behavioral adaptation for HRI: A survey
US20210170585A1 (en) Robot reacting on basis of user behavior and control method therefor
Saini et al. Kinect sensor-based interaction monitoring system using the BLSTM neural network in healthcare
US10474793B2 (en) Systems, apparatus and methods for delivery and augmentation of behavior modification therapy and teaching
Alvarez-Santos et al. Gesture-based interaction with voice feedback for a tour-guide robot
CN110291478A (zh) 驾驶员监视和响应系统
Jaques et al. Understanding and predicting bonding in conversations using thin slices of facial expressions and body language
Wang et al. Automated student engagement monitoring and evaluation during learning in the wild
Iakovidis et al. Digital enhancement of cultural experience and accessibility for the visually impaired
Yahaya et al. Gesture recognition intermediary robot for abnormality detection in human activities
Pourebadi et al. Facial expression modeling and synthesis for patient simulator systems: Past, present, and future
Saravanan et al. Convolutional Neural Networks-based Real-time Gaze Analysis with IoT Integration in User Experience Design
Cheng et al. Computer-aided autism spectrum disorder diagnosis with behavior signal processing
Zhang et al. Self-Annotation Methods for Aligning Implicit and Explicit Human Feedback in Human-Robot Interaction
Chacón-Quesada et al. Augmented reality controlled smart wheelchair using dynamic signifiers for affordance representation
Li et al. Hmm, you seem confused! tracking interlocutor confusion for situated task-oriented hri
Lee et al. Accessing passersby proxemic signals through a head-worn camera: opportunities and limitations for the blind
US20210142047A1 (en) Salient feature extraction using neural networks with temporal modeling for real time incorporation (sentri) autism aide
Ahmad et al. Towards a low-cost teacher orchestration using ubiquitous computing devices for detecting student’s engagement
Mansouri Benssassi et al. Wearable assistive technologies for autism: opportunities and challenges
KR20200068058A (ko) 인공지능 학습을 통해 자기 계발을 도와주는 방법 및 장치
KR20200068057A (ko) 인공지능 학습을 통해 자기 계발을 도와주는 방법 및 장치

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190806