JP2023547152A - 記憶力低下の検出と改善 - Google Patents

記憶力低下の検出と改善 Download PDF

Info

Publication number
JP2023547152A
JP2023547152A JP2023524740A JP2023524740A JP2023547152A JP 2023547152 A JP2023547152 A JP 2023547152A JP 2023524740 A JP2023524740 A JP 2023524740A JP 2023524740 A JP2023524740 A JP 2023524740A JP 2023547152 A JP2023547152 A JP 2023547152A
Authority
JP
Japan
Prior art keywords
user
human
utterances
corpus
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023524740A
Other languages
English (en)
Inventor
クワトラ、シカール
ウィルソン、ジョン、ディー
フォックス、ジェレミー、アール
ラクシット、サルバジット、ケー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2023547152A publication Critical patent/JP2023547152A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • G10L15/075Adaptation to the speaker supervised, i.e. under machine guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Epidemiology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

記憶力低下の検出および評価は、音声インターフェースを用いて人間の発話を捕捉することと、ユーザについて、コンピュータ・プロセッサによる自然言語処理によって決定される人間の発話の意味に基づいて、複数の人間の発話から選択された人間の発話を含む人間の発話のコーパスを生成することとを含む。コンピュータ・プロセッサと動作可能に結合された1つまたは複数のセンシング・デバイスによって感知された信号に応答して生成されたデータに基づいて、コーパスの1つまたは複数の人間の発話に対応するコンテキスト情報が決定される。人間の発話のコーパス中のパターンは、1つまたは複数の機械学習モデルを使用してコンピュータ・プロセッサによって実行されるパターン認識に基づいて認識される。このパターン認識に基づいて、ユーザの記憶機能の変化を識別する。識別された変化は、コンテキスト情報に基づいて、ユーザの記憶障害に起因する変化の蓋然性が高いかどうかについて分類される。

Description

本開示は、音声ベースのコンピュータと人間の対話処理(interaction)に関し、より詳細には、人工知能(artificial intelligence)(AI)を用いた音声ベースのコンピュータと人間の対話処理に関する。
AIを搭載したコンピュータ・システムは、その数と複雑さが増しており、多くの場合、音声ベースのコンピュータと人間の対話処理を伴う。音声ベースの対話システムは、家庭やその他の環境において頻繁に見かけられ、音声プロンプトおよびコマンドによって自動化されたデバイスやシステムを首尾よく制御している。音声ベースの対話システムは、オートメーションの制御だけでなく、様々な目的で使用されている。たとえば、音声ベースの対話システムを使って、ユーザは、天気を尋ねたり、車の道順を取得したり、好きな曲を検索したりすることなどができる。ユーザが車の鍵一式を置いた場所など、ユーザは忘れもののリマインドを要求することもできる。
1つまたは複数の実施形態において、方法は、音声インターフェースを用いて複数の人間の発話を捕捉することと、対応するユーザについて、複数の人間の発話から人間の発話の意味に基づいて選択された人間の発話を含む人間の発話のコーパスを生成することであって、その意味はコンピュータ・プロセッサによる人間の発話の自然言語処理によって決定される、コーパスを生成することとを含む。本方法は、コンピュータ・プロセッサと動作可能に結合された1つまたは複数のセンシング・デバイスによって感知された信号に応答して生成されたデータに基づいて、コーパスの1つまたは複数の人間の発話に対応するコンテキスト情報(contextual information)を決定することを含む。本方法は、1つまたは複数の機械学習モデルを使用してコンピュータ・プロセッサによって実行されるパターン認識に基づいて、人間の発話のコーパス中のパターンを認識することを含む。本方法は、そのパターン認識に基づいて、ユーザの記憶機能の変化を識別することを含む。本方法は、コーパスの1つまたは複数の人間の発話に対応するコンテキスト情報に基づいて、その記憶機能の変化が、ユーザの記憶障害に起因する蓋然性が高いかどうかを分類することを含む。
1つまたは複数の実施形態において、システムは、動作を開始するように構成されたプロセッサを含む。これらの動作は、音声インターフェースを用いて複数の人間の発話を捕捉することと、対応するユーザについて、複数の人間の発話から人間の発話の意味に基づいて選択された人間の発話を含む人間の発話のコーパスを生成することであって、その意味はコンピュータ・プロセッサによる人間の発話の自然言語処理によって決定される、コーパスを生成することとを含む。これらの動作は、コンピュータ・プロセッサと動作可能に結合された1つまたは複数のセンシング・デバイスによって感知された信号に応答して生成されたデータに基づいて、コーパスの1つまたは複数の人間の発話に対応するコンテキスト情報を決定することを含む。これらの動作は、1つまたは複数の機械学習モデルを使用してコンピュータ・プロセッサによって実行されるパターン認識に基づいて、人間の発話のコーパス中のパターンを認識することを含む。これらの動作は、このパターン認識に基づいて、ユーザの記憶機能の変化を識別することを含む。これらの動作は、コーパスの1つまたは複数の人間の発話に対応するコンテキスト情報に基づいて、この記憶機能の変化はユーザの記憶障害に起因する蓋然性が高いかどうかを分類することを含む。
1つまたは複数の実施形態において、コンピュータ・プログラム製品は、格納された命令をその上に有する1つまたは複数のコンピュータ可読記憶媒体を含む。これらの命令はプロセッサによって実行可能であり、動作を開始させる。これらの動作は、音声インターフェースを用いて複数の人間の発話を捕捉することと、対応するユーザについて、複数の人間の発話から人間の発話の意味に基づいて選択された人間の発話を含む人間の発話のコーパスを生成することであって、その意味はコンピュータ・プロセッサによる人間の発話の自然言語処理によって決定される、コーパスを生成することとを含む。これらの動作は、コンピュータ・プロセッサと動作可能に結合された1つまたは複数のセンシング・デバイスによって感知された信号に応答して生成されたデータに基づいて、コーパスの1つまたは複数の人間の発話に対応するコンテキスト情報を決定することを含む。これらの動作は、1つまたは複数の機械学習モデルを使用してコンピュータ・プロセッサによって実行されるパターン認識に基づいて、人間の発話のコーパス中のパターンを認識することを含む。これらの動作は、このパターン認識に基づいて、ユーザの記憶機能の変化を識別することを含む。これらの動作は、コーパスの1つまたは複数の人間の発話に対応するコンテキスト情報に基づいて、この記憶機能の変化はユーザの記憶障害に起因する蓋然性が高いかどうかを分類することを含む。
本発明の概要の項は、単に特定の概念を紹介するために提供されており、主張する主題のすべての重要なまたは本質的な特徴を識別するためのものではない。本発明の配置の他の特徴は、添付の図面および以下の詳細な説明から明らかになるであろう。
本発明の配置は、添付の図面に例として示されている。しかしながら、これらの図面は、本発明の配置を示された特定の実装形態のみに限定するものと解釈されるべきでない。様々な態様および利点は、以下の詳細な説明を検討し、図面を参照することによって明らかになるであろう。
一実施形態による例示的なコンピューティング環境を示す図である。 一実施形態による例示的な記憶力評価器システムを示す図である。 一実施形態による記憶力のモニタリングおよび評価の方法のフローチャートである。 一実施形態によるクラウド・コンピューティング環境を示す図である。 一実施形態による抽象化モデル層を示す図である。 一実施形態によるクラウド・コンピューティング・ノードを示す図である。
本開示は、新規な特徴を定義する特許請求の範囲で完結するが、本開示内に記載された様々な特徴は、図面と併せて記述を熟考することによって理解が深まるものと思われる。本明細書に記載されたプロセス、機械、製造、およびそのすべての変形形態は、説明の目的で提供されている。本開示内に記載された特定の構造および機能の詳細は、限定するものとして解釈されるべきではなく、単に特許請求の範囲のための基底として、および実質的にすべての適切に詳細な構造において記載された特徴を多様に採用することを当業者に教示するための代表的な基底として解釈されるべきである。さらに、本開示内で使用される用語およびフレーズは、限定することを意図しておらず、むしろ、記載された特徴の理解しやすい説明を与えることを意図している。
本開示は、音声ベースのコンピュータと人間の対話処理に関し、より具体的には、AIを使用する音声ベースのコンピュータと人間の対話処理に関する。スマート・ホームや類似の環境は、一般にAI音声応答システムを含み、自然言語理解(natural language understanding)(NLU)を実装して、言語構造および意味が人間の発話から機械的に決定され得る、人間とコンピュータのインターフェースを作っている。AI音声応答システムは、スピーカとインテリジェント仮想エージェントとを備えるスマート・スピーカなどのインターフェースを通じて作動し、音声プロンプトおよびコマンドのNLU処理によって、スマート・ホームや類似のそのような環境内にある様々なIoT(Internet of Things)デバイスを制御することができる。AI音声応答システムは、ユーザ固有の問い合わせ(たとえば、「私の眼鏡はどこにあるか?」)や一般的な情報の要求(たとえば、「今日は何月何日か?」)にも応答を提供することができる。
本明細書に開示されるシステム、方法、およびコンピュータ・プログラム製品の一態様は、人間の発話のコーパス(たとえば、ユーザ固有の要求および一般的な要求)を生成し、ユーザのもの忘れのパターンを示すコーパス中でパターンを認識するものである。もの忘れのパターンは、パターン認識を行う1つまたは複数の機械学習モデルを使用して認識される。コーパス中でのユーザの発話の内容、頻度、およびパターンの漸進的モニタリングと、コンテキスト化とに基づいて、ユーザの記憶障害は検出され得る。本明細書で定義するように、「記憶障害」とは、人の脳の構造および機能に長期的または永続的な変化を引き起こす疾患または状態による、情報やデータを記憶し、思い出す、人の能力の低下のことである。したがって、記憶障害は、一時的な状態(たとえば、ストレス、疲労、または注意力散漫、あるいはその組合せ)が原因で状態が改善すれば薄らぐ、単なるもの忘れとは異なる。対照的に、記憶障害は、情報やデータを記憶し、思い出す、人の能力における、長期的(通常数年)または永続的な低下を引き起こす病気(たとえば、アルツハイマー病)または状態(たとえば、加齢、脳損傷)によって引き起こされる。
ユーザの発話は、1つまたは複数のIoTデバイスによって捕捉されたセンサ情報に基づいて、コンテキスト化され得る。コンテキスト情報は、記憶障害を日常的なもの忘れから区別するために使用され得る。いくつかの実施形態では、記憶障害を日常的なもの忘れから区別するために、機械学習を使用して生成され、発話のコーパス中で認識されたパターンに基づく人間とコンピュータの対話がユーザと実施され得る。
本明細書に開示されるシステム、方法、およびコンピュータ・プログラム製品の別の態様は、改善措置計画を生成するものである。その計画も、コーパスに含まれる発話間のパターンを認識することに基づき、コンテキスト情報に対応させて決定され得る。改善措置計画は、1つまたは複数のタスク(たとえば、服薬し、家電製品がオフでドアが施錠されていることを確かめることをユーザに思い出させること)を実行する際にユーザを支援するために、所定の時刻(たとえば、病気の影響がより顕著になる夜間)に、ユーザを双方向的な機械生成された対話に自動的に関与させることを含み得る。対話はコンテキスト・データ(contextual data)に基づいて機械的に生成され得、ユーザの記憶障害の性質に応じて、ユーザを落ち着かせる、または安心させるように構成され得る。
本開示の中で説明する実施形態のさらなる態様を、以下の図を参照しながらより詳細に説明する。図の平明および明快のため、図に示された要素は必ずしも縮尺通りに描かれていない。たとえば、一部の要素の寸法は、明快のために他の要素に対して誇張されていることがある。さらに適切と思われる場合には、参照番号が図の間で繰り返されて、対応する特徴、類似する特徴、または同様の特徴を示している。
図1は、例示的なコンピューティング環境100を示す。コンピューティング環境100は、1つの実施形態による例示的な記憶力評価器システム(memory evaluator system)(MES)102を含む。MES102は、メモリに格納され、コンピュータ・システム104の1つまたは複数のプロセッサ上で実行されるソフトウェアに例示的に実装される。コンピュータ・システム104は、例示的なコンピュータ・システム612(図6)などのコンピュータ・システムを含むコンピューティング・ノード600などのコンピューティング・ノード(たとえば、クラウドベースのサーバ)の一部であり得る。コンピュータ・システム104は、AI音声応答システムのためのプラットフォームを与える。MES102は、コンピュータ・システム104上で実行されるAI音声応答システムと動作可能に結合され、または統合されている。他の実施形態では、MES102は、離れたコンピュータ・システム上で実行され、別のコンピュータ・システム上で動作するAI音声応答システムと通信可能に結合されている。AI音声応答システムは、データ通信ネットワーク106を介して、音声インターフェース108に接続する。データ通信ネットワーク106は、インターネットであり得、典型的にはインターネットである。データ通信ネットワーク106は、広域ネットワーク(wide area network)(WAN)、ローカル・エリア・ネットワーク(LAN)、またはこれらの組合せ、ならびに/あるいは他の種類のネットワークであり得、またはこれらを含み得、有線、無線、光ファイバー、または他の接続、あるいはその組合せを含み得る。音声インターフェース108は、たとえば、スピーカと、AI音声応答システムによって解釈される人間の発話(たとえば、音声プロンプトおよびコマンド)に応答するインテリジェント仮想アシスタントとを備えるスマート・スピーカであり得る。
コンピュータ・システム104上で動作するAI音声応答システムは、言語構造および意味が人間の発話から機械によって決定され得る自然言語理解(NLU)のコンピュータと人間のインターフェースを提供する。機械学習を使用して、AI音声応答システムは、ユーザの固有の音声特性(たとえば、音響信号パターン)、および音声インターフェース108を介して伝達される音声コマンドおよびプロンプトを認識することを学習することができる。音声インターフェース108によって捕捉された音声コマンドおよびプロンプトは、IoTデバイス110a、110b、110c、および110nによって例示される1つまたは複数のIoTデバイスを制御するために、電子メモリに記憶されたデータを選択、生成、および修正することができる。IoTデバイス110a~110nは、有線接続または無線接続(たとえば、Wi-Fi、Bluetooth(R))を介して音声インターフェース108と通信することができる。IoTデバイス110a~110nは、たとえば、スマート家電、気候コントローラ、照明システム、娯楽システム、エネルギー・モニタなどを含み得、これらはスマート・ホームや類似の環境の一部であり、コンピュータ・システム104と同じ場所に配置されてもよいし、遠隔して配置されてもよい。
図2は、1つの実施形態によるMES200の特定の要素をより詳細に示す。MES200は、例示的に、コーパス生成部(corpus generator)202と、コンテクスチュアライザ204と、パターン認識部(pattern recognizer)206と、識別部(identifier)208と、分類部(classifier)210とを含む。コーパス生成部202、コンテクスチュアライザ204、パターン認識部206、識別部208、および分類部210の各々は、AI音声応答システムと動作可能に結合されるか、またはAI音声応答システムに統合されるソフトウェアで実装され得る。他の実施形態では、コーパス生成部202、コンテクスチュアライザ204、パターン認識部206、識別部208、および分類部210は、AI音声応答システムと協調して動作するように構成された、専用の回路または回路とソフトウェアの組合せで実装され得る。
コーパス生成部202は、ユーザに対応する人間の発話のコーパスを生成する。そのコーパスは、コーパス生成部202によって、AI音声応答システムと動作可能に結合された音声インターフェース(たとえば、スマート・スピーカ)によって捕捉された様々な人間の発話の中から特定のユーザの発話を選択することによって生成される。人間の発話は、コーパス生成部202によって、発話の意味に基づいて選択される。発話の意味は、コーパス生成部202によって自然言語処理を使用して決定される。
選択された人間の発話の1つまたは複数のコンテキストは、1つまたは複数のセンシング・デバイスによって感知された信号に応答して生成されたデータに基づいて、コンテクスチュアライザ204によって決定される。その1つまたは複数のセンシング・デバイスは、音声インターフェースに動作可能に結合され、AI音声応答システムによって解釈される音声プロンプトおよびコマンドで制御されるIoTデバイスを構成し得る。
パターン認識部206は、人間の発話のコーパス中のパターンを認識するためのパターン認識を行う。パターン認識は、機械学習モデルのうちの1つまたは複数に基づいて、パターン認識部206によって実行される。そのパターン認識に基づいて、識別部208がユーザの記憶機能の変化を識別する。分類部210は、コンテキスト・データを適用して、ユーザの記憶機能の識別された変化が記憶障害の症状であるか否かを分類する。分類部210がユーザの記憶機能の識別された変化を記憶障害の症状として分類したことを受けて、アクチュエータ212は、随意に、ユーザの記憶障害の影響を軽減するための1つまたは複数の改善アクションを開始することができる。
ユーザの発話は、MES200のユーザによって話される個々の単語、フレーズ、または文、あるいはその組合せを含み得る。ユーザは、MES200と協調して動作し、ユーザに対応する固有の音声特性(たとえば、音響信号パターン)に基づいてユーザを識別するように機械学習を使用して訓練されたAI音声応答システムによって音声が認識された個人である。発話は、AI音声応答システムに通信可能に結合された音声インターフェースによって捕捉され、MES200に伝達される。
コーパス生成部202は、人間の発話の間で、ユーザが質問を投げかけるもの(たとえば、「私の車のキーはどこにあるか?」)、情報を求めるもの(たとえば、「外の天気はどうか?」)、またはユーザの記憶力または認知を判別できる様子を含むもの(たとえば、「私は今日の約束の時間を思い出せない」)、の中から特定のものを選択する。コーパス生成部202は、ユーザとAI音声応答システムとの間の会話からユーザの発話を選択することができる。ユーザは、たとえば「私は自分の眼鏡をなくした」と言うことがあり、これに対してAI音声応答システムは音声インターフェースを通じて、「あなたは自分の眼鏡をかけていますか?」という機械生成された音声応答を伝え得る。「私は自分の眼鏡をなくした」などの発言は直接的な質問でない。この発言は、ただ推論によって質問または支援の要請をしているだけである。それにもかかわらず、コーパス生成部202は、機械学習を使用してこの発話をコーパスに含めるように訓練され得る。
発話は、いくつかの実施形態において、ユーザが別の個人と口頭で応対し、音声インターフェースによって捕捉される会話からも選択され得る。MES200が無線または有線あるいはその両方の電話システムと通信可能に結合された他の実施形態において、コーパス生成部202は、無線または有線の電話接続を通じて行われた会話からユーザの発話を選択することができる。コーパス生成部202は、MES200がテキスト・メッセージング・システム(たとえば、電子メール)に動作可能に結合された、さらに他の実施形態では、ユーザの認知に関わるものとして識別された、質問、情報要求、または別のメッセージを含むテキスト・ベースのメッセージを選択することができる。
コーパス生成部202による発話の選択は、自然言語処理を使用して決定された発話のシンタックスおよびセマンティクスに基づく。コーパス生成部202は、発話の内容を理解し、内容に基づいて発話を選択するために、1つまたは複数の機械学習モデルを適用することによって発話のセマンティック理解を得る。
いくつかの実施形態では、コーパス生成部202は、双方向長・短期モデル(bidirectional long-short term model)(Bi-LSTM)を適用する。Bi-LSTMは、ある意味、2つのリカレント・ニューラル・ネットワーク(RNN)を結合したものである。RNNは、ノードが接続されて有向グラフを形成するノードのネットワークを含み、各ノード(入力、出力、および隠れ)は、時間的に変化する、実数値の活性化関数を有する。RNNは、すべての入力および出力を独立したものとして扱うのではなく、時間経過とともに情報を「記憶」して、RNNが、たとえば、文中の次の単語を予測することを可能にする。Bi-LSTMは、順序付けられたシーケンスを、過去から未来、未来から過去という2つの方向において処理する。Bi-LSTMは、逆方向の実行により未来の情報を保持し、2つの隠れ状態の組合せを使用することにより、どの時点でも過去と未来の情報を保持することができる。Bi-LSTMモデルは、複数の発話にまたがるマルチホップ推論の実行に基づいて、発話の内容を決定することができる。
他の実施形態では、コーパス生成部202は、他の機械または非潜在性類似度(non-latent similarity)(NLS)などの統計的学習モデルを使用してセマンティック理解を決定する。たとえば、NLSでは、2次の類似度行列を使用して、単語、フレーズ、文の間のセマンティック類似性を決定する。発話(たとえば、単語、フレーズ、文)の言葉の単位はベクトルとして表され、発話間の類似度はベクトルの各部分間の角度の余弦によって計測される。コーパス生成部202は、ユーザの発話の内容および意味を決定するために、他の機械または統計的学習モデルを使用することができる。機械学習すなわち統計的学習を使用して、コーパス生成部202はユーザの発話の1つまたは複数のトピックスを識別することもできる。コーパス生成部202は、決定された内容および意味に基づいて選択されたユーザの発話を電子メモリに記憶させることによって発話コーパス214を生成する。
コーパス生成部202は、自然言語処理を使用して感情分析を実行することもできる。感情分析に基づいて、コーパス生成部202は、1つまたは複数の選択されたユーザの発話に対応するユーザの心理状態(たとえば、怒り、悲しみ、落胆、喜び)を識別することができる。
コンテクスチュアライザ204は、選択されたユーザの発話の少なくとも一部にコンテキストを与える。コンテキスト情報は、ユーザの健康状態、ユーザの認知状態、注意力などを含み得る。コンテクスチュアライザ204は、1つまたは複数のIoTデバイスから音声インターフェースのインテリジェント仮想アシスタント(たとえば、スピーカとインテリジェント仮想アシスタントとを備えるスマート・スピーカ)に信号フィード(たとえば、Wi-Fi、Bluetooth(R))を介して与えられるデータに基づいて、コンテキスト情報を決定することができる。例示的に、コンテクスチュアライザ204は、オブジェクト・トラッカ(たとえば、IoTカメラ)216によって得られたコンテキスト・データを受け取り、オブジェクト・トラッカは、電子メモリにコンテキスト・データを記憶させることによって、コンテキスト・データベース218も構築する。明示的に示されていない他のIoTデバイスも、他のIoTデバイスによって行われた様々な種類のセンシングに対応して信号を生成することができる。
いくつかの実施形態では、コンテクスチュアライザ204は、オブジェクト・トラッカ216(たとえば、1つまたは複数のIoTカメラ)によって捕捉された画像またはビデオあるいはその両方を含むコンテキスト・データに基づいて、コンテキスト情報を決定する。画像またはビデオあるいはその両方を認識し、分類するために訓練された畳み込みニューラル・ネットワーク(convolutional neural network)(CNN)を使用して、コンテクスチュアライザ204は、音声インターフェースによって捕捉された発話に対してコンテキスト上の意味を与えることができる。特定の実施形態では、ユーザの発話の内容および意味は、発話の内容を決定するためのBi-LSTMモデル(上述のように実装される)と、ユーザの発話に対応する画像内の1つまたは複数のオブジェクトを識別するための領域的畳み込みニューラル・ネットワーク(regional-convolutional neural network)(R-CNN)とを協調的に適用することによって決定される。R-CNNは、画像内で領域を制限することによって、画像内のオブジェクトを識別することができる。特徴ベクトルは、ディープCNNによって各領域から抽出される。分類部は、各特徴ベクトルに適用された分類部(たとえば、線形サポート・ベクター・マシン(support vector machine)(SVM))を使用してオブジェクトを識別する。コンテクスチュアライザ204は、ユーザの発話の意味または内容を決定するBi-LSTMモデルと、捕捉された画像について逆推論ホップ(reverse reasoning hop)を実行するR-CNNとを組み合わせて、発話に対応するコンテキスト・データを生成することができる。
ユーザの発話と画像との間の関係は、時間またはトピックあるいはその両方に基づいて、コンテクスチュアライザ204によって決定され得る。たとえば、ユーザの発話が記録された時刻と、画像が捕捉された時刻にそれぞれ対応するタイムスタンプの間で機械による比較を行うことで、ユーザの発話と画像に捕捉された事象が、同時またはほぼ同時に発生したことを明らかにすることができる。あるいは、Bi-LSTMとR-CNNの両方が、それぞれユーザの発話と画像のトピックを識別することができる。コンテクスチュアライザ204は、それぞれのトピックにしたがって、ユーザの発話を画像と結びつけることができる。
パターン認識部206は、選択されたユーザの発話間のパターンを認識する。パターン認識は様々なファクタに基づき得る。たとえば、パターン認識部206は、発話の性質(たとえば、質問、情報要求、平叙文(statement))などのファクタに基づいてパターンを認識する。ユーザは、あるオブジェクト(たとえば眼鏡や鍵)を探している場合がある。ユーザは日付や時刻について尋ねている場合がある。このような質問や平叙文は、ユーザによって繰り返され得る。所定間隔の間に質問や平叙文が繰り返される回数は加速し得る。パターン認識部206は、たとえば、上述のNLS、または他のNLU処理を用いて決定された、同一または意味的に類似した発話が繰り返された頻度または所定の時間間隔中の回数に基づいて、パターンを認識することができる。パターン認識部206は、機械学習を使用してパターンを認識するように訓練される。たとえば、教師あり学習モデルを使用して、パターン認識部206は、ユーザのもの忘れのパターンをラベル付けされた特徴ベクトルのコレクションを使用して認識するように訓練され得る。パターン認識部206を訓練するために使用されるラベル付けされた特徴ベクトルは、そのユーザの過去の発話に対応する特徴ベクトルのコレクションを含み得る。他の実施形態では、ラベル付けされた特徴ベクトルのコレクションは、そのようなデータを共同で共有することに同意した複数の人の過去の発話に対応する。
すべてのもの忘れが記憶障害の症状という訳ではない。たとえば、音声応答システムに、毎日雨の日に3日連続で「私は傘をどこに置いたか?」と聞く方が、たとえば「今は何時か?」と1時間に6回聞くよりも、記憶障害に起因する蓋然性は低い。識別部208は、パターン認識部206によって認識されたパターンと、コンテクスチュアライザ204によって生成された対応するコンテキスト情報とを組み合わせて、パターン認識部206によって認識されたもの忘れのパターンの根本的な原因でありそうに思われるものを識別する。
いくつかの実施形態では、MES200が、発話の性質が曖昧であるか、またはユーザのもの忘れに関する発話の重大性が不明である場合に、コンテキスト情報の探索を自動的に実施することができる。電子的に記憶されたコンテキスト・データの探索が開始されて、コンテキスト情報を識別して不確実性を軽減することができる。たとえば、「私の鍵はどうしたのか?」のような平叙文は、ユーザの鍵の場所に関する質問とは容易に認識されないことがある。上記のR-CNNとBi-LSTMとを組み合わせたカスケード・モデルを使用して、Bi-LSTMが最初に意味が曖昧であると決定すると、コンテキスト情報の探索が自動的に実施され得、そのコンテキスト情報は、R-CNNが、ユーザが何かを探して家の中を移動していることを示す画像(ユーザのその平叙文の発言と同時にタイムスタンプされている)を取得することによって提供する。発話とコンテキスト情報(画像)の合体は曖昧さを解消し、発話の性質を「私の鍵はどこにあるか?」と等価であることを示すことができる。画像以外のコンテキスト情報は、他のIoTデバイスから提供され得る。
コンテキスト情報の探索を実行する際に、発話の性質が曖昧であるか、またはユーザのもの忘れに関する発話の重大性が不明である場合、MES200は、曖昧さや不確実性を解決するために、電子的に記憶されたコンテキスト・データ間を(上記のように)双方向に移動しながら、推論ホップを実行する。必要な情報がコンテキスト・データのコーパス内の推論ホップによって得られない場合、MES200は、1つまたは複数の外部IoTから必要なデータを探索し、取り込むことができる。取り込んだデータに基づいて、MES200が、意味の尤度が所定の信頼度(たとえば、60%以上)を満たすと決定した場合、MES200が、曖昧さや不確実性を解決するためにコンテキスト・データを探索して追加の情報を取り込むことはない。
識別部208は、コンテクスチュアライザ204によって生成されたコンテキスト情報に基づいて、もの忘れのパターンに対する1つまたは複数の考えられる根本的理由を識別することができる。考えられる理由は、記憶障害というよりも、ユーザの基本的健康状態であり得る。たとえば、ある期間中にもの忘れをするパターンが認められた場合、医師から処方された眠気を誘う薬をユーザが服用していることが原因であり得る。コンテクスチュアライザ204によって生成されたコンテキスト・データは、ユーザが服用している薬やもの忘れを示す発話との時間的な重複を示し得る半減期(薬が有効である期間)などの健康関連パラメータを含む、ユーザまたは介護者によって行われた入力に基づく、コンテキスト・データベース218に電子的に記憶されたコンテキスト・データを含み得る。したがって、識別部208は、パターン認識部206によって認識されたもの忘れのパターンの考えられる理由が記憶障害ではなく健康状態(たとえば、眠気誘発薬)に起因する蓋然性が高いことを識別することができる。
同様に、認識されたもの忘れのパターンは、たとえば、ユーザが進行中の家の修理で頭がいっぱいである場合のように、一時的な注意力の欠如に起因し得る。コンテクスチュアライザ204によって生成されたコンテキスト・データは、オブジェクト・トラッカ216(たとえば、1つまたは複数のIoTカメラ)によって捕捉された画像を含み得、その画像は、ユーザが修理を行うことに没頭している作業員によって繰り返し中断されることを示し得る。識別部208は、このコンテキスト・データに基づいて、もの忘れのパターンの考えられる理由が、記憶障害ではなく、家の修理に気を取られたことによる注意力散漫であることを識別することができる。
対照的に、ユーザが「私の眼鏡はどこにあるか?」と繰り返し尋ねることがある。コンテクスチュアライザ204によって生成されたコンテキスト・データは、ユーザがその質問をしたときはいつも、またはほとんどの場合、ユーザが実は眼鏡をかけていたことを示す、オブジェクト・トラッカ216(たとえば、1つまたは複数のIoTカメラ)によって捕捉された画像を含み得る。
コンテクスチュアライザ204は、特定の発話には対応しないがそれでもなおパターン認識部206によって認識されたもの忘れのパターンについて考えられる根本的理由を識別するための情報を識別部208に提供し得るコンテキスト・データを生成することができる。たとえば、コンテクスチュアライザ204によって生成されたコンテキスト・データは、ユーザが冷蔵庫内に老眼鏡を置いていることを示す、オブジェクト・トラッカ216(たとえば、1つまたは複数のIoTカメラ)によって捕捉された画像を含み得る。識別部208も機械学習を使用して訓練され、ユーザによる変則的な行為を識別することができる。画像が、それ以前のまたはその後の、たとえたった1つまたはわずかであっても、「私は自分の眼鏡をなくした」または「私の眼鏡はどこにあるか?」という発話と結合される場合、識別部208は、パターン認識部206によって認識されたもの忘れのパターンを健康状態、注意力散漫などに帰するのではなく、もの忘れの蓋然性が高い症状として取り扱う。
様々なセンシング・デバイス(たとえば、センサ内蔵IoTデバイス)によって生成された様々な信号に基づくコンテキスト情報は、ユーザの注意力、認知状態、または健康状態、あるいはその組合せを含み得る。画像に関連するコンテキスト情報は、所与の環境(たとえば、スマート・ホーム)内でのユーザの顔のパターン、ジェスチャー、または動き、あるいはその組合せを含み得る。外部の騒音や天候状態などもコンテキスト情報を提供し得る。
いずれの特定の発話に関連しないコンテキスト情報であっても、もの忘れのパターンを識別するために、識別部208によって使用され得る。たとえば、コンテクスチュアライザ204は、オブジェクト・トラッカ216(たとえば、1つまたは複数のIoTカメラ)によって捕捉された、変則的な行動を示す画像からコンテキスト情報を生成することができる。このような行動は、特定の発話に直接対応するものではないが、たとえば、その行動を実行するためには使用されることを意図されていないツールまたはオブジェクト(たとえば、IoTデバイス)を、ユーザが使用して行動を実行しようとすることに対応し得る。たとえば、IoTカメラによって捕捉された映像は、電気シェーバを使用してスープの缶を開けようとしたり、または電子レンジ内に鍵を置いたりするユーザを映し出すことがある。記憶障害を患う人の体験から抽出した一連のラベル付き訓練データに基づいて、機械学習モデルは、患者によって頻繁に行われる行為を識別することができる。この種のコンテキスト情報は分類部210によって使用されて、記憶機能の変化(より頻繁なもの忘れによって示される)がユーザの記憶障害に起因する蓋然性が高いかどうかを分類することができる。
分類部210は、コーパス生成部202によって生成されたコーパス中に含まれるユーザの発話(たとえば、質問、情報要求、質問または情報要求に相当する平叙文)の繰り返しが加速することによって証拠とされる記憶機能の変化を分類する。認識されたもの忘れのパターンが通常の記憶の衰退によるものであるという推論を支持する対応するコンテキスト情報は、変化を記憶障害によるものと分類することに不利に影響する。もの忘れは、ストレス、疲労、注意力散漫などに起因し得る。ストレスまたは疲労などの状態を示す心拍数、呼吸数または他のバイオマーカーなどのコンテキスト情報は、デバイス(たとえば、スマートウォッチ)によって捕捉され、コンテキスト・データベース218に電子的に記憶させるためにMES200に無線で伝達され得る。コンテキスト・データベース218は、ユーザの注意をそらし得る、家庭内で修理作業中の作業員の画像や屋外の天候関連事象など、注意力散漫やユーザの不注意を示すコンテキスト情報を同様に供給され得る。このようなコンテキスト情報は、ユーザのもの忘れが一時的なものであり、記憶障害によって引き起こされたものでないという推論を支持する事象または状況を示し得る。しかし、一時的な記憶喪失という推論を支持するコンテキスト情報がないと、分類部210は、記憶機能の変化を記憶障害に起因するものとして分類してしまう。分類部210のデフォルトの分類は、いくつかの実施形態では、変化が単に一時的な記憶の衰退を反映していることを示すコンテキスト情報がない場合、記憶機能の変化を記憶障害に起因するものとして分類することになっている。
いくつかの実施形態では、分類部210は、深層学習ニューラル・ネットワークなどの機械学習分類モデルを実装することができる。分類モデルは、個体の様々なクラスまたはカテゴリに対応する、ラベル付けされた特徴ベクトルのコレクションに適用される教師あり学習を使用して訓練され得る。モデルは、ユーザを、入力ベクトルに基づいて、記憶障害に罹患しているか否かに分類する2値分類器であり得る。いくつかの実施形態では、分類モデルは、非罹患クラスと、それぞれが異なる疾患に対応する複数のクラスとを含む多クラス分類モデルであり得る。分類部210は、多クラス分類モデルを訓練するために使用される基礎となる特徴ベクトルに応じて、ユーザの記憶障害に起因する蓋然性が高い記憶機能の変化を、予測される重症度障害にしたがって分類することができる。
いくつかの実施形態におけるコーパス生成部202は、発話コーパス214に追加するためにクラウドソーシングを使用する。様々な統計解析が、コーパスを含む母集団に基づいて実行され、ユーザの記憶機能の変化が記憶障害に起因する蓋然性が高いかどうか(たとえば、変化が母集団の平均から標準偏差の所定数倍を上回って逸脱しているかどうか)を分類するための基準として使用され得る。機械学習の分類モデルは、反復強化学習を使用して生成され得、それによって、モデルは、発話コーパス214の母集団のサイズが増大するとともに反復的に改良される。
MES200は、随意に、ユーザの記憶機能の変化を記憶障害の症状として分類することを受けて改善措置計画を案出する改善措置アクチュエータ212を含み得る。改善措置計画は、1つまたは複数のタスクを実行する際にユーザを支援するために、ユーザを所定の時刻に双方向的な機械生成された対話に関与させることを含む。たとえば、改善措置計画は、ユーザの動きを追跡する(たとえば、IoTカメラを使用して)ことと、ユーザが寝る準備の前に家電製品(たとえば、コンロ)をつけたままにした場合に(音声インターフェースを介して)音声の警告を発生させることとを含み得る。リマインダは、玄関のドアがロックされているかどうかをユーザが尋ねられる双方向的な対話の一部であり、またはユーザの安全を確保するために何か他の活動をどのように行うかをユーザに思い出させるものであり、あるいはその両方であり得る。改善措置計画は、ユーザが服薬するまたは別の行動を取る必要がある時刻に音声リマインダを発することを含み得る。改善措置計画は、ユーザの現在の健康状態を判断することと、必要に応じてユーザに保健専門家に相談するように助言する電子通知を生成することとを含み得る。改善措置計画は、電子通知を生成することと、ユーザは記憶障害である蓋然性が高いことを介護者に知らせる通知を介護者に伝達することとを含み得る。通知は、データ通信ネットワーク、有線ネットワーク、または無線通信ネットワークを介して伝達され得る。
図3は、一実施形態による記憶力のモニタリングおよび評価の例示的な方法300のフローチャートである。方法300は、図1および図2を参照して説明したものと同一または類似のシステムを使用して実施され得る。ブロック302において、システムは、音声インターフェースを用いて複数の人間の発話を捕捉し、対応するユーザについて、人間の発話の意味に基づいて複数の人間の発話から選択された人間の発話を含む人間の発話のコーパスを生成する。人間の発話の意味は、コンピュータ・プロセッサによる人間の発話の自然言語処理によって決定される。
ブロック304において、システムは、コンピュータ・プロセッサと動作可能に結合された1つまたは複数のセンシング・デバイスによって感知された信号に応答して生成されたデータに基づいて、コーパスの1つまたは複数の人間の発話に対応するコンテキスト情報を決定する。ブロック306におけるシステムは、1つまたは複数の機械学習モデルを使用してコンピュータ・プロセッサによって実行されるパターン認識に基づいて、人間の発話のコーパス中のパターンを認識する。
ブロック308において、システムは、パターン認識に基づいて、ユーザの記憶機能の変化を識別する。コーパスの1つまたは複数の人間の発話に対応するコンテキスト情報に基づいて、ブロック310におけるシステムは、記憶機能の変化はユーザの記憶障害に起因する蓋然性が高いかどうかを分類することができる。
いくつかの実施形態では、システムは、記憶機能の変化を記憶障害の症状として分類することを受けて、ユーザを双方向的な機械生成された対話に関与させることによって、変化を分類する。
いくつかの実施形態では、システムは、コンテキスト情報に基づくユーザの行動分析を実行することによって変化を分類する。さらに他の実施形態では、システムは、ユーザの心理状態を決定するための感情分析を実行することによって変化を分類する。感情分析は、ユーザが、記憶障害を示しているのではなく、怒り、落胆、または注意力散漫や不注意と符合し得る感情を経験してユーザの一時的な記憶力の減弱を引き起こしていることを、発話の調子または話された特定の単語あるいはその両方に基づいて決定することができる。
他の実施形態では、システムは、ユーザの記憶機能の変化に対応するかもしれないし対応しないかもしれない曖昧な発話を受けて、コンテキスト・データベースのコンピュータ・ベースの探索を実行することによって、コンテキスト情報を決定する。発話の性質が曖昧であるか、またはユーザのもの忘れに関する発話の重大性が不明である場合に、システムは、コンテキスト情報のためにコンテキスト・データベースの探索を自動的に実施することができる。
システムは、記憶機能の変化を記憶障害の症状として分類することを受けて、随意に改善措置計画を策定することができる。いくつかの実施形態では、改善措置計画は、1つまたは複数のタスクを実行する際にユーザを支援するために、所定の時刻にユーザを双方向的な機械生成の対話に関与させることを含む。他の実施形態では、改善措置計画は、保健の専門家に相談するようにユーザに助言する電子通知を生成することを含む。さらに他の実施形態では、システムは、代替的または追加的に電子通知を生成し、ユーザの記憶障害の可能性があることを介護者に知らせる通知を介護者に伝達する。通知は、データ通信ネットワーク、有線ネットワーク、または無線ネットワークを介して伝達され得る。
本開示はクラウド・コンピューティングに関する詳細な説明を含むが、本明細書に記載された教示の実装は、クラウド・コンピューティング環境に限定されないことを明示的に留意されたい。むしろ、本発明の実施形態は、現在知られている、または将来開発される任意の他の種類のコンピューティング環境と組み合わせて実施することが可能である。
クラウド・コンピューティングは、構成可能なコンピューティング・リソース(たとえばネットワーク、ネットワーク帯域幅、サーバ、処理、メモリ、ストレージ、アプリケーション、仮想マシン、およびサービス)の共有プールへの、便利でオンデマンドのネットワーク・アクセスを可能にするサービス提供の一モデルであり、サービスのプロバイダとの管理労力または対話を最小限に抑えて、コンピューティング・リソースが迅速にプロビジョニングされ、リリースされ得る。このクラウド・モデルは、少なくとも5つの特徴と、少なくとも3つのサービス・モデルと、少なくとも4つのデプロイメント・モデルとを含み得る。
特徴は以下の通り。
オンデマンド・セルフサービス:クラウド・コンシューマは、サービスのプロバイダとの人的対話を要さず、必要に応じて自動的に、サーバ時間およびネットワーク・ストレージなどのコンピューティング能力を一方的にプロビジョニングし得る。
幅広いネットワーク・アクセス:能力はネットワーク経由で利用可能であり、異種のシンまたはシック・クライアント・プラットフォーム(たとえば、モバイル・フォン、ラップトップ、およびPDA)による使用を促進する標準的な機構を介してアクセスされる。
リソース・プーリング:プロバイダのコンピューティング・リソースは、複数のコンシューマにサービスするために、需要に応じて動的に割り当ておよび再割り当てされる様々な物理リソースおよび仮想リソースをもつマルチテナント・モデルを使用してプールされる。コンシューマは一般に、提供されるリソースの正確な位置に関して制御または知識を有しないが、より高い抽象化レベル(たとえば、国、州、またはデータセンタ)において位置を指定することが可能であり得るという位置独立の感覚がある。
迅速な融通性:能力は、迅速および弾力的にプロビジョニングされ、場合によっては自動的に、速やかにスケールアウトし、速やかにリリースされて速やかにスケールインし得る。コンシューマにとっては、多くの場合、プロビジョニングに利用可能な能力が無制限に見え、いつでも任意の数量を購入し得る。
熟慮されたサービス:クラウド・システムは、サービスの種類(たとえば、ストレージ、処理、帯域幅、およびアクティブ・ユーザ・アカウント)に応じた抽象度の計測能力を活用することによって、リソースの使用を自動的に制御し、最適化する。リソースの使用は、監視、制御、および報告され得、利用されるサービスのプロバイダとコンシューマの両方に透明性を提供する。
サービス・モデルは以下の通り。
サービスとしてのソフトウェア(Software as a Service)(SaaS):コンシューマに提供される能力は、クラウド・インフラストラクチャ上で動作するプロバイダのアプリケーションを使用することである。アプリケーションは、ウェブ・ブラウザ(たとえば、ウェブベースの電子メール)などのシン・クライアント・インターフェースを介して様々なクライアント・デバイスからアクセス可能である。限定されたユーザ固有のアプリケーション構成設定はあり得る例外として、コンシューマは、ネットワーク、サーバ、オペレーティング・システム、ストレージ、さらには個別のアプリケーション能力をも含む基盤となるクラウド・インフラストラクチャを管理も制御もしない。
サービスとしてのプラットフォーム(Platform as a Service)(PaaS):コンシューマに提供される能力は、プロバイダによってサポートされるプログラミング言語およびツールを使用して生成される、コンシューマ生成または収集のアプリケーションをクラウド・インフラストラクチャ上にデプロイすることである。コンシューマは、ネットワーク、サーバ、オペレーティング・システム、またはストレージを含む基盤となるクラウド・インフラストラクチャを管理も制御もしないが、デプロイされたアプリケーションおよび場合によってはアプリケーション・ホスティングの環境構成を制御する。
サービスとしてのインフラストラクチャ(Infrastructure as a Service)(IaaS):コンシューマに提供される能力は、オペレーティング・システムおよびアプリケーションを含み得る任意のソフトウェアを、コンシューマがデプロイおよび実行することが可能である処理、ストレージ、ネットワーク、および他の基本的なコンピューティング・リソースをプロビジョニングすることである。コンシューマは、基盤となるクラウド・インフラストラクチャを管理も制御もしないが、オペレーティング・システム、ストレージ、デプロイされたアプリケーションを制御し、場合によっては選択されたネットワーキング・コンポーネント(たとえば、ホスト・ファイアウォール)を限定的に制御する。
デプロイメント・モデルは以下の通り。
プライベート・クラウド:クラウド・インフラストラクチャが一組織のためだけに運用される。その組織またはサード・パーティによって管理され得、オンプレミスにでもオフプレミスにでも存在し得る。
コミュニティ・クラウド:クラウド・インフラストラクチャは、いくつかの組織によって共有され、重要事項(たとえば、ミッション、セキュリティ要件、ポリシー、およびコンプライアンス考慮事項)を共有している特定のコミュニティをサポートする。その組織またはサード・パーティによって管理され得、オンプレミスにでもオフプレミスにでも存在し得る。
パブリック・クラウド:クラウド・インフラストラクチャは、一般市民または大規模な業界団体に利用可能にされ、クラウド・サービスを販売する組織によって所有される。
ハイブリッド・クラウド:クラウド・インフラストラクチャが、2つまたはそれ以上のクラウド(プライベート、コミュニティ、またはパブリック)で構成され、そのクラウドは固有のエンティティとして存続するが、データおよびアプリケーションのポータビリティ(たとえば、クラウド間の負荷分散のためのクラウド・バースト)を可能にする標準化された技術または独自技術によって一緒に結合されている。
クラウド・コンピューティング環境は、ステートレスであること、低結合、モジュール性、およびセマンティック相互運用性に重点を置いたサービス指向のものである。相互接続されたノードのネットワークを備えるインフラストラクチャが、クラウド・コンピューティングの核心にある。
次に図4を参照すると、例示的なクラウド・コンピューティング環境400が示されている。示すように、クラウド・コンピューティング環境400は、たとえば、パーソナル・デジタル・アシスタント(PDA)もしくはセルラー電話440a、デスクトップ・コンピュータ440b、ラップトップ・コンピュータ440c、または自動車コンピュータ・システム440n、あるいはその組合せなどの、クラウド・コンシューマによって使用されるローカル・コンピューティング・デバイスが通信し得る、1つまたは複数のクラウド・コンピューティング・ノード410を含む。コンピューティング・ノード410は、互いに通信し得る。それらは、本明細書で上記に説明したようなプライベート、コミュニティ、パブリック、またはハイブリッドのクラウド、あるいはその組合せなど、1つまたは複数のネットワークにおいて、物理的または仮想的にグループ化され得る(図示せず)。これにより、クラウド・コンピューティング環境400は、クラウド・コンシューマがローカル・コンピューティング・デバイス上でリソースを維持する必要がない、サービスとしてのインフラストラクチャ、プラットフォーム、またはソフトウェア、あるいはその組合せを提供することが可能になる。図4に示すコンピューティング・デバイス440a~nの種類は、例示のみを目的としたものであり、コンピューティング・ノード410およびクラウド・コンピューティング環境400は、任意の種類のネットワークまたはネットワーク・アドレス指定可能な接続あるいはその両方を通じて(たとえば、ウェブ・ブラウザを使用して)任意の種類のコンピュータ化されたデバイスと通信することができることが理解されよう。
次に図5を参照すると、クラウド・コンピューティング環境400(図4)によって与えられる一連の機能抽象化層が示されている。図5に示したコンポーネント、層、および機能は、例示のみを目的としたものであり、本発明の実施形態はそれに限定されないことをあらかじめ理解されたい。示すように、以下の層およびそれに対応する機能が与えられている。
ハードウェアおよびソフトウェア層560は、ハードウェア・コンポーネントおよびソフトウェア・コンポーネントを含む。ハードウェア・コンポーネントの例は、メインフレーム561、RISC(Reduced Instruction Set Computer)アーキテクチャ・ベースのサーバ562、サーバ563、ブレード・サーバ564、ストレージ・デバイス565、ならびにネットワークおよびネットワーキング・コンポーネント566を含む。いくつかの実施形態では、ソフトウェア・コンポーネントは、ネットワーク・アプリケーション・サーバ・ソフトウェア567と、データベース・ソフトウェア568とを含む。
仮想化層570は、以下の仮想エンティティの例が提供され得る抽象化層を提供する:仮想サーバ571、仮想ストレージ572、仮想プライベート・ネットワークを含む仮想ネットワーク573、仮想アプリケーションおよびオペレーティング・システム574、ならびに仮想クライアント575。
一例では、管理層580は、以下で説明する機能を提供し得る。リソース・プロビジョニング581は、クラウド・コンピューティング環境内でタスクを実行するために利用されるコンピューティング・リソースおよびその他のリソースの動的調達を提供する。計量および価格設定582は、クラウド・コンピューティング環境内でリソースが利用されるときのコスト追跡、およびこれらのリソースの消費に対する課金または請求を提供する。一例では、これらのリソースは、アプリケーション・ソフトウェア・ライセンスを含み得る。セキュリティは、クラウド・コンシューマおよびタスクには本人確認を、ならびにデータおよび他のリソースには保護を与える。ユーザポータル583は、コンシューマおよびシステム管理者に、クラウド・コンピューティング環境へのアクセスを与える。サービス・レベル管理584は、必要とされるサービス・レベルが満たされるように、クラウド・コンピューティング・リソースの割り当ておよび管理を行う。サービス品質保証契約(Service Level Agreement)(SLA)の企画と遂行585は、SLAにしたがって、将来の要件が予想されるクラウド・コンピューティング・リソースの事前準備および調達を行う。
ワークロード層590は、クラウド・コンピューティング環境が利用され得る機能性の例を提供する。この層から提供され得るワークロードおよび機能の例は、マッピングおよびナビゲーション591と、ソフトウェア開発およびライフサイクル管理592と、仮想教室教育配信(virtual classroom education delivery)593と、データ分析処理594と、トランザクション処理595と、MES596とを含む。
図6は、コンピューティング・ノード600の一例の概略図を示す。1つまたは複数の実施形態において、コンピューティング・ノード600は、好適なクラウド・コンピューティング・ノードの一例である。コンピューティング・ノード600は、本明細書で説明した本発明の実施形態の使用範囲または機能性に関して、いかなる限定も示唆することを目的としていない。コンピューティング・ノード600は、本開示内で説明された機能はどれでも実行することが可能である。
コンピューティング・ノード600は、多くの他の汎用または専用のコンピューティング・システム環境または構成で動作可能なコンピュータ・システム612を含む。よく知られているコンピューティング・システム、環境、または構成あるいはその組合せの例は、コンピュータ・システム612とともに使用するために好適であり得、パーソナル・コンピュータ・システム、サーバ・コンピュータ・システム、シン・クライアント、シック・クライアント、ハンドヘルドまたはラップトップ・デバイス、マルチプロセッサ・システム、マイクロプロセッサベースのシステム、セット・トップ・ボックス、プログラマブル・コンシューマ・エレクトロニクス、ネットワークPC、ミニコンピュータ・システム、メインフレーム・コンピュータ・システム、および上記のシステムまたはデバイスなどのいずれかを含む分散型クラウド・コンピューティング環境を含むが限定されない。
コンピュータ・システム612は、コンピュータ・システムによって実行されるプログラム・モジュールなど、コンピュータ・システム実行可能な命令の一般的な文脈中に記載され得る。一般に、プログラム・モジュールは、特定のタスクを実行するかまたは特定の抽象データ型を実装するルーティン、プログラム、オブジェクト、コンポーネント、論理、データ構造などを含み得る。コンピュータ・システム612は、タスクが通信ネットワークを介してリンクされたリモート処理デバイスによって実行される分散型クラウド・コンピューティング環境中で実行され得る。分散型クラウド・コンピューティング環境中では、プログラム・モジュールがメモリ・ストレージ・デバイスを含むローカルとリモートの両方のコンピュータ・システム記憶媒体中に配置され得る。
図6に示されているように、コンピュータ・システム612は、汎用コンピューティング・デバイスの形態で示されている。コンピュータ・システム612のコンポーネントは、1つまたは複数のプロセッサ616、メモリ628、およびメモリ628を含む様々なシステム・コンポーネントをプロセッサ616に結合するバス618を含み得るが限定されない。本明細書で定義するように、「プロセッサ」とは、命令を実行するように構成された少なくとも1つのハードウェア回路を意味する。ハードウェア回路は、集積回路であり得る。プロセッサの例は、中央処理装置(central processing unit)(CPU)、アレイ・プロセッサ、ベクトル・プロセッサ、デジタル信号プロセッサ(DSP)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、プログラマブル・ロジック・アレイ(PLA)、特定用途向け集積回路(application specific integrated circuit)(ASIC)、プログラマブルなロジック回路およびコントローラを含むが、これらには限定されない。
プロセッサによるコンピュータ・プログラムの命令の実行(carrying out)は、プログラムを実行すること(executing)または実行すること(running)を含む。本明細書で定義するように、「実行する(run)」および「実行する(execute)」は、1つまたは複数の機械可読命令にしたがってプロセッサによって実行される一連の動作または事象を含む。本明細書で定義するように、「実行すること(running)」および「実行すること(executing)」は、プロセッサによる動作または事象の能動的な実行を意味する。本明細書では、実行する(run)、実行すること(running)、実行する(execute)、および実行すること(executing)という用語は同義的に使用される。
バス618は、メモリ・バスまたはメモリ・コントローラ、周辺バス、アクセラレーテッド・グラフィックス・ポート、および様々なバス・アーキテクチャのいずれかを使用するプロセッサまたはローカル・バスを含む、いくつかの種類のバス構造のうちのいずれかのうちの1つまたは複数を表す。限定ではなく例としてのみ、そのようなアーキテクチャは、業界標準アーキテクチャ(Industry Standard Architecture)(ISA(R))バス、マイクロ・チャネル・アーキテクチャ(MCA(R))バス、拡張ISA(Enhanced ISA)(EISA(R))バス、ビデオ・エレクトロニクス・スタンダーズ・アソシエーション(Video Electronics Standards Association)(VESA(R))ローカル・バス、ペリフェラル・コンポーネント・インターコネクト(Peripheral Component Interconnect)(PCI(R))バス、およびPCI Express(R)(PCIe(R))バスを含む。
コンピュータ・システム612は一般に、様々なコンピュータ・システム可読媒体を含む。そのような媒体は、コンピュータ・システム612によってアクセス可能な任意の利用可能な媒体であり得、その媒体は、揮発性媒体と不揮発性媒体、取り外し可能媒体と取り外し不可能媒体の両方を含み得る。
メモリ628は、ランダム・アクセス・メモリ(RAM)630またはキャッシュ・メモリ632あるいはその両方などの揮発性メモリの形態のコンピュータ・システム可読媒体を含み得る。コンピュータ・システム612は、他の取り外し可能/取り外し不可能、揮発性/不揮発性のコンピュータ・システム記憶媒体をさらに含み得る。例として、ストレージ・システム634は、取り外し不可能な不揮発性の磁気媒体またはソリッド・ステート・ドライブ(図示せず、通常「ハード・ドライブ」と呼ばれる)あるいはその両方からの読み取りおよびそれに対する書き込みのために提供され得る。図示しないが、取り外し可能な不揮発性磁気ディスク(たとえば、「フロッピー(R)ディスク」)からの読み出しおよびディスクへの書き込みのための磁気ディスク・ドライブ、およびCD(R)-ROM、DVD(R)-ROMまたは他の光学媒体など取り外し可能な不揮発性光学ディスクからの読み出しおよびディスクへの書き込みのための光学ディスク・ドライブは提供され得る。そのような事例では、それぞれは、1つまたは複数のデータ媒体インターフェースによってバス618に接続され得る。以下でさらに示し、説明するように、メモリ628は、本発明の実施形態の機能を実行するように構成されたプログラム・モジュールの(たとえば、少なくとも1つの)セットを有する、少なくとも1つのプログラム製品を含み得る。
プログラム・モジュール642の(少なくとも1つの)セットを有するプログラム/ユーティリティ640は、限定ではなく、例として、メモリ628、ならびにオペレーティング・システム、1つまたは複数のアプリケーション・プログラム、他のプログラム・モジュール、およびプログラム・データ中に記憶され得る。オペレーティング・システム、1つまたは複数のアプリケーション・プログラム、他のプログラム・モジュール、およびプログラム・データの各々、またはそれらの一部の組合せは、ネットワーキング環境の実装を含み得る。プログラム・モジュール642は一般に、本明細書で説明する本発明の実施形態の機能または方法あるいはその両方を実行する。たとえば、プログラム・モジュールのうちの1つまたは複数は、MES596またはその一部を含み得る。
プログラム/ユーティリティ640は、プロセッサ616によって実行可能である。プログラム/ユーティリティ640およびコンピュータ・システム612によって使用、生成、または操作、あるいはその組合せが行われるすべてのアイテムは、コンピュータ・システム612によって採用されるときに機能性を付与する機能的なデータ構造である。本開示内で定義するように、「データ構造」は、物理メモリ内のデータ・モデルのデータの構成の物理的な実装である。このように、データ構造は、メモリ内の特定の電気的または磁気的構造要素で形成されている。データ構造は、プロセッサを使用して実行されるアプリケーション・プログラムによって使用されるように、メモリに記憶されるデータに物理的な構成を課する。
コンピュータ・システム612はまた、キーボード、ポインティング・デバイス、ディスプレイ624などの1つもしくは複数の外部デバイス614、ユーザがコンピュータ・システム612と対話することを可能にする1つまたは複数のデバイス、またはコンピュータ・システム612が1つもしくは複数の他のコンピューティング・デバイスと通信することを可能にする任意のデバイス(たとえば、ネットワーク・カード、モデムなど)、あるいはその組合せと通信し得る。そのような通信は、入出力(I/O)インターフェース622経由で行われ得る。また、コンピュータ・システム612は、ネットワーク・アダプタ620経由でローカル・エリア・ネットワーク(LAN)、一般的なワイド・エリア・ネットワーク(WAN)、または公衆ネットワーク(たとえば、インターネット)あるいはその組合せなど、1つまたは複数のネットワークと通信することができる。示されているように、ネットワーク・アダプタ620は、バス618経由でコンピュータ・システム612の他のコンポーネントと通信する。図示しないが、他のハードウェア・コンポーネントまたはソフトウェア・コンポーネントあるいはその両方は、コンピュータ・システム612とともに使用され得ることを理解されたい。例は、マイクロコード、デバイス・ドライバ、冗長処理ユニット、外部ディスク・ドライブ・アレイ、RAIDシステム、テープ・ドライブ、およびデータ・アーカイブ・ストレージ・システムなどを含むが限定されない。
コンピューティング・ノード600は、クラウド・コンピューティング・ノードの一例を説明するために使用するが、図6に関連して説明したものと同一または類似のアーキテクチャを使用するコンピュータ・システムは、本明細書で説明した様々な動作を実行するために非クラウド・コンピューティング実装で使用され得ることを理解されたい。この点について、本明細書に記載された例示的な実施形態は、クラウド・コンピューティング環境に限定されることを目的としていない。コンピューティング・ノード600は、データ処理システムの一例である。本明細書で定義するように、「データ処理システム」とは、データを処理するように構成された1つまたは複数のハードウェア・システムであって、各ハードウェア・システムは、動作を開始するようにプログラムされた少なくとも1つのプロセッサとメモリとを含むものを意味する。
コンピューティング・ノード600は、コンピュータ・ハードウェアの一例である。コンピューティング・ノード600は、実装されるデバイスまたはシステムあるいはその両方の個々の種類に応じて、図6に示すものより少ないコンポーネントまたは図示されていない追加のコンポーネントを含み得る。含まれる個々のオペレーティング・システムまたはアプリケーションあるいはその両方は、含まれるI/Oデバイスの種類が異なり得るので、デバイスまたはシステムあるいはその両方の種類によって異なり得る。さらに、例示的なコンポーネントのうちの1つまたは複数は、別のコンポーネントに組み込まれ、またはそうでなく別のコンポーネントの一部を形成し得る。たとえば、プロセッサは、少なくともいくらかのメモリを含み得る。
コンピューティング・ノード600はサーバの一例でもある。本明細書で定義するように、「サーバ」は、1つまたは複数の他のデータ処理システムとサービスを共有するように構成されたデータ処理システムを意味する。本明細書で定義するように、「クライアント・デバイス」は、サーバからシェアされるサービスを要求し、ユーザが直接交流するデータ処理システムを意味する。クライアント・デバイスの例は、ワークステーション、デスクトップ・コンピュータ、コンピュータ端末、モバイル・コンピュータ、ラップトップ・コンピュータ、ネットブック・コンピュータ、タブレット・コンピュータ、スマート・フォン、パーソナル・デジタル・アシスタント、スマート・ウォッチ、スマート・グラス、ゲーム・デバイス、セットトップ・ボックス、スマート・テレビなどを含むが、これらに限定されない。1つまたは複数の実施形態では、本明細書に記載される様々なユーザ・デバイスは、クライアント・デバイスであり得る。ルーター、ファイアウォール、スイッチ、アクセス・ポイントなどのネットワーク・インフラストラクチャは、「クライアント・デバイス」という用語を本明細書で定義する限りでは、クライアント・デバイスではない。
本明細書で使用する用語は、特定の実施形態を説明することのみを目的とし、限定することを目的としていない。しかし、ここでは、このドキュメント全体にわたって適用されるいくつかの定義を示す。
本明細書で定義するように、単数形「a」、「an」、および「the」は、コンテキストが明らかにそうでないこと示さない限り、複数形も同様に含む。
本明細書で定義するように、「別の(another)」は、少なくとも2番目またはそれ以降のものを意味する。
本明細書で定義するように、「少なくとも1つ(at least one)」、「1つまたは複数(one or more)」、および「~または・・・あるいはその両方/その組合せ(and / or)」は、明示的に別段の記載がない限り、有効性において接続的(conjunctive)であり、かつ選言的(disjunctive)であるオープンエンドな表現である。たとえば、「A、BおよびCのうちの少なくとも1つ」、「A、BまたはCのうちの少なくとも1つ」、「A、BおよびCのうちの1つまたは複数」、「A、BまたはCのうちの1つまたは複数」、「A、BまたはCあるいはその組合せ」という表現の各々は、A単独、B単独、C単独、AおよびBを一緒に、AおよびCを一緒に、BおよびCを一緒に、または、A、BおよびCを一緒に、を意味する。
本明細書で定義するように、「自動的に」は、ユーザの介入なしに、を意味する。
本明細書で定義するように、「含む(includes)」、「含む(including)」、「備える/含む/有する(comprises)」または「備える/含む/有する(comprising)」あるいはその組合せは、述べられた特徴、整数、ステップ、動作、要素、またはコンポーネント、あるいはその組合せの存在を規定するが、1つまたは複数の他の特徴、整数、ステップ、操作、要素、コンポーネント、および/またはそれらの群の存在または付加を排除しない。
本明細書で定義するように、「の場合(if)」は、コンテキストに応じて、「に応答して/を受けて(in response to)」または「に応じて(responsive to)」を意味する。したがって、「決定された場合(if it is determined)」というフレーズは、コンテキストに応じて「決定を受けて(in response to determining)」または「決定に応じて(responsive to determining)」を意味すると解釈され得る。同様に、「(記載された状態または事象)が検出された場合(if [a stated condition or event] is detected)」というフレーズは、コンテキストに応じて、「(記載された状態または事象)を検出すると(upon detecting [a stated condition or event])」または「(記載された状態または事象)を受けて(in response to [a stated condition or event])」または「(記載された状態または事象)に反応して(responsive to)」と解釈され得る。
本明細書で定義するように、「1つの実施形態」、「一実施形態」、「1つまたは複数の実施形態では」、「特定の実施形態では」、または同様の言語は、実施形態に関連して説明される特定の特徴、構造、または特性が、本開示内で説明される少なくとも1つの実施形態に含まれていることを意味する。したがって、本開示全体を通して、前述のフレーズまたは類似の言語あるいはその両方の出現は、すべて同一の実施形態を指すことがあるが、必ずしもそうではない。
本明細書で定義するように、フレーズ「に応答して/を受けて(in response to)」および「に応じて(responsive to)」は、行為(action)または事象(event)に対して容易に応答するまたは反応することを意味する。したがって、第2の行為が第1の行為「に応答して/を受けて」または「に応じて」行われる場合、第1の行為の発生と第2の行為の発生との間に因果関係がある。「に応答して/を受けて」および「応じて」というフレーズは因果関係を示す。
本明細書で定義するように、「実質的に」とは、言及された特性、パラメータ、または値が正確に達成される必要はないが、たとえば公差、測定誤差、測定精度限界、および当業者に知られている他の因子を含む偏差または変動が、その特性が与えようと企図された効果を妨げない量で発生し得ることを意味する。
本明細書で定義するように、「ユーザ」および「個人、人」はそれぞれ人間を指す。
第1の、第2の、などの用語は、本明細書で使用する際、様々な要素を説明するために使用され得る。これらの要素は、別段の記載がない限り、あるいはコンテキスト上明快に示されない限り、ある要素と他の要素を区別するために使用されるに過ぎないため、これらの用語によって制限されるべきでない。
本発明は、統合の任意の可能な技術的詳細レベルにおけるシステム、方法、またはコンピュータ・プログラム製品、あるいはその組合せであり得る。コンピュータ・プログラム製品は、本発明の態様をプロセッサに実行させるためのコンピュータ可読プログラムをその上に有するコンピュータ可読記憶媒体を含み得る。
コンピュータ可読記憶媒体は、命令実行デバイスによる使用のための命令を保持し、記憶することができる有形デバイスであり得る。コンピュータ可読記憶媒体は、たとえば、電子記憶デバイス、磁気記憶デバイス、光学記憶デバイス、電磁記憶デバイス、半導体記憶デバイス、または上記の任意の好適な組合せであり得るが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例の非網羅的なリストは以下を含む。携帯コンピュータ・ディスケット(R)、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROMまたはフラッシュ(R)メモリ)、静的ランダム・アクセス・メモリ(SRAM)、携帯コンパクトディスク(R)読取り専用メモリ(CD(R)-ROM)、デジタル・バーサタイル・ディスク(DVD(R))、メモリースティック(R)、フロッピー(R)ディスク、パンチカードまたはその上に記録された命令を有する溝の中の隆起した構造など機械的にエンコードされたデバイス、および上記の任意の好適な組合せ。本明細書で使用するコンピュータ可読記憶媒体は、電波または他の自由に伝播する電磁波、導波路または他の送信媒体を介して伝播する電磁波(たとえば光ファイバー・ケーブルを通過する光パルス)、または電線を介して送信される電気信号など、一時的信号それ自体であると解釈されるべきでない。
本明細書で説明するコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれのコンピューティング/処理デバイスに、または外部コンピュータまたは外部記憶デバイスに、たとえばインターネット、ローカル・エリア・ネットワーク、ワイド・エリア・ネットワークまたはワイヤレス・ネットワークあるいはその組合せのネットワーク経由でダウンロードされ得る。ネットワークは、銅線伝送ケーブル、光伝送ファイバー、ワイヤレス伝送、ルーター、ファイアウォール、スイッチ、ゲートウェイ・コンピュータまたはエッジ・サーバあるいはその組合せを含み得る。各コンピューティング/処理デバイス中のネットワーク・アダプタ・カードまたはネットワーク・インターフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、そのコンピュータ可読プログラム命令をそれぞれのコンピューティング/処理デバイス内のコンピュータ可読記憶媒体に記憶するために転送する。
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セット・アーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、集積回路用の構成データ、またはSmalltalk(R)、C++(R)などのオブジェクト指向プログラミング言語と、「C(R)」プログラミング言語または同様のプログラミング言語などの手続き型プログラミング言語とを含む、1つまたは複数のプログラミング言語の任意の組合せで記述されたソース・コードまたはオブジェクト・コードのいずれかであり得る。コンピュータ可読プログラム命令は、スタンドアロンのソフトウェア・パッケージとして、完全にユーザのコンピュータ上、部分的にユーザのコンピュータ上、部分的にユーザのコンピュータ上かつ部分的にリモートのコンピュータ上、または完全にリモートのコンピュータもしくはサーバ上で実行し得る。後者のシナリオでは、リモートのコンピュータが、ローカル・エリア・ネットワーク(LAN)またはワイド・エリア・ネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続され得、あるいは接続が外部コンピュータに(たとえば、インターネット・サービス・プロバイダを使用してインターネットを介して)なされ得る。いくつかの実施形態では、本発明の態様を実行するために、たとえば、プログラマブルなロジック回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)、またはプログラマブル・ロジック・アレイ(PLA)を含む電子回路が、コンピュータ可読プログラム命令の状態情報を利用することによって、コンピュータ可読プログラム命令を実行し、電子回路をパーソナライズし得る。
本発明の態様を、本発明の実施形態による方法、装置(システム)、およびコンピュータ・プログラム製品のフローチャート図またはブロック図あるいはその両方を参照しながら本明細書で説明する。フローチャート図またはブロック図あるいはその両方の各ブロック、ならびにフローチャート図またはブロック図あるいはその両方におけるブロックの組合せは、コンピュータ可読プログラム命令によって実装され得ることが理解されよう。
これらのコンピュータ可読プログラム命令は、コンピュータ、または他のプログラマブル・データ処理装置のプロセッサに提供され、コンピュータまたは他のプログラマブルなデータ処理装置のプロセッサを介して実行する命令が、フローチャートまたはブロック図あるいはその両方のブロックまたは複数のブロックにおいて指定される機能/行為を実装するための手段を生成するように機械を製造し得る。フローチャートまたはブロック図あるいはその両方のブロックまたは複数のブロックにおいて指定される機能/行為の態様を実行する命令を含む製造品を、その中に記憶された命令を有するコンピュータ可読記憶媒体が含むように、これらのコンピュータ可読プログラム命令は、コンピュータ、プログラマブルなデータ処理装置、または他のデバイスあるいはその組合せが特定の方法で機能するように命令し得るコンピュータ可読記憶媒体中にも記憶され得る。
コンピュータ可読プログラム命令は、コンピュータ、他のプログラマブルな装置、または他のデバイス上で実行する命令が、フローチャートまたはブロック図あるいはその両方のブロックまたは複数のブロックにおいて指定された機能/行為を実行するように、コンピュータ、他のプログラマブルなデータ処理装置、または他のデバイス上にもロードされ得、コンピュータ実行プロセスを生成するために、コンピュータ、他のプログラマブルな装置、または他のデバイス上で一連の動作可能なステップを実行させる。
図中のフローチャート図およびブロック図は、本発明の様々な実施形態によるシステム、方法、およびコンピュータ・プログラム製品の可能な実装のアーキテクチャ、機能性、および動作を示す。これに関して、フローチャート図またはブロック図中の各ブロックは、モジュール、セグメント、または命令の一部を表し得、それは、指定された論理機能を実装するための1つまたは複数の実行可能な命令を含む。いくつかの代替の実装では、ブロック中に示される機能は、図中に示される順序と異なって行われ得る。たとえば、連続して示される2つのブロックは、実際には1つのステップとして、同時に、実質的に同時に、部分的または全体的に時間的に重なるように実行され得、またはブロックは、関係している機能性によって時には逆の順序で実行され得る。ブロック図またはフローチャート図あるいはその両方の各ブロック、およびブロック図またはフローチャート図あるいはその両方におけるブロックの組合せは、特定の機能または行為を実行する、または専用のハードウェアおよびコンピュータ命令の組合せを実行する専用のハードウェアベースのシステムによって実装され得ることにも留意されたい。
本発明の様々な実施形態の説明は、例示の目的で提示されたものであり、開示された実施形態が網羅的であることまたは限定されることは目的としていない。説明した実施形態の範囲から逸脱することなく、当業者には多くの改変および変形が明らかになるであろう。本明細書で使用した用語は、実施形態の原理、市場で見出される技術に関する実用化または技術改善を最もよく説明するために、あるいは当業者が本明細書に開示された実施形態を理解することを可能にするために選択したものである。

Claims (20)

  1. 方法であって、
    音声インターフェースを用いて複数の人間の発話を捕捉することと、対応するユーザについて、人間の発話の意味に基づいて前記複数の人間の発話から選択された前記人間の発話を含む人間の発話のコーパスを生成することであって、前記意味は、コンピュータ・プロセッサによる前記人間の発話の自然言語処理によって決定される、前記コーパスを生成することと、
    前記コンピュータ・プロセッサと動作可能に結合された1つまたは複数のセンシング・デバイスによって感知された信号に応答して生成されたデータに基づいて、前記コーパスの1つまたは複数の人間の発話に対応するコンテキスト情報を決定することと、
    1つまたは複数の機械学習モデルを使用して前記コンピュータ・プロセッサによって実行されるパターン認識に基づいて、人間の発話の前記コーパス中のパターンを認識することと、
    前記パターン認識に基づいて、前記ユーザの記憶機能の変化を識別することと、
    前記コーパスの1つまたは複数の人間の発話に対応する前記コンテキスト情報に基づいて、記憶機能の前記変化が前記ユーザの記憶障害に起因する蓋然性が高いかどうかを分類することと
    を含む、方法。
  2. 前記分類することが、記憶機能の前記変化を記憶障害の症状として分類することを受けて、前記ユーザを双方向的な機械生成された対話に関与させることを含む、請求項1に記載の方法。
  3. 前記分類することが、前記ユーザの心理状態を決定するために、行動分析または感情分析のうちの少なくとも1つを実行することをさらに含む、請求項1に記載の方法。
  4. コンテキスト情報を前記決定することは、意味が曖昧な発話、またはユーザのもの忘れに関する前記発話の重大性が不明な発話を受けて、コンテキスト・データベースのコンピュータ・ベースの探索を実行することを含む、請求項1に記載の方法。
  5. 記憶機能の前記変化を記憶障害の症状として分類することを受けて、改善措置計画を策定することをさらに含む、請求項1記載の方法。
  6. 前記改善措置計画は、1つまたは複数のタスクを実行する際に前記ユーザを支援するために、所定の時刻に前記ユーザを双方向的な機械生成された対話に関与させることを含む、請求項5に記載の方法。
  7. 前記改善措置計画が、保健専門家に相談するように前記ユーザに助言する電子通知を生成すること、または電子通知を生成し、前記ユーザの記憶障害の可能性があることを介護者に知らせる前記通知を前記介護者に伝達することのうちの少なくとも一方を含む、請求項5に記載の方法。
  8. システムであって、動作を開始するように構成されたプロセッサを備え、前記動作は、
    音声インターフェースを用いて複数の人間の発話を捕捉することと、対応するユーザについて、人間の発話の意味に基づいて前記複数の人間の発話から選択された前記人間の発話を含む人間の発話のコーパスを生成することであって、前記意味は、コンピュータ・プロセッサによる前記人間の発話の自然言語処理によって決定される、前記コーパスを生成することと、
    前記コンピュータ・プロセッサと動作可能に結合された1つまたは複数のセンシング・デバイスによって感知された信号に応答して生成されたデータに基づいて、前記コーパスの1つまたは複数の人間の発話に対応するコンテキスト情報を決定することと、
    1つまたは複数の機械学習モデルを使用して前記コンピュータ・プロセッサによって実行されるパターン認識に基づいて、人間の発話の前記コーパス中のパターンを認識することと、
    前記パターン認識に基づいて、前記ユーザの記憶機能の変化を識別することと、
    前記コーパスの1つまたは複数の人間の発話に対応する前記コンテキスト情報に基づいて、記憶機能の前記変化が前記ユーザの記憶障害に起因する蓋然性が高いかどうかを分類することと
    を含む、システム。
  9. 前記分類することが、記憶機能の前記変化を記憶障害の症状として分類することを受けて、前記ユーザを双方向的な機械生成された対話に関与させることを含む、請求項8に記載のシステム。
  10. 前記分類することが、前記ユーザの心理状態を決定するために、行動分析または感情分析のうちの少なくとも1つを実行することをさらに含む、請求項8に記載のシステム。
  11. コンテキスト情報を前記決定することは、意味が曖昧な発話、またはユーザのもの忘れに関する前記発話の重大性が不明な発話を受けて、コンテキスト・データベースのコンピュータ・ベースの探索を実行することを含む、請求項8に記載のシステム。
  12. 前記プロセッサが、記憶機能の前記変化を記憶障害の症状として分類することを受けて、改善措置計画を策定することをさらに含む動作を開始するように構成されている、請求項8に記載のシステム。
  13. 前記改善措置計画は、1つまたは複数のタスクを実行する際に前記ユーザを支援するために、所定の時刻に前記ユーザを双方向的な機械生成された対話に関与させることを含む、請求項12に記載のシステム。
  14. コンピュータ・プログラム製品であって、
    1つまたは複数のコンピュータ可読記憶媒体と、前記1つまたは複数のコンピュータ可読記憶媒体にまとめて記憶されたプログラム命令とを含み、前記プログラム命令は、プロセッサによって実行可能であり、動作を前記プロセッサに開始させ、前記動作は、
    音声インターフェースを用いて複数の人間の発話を捕捉することと、対応するユーザについて、人間の発話の意味に基づいて前記複数の人間の発話から選択された前記人間の発話を含む人間の発話のコーパスを生成することであって、前記意味は、コンピュータ・プロセッサによる前記人間の発話の自然言語処理によって決定される、前記コーパスを生成することと、
    前記コンピュータ・プロセッサと動作可能に結合された1つまたは複数のセンシング・デバイスによって感知された信号に応答して生成されたデータに基づいて、前記コーパスの1つまたは複数の人間の発話に対応するコンテキスト情報を決定することと、
    1つまたは複数の機械学習モデルを使用して前記コンピュータ・プロセッサによって実行されるパターン認識に基づいて、人間の発話の前記コーパス中のパターンを認識することと、
    前記パターン認識に基づいて、前記ユーザの記憶機能の変化を識別することと、
    前記コーパスの1つまたは複数の人間の発話に対応する前記コンテキスト情報に基づいて、記憶機能の前記変化が前記ユーザの記憶障害に起因する蓋然性が高いかどうかを分類することと
    を含む、コンピュータ・プログラム製品。
  15. 前記分類することが、記憶機能の前記変化を記憶障害の症状として分類することを受けて、前記ユーザを双方向的な機械生成された対話に関与させることを含む、請求項14に記載のコンピュータ・プログラム製品。
  16. 前記分類することが、前記ユーザの心理状態を決定するために、行動分析または感情分析のうちの少なくとも1つを実行することをさらに含む、請求項14に記載のコンピュータ・プログラム製品。
  17. コンテキスト情報を前記決定することは、意味が曖昧な発話、またはユーザのもの忘れに関する前記発話の重大性が不明な発話を受けて、コンテキスト・データベースのコンピュータ・ベースの探索を実行することを含む、請求項14に記載のコンピュータ・プログラム製品。
  18. 前記プログラム命令が、前記プロセッサによって実行可能であり、記憶機能の前記変化を記憶障害の症状として分類することを受けて、改善措置計画を策定することをさらに含む動作を前記プロセッサに開始させる、請求項14に記載のコンピュータ・プログラム製品。
  19. 前記改善措置計画は、1つまたは複数のタスクを実行する際に前記ユーザを支援するために、所定の時刻に前記ユーザを双方向的な機械生成された対話に関与させることを含む、請求項18に記載のコンピュータ・プログラム製品。
  20. 前記改善措置計画が、保健専門家に相談するように前記ユーザに助言する電子通知を生成すること、または電子通知を生成し、前記ユーザの記憶障害の可能性があることを介護者に知らせる前記通知を前記介護者に伝達することの少なくとも一方を含む、請求項18に記載のコンピュータ・プログラム製品。
JP2023524740A 2020-10-29 2021-09-02 記憶力低下の検出と改善 Pending JP2023547152A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/084,614 US11495211B2 (en) 2020-10-29 2020-10-29 Memory deterioration detection and amelioration
US17/084,614 2020-10-29
PCT/CN2021/116124 WO2022088968A1 (en) 2020-10-29 2021-09-02 Memory deterioration detection and amelioration

Publications (1)

Publication Number Publication Date
JP2023547152A true JP2023547152A (ja) 2023-11-09

Family

ID=81380357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023524740A Pending JP2023547152A (ja) 2020-10-29 2021-09-02 記憶力低下の検出と改善

Country Status (5)

Country Link
US (1) US11495211B2 (ja)
JP (1) JP2023547152A (ja)
CN (1) CN116348867A (ja)
GB (1) GB2615241B (ja)
WO (1) WO2022088968A1 (ja)

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR980700637A (ko) 1994-12-08 1998-03-30 레이어스 닐 언어 장애자의 언어 인식 강화를 위한 방법 및 장치(method and device for enhancing the recognition of speechamong speech-impai red individuals)
US6524239B1 (en) 1999-11-05 2003-02-25 Wcr Company Apparatus for non-instrusively measuring health parameters of a subject and method of use thereof
US9251712B2 (en) * 2007-03-18 2016-02-02 Persinvitro Llc Method and apparatus to encourage development of long term recollections of given episodes
JP5351942B2 (ja) 2011-09-07 2013-11-27 シャープ株式会社 認知症ケア支援システム
US8803690B2 (en) 2012-01-06 2014-08-12 Panasonic Corporation Of North America Context dependent application/event activation for people with various cognitive ability levels
US9349100B2 (en) 2012-08-30 2016-05-24 International Business Machines Corporation Method for providing a prompt for real-time cognitive assistance
WO2016006727A1 (ko) 2014-07-08 2016-01-14 삼성전자 주식회사 인지기능 검사 장치 및 방법
EP3218896A1 (en) 2015-09-01 2017-09-20 Deutsche Telekom AG Externally wearable treatment device for medical application, voice-memory system, and voice-memory-method
KR102447513B1 (ko) 2016-01-22 2022-09-27 한국전자통신연구원 점증적 대화지식 자가학습 기반 대화장치 및 그 방법
US10799186B2 (en) * 2016-02-12 2020-10-13 Newton Howard Detection of disease conditions and comorbidities
WO2017145566A1 (ja) 2016-02-22 2017-08-31 パナソニックIpマネジメント株式会社 認知症状検出システム、及び、プログラム
EP3437567A4 (en) 2016-03-31 2019-04-03 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
US10650810B2 (en) 2016-10-20 2020-05-12 Google Llc Determining phonetic relationships
JP7208224B2 (ja) 2017-05-05 2023-01-18 カナリー・スピーチ,エルエルシー 病状を検出するモデルを構築するための音声特徴の選択
US10395647B2 (en) 2017-10-26 2019-08-27 Harman International Industries, Incorporated System and method for natural language processing
JP6263308B1 (ja) 2017-11-09 2018-01-17 パナソニックヘルスケアホールディングス株式会社 認知症診断装置、認知症診断方法、及び認知症診断プログラム
EP3829439A4 (en) 2018-07-27 2022-04-27 Maphabit, Inc. SYSTEMS AND METHODS FOR TREATING A MEMORY DISORDER

Also Published As

Publication number Publication date
GB2615241A (en) 2023-08-02
GB2615241B (en) 2024-03-06
US11495211B2 (en) 2022-11-08
CN116348867A (zh) 2023-06-27
GB202306124D0 (en) 2023-06-07
US20220139375A1 (en) 2022-05-05
WO2022088968A1 (en) 2022-05-05

Similar Documents

Publication Publication Date Title
US10692606B2 (en) Stress level reduction using haptic feedback
US11200811B2 (en) Intelligent recommendation of guidance instructions
US20230245651A1 (en) Enabling user-centered and contextually relevant interaction
US9722965B2 (en) Smartphone indicator for conversation nonproductivity
US11074913B2 (en) Understanding user sentiment using implicit user feedback in adaptive dialog systems
US11106870B2 (en) Intelligent text enhancement in a computing environment
US11153109B2 (en) Intelligent teleconference operations in an internet of things (IoT) computing environment
US11132510B2 (en) Intelligent management and interaction of a communication agent in an internet of things environment
US10943070B2 (en) Interactively building a topic model employing semantic similarity in a spoken dialog system
US11004449B2 (en) Vocal utterance based item inventory actions
US11928985B2 (en) Content pre-personalization using biometric data
US20200076759A1 (en) Methods and systems for managing multiple topic electronic communications
US20200159836A1 (en) Intelligent resolution of conflicting information in adaptive dialog systems
US20210358324A1 (en) Intelligent social interaction recognition and conveyance using computer generated prediction modeling
US11836592B2 (en) Communication model for cognitive systems
US11164575B2 (en) Methods and systems for managing voice response systems to optimize responses
US20210065019A1 (en) Using a dialog system for learning and inferring judgment reasoning knowledge
US20200155056A1 (en) Detection and management of memory impairment
US11889149B2 (en) Intelligent mitigation of concentration conflicts
US11714966B2 (en) Cognitive responses with electronic messaging
US11410110B2 (en) Alert generation based on a cognitive state and a physical state
US11223595B2 (en) Methods and systems for managing communication sessions for discussion completeness
JP2023547152A (ja) 記憶力低下の検出と改善
US20220084504A1 (en) Artificial intelligence voice response system for speech impaired users
US12014734B2 (en) Dynamic boundary creation for voice command authentication

Legal Events

Date Code Title Description
RD16 Notification of change of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7436

Effective date: 20230517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240215