JP2019032843A - 自動車又は携帯電子装置を使用した能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム - Google Patents
自動車又は携帯電子装置を使用した能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム Download PDFInfo
- Publication number
- JP2019032843A JP2019032843A JP2018154751A JP2018154751A JP2019032843A JP 2019032843 A JP2019032843 A JP 2019032843A JP 2018154751 A JP2018154751 A JP 2018154751A JP 2018154751 A JP2018154751 A JP 2018154751A JP 2019032843 A JP2019032843 A JP 2019032843A
- Authority
- JP
- Japan
- Prior art keywords
- data
- output
- processor
- sensor
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 217
- 238000004891 communication Methods 0.000 claims abstract description 106
- 238000004422 calculation algorithm Methods 0.000 claims description 65
- 238000012545 processing Methods 0.000 claims description 22
- 230000003993 interaction Effects 0.000 claims description 21
- 230000004044 response Effects 0.000 claims description 21
- 230000036541 health Effects 0.000 claims description 15
- 230000006399 behavior Effects 0.000 claims description 11
- 235000005911 diet Nutrition 0.000 claims description 10
- 230000037213 diet Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 9
- 230000033001 locomotion Effects 0.000 claims description 6
- 230000004069 differentiation Effects 0.000 claims description 4
- 230000003466 anti-cipated effect Effects 0.000 claims description 3
- 230000005802 health problem Effects 0.000 claims description 2
- 206010027175 memory impairment Diseases 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 28
- 230000015654 memory Effects 0.000 description 20
- 238000004458 analytical method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 239000013589 supplement Substances 0.000 description 7
- 208000021421 Arm injury Diseases 0.000 description 6
- 230000009471 action Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 6
- 238000000554 physical therapy Methods 0.000 description 6
- 208000027418 Wounds and injury Diseases 0.000 description 5
- 230000006378 damage Effects 0.000 description 5
- 208000014674 injury Diseases 0.000 description 5
- 230000000399 orthopedic effect Effects 0.000 description 5
- 235000013305 food Nutrition 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000003814 drug Substances 0.000 description 3
- 229940079593 drug Drugs 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000009207 exercise therapy Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 235000008935 nutritious Nutrition 0.000 description 2
- 230000037081 physical activity Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 235000013311 vegetables Nutrition 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000003442 weekly effect Effects 0.000 description 2
- 206010012289 Dementia Diseases 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 235000005686 eating Nutrition 0.000 description 1
- 235000006694 eating habits Nutrition 0.000 description 1
- 235000013601 eggs Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007595 memory recall Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 235000016709 nutrition Nutrition 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000004580 weight loss Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/248—Presentation of query results
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0098—Details of control systems ensuring comfort, safety or stability not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle for navigation systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/55—External transmission of data to or from the vehicle using telemetry
Abstract
Description
[構成1]
少なくとも1つのセンサを用いて、該少なくとも1つのセンサの少なくとも1つの近くの、少なくとも1人の人、物体、生物、場所、環境又はこれらの組合せと関連したデータを検出する工程と、
プロセッサを用いて、学習データを、前記検出されたデータ及びデータベースに保存された予めプログラムされたアルゴリズムに基づいて、前記データベースに選択的に保存する工程と、
前記プロセッサと接続され又は通信可能な通信ユニット又は出力装置を用いて、第1出力データを、前記プロセッサによって受信された要求又は前記データベースに保存された所定の若しくは予定されたイベントに応じて受動的に出力する工程と、
前記通信ユニット又は前記出力装置を用いて、第2出力データを、前記検出されたデータ、前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて、能動的且つ自動的に出力する工程と、を含むコンピュータベースの方法。
[構成2]
前記検出されたデータが、
前記少なくとも1人の人と関連した、視覚的特性、発話、触知的情報、動作、やりとり、行動、ふるまい、会話、位置、同一性、特性又はこれらの組合せ、
前記少なくとも1つのセンサの少なくとも1つの近くの、前記物体、前記生物、前記場所、前記環境又はこれらの組合せと関連した、動作、音、やりとり、行動、触知的情報、視覚的特性、位置、同一性又はこれらの組合せ、又は、
前記少なくとも1つのセンサの少なくとも1つの近くの、前記場所又は前記環境と関連した、視覚的特性、種別、位置、温度、含水量、気象条件、音、特性又はこれらの組合せの、少なくとも1つに対応する構成1に記載の方法。
[構成3]
前記プロセッサを用いて、前記検出されたデータを、前記少なくとも1人の人、前記物体、前記生物、前記イベント、前記場所、前記環境又はこれらの組合せに対応する前記学習データに基づいて分析する工程をさらに含み、
前記データベースに選択的に保存する工程、及び、前記第2出力データを能動的且つ自動的に出力する工程が、更に、前記分析されたデータに基づく構成1に記載の方法。
[構成4]
前記方法が車両に実装された、構成1に記載の方法。
[構成5]
前記方法が携帯電子装置に実装された構成1に記載の方法。
[構成6]
前記プロセッサを用いて、会話又はやりとりを、前記検出されたデータに基づいて分析する工程を更に含み、
前記第2出力データを能動的且つ自動的に出力する工程が、
前記少なくとも1人の人との前記会話又は前記やりとりを能動的且つ自動的に開始し、又は、前記少なくとも1人の人との前記会話又は前記やりとりに能動的且つ自動的に参加するために、前記通信ユニット又は前記出力装置を用いて出力発話、出力画像、出力映像又はこれらの組合せを能動的且つ自動的に生成する工程、又は、
前記ユーザに対してリマインダを能動的に通知するために、前記通信ユニット又は前記出力装置を用いて能動的且つ自動的に前記出力発話、前記出力画像、前記出力映像又はこれらの組合せを生成する工程の少なくとも一方を更に含む構成1に記載の方法。
[構成7]
前記プロセッサを用いて、前記少なくとも1人の人、前記物体、前記生物、前記イベント、前記場所又は前記環境の、少なくとも2つの間の関係、順序又は相関を、学習データ及び予めプログラムされたアルゴリズムに基づいて決定することを更に含み、
前記第2出力データを能動的且つ自動的に出力する工程は、更に、前記決定された関係、順序又は相関に基づくものである構成1に記載の方法。
[構成8]
前記通信ユニット又は前記出力装置を用いて、前記第2出力データを、前記少なくとも1人の人からの応答又は入力を引き出すための質問又は問合せの形式で、能動的且つ自動的に出力すること、或いは、
前記通信ユニット又は前記出力装置を用いて、前記第2出力データを、前記少なくとも1人の人との会話又はやりとりに参加するために能動的且つ自動的に出力すること、
の少なくとも一方を実行することによって、能動的且つ自動的に前記検出データの質を向上させ、又は、前記検出されたデータの量を増す構成1に記載の方法。
[構成9]
前記少なくとも1つのセンサが、画像センサ、振動センサ、マイクロホン、近接検出器、位置検出器、力センサ、距離センサ、レーザースキャナ又はレーダーセンサの少なくとも1つであり、
前記少なくとも1つのセンサが、少なくとも車両又は携帯電子装置と一体化され又は接続された構成1に記載の方法。
[構成10]
前記第2出力データを能動的且つ自動的に出力する工程が、
前記通信ユニット又は前記出力装置と接続された又は通信可能なディスプレイを用いて出力画像又は出力映像を表示する工程、又は、
前記通信ユニット又は前記出力装置と接続された又は通信可能なスピーカを用いて出力発話を生成する工程、の少なくとも一方を含む構成1に記載の方法。
[構成11]
前記データベースが、クラウドベースのデータベースを含み、又は、クラウドベースのデータベースと通信可能であり、前記プロセッサが、
該プロセッサ及び前記クラウドベースのデータベースを用いて、前記検出されたデータ、前記第1出力データ、前記第2出力データ又はこれらの組合せを、前記クラウドベースのデータベースに接続され又は前記クラウドベースのデータベースと通信可能な外部機器へと送信し、且つ、
前記プロセッサ及び前記クラウドベースのデータベースを用いて、入力データを、前記外部機器から受信するように更に構成された構成1に記載の方法。
[構成12]
前記少なくとも1人の人が、記憶に関する障害又は健康上の問題を有するユーザを含み、前記第2出力データを能動的且つ自動的に出力する工程が、
前記検出データを、前記人、前記物体、前記生物、前記イベント、前記場所、前記環境又はこれらの組合せに対応した前記学習データと関連付けることの少なくとも1つを更に含み、
前記第2出力データが、前記少なくとも1人の人、前記物体、前記生物、前記イベント、前記場所、前記環境又はこれらの組合せの、識別、特徴、位置、行動又はやりとりに関する、前記ユーザに通信する情報を対象としたリマインダデータに対応する構成1に記載の方法。
[構成13]
前記方法が、前記プロセッサを用いて、前記検出データに基づき、前記少なくとも1人の人の健康、運動又は食生活を分析する工程を更に含み、
前記第2出力データを能動的且つ自動的に出力する工程が、
前記通信ユニット又は前記出力装置を用いて、前記第2出力データを、前記少なくとも1人の人の前記健康、運動又は食生活の評価において医療専門家を支援するために該医療専門家へと出力する工程、又は、
前記通信ユニット又は前記出力装置を用いて、前記第2出力データを、前記健康、運動又は食生活と関連した提案を出力するために前記少なくとも1人の人へと出力する工程の、
少なくとも一方を含む構成1に記載の方法。
[構成14]
前記予めプログラムされたアルゴリズムが、前記第2出力データの情報内容、ユーザのプライバシー問題、検出されたイベントのコンテキスト、又は、これらの組合せを決定するための適切性アルゴリズム規則に対応し、
当該方法が、前記プロセッサを用いて、前記検出されたデータを、前記適切性アルゴリズム規則及び前記学習データに基づいて分析することを更に含み、
前記第2出力データを前記能動的且つ自動的に出力する工程が、前記分析されたデータに基づく構成1に記載の方法。
[構成15]
前記少なくとも1つのセンサの少なくとも1つの近くの運転手、乗客、物体、生物、イベント、場所、環境又はこれらの組合せと関連したデータを検出するように構成された少なくとも1つのセンサと、
予めプログラムされたアルゴリズムを保存するデータベースと、
通信ユニットと、
プロセッサであって前記少なくとも1つのセンサ、前記データベース及び前記通信ユニットと接続され又は通信可能なプロセッサと、を具備する車両であって、
前記プロセッサが、
学習データを、前記検出されたデータ及び前記予めプログラムされたアルゴリズムに基づいて、前記データベースに選択的に保存し、
前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて、前記検出されたデータを分析し、
前記通信ユニットを用いて、第1出力データを、前記プロセッサによって受信された要求又は前記データベースに保存された所定の若しくは予定されたイベントに応じて受動的に出力し、
前記通信ユニットを用いて、第2出力データを、前記分析されたデータ、前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて能動的且つ自動的に出力するように構成された車両。
[構成16]
前記通信ユニットが、ディスプレイ、マイクロホン及びスピーカを少なくとも有し、前記プロセッサが、
発話認識アルゴリズムを用いて、前記運転手又は前記乗客の少なくとも一方の発話を検出し、
発話処理アルゴリズムを用いて、前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて前記検出された発話を分析し、
前記検出された発話と、前記運転手、前記乗客、前記物体、前記生物、前記イベント、前記場所、前記環境又はこれらの組合せと、の間の関係、順序又は相関を決定し、
前記スピーカを用いて、前記決定された関係、順序又は相関に基づいて出力発話を生成すること、又は、
前記ディスプレイを用いて、前記決定された関係、順序又は相関に基づいて出力画像又は出力映像を表示すること、
の少なくとも一方を能動的且つ自動的に実行するように更に構成された構成15に記載の車両。
[構成17]
更に、前記プロセッサを用いて、現在予想される運転の注意レベルを、前記検出されたデータに基づいて、且つ、当該車両の現在の操作に基づいて決定し、
前記プロセッサを用いて、前記生成された出力発話又は前記表示された出力画像又は出力映像の出力タイミング及び情報内容を、決定された前記現在予想される運転の注意レベルに基づいて決定する構成16に記載の車両。
[構成18]
前記データベースが、クラウドベースのデータベースを含み、又は、該クラウドベースのデータベースと通信可能であり、
前記プロセッサが、
前記プロセッサ及び前記クラウドベースのデータベースを用いて、前記検出されたデータ、前記第1出力データ、前記第2出力データ又はこれらの組合せを、外部装置へと送信し、且つ、
前記プロセッサ及び前記クラウドベースのデータベースを用いて、前記外部機器からの入力データを受信するように更に構成された構成17に記載の車両。
[構成19]
前記少なくとも1つのセンサの少なくとも1つの近くの、少なくとも1人の人又はユーザ、物体、生物、イベント、場所、環境又はこれらの組合せと関連したデータを検出するように構成された少なくとも1つのセンサと、
予めプログラムされたアルゴリズムを保存するデータベースと、
通信ユニットと、
前記少なくとも1つのセンサ、前記データベース及び前記通信ユニットと接続され又は通信可能なプロセッサと、を具備する携帯電子装置であって、
前記プロセッサが、
学習データを、前記検出されたデータ及び前記予めプログラムされたアルゴリズムに基づいて前記データベースに選択的に保存し、
前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて前記検出されたデータを分析し、
前記通信ユニットを用いて、前記プロセッサによって受信された要求に応じて、又は、前記データベースに保存された所定の若しくは予定されたイベントに応じて第1出力データを受動的に出力し、且つ、
前記通信ユニットを用いて、第2出力データを、前記分析されたデータ、前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて能動的且つ自動的に出力するように構成された携帯電子装置。
[構成20]
前記通信ユニットが、ディスプレイ、マイクロホン及びスピーカを少なくとも含み、更に前記プロセッサが、
発話認識アルゴリズムを用いて前記少なくとも1人の発話を検出し、
発話処理アルゴリズムを用いて、前記検出された発話を、前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて分析し、
前記検出された発話及び前記学習データ間の関係、順序又は相関を決定し、且つ、
出力発話を、前記スピーカを用いて、前記決定された関係、順序又は相関に基づいて生成すること、又は、
前記ディスプレイを用いて、出力画像又は出力映像を、決定された前記関係、順序又は相関に基づいて表示すること、
の少なくとも一方を能動的且つ自動的に実行するように構成された構成19に記載の携帯電子装置。
102 プロセッサ
104 通信ユニット
106 センサ
108 メモリ
110 クラウドベースのデータベース及びコンピューティング
112 データベース
114 出力装置
200 方法/システム
200 方法/システム
202 ユーザ
206 人
220 センサ位置
230 センサ位置
300 方法/システム
302 ユーザ
304 携帯電子装置
306 発話/考え
308 リマインダ/発話
310 推定
312 机
314 鍵
400 方法/システム
402 工程
404 工程
406 工程
408 工程
410 工程
412 工程
422 工程
424 工程
426 工程
430 工程
500 方法/システム
502 ユーザ
504 携帯電子装置
506 人
600 方法/システム
602 ユーザ
604 携帯電子装置
606 医療専門家
608 発話/答申
610 発話/回答
614 画像/映像
700 方法/システム
702 ユーザ
704 携帯電子装置
706 医療専門家
708 発話/提案
800 方法/システム
802 ユーザ
804 携帯電子装置
806 軽いウエイト
808 発話
810 冷蔵庫
812 テレビ
814 食べ物
816 カメラ
900 方法/システム
902 ユーザ
904 携帯電子装置
906 人
908 答申/考え
910 発話
912 通知/発話
914 扉
1000 方法/システム
1002 ユーザ
1004 車両
1006 ジム
1008 提案/発話
1010 家
1012 道路
1014 基部
1100 方法/システム
1102 ユーザ
1104 車両
1106 整形外科診療所
1108 発話
1110 センサ位置
1112 ユーザインタフェース
1114 ジョイスティック
1120 センサ位置
1124 センサ位置
1126 センサ位置
1128 ベルト
Claims (20)
- 少なくとも1つのセンサを用いて、該少なくとも1つのセンサの少なくとも1つの近くの、少なくとも1人の人、物体、生物、場所、環境又はこれらの組合せと関連したデータを検出することと、
プロセッサを用いて、学習データを、該検出されたデータ及びデータベースに保存された予めプログラムされたアルゴリズムに基づいて、前記データベースに選択的に保存することと、
前記プロセッサと接続され又は通信可能な通信ユニット又は出力装置を用いて、第1出力データを、前記プロセッサによって受信された要求又は前記データベースに保存された所定の若しくは予定されたイベントに応じて受動的に出力することと、
前記通信ユニット又は前記出力装置を用いて、第2出力データを、前記検出されたデータ、前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて、能動的且つ自動的に出力することと、を含み、
前記第2出力データを能動的且つ自動的に出力することが、
前記プロセッサを用いて、人を別の人から差別化することであって、前記人とユーザとの間の以前の会話又はやりとりに基づき、差別化することと、
該差別化に基づいて、前記第2出力データに含まれる情報の程度又は種類を調節することと、
を含むコンピュータベースの方法。 - 前記検出されたデータが、
前記少なくとも1人の人と関連した、視覚的特性、発話、触知的情報、動作、やりとり、行動、ふるまい、会話、位置、同一性、特性又はこれらの組合せ、
前記少なくとも1つのセンサの少なくとも1つの近くの、前記物体、前記生物、前記場所、前記環境又はこれらの組合せと関連した、動作、音、やりとり、行動、触知的情報、視覚的特性、位置、同一性又はこれらの組合せ、又は、
前記少なくとも1つのセンサの少なくとも1つの近くの、前記場所又は前記環境と関連した、視覚的特性、種別、位置、温度、含水量、気象条件、音、特性又はこれらの組合せの、少なくとも1つに対応する請求項1に記載の方法。 - 前記プロセッサを用いて、前記検出されたデータを、前記少なくとも1人の人、前記物体、前記生物、前記イベント、前記場所、前記環境又はこれらの組合せに対応する前記学習データに基づいて分析することをさらに含み、
前記学習データを前記データベースに選択的に保存すること、及び、前記第2出力データを能動的且つ自動的に出力することが、更に、該分析されたデータに基づく請求項1に記載の方法。 - 前記方法が車両に実装された、請求項1に記載の方法。
- 前記方法が携帯電子装置に実装された請求項1に記載の方法。
- 前記プロセッサを用いて、会話又はやりとりを、前記検出されたデータに基づいて分析することを更に含み、
前記第2出力データを能動的且つ自動的に出力することが、
前記少なくとも1人の人との前記会話又は前記やりとりを能動的且つ自動的に開始するために、又は、前記少なくとも1人の人との前記会話又は前記やりとりに能動的且つ自動的に参加するために、前記通信ユニット又は前記出力装置を用いて、出力発話、出力画像、出力映像又はこれらの組合せを能動的且つ自動的に生成すること、又は、
ユーザに対してリマインダを能動的に通知するために、前記通信ユニット又は前記出力装置を用いて、前記出力発話、前記出力画像、前記出力映像又はこれらの組合せを能動的且つ自動的に生成すること、の少なくとも一方を更に含む請求項1に記載の方法。 - 前記プロセッサを用いて、前記少なくとも1人の人、前記物体、前記生物、前記イベント、前記場所又は前記環境の、少なくとも2つの間の関係、順序又は相関を、前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて決定することを更に含み、
前記第2出力データを能動的且つ自動的に出力することが、更に、該決定された関係、順序又は相関に基づく請求項1に記載の方法。 - 前記通信ユニット又は前記出力装置を用いて、前記第2出力データを、前記少なくとも1人の人からの応答又は入力を引き出すための質問又は問合せの形式で、能動的且つ自動的に出力すること、又は、
前記通信ユニット又は前記出力装置を用いて、前記第2出力データを、前記少なくとも1人の人との会話又はやりとりに参加するために能動的且つ自動的に出力すること、
の少なくとも一方を実行することによって、前記検出されたデータの質を能動的且つ自動的に向上させ、又は、前記検出されたデータの量を能動的且つ自動的に増すことを更に含む請求項1に記載の方法。 - 前記少なくとも1つのセンサが、画像センサ、振動センサ、マイクロホン、近接検出器、位置検出器、力センサ、距離センサ、レーザースキャナ又はレーダーセンサの少なくとも1つであり、
前記少なくとも1つのセンサが、少なくとも車両又は携帯電子装置と一体化され又は接続された請求項1に記載の方法。 - 前記第2出力データを能動的且つ自動的に出力することが、
前記通信ユニット又は前記出力装置と接続された又は通信可能なディスプレイを用いて出力画像又は出力映像を表示すること、又は、
前記通信ユニット又は前記出力装置と接続された又は通信可能なスピーカを用いて出力発話を生成すること、の少なくとも一方を含む請求項1に記載の方法。 - 前記データベースが、クラウドベースのデータベースを含み、又は、クラウドベースのデータベースと通信可能であり、前記プロセッサが、
該プロセッサ及び前記クラウドベースのデータベースを用いて、前記検出されたデータ、前記第1出力データ、前記第2出力データ又はこれらの組合せを、前記クラウドベースのデータベースに接続され又は前記クラウドベースのデータベースと通信可能な外部機器に送信し、且つ、
前記プロセッサ及び前記クラウドベースのデータベースを用いて、入力データを、前記外部機器から受信する、ように更に構成された請求項1に記載の方法。 - 前記少なくとも1人の人が、記憶に関する障害又は健康上の問題を有するユーザを含み、前記第2出力データを能動的且つ自動的に出力することが、
前記検出されたデータを、前記人、前記物体、前記生物、前記イベント、前記場所、前記環境又はこれらの組合せに対応した前記学習データと関連付けることの少なくとも1つを更に含み、
前記第2出力データが、前記少なくとも1人の人、前記物体、前記生物、前記イベント、前記場所、前記環境又はこれらの組合せの、識別、特徴、位置、行動又はやりとりに関する、前記ユーザに通信する情報を対象としたリマインダデータに対応する請求項1に記載の方法。 - 前記方法が、前記プロセッサを用いて、前記検出されたデータに基づき、前記少なくとも1人の人の健康、運動又は食生活を分析することを更に含み、
前記第2出力データを能動的且つ自動的に出力することが、
前記通信ユニット又は前記出力装置を用いて、前記第2出力データを、前記少なくとも1人の人の前記健康、運動又は食生活の評価において医療専門家を支援するために該医療専門家に出力すること、又は、
前記通信ユニット又は前記出力装置を用いて、前記第2出力データを、前記健康、運動又は食生活と関連した提案を出力するために前記少なくとも1人の人に出力することの、
少なくとも一方を含む請求項1に記載の方法。 - 前記予めプログラムされたアルゴリズムが、前記第2出力データの情報内容、ユーザのプライバシー問題、検出されたイベントのコンテキスト、又は、これらの組合せを決定するための適切性アルゴリズム規則に対応し、
当該方法が、前記プロセッサを用いて、前記検出されたデータを、前記適切性アルゴリズム規則及び前記学習データに基づいて分析することを更に含み、
前記第2出力データを前記能動的且つ自動的に出力することが、該分析されたデータに基づく請求項1に記載の方法。 - 少なくとも1つのセンサであって、前記少なくとも1つのセンサの少なくとも1つの近くの運転手、乗客、物体、生物、イベント、場所、環境又はこれらの組合せと関連したデータを検出するように構成された少なくとも1つのセンサと、
予めプログラムされたアルゴリズムを保存するデータベースと、
通信ユニットと、
プロセッサであって前記少なくとも1つのセンサ、前記データベース及び前記通信ユニットと接続され又は通信可能なプロセッサであって、
学習データを、該検出されたデータ及び前記予めプログラムされたアルゴリズムに基づいて、前記データベースに選択的に保存し、
前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて、前記検出されたデータを分析し、
前記通信ユニットを用いて、第1出力データを、前記プロセッサによって受信された要求又は前記データベースに保存された所定の若しくは予定されたイベントに応じて受動的に出力し、
前記通信ユニットを用いて、第2出力データを、該分析されたデータ、前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて能動的且つ自動的に出力する、
ように構成されたプロセッサと、
を具備する車両であって、
前記第2出力データを能動的且つ自動的に出力するために前記プロセッサが、
人を別の人から差別化することであって、前記人とユーザとの間の以前の会話又はやりとりに基づき、差別化することと、
該差別化に基づいて、前記第2出力データに含まれる情報の程度又は種類を調節することと、
を行うように構成された車両。 - 前記通信ユニットが、ディスプレイ、マイクロホン及びスピーカを少なくとも有し、前記プロセッサが、
発話認識アルゴリズムを用いて、前記運転手又は前記乗客の少なくとも一方の発話を検出し、
発話処理アルゴリズムを用いて、前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて該検出された発話を分析し、
前記検出された発話と、前記運転手、前記乗客、前記物体、前記生物、前記イベント、前記場所、前記環境又はこれらの組合せと、の間の関係、順序又は相関を決定し、
能動的且つ自動的に、
前記スピーカを用いて、該決定された関係、順序又は相関に基づいて出力発話を生成すること、又は、
前記ディスプレイを用いて、前記決定された関係、順序又は相関に基づいて出力画像又は出力映像を表示すること、
の少なくとも一方を実行する、
ように更に構成された請求項15に記載の車両。 - 更に、前記プロセッサが、
現在予想される運転の注意レベルを、前記検出されたデータに基づいて、且つ、当該車両の現在の操作に基づいて決定し、
該生成された出力発話又は該表示された出力画像もしくは出力映像の出力タイミング及び情報内容を、該決定された現在予想される運転の注意レベルに基づいて決定する、
ように構成された請求項16に記載の車両。 - 前記データベースが、クラウドベースのデータベースを含み、又は、クラウドベースのデータベースと通信可能であり、前記プロセッサが、
前記プロセッサ及び前記クラウドベースのデータベースを用いて、前記検出されたデータ、前記第1出力データ、前記第2出力データ又はこれらの組合せを、外部機器に送信し、且つ、
前記プロセッサ及び前記クラウドベースのデータベースを用いて、前記外部機器からの入力データを受信する、ように更に構成された請求項17に記載の車両。 - 少なくとも1つのセンサであって、前記少なくとも1つのセンサの少なくとも1つの近くの、少なくとも1人の人又はユーザ、物体、生物、イベント、場所、環境又はこれらの組合せと関連したデータを検出するように構成された少なくとも1つのセンサと、
予めプログラムされたアルゴリズムを保存するデータベースと、
通信ユニットと、
前記少なくとも1つのセンサ、前記データベース及び前記通信ユニットと接続され又は通信可能なプロセッサであって、
学習データを、該検出されたデータ及び前記予めプログラムされたアルゴリズムに基づいて前記データベースに選択的に保存し、
前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて前記検出されたデータを分析し、
前記通信ユニットを用いて、前記プロセッサによって受信された要求に応じて、又は、前記データベースに保存された所定の若しくは予定されたイベントに応じて第1出力データを受動的に出力し、且つ、
前記通信ユニットを用いて、第2出力データを、該分析されたデータ、前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて能動的且つ自動的に出力する、ように構成されたプロセッサと、
を具備した携帯電子装置であって、
前記第2出力データを能動的且つ自動的に出力するために前記プロセッサが、
前記プロセッサを用いて人を別の人から差別化することであって、前記人と前記ユーザとの間の以前の会話又はやりとりに基づき、差別化することと、
該差別化に基づいて、前記第2出力データに含まれる情報の程度又は種類を調節することと、
を行うように構成された携帯電子装置。 - 前記通信ユニットが、ディスプレイ、マイクロホン及びスピーカを少なくとも含み、更に前記プロセッサが、
発話認識アルゴリズムを用いて前記少なくとも1人の発話を検出し、
発話処理アルゴリズムを用いて、該検出された発話を、前記学習データ及び前記予めプログラムされたアルゴリズムに基づいて分析し、
前記検出された発話と前記学習データとの間の関係、順序又は相関を決定し、
能動的且つ自動的に、
前記スピーカを用いて、該決定された関係、順序又は相関に基づいて出力発話を生成すること、又は、
前記ディスプレイを用いて、前記決定された関係、順序又は相関に基づいて出力画像又は出力映像を表示すること、
の少なくとも一方を実行する、
ように構成された請求項19に記載の携帯電子装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/830,888 US9223837B2 (en) | 2013-03-14 | 2013-03-14 | Computer-based method and system for providing active and automatic personal assistance using an automobile or a portable electronic device |
US13/830,888 | 2013-03-14 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014052320A Division JP2014179103A (ja) | 2013-03-14 | 2014-03-14 | 自動車又は携帯電子装置を使用した能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019032843A true JP2019032843A (ja) | 2019-02-28 |
JP6577642B2 JP6577642B2 (ja) | 2019-09-18 |
Family
ID=50112768
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014052320A Withdrawn JP2014179103A (ja) | 2013-03-14 | 2014-03-14 | 自動車又は携帯電子装置を使用した能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム |
JP2018154751A Active JP6577642B2 (ja) | 2013-03-14 | 2018-08-21 | 自動車又は携帯電子装置を使用した能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014052320A Withdrawn JP2014179103A (ja) | 2013-03-14 | 2014-03-14 | 自動車又は携帯電子装置を使用した能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9223837B2 (ja) |
EP (1) | EP2779045A1 (ja) |
JP (2) | JP2014179103A (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2713881B1 (en) * | 2011-06-01 | 2020-10-07 | Koninklijke Philips N.V. | Method and system for assisting patients |
US20150162000A1 (en) * | 2013-12-10 | 2015-06-11 | Harman International Industries, Incorporated | Context aware, proactive digital assistant |
CN104503671B (zh) * | 2014-11-27 | 2018-09-04 | 小米科技有限责任公司 | 电动自平衡车的驾驶控制方法及装置 |
CN104539657A (zh) * | 2014-12-09 | 2015-04-22 | 北京康源互动健康科技有限公司 | 一种基于云平台的健康饮食监控系统及方法 |
US20160203591A1 (en) * | 2015-01-09 | 2016-07-14 | Umm Al-Qura University | System and process for monitoring the quality of food in a refrigerator |
US11125566B2 (en) * | 2015-07-16 | 2021-09-21 | Ford Global Technologies, Llc | Method and apparatus for determining a vehicle ego-position |
JP6623657B2 (ja) * | 2015-10-05 | 2019-12-25 | 日産自動車株式会社 | 情報提供装置、情報提供システム及び情報提供方法 |
CN105261180A (zh) * | 2015-10-24 | 2016-01-20 | 孙杨 | 墙体镶嵌通风装置遥控系统 |
JP2017107276A (ja) * | 2015-12-07 | 2017-06-15 | 株式会社デンソーアイティーラボラトリ | 情報処理装置、情報処理方法、およびプログラム |
US10474946B2 (en) | 2016-06-24 | 2019-11-12 | Microsoft Technology Licensing, Llc | Situation aware personal assistant |
DE102016008365A1 (de) * | 2016-07-08 | 2018-01-11 | Audi Ag | Proaktive Steuerung eines Assistenzsystems eines Kraftfahrzeugs |
CN106249892A (zh) * | 2016-07-29 | 2016-12-21 | 北京小米移动软件有限公司 | 平衡车管理方法及装置 |
WO2018051913A1 (ja) * | 2016-09-13 | 2018-03-22 | パナソニックIpマネジメント株式会社 | 路面状態予測システム、運転支援システム、路面状態予測方法及びデータ配信方法 |
CN106347359B (zh) * | 2016-09-14 | 2019-03-12 | 北京百度网讯科技有限公司 | 用于操作自动驾驶车辆的方法和装置 |
CN109154979A (zh) * | 2016-10-26 | 2019-01-04 | 奥康科技有限公司 | 用于分析图像和提供反馈的可佩戴设备和方法 |
US10666751B1 (en) | 2016-12-28 | 2020-05-26 | Wells Fargo Bank, N.A. | Notification system and method |
US20180213396A1 (en) * | 2017-01-20 | 2018-07-26 | Essential Products, Inc. | Privacy control in a connected environment based on speech characteristics |
US10798180B1 (en) | 2017-04-11 | 2020-10-06 | Wells Fargo Bank, N.A. | Systems and methods for optimizing information collaboration |
US10848578B1 (en) | 2017-04-11 | 2020-11-24 | Wells Fargo Bank, N.A. | Systems and methods for content delivery |
US10485454B2 (en) | 2017-05-24 | 2019-11-26 | Neuropath Sprl | Systems and methods for markerless tracking of subjects |
JP7071717B2 (ja) * | 2017-09-05 | 2022-05-19 | 株式会社国際電気通信基礎技術研究所 | イベント系列抽出装置、イベント系列抽出方法およびイベント抽出プログラム |
US10368333B2 (en) | 2017-11-20 | 2019-07-30 | Google Llc | Dynamically adapting provision of notification output to reduce user distraction and/or mitigate usage of computational resources |
CN108536281B (zh) * | 2018-02-09 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 虚拟场景中的天气再现方法和装置、存储介质及电子装置 |
DE112018007074T5 (de) | 2018-03-16 | 2020-10-29 | Mitsubishi Electric Corporation | Anwendungsmanagementeinrichtung, fahrzeuginternes system, anwendungsmanagementverfahren und anwendungsmanagementprogramm |
EP3767622B1 (en) * | 2018-04-16 | 2023-08-30 | Google LLC | Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface |
EP3580751B8 (en) * | 2018-04-16 | 2021-02-24 | Google LLC | Automatically determining language for speech recognition of spoken utterance received via an automated assistant interface |
US10679615B2 (en) * | 2018-04-16 | 2020-06-09 | Google Llc | Adaptive interface in a voice-based networked system |
US10902942B1 (en) | 2018-08-29 | 2021-01-26 | Big Health Inc. | Generation and delivery of customized content programs |
CN110562264B (zh) * | 2019-08-16 | 2020-09-29 | 武汉东湖大数据交易中心股份有限公司 | 面向无人驾驶的道路危险预测方法、装置、设备及介质 |
CN116311174A (zh) * | 2023-05-23 | 2023-06-23 | 四川智慧高速科技有限公司 | 一种基于机器视觉的车辆防碰撞方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004090109A (ja) * | 2002-08-29 | 2004-03-25 | Sony Corp | ロボット装置およびロボット装置の対話方法 |
US20060047362A1 (en) * | 2002-12-02 | 2006-03-02 | Kazumi Aoyama | Dialogue control device and method, and robot device |
JP2006201496A (ja) * | 2005-01-20 | 2006-08-03 | Matsushita Electric Ind Co Ltd | フィルタリング装置 |
JP2007004781A (ja) * | 2005-05-27 | 2007-01-11 | Matsushita Electric Ind Co Ltd | 情報通知装置および情報通知方法 |
JPWO2005076258A1 (ja) * | 2004-02-03 | 2007-10-18 | 松下電器産業株式会社 | ユーザ適応型装置およびその制御方法 |
JP2008011865A (ja) * | 2004-10-27 | 2008-01-24 | Sharp Corp | 健康管理装置及びこれを機能させるためのプログラム |
JP2011248535A (ja) * | 2010-05-25 | 2011-12-08 | Toyota Motor Corp | 運転者状態判定装置、及び運転者支援装置 |
JP2012155374A (ja) * | 2011-01-21 | 2012-08-16 | Sony Corp | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5913212A (en) | 1997-06-13 | 1999-06-15 | Tele-Publishing, Inc. | Personal journal |
US6549939B1 (en) | 1999-08-31 | 2003-04-15 | International Business Machines Corporation | Proactive calendar notification agent |
AU2001251232A1 (en) | 2000-04-02 | 2001-10-15 | Tangis Corporation | Thematic response to a computer user's context, such as by a wearable personal computer |
US6792427B2 (en) | 2001-06-22 | 2004-09-14 | International Business Machines Corporation | Rules-based, automatic generation of journal entries |
US8894576B2 (en) | 2004-03-10 | 2014-11-25 | University Of Virginia Patent Foundation | System and method for the inference of activities of daily living and instrumental activities of daily living automatically |
JP4556586B2 (ja) * | 2004-09-22 | 2010-10-06 | トヨタ自動車株式会社 | 運転支援装置 |
US8583139B2 (en) | 2004-12-31 | 2013-11-12 | Nokia Corporation | Context diary application for a mobile terminal |
US7543233B2 (en) | 2005-06-01 | 2009-06-02 | Nokia Corporation | Device dream application for a mobile terminal |
CN101980660B (zh) * | 2008-09-19 | 2013-01-16 | 松下电器产业株式会社 | 注意力分散检测装置、及注意力分散检测方法 |
WO2010103163A1 (en) | 2009-03-09 | 2010-09-16 | Zokem Oy | Mobile terminal and method for providing life observations and a related server arrangement and method with data analysis, distribution and terminal guiding features |
JP5174727B2 (ja) * | 2009-03-23 | 2013-04-03 | パナソニック株式会社 | 生活支援報知システム |
WO2010134824A1 (en) | 2009-05-20 | 2010-11-25 | Modulprodukter As | Driving assistance device and vehicle system |
US8078152B2 (en) | 2009-08-13 | 2011-12-13 | Palo Alto Research Center Incorporated | Venue inference using data sensed by mobile devices |
WO2012129424A2 (en) | 2011-03-23 | 2012-09-27 | Tk Holdings Inc. | Driver assistance system |
-
2013
- 2013-03-14 US US13/830,888 patent/US9223837B2/en not_active Expired - Fee Related
-
2014
- 2014-02-14 EP EP14155157.2A patent/EP2779045A1/en not_active Ceased
- 2014-03-14 JP JP2014052320A patent/JP2014179103A/ja not_active Withdrawn
-
2018
- 2018-08-21 JP JP2018154751A patent/JP6577642B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004090109A (ja) * | 2002-08-29 | 2004-03-25 | Sony Corp | ロボット装置およびロボット装置の対話方法 |
US20060047362A1 (en) * | 2002-12-02 | 2006-03-02 | Kazumi Aoyama | Dialogue control device and method, and robot device |
JPWO2005076258A1 (ja) * | 2004-02-03 | 2007-10-18 | 松下電器産業株式会社 | ユーザ適応型装置およびその制御方法 |
JP2008011865A (ja) * | 2004-10-27 | 2008-01-24 | Sharp Corp | 健康管理装置及びこれを機能させるためのプログラム |
JP2006201496A (ja) * | 2005-01-20 | 2006-08-03 | Matsushita Electric Ind Co Ltd | フィルタリング装置 |
JP2007004781A (ja) * | 2005-05-27 | 2007-01-11 | Matsushita Electric Ind Co Ltd | 情報通知装置および情報通知方法 |
JP2011248535A (ja) * | 2010-05-25 | 2011-12-08 | Toyota Motor Corp | 運転者状態判定装置、及び運転者支援装置 |
JP2012155374A (ja) * | 2011-01-21 | 2012-08-16 | Sony Corp | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
JP2014179103A (ja) | 2014-09-25 |
US9223837B2 (en) | 2015-12-29 |
EP2779045A1 (en) | 2014-09-17 |
JP6577642B2 (ja) | 2019-09-18 |
US20140280051A1 (en) | 2014-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6577642B2 (ja) | 自動車又は携帯電子装置を使用した能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム | |
US9355368B2 (en) | Computer-based method and system for providing active and automatic personal assistance using a robotic device/platform | |
US9316502B2 (en) | Intelligent mobility aid device and method of navigating and providing assistance to a user thereof | |
US10024667B2 (en) | Wearable earpiece for providing social and environmental awareness | |
US10024678B2 (en) | Wearable clip for providing social and environmental awareness | |
US9922236B2 (en) | Wearable eyeglasses for providing social and environmental awareness | |
US9116962B1 (en) | Context dependent recognition | |
CN110291489A (zh) | 计算上高效的人类标识智能助理计算机 | |
US11217246B2 (en) | Communication robot and method for operating the same | |
US20150198454A1 (en) | Smart necklace with stereo vision and onboard processing | |
WO2015108882A1 (en) | Smart necklace with stereo vision and onboard processing | |
JPWO2016181670A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11449065B2 (en) | System and method for controlling an autonomous carriage based on user intentions | |
US20220004877A1 (en) | Technique for efficient retrieval of personality data | |
Sila-Nowicka et al. | Multi-sensor movement analysis for transport safety and health applications | |
Eick et al. | Enhancing privacy in robotics via judicious sensor selection | |
CN110803170B (zh) | 智能用户接口的驾驶辅助系统 | |
US20230211744A1 (en) | Technique for providing a user-adapted service to a user | |
US20230129746A1 (en) | Cognitive load predictor and decision aid | |
US20220134914A1 (en) | Method and apparatus for music recommendation streaming service using user situation sentiment analysis based on artificial intelligence | |
WO2021176633A1 (ja) | 運転者状態推定装置および運転者状態推定方法 | |
PLAN | I AM RICHARDSON PURSUING MY B. TECH DEGREE IN YOUR COLLEGE FROM THE DEPARTMENT OF ELECTRONICS AND COMMUNICATION ENGINEERING BEARING REGISTRATION NUMBER 16331A0457, HERE IAM IN A NEED OF COLLEGE SUPPORT AND |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180821 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190628 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6577642 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |