JPWO2020022039A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JPWO2020022039A1 JPWO2020022039A1 JP2020532268A JP2020532268A JPWO2020022039A1 JP WO2020022039 A1 JPWO2020022039 A1 JP WO2020022039A1 JP 2020532268 A JP2020532268 A JP 2020532268A JP 2020532268 A JP2020532268 A JP 2020532268A JP WO2020022039 A1 JPWO2020022039 A1 JP WO2020022039A1
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- information processing
- control unit
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 291
- 238000003672 processing method Methods 0.000 title claims description 11
- 238000010411 cooking Methods 0.000 claims description 115
- 238000000034 method Methods 0.000 claims description 81
- 230000008569 process Effects 0.000 claims description 72
- 239000004615 ingredient Substances 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 abstract description 16
- 238000004891 communication Methods 0.000 description 28
- 238000012545 processing Methods 0.000 description 25
- 238000005516 engineering process Methods 0.000 description 16
- 230000004044 response Effects 0.000 description 15
- 230000006399 behavior Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 230000009471 action Effects 0.000 description 7
- 238000010438 heat treatment Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 235000013305 food Nutrition 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 208000016354 hearing loss disease Diseases 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000002156 mixing Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 206010011878 Deafness Diseases 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000010370 hearing loss Effects 0.000 description 2
- 231100000888 hearing loss Toxicity 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008929 regeneration Effects 0.000 description 2
- 238000011069 regeneration method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 235000010523 Cicer arietinum Nutrition 0.000 description 1
- 244000045195 Cicer arietinum Species 0.000 description 1
- 235000010469 Glycine max Nutrition 0.000 description 1
- 244000068988 Glycine max Species 0.000 description 1
- 230000000172 allergic effect Effects 0.000 description 1
- 208000010668 atopic eczema Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 235000013311 vegetables Nutrition 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44505—Configuring for program initiating, e.g. using registry, configuration files
- G06F9/4451—User profiles; Roaming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
上記複数のユーザインタフェースは、音声入力用ユーザインタフェースとタッチ入力用ユーザインタフェース、ジェスチャ入力用UI、ボタン入力用UI、視線入力用UI、リモコン入力用UI等を含んでもよい。ここで、例えば音声入力用UIとは、ユーザに音声入力を促すための情報提示手段のことであり、例えば画面出力による情報提示や音声出力による情報提示等が含まれる。
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報を取得し、
上記ユーザコンテキスト情報に基づいて、複数のユーザインタフェースのうちユーザに提示するユーザインタフェースを決定する、ことを含む。
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報、または、他の装置から収集されたセンシング情報を取得し、
上記ユーザコンテキスト情報または上記センシング情報に基づいて、コンテンツが有する複数の再生ステップの切替を制御するステップ切替情報を生成する、ことを含む。
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報を取得するステップと、
上記ユーザコンテキスト情報に基づいて、複数のユーザインタフェースのうちユーザに提示するユーザインタフェースを決定するステップと、を実行させる。
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報、または、他の装置から収集されたセンシング情報を取得するステップと、
上記ユーザコンテキスト情報または上記センシング情報に基づいて、コンテンツが有する複数の再生ステップの切替を制御するステップ切替情報を生成するステップと、を実行させる。
まず、本技術の第1実施形態について説明する。
図1は、本技術の第1実施形態に係る音楽再生システムの構成を示した図である。
次に、上記情報処理端末100のハードウェア構成について説明する。
図4は、上記情報処理端末100の機能ブロックを示した図である。
図5は、上記情報処理サーバ200の機能ブロックを示した図である。
次に、上記情報処理端末100が上記各アプリケーションのうち音楽アプリケーションの実行中に表示部160に表示可能なUI例について説明する。図6は当該各種ユーザインタフェースの例を示した図である。また図7は当該UIの遷移例を示した図である。
次に、以上のように構成された音楽再生システムの動作について説明する。当該動作は、情報処理端末100や情報処理サーバ200のCPU及び通信部等のハードウェアと、記憶部に記憶されたアプリケーション等のソフトウェアとの協働により実行される。以下の説明では、便宜上、主に情報処理端末100のCPU11及び情報処理サーバ200の制御部210を動作主体として説明する。
CPU11は、上記ユーザ位置に関する判断基準として、所定の距離の代わりに、所定の領域範囲を使ってもよい。図11は、当該領域範囲を説明した図である。
CPU11は、上記ユーザ位置に関する判断基準として、上記領域範囲に加えて、ユーザの視線(ユーザが情報処理端末100のディスプレイを見ているか否か)を使ってもよい。
ここまでは、情報処理端末100のユーザが1人であることを前提に説明したが、情報処理端末100を複数のユーザが操作する場合も考えられる。
次に、本技術の第2実施形態について説明する。本実施形態において上記第1実施形態と同様の機能及び構成を有する箇所について同一の符号を付し、重複する説明は省略又は簡略化する。
・冷蔵庫や棚に代替材料があることがセンシングデータから検出された場合、CPU11は、当該代替食材を提案する(例:大豆→ひよこ豆。)。
・CPU11は、情報処理端末100にインストールされているヘルスケアアプリから運動情報やダイエット情報を取得して、レシピのカロリー情報が所定値を上回っている場合には、警告をディスプレイに表示してもよい。当該警告は警告音または警告メッセージとしてスピーカから出力されてもよい。
・CPU11は、冷蔵庫等の食材の中でレシピの食材から不足している材料を、EC(Electronic Commerce)サイトのカート/ウィッシュリストに追加するか提案してもよい。
・CPU11は、家族ユーザの所在情報を参照して、家族ユーザが外出していることが検出された場合は、そのユーザに食材を買うように、情報処理端末100からそのユーザのスマートフォン等の携帯機器へメッセージを送るか確認してもよい。そしてCPU11は、当該買い物が家族ユーザに許可された場合、そのユーザの推定帰宅時刻に合わせてレシピの順序を変更するようにしてもよい。
本発明は上述の実施形態にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更され得る。
本技術は以下のような構成もとることができる。
(1)
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報に基づいて、複数のユーザインタフェースのうちユーザに提示するユーザインタフェースを決定する制御部
を具備する情報処理装置。
(2)
前記複数のユーザインタフェースは、音声入力用ユーザインタフェースとタッチ入力用ユーザインタフェースを含む、
上記(1)に記載の情報処理装置。
(3)
前記制御部は、
前記ユーザと当該情報処理装置との間の距離が所定距離以内であると判断した場合に、前記提示するユーザインタフェースとして前記タッチ入力用ユーザインタフェースを決定し、
前記距離が前記所定距離より大きいと判断した場合に、前記提示するユーザインタフェースとして前記音声入力用ユーザインタフェースを決定する
上記(2)に記載の情報処理装置。
(4)
前記制御部は、
前記ユーザの視線が当該情報処理装置を向いていると判断した場合に、前記タッチ入力用ユーザインタフェースまたは前記音声入力用ユーザインタフェースに第1の情報量を含ませ、
前記ユーザの視線が当該情報処理装置を向いていないと判断した場合に、前記タッチ入力用ユーザインタフェースまたは前記音声入力用ユーザインタフェースに前記第1の情報量よりも少ない第2の情報量を含ませる
上記(2)または(3)に記載の情報処理装置。
(5)
前記制御部は、当該情報処理装置を含む所定領域内に複数のユーザが存在すると判断した場合、前記複数のユーザのうち当該情報処理装置から最も近いまたは最も遠い位置に存在すると判断されたユーザを基準に前記提示するユーザインタフェースを決定する
上記(1)から(4)までのいずれかに記載の情報処理装置。
(6)
前記制御部は、当該情報処理装置を含む所定領域内に複数のユーザが存在すると判断した場合、前記複数のユーザのうち当該情報処理装置に視線を向けていると判断されたユーザを基準に前記提示するユーザインタフェースを決定する
上記(1)から(4)までのいずれかに記載の情報処理装置。
(7)
前記制御部は、当該情報処理装置の周囲で検出される音のレベルに応じて、前記提示するユーザインタフェースの判断に用いる前記所定距離を変更する
上記(1)から(6)までのいずれかに記載の情報処理装置。
(8)
前記制御部は、前記ユーザが横たわっていることが検出された場合、前記提示するユーザインタフェースとして前記音声入力用ユーザインタフェースを決定する
上記(2)から(8)までのいずれかに記載の情報処理装置。
(9)
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報、または、他の装置から収集されたセンシング情報に基づいて、コンテンツが有する複数の再生ステップの切替を制御するステップ切替情報を生成する制御部
を具備する情報処理装置。
(10)
前記コンテンツは、前記再生ステップと再生時刻とが関連付けられた動画コンテンツであり、
前記制御部は、前記ステップ切替情報及び前記再生時刻に基づいて、前記動画コンテンツの再生を制御する
上記(9)に記載の情報処理装置。
(11)
前記制御部は、音声入力部から入力された音声から所定のワードを認識した場合、または、撮像部から入力された画像から所定のジェスチャを認識した場合に、前記ステップ切替情報を生成する
上記(9)または(10)に記載の情報処理装置。
(12)
前記コンテンツは、調理レシピを前記再生ステップに対応する調理工程毎に説明したレシピコンテンツである、
上記(9)または(11)に記載の情報処理装置。
(13)
前記制御部は、前記センシング情報に基づいてユーザの行動を認識し、現在の再生ステップに対応する工程が終了したと判断した場合に前記ステップ切替情報を生成する
上記(9)から(12)までのいずれかに記載の情報処理装置。
(14)
前記制御部は、前記センシング情報に基づいて、前記調理レシピに含まれる食材の状態を認識し、現在の再生ステップに対応する調理工程が終了したと判断した場合に前記ステップ切替情報を生成する
上記(12)または(13)に記載の情報処理装置。
(15)
前記制御部は、前記レシピコンテンツの各調理工程を解析し、各調理工程の到来時に、当該各調理工程に関連するユーザの調理器具または当該調理器具近傍の装置に、所定のアノテーション情報の出力を指示する指示信号を送信する
上記(12)から(14)までのいずれかに記載の情報処理装置。
(16)
前記制御部は、前記レシピコンテンツの各調理工程を解析し、少なくともいずれかの調理工程の少なくとも一部の実施を指示する指示信号を、当該調理工程で使用されるユーザの調理器具へ送信する
上記(12)から(16)までのいずれかに記載の情報処理装置。
(17)
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報を取得し、
前記ユーザコンテキスト情報に基づいて、複数のユーザインタフェースのうちユーザに提示するユーザインタフェースを決定する
情報処理方法。
(18)
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報、または、他の装置から収集されたセンシング情報を取得し、
前記ユーザコンテキスト情報または前記センシング情報に基づいて、コンテンツが有する複数の再生ステップの切替を制御するステップ切替情報を生成する
情報処理方法。
(19)
情報処理装置に、
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報を取得するステップと、
前記ユーザコンテキスト情報に基づいて、複数のユーザインタフェースのうちユーザに提示するユーザインタフェースを決定するステップと
を実行させるプログラム。
(20)
情報処理装置に、
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報、または、他の装置から収集されたセンシング情報を取得するステップと、
前記ユーザコンテキスト情報または前記センシング情報に基づいて、コンテンツが有する複数の再生ステップの切替を制御するステップ切替情報を生成するステップと
を実行させるプログラム。
Claims (21)
- ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報に基づいて、複数のユーザインタフェースのうちユーザに提示するユーザインタフェースを決定する制御部
を具備する情報処理装置。 - 前記複数のユーザインタフェースは、音声入力用ユーザインタフェースとタッチ入力用ユーザインタフェースを含む、
請求項1に記載の情報処理装置。 - 前記制御部は、
前記ユーザと当該情報処理装置との間の距離が所定距離以内であると判断した場合に、前記提示するユーザインタフェースとして前記タッチ入力用ユーザインタフェースを決定し、
前記距離が前記所定距離より大きいと判断した場合に、前記提示するユーザインタフェースとして前記音声入力用ユーザインタフェースを決定する
請求項2に記載の情報処理装置。 - 前記制御部は、
前記ユーザの視線が当該情報処理装置を向いていると判断した場合に、前記タッチ入力用ユーザインタフェースまたは前記音声入力用ユーザインタフェースに第1の情報量を含ませ、
前記ユーザの視線が当該情報処理装置を向いていないと判断した場合に、前記タッチ入力用ユーザインタフェースまたは前記音声入力用ユーザインタフェースに前記第1の情報量よりも少ない第2の情報量を含ませる
請求項3に記載の情報処理装置。 - 前記制御部は、当該情報処理装置を含む所定領域内に複数のユーザが存在すると判断した場合、前記複数のユーザのうち当該情報処理装置から最も近いまたは最も遠い位置に存在すると判断されたユーザを基準に前記提示するユーザインタフェースを決定する
請求項3に記載の情報処理装置。 - 前記制御部は、当該情報処理装置を含む所定領域内に複数のユーザが存在すると判断した場合、前記複数のユーザのうち当該情報処理装置に視線を向けていると判断されたユーザを基準に前記提示するユーザインタフェースを決定する
請求項3に記載の情報処理装置。 - 前記制御部は、当該情報処理装置の周囲で検出される音のレベルに応じて、前記提示するユーザインタフェースの判断に用いる前記所定距離を変更する
請求項3に記載の情報処理装置。 - 前記制御部は、前記ユーザが横たわっていることが検出された場合、前記提示するユーザインタフェースとして前記音声入力用ユーザインタフェースを決定する
請求項2に記載の情報処理装置。 - ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報、または、他の装置から収集されたセンシング情報に基づいて、コンテンツが有する複数の再生ステップの切替を制御するステップ切替情報を生成する制御部
を具備する情報処理装置。 - 前記コンテンツは、前記再生ステップと再生時刻とが関連付けられた動画コンテンツであり、
前記制御部は、前記ステップ切替情報及び前記再生時刻に基づいて、前記動画コンテンツの再生を制御する
請求項9に記載の情報処理装置。 - 前記制御部は、音声入力部から入力された音声から所定のワードを認識した場合、または、撮像部から入力された画像から所定のジェスチャを認識した場合に、前記ステップ切替情報を生成する
請求項9に記載の情報処理装置。 - 前記コンテンツは、調理レシピを前記再生ステップに対応する調理工程毎に説明したレシピコンテンツである、
請求項9に記載の情報処理装置。 - 前記制御部は、前記センシング情報に基づいてユーザの行動を認識し、現在の再生ステップに対応する調理工程が終了したと判断した場合に前記ステップ切替情報を生成する
請求項12に記載の情報処理装置。 - 前記制御部は、前記センシング情報に基づいて、前記調理レシピに含まれる食材の状態を認識し、現在の再生ステップに対応する調理工程が終了したと判断した場合に前記ステップ切替情報を生成する
請求項12に記載の情報処理装置。 - 前記制御部は、前記レシピコンテンツの各調理工程を解析し、各調理工程の到来時に、当該各調理工程に関連するユーザの調理器具または当該調理器具近傍の装置に、所定のアノテーション情報の出力を指示する指示信号を送信する
請求項12に記載の情報処理装置。 - 前記制御部は、前記レシピコンテンツの各調理工程を解析し、少なくともいずれかの調理工程の少なくとも一部の実施を指示する指示信号を、当該調理工程で使用されるユーザの調理器具へ送信する
請求項12に記載の情報処理装置。 - ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報を取得し、
前記ユーザコンテキスト情報に基づいて、複数のユーザインタフェースのうちユーザに提示するユーザインタフェースを決定する
情報処理方法。 - ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報、または、他の装置から収集されたセンシング情報を取得し、
前記ユーザコンテキスト情報または前記センシング情報に基づいて、コンテンツが有する複数の再生ステップの切替を制御するステップ切替情報を生成する
情報処理方法。 - 情報処理装置に、
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報を取得するステップと、
前記ユーザコンテキスト情報に基づいて、複数のユーザインタフェースのうちユーザに提示するユーザインタフェースを決定するステップと
を実行させるプログラム。 - 情報処理装置に、
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報、または、他の装置から収集されたセンシング情報を取得するステップと、
前記ユーザコンテキスト情報または前記センシング情報に基づいて、コンテンツが有する複数の再生ステップの切替を制御するステップ切替情報を生成するステップと
を実行させるプログラム。 - 音声アシスタント装置のユーザインタフェースを制御する情報処理方法であって、
ユーザ状態、ユーザプロファイルまたはユーザ環境情報を含むユーザコンテキスト情報を取得し、
前記ユーザコンテキスト情報に基づいて、音声入力用ユーザインタフェースとタッチ入力用ユーザインタフェースから、提示するユーザインタフェースを決定し、
前記決定したユーザインタフェースに応じて、表示するコンテンツの情報量を制御する
情報処理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862703145P | 2018-07-25 | 2018-07-25 | |
US62/703,145 | 2018-07-25 | ||
PCT/JP2019/026942 WO2020022039A1 (ja) | 2018-07-25 | 2019-07-08 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020022039A1 true JPWO2020022039A1 (ja) | 2021-08-02 |
JP7444060B2 JP7444060B2 (ja) | 2024-03-06 |
Family
ID=69179545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020532268A Active JP7444060B2 (ja) | 2018-07-25 | 2019-07-08 | 情報処理装置、情報処理方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (2) | US10877781B2 (ja) |
JP (1) | JP7444060B2 (ja) |
CN (1) | CN112424731B (ja) |
WO (1) | WO2020022039A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112019006659T5 (de) * | 2019-01-15 | 2022-03-03 | Sony Group Corporation | Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren |
CN116367047A (zh) * | 2022-12-30 | 2023-06-30 | 瑞声科技(南京)有限公司 | 基于触觉反馈的超低频音效补偿系统及方法、存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002084989A (ja) * | 2000-09-12 | 2002-03-26 | Toshiba Corp | 調理情報提供装置 |
JP2010067104A (ja) * | 2008-09-12 | 2010-03-25 | Olympus Corp | デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体 |
WO2012063560A1 (ja) * | 2010-11-10 | 2012-05-18 | 日本電気株式会社 | 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体 |
US8990274B1 (en) * | 2012-05-10 | 2015-03-24 | Audible, Inc. | Generating a presentation associated with a set of instructions |
JP2016126704A (ja) * | 2015-01-08 | 2016-07-11 | コニカミノルタ株式会社 | 情報処理装置、入力手段選択方法、およびコンピュータプログラム |
JP2016139356A (ja) * | 2015-01-29 | 2016-08-04 | 日本電信電話株式会社 | 調理支援装置、調理支援方法、及び調理支援プログラム |
JP2018049448A (ja) * | 2016-09-21 | 2018-03-29 | 京セラ株式会社 | 電子機器、プログラムおよび制御方法 |
JP2018509014A (ja) * | 2014-12-22 | 2018-03-29 | マイクロソフト テクノロジー ライセンシング,エルエルシー | デバイスにわたる、デジタルパーソナルアシスタントエージェントの調整 |
WO2018066190A1 (ja) * | 2016-10-07 | 2018-04-12 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5263088B2 (ja) * | 2009-08-31 | 2013-08-14 | ソニー株式会社 | 情報処理装置、プログラム、および情報処理システム |
US9104307B2 (en) * | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US20130147793A1 (en) * | 2011-12-09 | 2013-06-13 | Seongyeom JEON | Mobile terminal and controlling method thereof |
US9159116B2 (en) * | 2013-02-13 | 2015-10-13 | Google Inc. | Adaptive screen interfaces based on viewing distance |
US20140359499A1 (en) * | 2013-05-02 | 2014-12-04 | Frank Cho | Systems and methods for dynamic user interface generation and presentation |
KR20150081012A (ko) * | 2014-01-03 | 2015-07-13 | 삼성전자주식회사 | 사용자 단말 장치 및 그 제어 방법 |
CN105980954B (zh) * | 2014-02-10 | 2019-12-13 | 三星电子株式会社 | 用户终端装置及其显示方法 |
KR102119843B1 (ko) * | 2014-02-10 | 2020-06-05 | 삼성전자주식회사 | 사용자 단말 장치 및 이의 디스플레이 방법 |
US20180158288A1 (en) * | 2014-04-10 | 2018-06-07 | Twin Harbor Labs Llc | Methods and apparatus for notifying a user of the operating condition of a household appliance |
US9788039B2 (en) * | 2014-06-23 | 2017-10-10 | Google Inc. | Camera system API for third-party integrations |
KR20160015843A (ko) * | 2014-07-31 | 2016-02-15 | 삼성전자주식회사 | 디스플레이 장치 및 그 디스플레이 장치를 제어하는 방법 |
US20160085430A1 (en) * | 2014-09-24 | 2016-03-24 | Microsoft Corporation | Adapting user interface to interaction criteria and component properties |
CN106796570B (zh) * | 2014-10-27 | 2020-10-09 | 索尼公司 | 信息处理设备、信息处理方法和计算机程序 |
CN105677149B (zh) * | 2015-12-31 | 2020-03-24 | 联想(北京)有限公司 | 电子设备和显示处理方法 |
US20170348854A1 (en) * | 2015-12-16 | 2017-12-07 | Mbl Limited | Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with containers and electronic minimanipulation libraries |
US10866584B2 (en) * | 2016-05-09 | 2020-12-15 | Strong Force Iot Portfolio 2016, Llc | Methods and systems for data processing in an industrial internet of things data collection environment with large data sets |
US20180136979A1 (en) * | 2016-06-06 | 2018-05-17 | Sitting Man, Llc | Offer-based computing enviroments |
KR102626633B1 (ko) * | 2016-11-17 | 2024-01-18 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
US20180176662A1 (en) * | 2016-12-20 | 2018-06-21 | Frymaster L.L.C. | Data communication apparatus for a kitchen appliance |
WO2018119331A1 (en) * | 2016-12-23 | 2018-06-28 | Kirkpatrick Vitaly M | Distributed wireless audio and/or video transmission |
US11297470B2 (en) * | 2017-01-17 | 2022-04-05 | Qualcomm Incorporated | User location aware smart event handling |
-
2019
- 2019-05-17 US US16/415,453 patent/US10877781B2/en active Active
- 2019-07-08 CN CN201980047761.3A patent/CN112424731B/zh active Active
- 2019-07-08 JP JP2020532268A patent/JP7444060B2/ja active Active
- 2019-07-08 WO PCT/JP2019/026942 patent/WO2020022039A1/ja active Application Filing
-
2020
- 2020-11-30 US US17/106,570 patent/US11307877B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002084989A (ja) * | 2000-09-12 | 2002-03-26 | Toshiba Corp | 調理情報提供装置 |
JP2010067104A (ja) * | 2008-09-12 | 2010-03-25 | Olympus Corp | デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体 |
WO2012063560A1 (ja) * | 2010-11-10 | 2012-05-18 | 日本電気株式会社 | 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体 |
US8990274B1 (en) * | 2012-05-10 | 2015-03-24 | Audible, Inc. | Generating a presentation associated with a set of instructions |
JP2018509014A (ja) * | 2014-12-22 | 2018-03-29 | マイクロソフト テクノロジー ライセンシング,エルエルシー | デバイスにわたる、デジタルパーソナルアシスタントエージェントの調整 |
JP2016126704A (ja) * | 2015-01-08 | 2016-07-11 | コニカミノルタ株式会社 | 情報処理装置、入力手段選択方法、およびコンピュータプログラム |
JP2016139356A (ja) * | 2015-01-29 | 2016-08-04 | 日本電信電話株式会社 | 調理支援装置、調理支援方法、及び調理支援プログラム |
JP2018049448A (ja) * | 2016-09-21 | 2018-03-29 | 京セラ株式会社 | 電子機器、プログラムおよび制御方法 |
WO2018066190A1 (ja) * | 2016-10-07 | 2018-04-12 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US10877781B2 (en) | 2020-12-29 |
US20200034162A1 (en) | 2020-01-30 |
WO2020022039A1 (ja) | 2020-01-30 |
US11307877B2 (en) | 2022-04-19 |
CN112424731A (zh) | 2021-02-26 |
CN112424731B (zh) | 2024-04-12 |
US20210081224A1 (en) | 2021-03-18 |
JP7444060B2 (ja) | 2024-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11620103B2 (en) | User interfaces for audio media control | |
US20230403509A1 (en) | User interfaces for managing controllable external devices | |
JP6795061B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR102520097B1 (ko) | 제어가능한 외부 디바이스들을 관리하기 위한 사용자 인터페이스 | |
CN103797440B (zh) | 具有用户反馈的基于姿势的用户界面 | |
JP6044079B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN104104585B (zh) | 用于在群聊中提供私聊的装置和方法 | |
WO2021032092A1 (zh) | 显示设备 | |
US11307877B2 (en) | Information processing apparatus and information processing method | |
CN108476258A (zh) | 用于电子设备控制对象的方法以及电子设备 | |
WO2018150756A1 (ja) | 情報処理装置、情報処理方法及び記憶媒体 | |
WO2019188076A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2019023902A (ja) | プログラムおよび情報処理装置 | |
WO2022164644A1 (en) | Displaying a contextualized widget | |
EP4379643A1 (en) | Information processing device, information processing method, and program | |
US20230394955A1 (en) | User interfaces for managing a time-based event | |
Hopmann | Content and Context-Aware Interfaces for Smarter Media Control | |
WO2014162757A1 (ja) | 情報処理装置、タグ付け方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220520 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240205 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7444060 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |