JP2020064376A - Information processing system and program - Google Patents

Information processing system and program Download PDF

Info

Publication number
JP2020064376A
JP2020064376A JP2018194644A JP2018194644A JP2020064376A JP 2020064376 A JP2020064376 A JP 2020064376A JP 2018194644 A JP2018194644 A JP 2018194644A JP 2018194644 A JP2018194644 A JP 2018194644A JP 2020064376 A JP2020064376 A JP 2020064376A
Authority
JP
Japan
Prior art keywords
action
user
factor
processing system
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018194644A
Other languages
Japanese (ja)
Other versions
JP7182990B2 (en
Inventor
彩乃 山口
Ayano Yamaguchi
彩乃 山口
宮本 登
Noboru Miyamoto
登 宮本
朋佳 大橋
Tomoka Ohashi
朋佳 大橋
遥香 松本
Haruka Matsumoto
遥香 松本
宏樹 杉浦
Hiroki Sugiura
宏樹 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Gas Co Ltd
Original Assignee
Tokyo Gas Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Gas Co Ltd filed Critical Tokyo Gas Co Ltd
Priority to JP2018194644A priority Critical patent/JP7182990B2/en
Publication of JP2020064376A publication Critical patent/JP2020064376A/en
Application granted granted Critical
Publication of JP7182990B2 publication Critical patent/JP7182990B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information processing system and a program that specify, over a wider range, an object in which a user indicates interest.SOLUTION: An information processing system (administrative server 300) includes: motion detection means for detecting a motion showing that a user indicates interest; situation information obtaining means for obtaining surrounding situation information that is information regarding the situation around the user when the motion is detected; and factor detection means for detecting a factor of the motion of the user. The factor detection means detects the factor of the motion of the user on the basis of the surrounding situation information obtained when the motion is detected.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理システムおよびプログラムに関する。   The present invention relates to an information processing system and a program.

特許文献1には、筺体と、スピーカとを備えるコミュニケーションロボットが、特定の音素を含む音を発する動作を実行する処理が開示されている。   Patent Document 1 discloses a process in which a communication robot including a housing and a speaker executes an operation of emitting a sound including a specific phoneme.

WO2016/68262WO2016 / 68262

ユーザが興味を示す対象物の特定にあたっては、対象となる対象物をユーザに提示し、ユーザからの回答を得ることで、ユーザが対象物に対して興味があるか否かの判断を行える。具体的には、たとえば、スマートフォンやタブレット、PC等にて、対象物を提示し、これに対して行われる「いいね」等の操作に基づき、ユーザが対象物に対して興味があるか否かの判断を行える。
ところで、この場合は、ユーザの興味があるか否かの判断の対象となる対象物の範囲が、ユーザに提示される対象物に限られてしまう。
本発明の目的は、ユーザが興味を示す対象物をより広い範囲に亘って特定できるようにすることにある。
In identifying the target object that the user is interested in, it is possible to judge whether the user is interested in the target object by presenting the target object to the user and obtaining an answer from the user. Specifically, for example, whether or not the user is interested in the target object based on an operation such as presenting the target object on a smartphone, a tablet, a PC, etc. and performing a "like" or the like performed on the target object. You can make a decision.
By the way, in this case, the range of the target object for determining whether or not the user is interested is limited to the target object presented to the user.
An object of the present invention is to allow a user to specify an object of interest over a wider range.

本発明が適用される情報処理システムは、ユーザが興味を示したことを示す所作を検出する所作検出手段と、ユーザの前記所作が検出された際の当該ユーザの周辺の状況についての情報である周辺状況情報を取得する状況情報取得手段と、を備える情報処理システムである。
ここで、前記状況情報取得手段により取得された前記周辺状況情報から、前記ユーザの前記所作の要因を検出する要因検出手段を更に備えることを特徴とすることができる。
また、前記要因検出手段は、前記所作が検出された際に前記ユーザの周辺にて起きた事象を、前記所作の要因として検出することを特徴とすることができる。
また、前記要因検出手段は、前記所作が検出された際に前記ユーザの視線の先にて起きた事象を、前記所作の要因として検出することを特徴とすることができる。
また、前記要因検出手段は、前記所作が検出された際に前記ユーザの周囲にてなされていた放送を、前記所作の要因として検出することを特徴とすることができる。
また、前記ユーザの位置情報を取得する位置情報取得手段と、前記状況情報取得手段は、前記周辺状況情報として、前記位置情報により特定される位置の周辺にて実行されるイベントについての情報を取得し、前記要因検出手段は、前記所作が検出された際に前記ユーザの周辺にて実行されているイベントを、前記所作の要因として検出することを特徴とすることができる。
The information processing system to which the present invention is applied is an action detection unit that detects an action indicating that the user has shown an interest, and information about the situation around the user when the action of the user is detected. An information processing system comprising: a situation information acquisition unit that acquires surrounding situation information.
Here, it can be characterized by further comprising factor detection means for detecting a factor of the behavior of the user from the surrounding situation information acquired by the situation information acquisition means.
Further, the factor detection means may detect an event that has occurred in the vicinity of the user when the action is detected, as a factor of the action.
Further, the factor detection means may be characterized by detecting, as a factor of the action, an event that occurred in front of the line of sight of the user when the action was detected.
Further, the factor detecting means may be characterized by detecting, as a factor of the action, a broadcast being performed around the user when the action is detected.
In addition, the position information acquisition unit that acquires the position information of the user and the situation information acquisition unit obtain, as the surrounding situation information, information about an event executed around the position specified by the position information. However, the factor detection means may detect an event executed in the vicinity of the user when the action is detected as a factor of the action.

また、前記要因検出手段は、前記所作が検出された際に前記ユーザの周囲に位置する人物を、前記所作の要因として検出することを特徴とすることができる。
また、前記要因検出手段は、前記所作検出手段が設けられている機器以外にて起きた事象の中から、前記所作の要因を検出することを特徴とすることができる。
また、前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザが特定の方向を予め定められた時間を超えて見る動作を検出することを特徴とすることができる。
また、前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、予め定められた内容の音声を発する動作を検出することを特徴とすることができる。
また、前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザが一方向に向かって移動する動作を検出することを特徴とすることができる。
また、前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザの顔の表情の変化を検出することを特徴とすることができる。
また、前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザが特定の機器に触れる動作を検出することを特徴とすることができる。
また、前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、同意又は反同意の何れかを示す動きを検出することを特徴とすることができる。
Further, the factor detecting means may detect a person located around the user as a factor of the action when the action is detected.
Further, the factor detection means may be characterized by detecting a factor of the action from among events that have occurred in devices other than the device in which the action detection means is provided.
Further, the behavior detecting means may be characterized in that, as the behavior indicating that the user has shown an interest, the behavior detecting means detects a motion in which the user looks at a specific direction for a predetermined time or longer.
Further, the action detection means may be characterized by detecting an action of emitting a voice having a predetermined content as the action indicating that the user has shown an interest.
Further, the behavior detecting means may detect a movement of the user moving in one direction as the behavior indicating that the user has shown an interest.
Further, the behavior detecting means may be characterized by detecting a change in the facial expression of the user as the behavior indicating that the user has shown an interest.
Further, the behavior detecting means may be characterized by detecting a motion of the user touching a specific device as the behavior indicating that the user has shown an interest.
The action detecting means may be characterized by detecting, as the action indicating that the user has shown an interest, a motion indicating either consent or disagreement.

また、本発明をプログラムとして捉えた場合、本発明が適用されるプログラムは、ユーザが興味を示したことを示す所作を検出する所作検出機能と、ユーザの前記所作が検出された際の当該ユーザの周辺の状況についての情報である周辺状況情報を取得する状況情報取得機能と、をコンピュータに実現させるためのプログラムである。   Further, when the present invention is regarded as a program, the program to which the present invention is applied includes an action detection function for detecting an action indicating that the user has shown an interest, and the user when the action of the user is detected. Is a program for causing a computer to realize a situation information acquisition function for obtaining the surrounding situation information which is information about the surrounding situation of the.

本発明によれば、ユーザが興味を示す対象物をより広い範囲に亘って特定できる。   According to the present invention, it is possible to specify an object that the user is interested in over a wider range.

情報処理システムの全体構成を示した図である。It is a figure showing the whole information processing system composition. 室内機器を説明する図である。It is a figure explaining an indoor device. 管理サーバのハードウエアの構成を示した図である。FIG. 3 is a diagram showing a hardware configuration of a management server. 管理サーバのCPU等により実現される機能部を示した図である。It is a figure showing the functional part realized by CPU etc. of a management server. 情報処理システムにて実行される処理の流れの一例を示したフローチャートである。It is the flowchart which showed an example of the flow of the process performed with an information processing system. ユーザの動きを上方から見た場合の図である。It is a figure at the time of seeing a user's motion from the upper part. ユーザの動きを示した図である。It is the figure which showed the user's movement. ユーザの居室の状態を示した図である。It is the figure which showed the state of the user's room.

以下、添付図面を参照して、本発明の実施の形態について説明する。
図1は、情報処理システム1の全体構成を示した図である。
情報処理システム1には、情報処理装置の一例としての管理サーバ300が設けられている。さらに、情報処理システム1には、各家庭や各施設の各々に設置された室内機器200が設けられている。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a diagram showing the overall configuration of the information processing system 1.
The information processing system 1 is provided with a management server 300 as an example of an information processing device. Further, the information processing system 1 is provided with indoor devices 200 installed in each home and each facility.

図2(室内機器200を説明する図)に示すように、本実施形態の室内機器200は、いわゆるロボットを模した機器であり、符号2Aで示すように、人の顔を模した部分を有する。
より具体的には、室内機器200には、液晶ディスプレイなどにより構成された表示装置201が設けられており、本実施形態では、この表示装置201に、人の顔に相当する画像が表示されることで、人の顔を模した部分が表示される。
As shown in FIG. 2 (a diagram illustrating the indoor device 200), the indoor device 200 of the present embodiment is a device simulating a so-called robot, and has a portion simulating a human face, as indicated by reference numeral 2A. .
More specifically, the indoor device 200 is provided with a display device 201 configured by a liquid crystal display or the like, and in this embodiment, an image corresponding to a human face is displayed on the display device 201. As a result, a part that imitates a person's face is displayed.

さらに、本実施形態の室内機器200は、表示装置201を下方から支持する胴体部分202、および、この胴体部分202に取り付けられた腕部分203を有する。
さらに、この腕部分203を動かすためのモータ(不図示)が、胴体部分202の内部に設けられている。また、胴体部分202には、互いに異なる色の光を出射する複数の光源204が設けられている。
Further, the indoor device 200 of the present embodiment has a body portion 202 that supports the display device 201 from below, and an arm portion 203 attached to the body portion 202.
Further, a motor (not shown) for moving the arm portion 203 is provided inside the body portion 202. Further, the body portion 202 is provided with a plurality of light sources 204 that emit light of different colors.

さらに、室内機器200には、上下方向へ移動可能に設けられた頭部208、この頭部208を上方へ付勢するコイルスプリング(不図示)、および、この頭部208が下降したことを検出するセンサ205Sが設けられている。
さらに、室内機器200には、室内機器200が設置された居室内の状況を撮影する撮影手段の一例としてのカメラ205Cが設けられている。また、室内機器200には、この居室内の音を取得する音手段の一例としてのマイク205Mが設けられている。また、室内機器200には、室内機器200の位置情報を取得するGPS(Global Positioning System)(不図示)が設けられている。
室内機器200の各々は、インターネットなどの通信回線400(図1参照)を通じて管理サーバ300に接続される。
Further, in the indoor device 200, a head 208 provided so as to be movable in the vertical direction, a coil spring (not shown) for urging the head 208 upward, and detection of the lowering of the head 208 are detected. The sensor 205S is provided.
Further, the indoor device 200 is provided with a camera 205C as an example of a shooting unit that shoots a situation in a living room in which the indoor device 200 is installed. In addition, the indoor device 200 is provided with a microphone 205M as an example of a sound unit that acquires sound in the living room. In addition, the indoor device 200 is provided with a GPS (Global Positioning System) (not shown) that acquires position information of the indoor device 200.
Each of the indoor devices 200 is connected to the management server 300 via a communication line 400 (see FIG. 1) such as the Internet.

図3は、管理サーバ300のハードウエアの構成を示した図である。
管理サーバ300は、コンピュータ装置により構成され、管理サーバ300には、CPU(Central Processing Unit)301、RAM(Random Access Memory)302、ROM(Read Only Memory)303が設けられている。また、ハードディスク装置などにより構成される記憶装置304が設けられている。さらに、管理サーバ300には、外部との通信を行うための通信インタフェース(通信I/F)305が設けられている。
FIG. 3 is a diagram showing a hardware configuration of the management server 300.
The management server 300 is configured by a computer device, and the management server 300 is provided with a CPU (Central Processing Unit) 301, a RAM (Random Access Memory) 302, and a ROM (Read Only Memory) 303. A storage device 304 including a hard disk device is also provided. Further, the management server 300 is provided with a communication interface (communication I / F) 305 for communicating with the outside.

CPU301によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータが読取可能な記録媒体に記憶した状態で、管理サーバ300へ提供しうる。
また、CPU301によって実行されるプログラムは、インターネットなどの通信手段を用いて管理サーバ300へダウンロードしてもよい。
The program executed by the CPU 301 is stored in a computer-readable recording medium such as a magnetic recording medium (magnetic tape, magnetic disk, etc.), optical recording medium (optical disk, etc.), magneto-optical recording medium, semiconductor memory, etc. It can be provided to the management server 300.
The program executed by the CPU 301 may be downloaded to the management server 300 using a communication means such as the Internet.

図4は、管理サーバ300のCPU301等により実現される機能部を示した図である。
図4に示すように、管理サーバ300は、所作検出部321、状況情報取得部322、要因検出部323、位置情報取得部324を備える。
ここで、所作検出部321、状況情報取得部322、要因検出部323、位置情報取得部324は、管理サーバ300のCPU301が、記憶装置304等に格納されているプログラムを実行することで実現される。
FIG. 4 is a diagram showing functional units realized by the CPU 301 and the like of the management server 300.
As illustrated in FIG. 4, the management server 300 includes an action detection unit 321, a situation information acquisition unit 322, a factor detection unit 323, and a position information acquisition unit 324.
Here, the action detection unit 321, the situation information acquisition unit 322, the factor detection unit 323, and the position information acquisition unit 324 are realized by the CPU 301 of the management server 300 executing a program stored in the storage device 304 or the like. It

所作検出手段の一例としての所作検出部321は、ユーザが対象物に対して興味を示したことを示す所作(動作)を検出する。
より具体的には、所作検出部321は、室内機器200に設けられたカメラ205Cにより得られたユーザの映像や、室内機器200に設けられたマイク205Mにより得られた音(ユーザの音声を含む音)を解析して、ユーザが特定の対象物に対して興味を示したことを示す所作(動作)を検出する。
The action detection unit 321 as an example of the action detection means detects an action (action) indicating that the user has shown an interest in the object.
More specifically, the action detection unit 321 includes an image of the user obtained by the camera 205C provided in the indoor device 200 and a sound (including the user's voice obtained by the microphone 205M provided in the indoor device 200). Sound) is analyzed to detect an action (action) indicating that the user has shown an interest in a specific object.

付言すると、所作検出部321は、室内機器200に設けられたカメラ205Cにより得られた映像や、室内機器200に設けられたマイク205Mにより得られた音などを解析し、ユーザが、予め定められた特定の動作を行ったかを判断する。
そして、所作検出部321は、ユーザがこの特定の動作を行ったと判断した場合、ユーザが上記の所作を行ったと判断する。付言すると、所作検出部321は、ユーザがこの特定の動作を行ったと判断した場合、この特定の動作を、ユーザが興味を示したことを示す所作として検出する。
In addition, the action detection unit 321 analyzes the image obtained by the camera 205C provided in the indoor device 200, the sound obtained by the microphone 205M provided in the indoor device 200, and the like, and is determined by the user in advance. It is determined whether a specific operation is performed.
Then, when the behavior detection unit 321 determines that the user has performed this specific operation, it determines that the user has performed the above behavior. In addition, when the action detection unit 321 determines that the user has performed this specific action, the action detection unit 321 detects this specific action as an action indicating that the user has shown interest.

状況情報取得手段の一例としての状況情報取得部322は、ユーザの上記の所作が検出された際の、このユーザの周辺の状況についての情報である周辺状況情報を取得する。
より具体的には、本実施形態では、状況情報取得部322は、室内機器200に設けられたカメラ205Cにより得られた映像であって、ユーザの上記の所作が検出された際の映像や、室内機器200に設けられたマイク205Mにより得られた音であって、ユーザの上記の所作が検出された際の音を、周辺状況情報として取得する。
The situation information acquisition unit 322 as an example of situation information acquisition means acquires surrounding situation information that is information about the situation around the user when the above-described behavior of the user is detected.
More specifically, in the present embodiment, the status information acquisition unit 322 is an image obtained by the camera 205C provided in the indoor device 200, and is an image when the above-described action of the user is detected, A sound obtained by the microphone 205M provided in the indoor device 200 when the above-described action of the user is detected is acquired as the surrounding situation information.

要因検出手段の一例としての要因検出部323は、状況情報取得部322により取得された周辺状況情報(映像や音)から、ユーザの上記の所作の要因を検出する。付言すると、要因検出部323は、カメラ205Cにより得られた映像や、マイク205Mにより得られた音などを解析して、ユーザの上記の所作の要因を検出する。
位置情報取得手段の一例としての位置情報取得部324は、ユーザの各々の位置情報を取得する。具体的には、位置情報取得部324は、例えば、室内機器200から送信されてくる位置情報(室内機器200に設けられたGPSにより得られた位置情報)を受信して、この室内機器200のカメラ205Cに写るユーザの位置情報を取得する。
The factor detection unit 323, which is an example of a factor detection unit, detects a factor of the above-described action of the user from the surrounding situation information (video and sound) acquired by the situation information acquisition unit 322. In addition, the factor detection unit 323 detects the factor of the above-mentioned action of the user by analyzing the image obtained by the camera 205C and the sound obtained by the microphone 205M.
The position information acquisition unit 324 as an example of the position information acquisition unit acquires position information of each user. Specifically, the position information acquisition unit 324 receives, for example, the position information (position information obtained by the GPS provided in the indoor device 200) transmitted from the indoor device 200, and the position information of the indoor device 200 is received. The position information of the user captured by the camera 205C is acquired.

図5は、本実施形態の情報処理システム1にて実行される処理の流れの一例を示したフローチャートである。
本実施形態では、所作検出部321が、カメラ205Cにより取得された映像やマイク205Mにより得られた音などを解析し、ユーザが予め定められた動作を行ったか否かを判断する(ステップS101)。
付言すると、所作検出部321は、カメラ205Cにより取得される映像やマイク205Mにより取得される音を監視し、ユーザが予め定められた動作を行ったか否かを判断する。
FIG. 5 is a flowchart showing an example of the flow of processing executed in the information processing system 1 of this embodiment.
In the present embodiment, the action detection unit 321 analyzes the image acquired by the camera 205C, the sound acquired by the microphone 205M, and the like, and determines whether the user has performed a predetermined operation (step S101). .
In addition, the behavior detection unit 321 monitors the video captured by the camera 205C and the sound captured by the microphone 205M, and determines whether the user has performed a predetermined operation.

そして、所作検出部321は、ユーザが予め定められた動作を行ったと判断した場合、ユーザが対象物に対して興味を示したことを示す所作(以下、単に「所作」と称する。)を行ったと判断する。付言すると、所作検出部321は、所作を検出する(ステップS102)。
言い換えると、本実施形態では、所作検出部321は、ユーザが予め定められた動作を行った場合に、ユーザが対象物に対して興味を示したことを示す所作を検出する。
When the action detection unit 321 determines that the user has performed a predetermined motion, the action detection unit 321 performs an action (hereinafter, simply referred to as “action”) indicating that the user is interested in the target object. Determine that In addition, the behavior detection unit 321 detects the behavior (step S102).
In other words, in the present embodiment, the behavior detection unit 321 detects a behavior indicating that the user has shown an interest in the object when the user performs a predetermined action.

次いで、本実施形態では、状況情報取得部322が、ユーザの上記所作が検出された際の、このユーザの周辺の状況についての情報である周辺状況情報を取得する(ステップS103)。
具体的には、状況情報取得部322は、カメラ205Cにより得られた映像であって、ユーザの上記の所作が検出された際にこのカメラ205Cにより得られた映像を、周辺状況情報として取得する。
また、状況情報取得部322は、マイク205Mにより得られた音であって、ユーザの上記の所作が検出された際にこのマイク205Mにより得られた音を、周辺状況情報として取得する。
Next, in the present embodiment, the situation information acquisition unit 322 acquires the surrounding situation information that is information about the situation around the user when the above-mentioned behavior of the user is detected (step S103).
Specifically, the situation information acquisition unit 322 acquires, as the surrounding situation information, the image obtained by the camera 205C, which is obtained by the camera 205C when the above-described action of the user is detected. .
In addition, the situation information acquisition unit 322 acquires, as the surrounding situation information, the sound obtained by the microphone 205M, which is obtained by the microphone 205M when the above-described action of the user is detected.

より具体的には、状況情報取得部322は、例えば、ユーザの上記の所作が検出されたタイミングから過去に予め定められた時間だけ遡ったときを始まりとして、この所作が検出されてから予め定められた時間が経過するまでの間における、映像(カメラ205Cにより得られた映像)や音(マイク205Mにより得られた音)を取得する。   More specifically, the situation information acquisition unit 322 determines, for example, when the behavior of the user is detected, and when the behavior is detected, the time is traced back a predetermined time in the past. The image (the image obtained by the camera 205C) and the sound (the sound obtained by the microphone 205M) are acquired until the predetermined time elapses.

その後、本実施形態では、要因検出部323が、状況情報取得部322により取得された周辺状況情報から、ユーザの所作の要因を検出する(ステップS104)。
より具体的には、要因検出部323は、状況情報取得部322により取得された上記の映像や音から、ユーザの所作の要因を検出する。
これにより、本実施形態では、ユーザが興味を持った対象物を特定できるようになる。
Then, in the present embodiment, the factor detection unit 323 detects the factor of the user's behavior from the surrounding situation information acquired by the situation information acquisition unit 322 (step S104).
More specifically, the factor detection unit 323 detects the factor of the user's behavior from the above-mentioned video and sound acquired by the situation information acquisition unit 322.
As a result, in the present embodiment, the target object that the user is interested in can be specified.

ここで、ユーザが興味を示す対象物の特定にあたっては、例えば、対象となる対象物の各々をユーザに提示し、ユーザからの回答を得ることで、提示された対象物に対してユーザの興味があるか否かの判断を行える。
具体的には、たとえば、スマートフォンやタブレット、PC等にて、対象物を提示し、これに対して行われる「いいね」等の操作に基づき、ユーザが対象物に対して興味があるか否かの判断を行える。
Here, when the target object in which the user is interested is specified, for example, each target object is presented to the user, and the user's interest in the presented target object is obtained by obtaining a response from the user. It is possible to judge whether or not there is.
Specifically, for example, whether or not the user is interested in the target object based on an operation such as presenting the target object on a smartphone, a tablet, a PC, etc. and performing a "like" or the like on the target object. You can make a decision.

ところで、この場合は、ユーザが興味を抱いているか否かの判断の対象となる対象物の範囲が、ユーザに提示される対象物に限られてしまう。
これに対し、本実施形態では、所作がユーザにより行われた際に(所作が検出された際に)、ユーザの周囲にて起きた事象の全てが、ユーザが興味を示した対象物の候補となる。
この場合、対象物をユーザに提示して、ユーザが興味を抱いている対象物を特定する場合に比べ、ユーザが興味を示す対象物をより広い範囲に亘って特定できるようになる。
By the way, in this case, the range of the target object for determining whether or not the user is interested is limited to the target object presented to the user.
On the other hand, in the present embodiment, when the action is performed by the user (when the action is detected), all of the events that occur around the user are candidates for the target object to which the user is interested. Becomes
In this case, compared to the case where the target object is presented to the user and the target object in which the user is interested, the target object in which the user is interested can be specified over a wider range.

ここで、本実施形態では、上記のとおり、所作検出部321が、ユーザが対象物に対して興味を示したことを示す所作を検出する。より具体的には、所作検出部321は、予め定められたユーザの動作を検出して、この所作を検出する。
ここで、所作検出部321は、ユーザが興味を示したことを示す上記の所作として、例えば、ユーザが特定の方向を予め定められた時間(例えば、3秒)を超えて見る動作を検出する。
Here, in the present embodiment, as described above, the behavior detection unit 321 detects a behavior indicating that the user has shown an interest in the target object. More specifically, the action detection unit 321 detects a predetermined user action to detect this action.
Here, the action detection unit 321 detects, as the action indicating that the user has shown an interest, for example, an action in which the user looks in a specific direction for a predetermined time (for example, 3 seconds). .

より具体的には、所作検出部321は、カメラ205Cにより得られた映像を解析し、この映像に含まれるユーザが、特定の方向を予め定められた時間を超えて見る動作を検出する。
ユーザが対象物に対して興味を抱いている場合、ユーザがこの対象物を凝視することも多く、ユーザが特定の方向を予め定められた時間を超えて見る動作を行った場合、ユーザが特定の対象物に対して興味を抱いていることが想定される。
More specifically, the action detection unit 321 analyzes the image obtained by the camera 205C, and detects the action of the user included in the image looking at a specific direction for a predetermined time or longer.
When the user is interested in the target object, the user often gazes at the target object, and when the user performs an operation of looking in a specific direction for a predetermined time, the user specifies It is assumed that they have an interest in the object.

なお、ユーザの他の動作を、上記の所作として検出してもよい。
例えば、所作検出部321は、ユーザが興味を示したことを示す所作として、予め定められた内容の音声を発するユーザの動作を検出してもよい。
具体的には、所作検出部321は、「すごい」、「面白い」、「つまらない」などの音声を発するユーザの動作を、上記の所作として検出してもよい。
Note that other actions of the user may be detected as the above-mentioned action.
For example, the action detection unit 321 may detect the action of the user who emits a voice having a predetermined content as the action indicating that the user has shown an interest.
Specifically, the action detection unit 321 may detect the action of the user who emits a sound such as “awesome”, “interesting”, or “boring” as the action.

より具体的には、所作検出部321は、マイク205Mにて得られた音を解析することで、「すごい」、「面白い」、「つまらない」などの音声を発するユーザの動作を検出し、この動作を上記の所作として検出する。
ここで、ユーザがテレビなどを視聴している際に、「すごい」、「面白い」、「つまらない」などの音声をユーザが発することがあり、このような音声が発せられた場合、ユーザが、テレビ等にて放映されている放映内容に、興味を抱いていることが想定できる。
More specifically, the action detection unit 321 analyzes the sound obtained by the microphone 205M to detect the action of the user who emits a sound such as "great", "interesting", or "boring". The motion is detected as the above action.
Here, when the user is watching TV, etc., the user may make a sound such as “great”, “interesting”, or “boring”. If such a sound is made, the user It can be assumed that you are interested in the broadcast contents that are being broadcast on TV and the like.

また、その他に、所作検出部321は、ユーザが興味を示したことを示す所作として、ユーザが一方向に向かって移動する動作を検出してもよい。
より具体的には、所作検出部321は、カメラ205Cにより得られた映像に含まれるユーザが、一方向に向かって移動している場合に、この移動する動作を検出し、この動作を、所作として検出してもよい。
In addition, the action detection unit 321 may detect a motion of the user moving in one direction as an action indicating that the user has shown an interest.
More specifically, the action detection unit 321 detects this moving action when the user included in the image obtained by the camera 205C is moving in one direction, and detects this action. May be detected as

ユーザが何かしらの対象物に興味を抱いた場合、例えば、図6(ユーザの動きを上方から見た場合の図)に示すように、ユーザが、対象物に向かって(一方向に向かって)移動することが想定される。
この場合、ユーザのこの動きを検出すれば、ユーザが、特定の対象物に興味を抱いていることを実質的に検出できるようになる。
When the user is interested in some object, for example, as shown in FIG. 6 (a diagram when the user's movement is viewed from above), the user faces the object (in one direction). It is supposed to move.
In this case, by detecting this movement of the user, it becomes possible to substantially detect that the user is interested in a specific object.

また、その他に、所作検出部321は、ユーザが興味を示したことを示す所作として、ユーザの顔の表情の変化を検出してもよい。
より具体的には、所作検出部321は、ユーザの顔の表情の変化として、例えば、顔が、無表情の状態から、笑った顔や怒った顔になったことを検出する。
ユーザが何かしらの対象物に興味を抱いた場合、ユーザの顔の表情が変化することが想定される。この場合、ユーザの顔の変化を検出するようにすれば、ユーザが、特定の対象物に興味を抱いたことを実質的に検出できるようになる。
In addition, the action detection unit 321 may detect a change in the facial expression of the user as an action indicating that the user has shown an interest.
More specifically, the action detection unit 321 detects, as the change in the facial expression of the user's face, for example, that the face becomes a laughing face or an angry face from a state of no expression.
When the user becomes interested in some object, it is assumed that the facial expression of the user changes. In this case, if the change of the user's face is detected, it becomes possible to substantially detect that the user has an interest in a specific target object.

また、その他に、所作検出部321は、ユーザが興味を示したことを示す所作として、ユーザが室内機器200に触れる動作を検出してもよい。より具体的には、所作検出部321は、例えば、ユーザが、室内機器200の頭部208(図2参照)を撫でる動作を検出してもよい。   In addition, the action detection unit 321 may detect the action of the user touching the indoor device 200 as an action indicating that the user has shown an interest. More specifically, the action detection unit 321 may detect, for example, a motion of the user stroking the head 208 (see FIG. 2) of the indoor device 200.

例えば、「興味を抱く対象物がある場合には、室内機器200の頭部208を撫でてください」を旨とするメッセージをユーザに予め通知している場合において、ユーザが、室内機器200の頭部208を撫でた場合、このユーザは、特定の対象物に興味を抱いていることになる。
この場合、ユーザが室内機器200の頭部208を撫でた(触った)ことを検出するようにすれば、ユーザが特定の対象物に興味を抱いたことを検出できるようになる。
For example, in the case where the user has previously been notified with a message to the effect that “Please stroke the head 208 of the indoor device 200 if there is an object of interest”, the user may not be able to touch the head of the indoor device 200. When stroking the part 208, this user is interested in a specific object.
In this case, if it is detected that the user has stroked (touched) the head 208 of the indoor device 200, it is possible to detect that the user has an interest in a specific object.

なお、ユーザが室内機器200の頭部208を撫でたか否かは、室内機器200に設けられたセンサ205Sからの出力に基づき判断できる。
本実施形態では、頭部208が下降すると、センサ205Sがこの頭部208を検出するようになっており、センサ205Sが頭部208を検出した場合には、ユーザが頭部208を撫でたことになる。
Whether or not the user has stroked the head 208 of the indoor device 200 can be determined based on the output from the sensor 205S provided in the indoor device 200.
In the present embodiment, the sensor 205S detects the head 208 when the head 208 descends, and when the sensor 205S detects the head 208, the user has stroked the head 208. become.

また、所作検出部321は、ユーザが興味を示したことを示す所作として、同意又は反同意の何れかを示すユーザの動きを検出してもよい。
より具体的には、この場合、所作検出部321は、ユーザが興味を示したことを示す所作として、図7(ユーザの動きを示した図)の矢印7Aで示すような、ユーザが頭部208を縦に動かす動作(うなずく動作)、又は、矢印7Bで示すような、ユーザが頭部208を横に動かす動作(否定することを示す動作)の何れかを検出する。
Further, the behavior detection unit 321 may detect the movement of the user indicating either agreement or disagreement as the behavior indicating that the user has shown interest.
More specifically, in this case, the action detection unit 321 indicates that the user's head is the action indicating that the user has shown an interest, as shown by an arrow 7A in FIG. 7 (a diagram showing the movement of the user). Either an operation of vertically moving 208 (nod operation) or an operation of the user horizontally moving head 208 as shown by arrow 7B (an operation indicating negative) is detected.

ユーザが何かしらの対象物に興味を抱いた場合、ユーザは、うなずいたり、頭を横に振ったりすることがある。
ユーザの、このうなずきや、頭を横に振る動きを検出すれば、ユーザが、特定の対象物に対して興味を抱いていることを実質的に検出できるようになる。
なお、ユーザのうなずきや、頭を横に振る動作は、カメラ205Cにより取得された映像を解析することで検出できる。
When the user becomes interested in some object, the user may nod or shake his head.
By detecting the nod of the user and the motion of shaking the head sideways, it becomes possible to substantially detect that the user is interested in a specific object.
It should be noted that the nod of the user and the action of shaking the head sideways can be detected by analyzing the image acquired by the camera 205C.

次に、要因検出部323による、所作の要因の検出処理について説明する。
要因検出部323は、所作検出部321によって所作(予め定められ動作)が検出された場合、この所作の要因の検出処理を行う。
具体的には、要因検出部323は、例えば、所作検出部321により所作が検出された際にこのユーザの周辺にて起きた事象を、所作の要因として検出する。
例えば、要因検出部323は、所作検出部321により所作が検出された際に、テレビに映っている映像が変化した場合には(カメラ205Cにより得られた映像に映っているテレビにおける放送内容が変化した場合には)、この映像の変化や、変化後の映像を、所作の要因として検出する。
Next, the process of detecting the cause of the action by the factor detection unit 323 will be described.
When the action detection unit 321 detects an action (predetermined action), the factor detection unit 323 performs a process of detecting a factor of this action.
Specifically, the factor detection unit 323 detects, as a factor of the action, an event that has occurred around the user when the action detection unit 321 detects the action, for example.
For example, when the action detection unit 321 detects an action, the factor detection unit 323 changes the video image displayed on the television (when the broadcast content on the television image displayed on the image obtained by the camera 205C is displayed on the television). If it changes), the change of this image and the changed image are detected as the cause of the action.

また、その他に、要因検出部323は、例えば、ユーザの視線の先にて起きた事象を、所作の要因として検出してもよい。
具体的には、要因検出部323は、例えば、所作検出部321により所作が検出された際に、図8(ユーザの居室の状態を示した図)に示すように、ユーザの視線の先にテレビがあった場合、このテレビ自体や、このテレビにて放送されている放送内容を、所作の要因として検出する。
また、要因検出部323は、例えば、所作検出部321により所作が検出された際に、ユーザの視線の先に、人や犬などの動物がいた場合、この人や動物を、所作の要因として検出する。
In addition to this, the factor detection unit 323 may detect, for example, an event that occurs before the user's line of sight as a factor of the action.
Specifically, for example, when the action detection unit 321 detects an action, the factor detection unit 323, as shown in FIG. 8 (a diagram showing the state of the user's room), looks ahead of the user's line of sight. If there is a television, the television itself and the broadcast contents being broadcast on this television are detected as the cause of the operation.
In addition, for example, when an action is detected by the action detection unit 321, if an animal such as a person or a dog is ahead of the user's line of sight, the factor detection unit 323 sets the person or the animal as the cause of the action. To detect.

このように、ユーザの視線の先にて起きた事象を、所作の要因として検出する場合は、所作の要因を絞り込める。
上記のように、ユーザの周辺にて起きた事象を、所作の要因として検出する場合、ユーザの周囲にて起きた全ての事象が、ユーザの所作の要因の候補となり、この所作の要因を絞り込みにくくなる。
これに対し、ユーザの視線の先にて起きた事象を、所作の要因として検出する場合、所作の要因の候補が減り、所作の要因を絞り込める。
In this way, when an event that occurs in front of the user's line of sight is detected as a cause of the action, the cause of the action can be narrowed down.
As described above, when detecting an event that occurs in the vicinity of the user as a cause of the action, all the events that occur in the vicinity of the user become candidates for the cause of the action of the user and narrow down the cause of the action. It gets harder.
On the other hand, when an event that occurs in front of the user's line of sight is detected as a cause of the action, the number of candidates for the action factor decreases, and the cause of the action can be narrowed down.

また、その他に、要因検出部323は、例えば、所作が検出された際にユーザの周囲にてなされていた放送を、所作の要因として検出してもよい。
例えば、要因検出部323は、所作が検出された際にテレビがオンされ、番組が放送されている場合(カメラ205Cにより得られた映像に、オンされたテレビが映り番組が放送されている場合)、この放送(番組)を所作の要因として検出してもよい。
Further, in addition, the factor detection unit 323 may detect, for example, a broadcast being performed around the user when the action is detected as the factor of the action.
For example, when the action is detected, the factor detection unit 323 turns on the TV and broadcasts the program (when the turned-on TV appears in the image obtained by the camera 205C and the program is broadcast). ), This broadcast (program) may be detected as a factor of the action.

また、要因検出部323は、テレビに限らず、ラジオがついている場合には、このラジオによる放送(番組)を所作の要因として検出してもよい。
さらに、この場合、要因検出部323は、これらの放送についての情報(番組名や放送内容についての情報)を、インターネットなどを通じて、取得してもよい。
Further, the factor detection unit 323 may detect a broadcast (program) by this radio as a factor of the action when the radio is on, not limited to the television.
Further, in this case, the factor detection unit 323 may acquire information about these broadcasts (information about program names and broadcast contents) via the Internet or the like.

また、その他に、要因検出部323は、例えば、所作が検出された際にユーザの周辺にて実行されているイベントを、所作の要因として検出してもよい。
ここで、この検出処理を行う場合は、まず、状況情報取得部322が、周辺状況情報として、ユーザの周辺にて実行されるイベントについての情報を取得する。
Further, in addition, the factor detection unit 323 may detect, for example, an event executed in the vicinity of the user when the action is detected as the factor of the action.
Here, in the case of performing this detection processing, first, the situation information acquisition unit 322 acquires, as the surrounding situation information, information about an event executed in the vicinity of the user.

より具体的には、本実施形態では、上記のとおり、位置情報取得部324により、ユーザの位置情報(室内機器200の位置情報)が取得されるが、状況情報取得部322は、この位置情報により特定される位置の周辺にて実行されるイベントについての情報を、インターネットなどを通じて取得する。
付言すると、状況情報取得部322は、所作を行ったユーザの位置情報により特定される位置の周辺にて実行されるイベントについての情報を、インターネットなどを通じて取得する。
More specifically, in the present embodiment, as described above, the position information acquisition unit 324 acquires the position information of the user (position information of the indoor device 200), but the situation information acquisition unit 322 uses the position information. The information about the event executed around the position specified by is acquired through the Internet or the like.
In addition, the situation information acquisition unit 322 acquires, through the Internet or the like, information about events executed around the position specified by the position information of the user who performed the operation.

そして、要因検出部323は、取得されたこのイベントについての情報により特定されるイベントを、所作の要因として検出する。
この場合、所作が検出された際にユーザの周辺にて実行されている、花火大会などのイベントが、所作の要因として検出されることになる。
ここで、例えば、ユーザの自宅の窓の外で花火大会などがあることも想定され、本実施形態では、この花火大会なども所作の要因として検出できるようになる。付言すると、室内機器200のカメラ205Cに写らない事象についても、所作の要因として検出できるようになる。
Then, the factor detection unit 323 detects an event specified by the acquired information about this event as a factor of the operation.
In this case, an event such as a fireworks display, which is executed in the vicinity of the user when the action is detected, is detected as the factor of the action.
Here, for example, it is assumed that there is a fireworks display outside the window of the user's home, and in the present embodiment, this fireworks display can be detected as a factor of the operation. In addition, it is possible to detect an event that is not captured by the camera 205C of the indoor device 200 as a factor of the operation.

また、その他に、要因検出部323は、ユーザの所作が検出された際にこのユーザの周囲に位置する人物を、所作の要因として検出してもよい。
より具体的には、要因検出部323は、カメラ205Cにより得られた映像を解析した結果、例えば、ユーザの所作が検出された際に、このユーザと同じ部屋に、ユーザ以外の人物がいる場合、この人物を所作の要因として検出してもよい。
In addition, the factor detection unit 323 may detect a person located around the user when the action of the user is detected as the factor of the action.
More specifically, when the factor detection unit 323 analyzes the image obtained by the camera 205C, for example, when a user's behavior is detected, when a person other than the user exists in the same room as this user. , This person may be detected as a factor of the action.

さらに、本実施形態では、要因検出部323は、所作検出部321が設けられている機器以外にて起きた事象の中から、所作の要因を検出する構成となっている。
具体的には、本実施形態では、所作検出部321が管理サーバ300に設けられているが、要因検出部323は、この管理サーバ300以外にて起きた事象の中から、所作の要因を検出するようになっている。
Furthermore, in the present embodiment, the factor detection unit 323 is configured to detect the factor of the action from among events that have occurred in devices other than the device in which the action detection unit 321 is provided.
Specifically, in the present embodiment, the action detection unit 321 is provided in the management server 300, but the factor detection unit 323 detects the cause of the action from the events that have occurred other than this management server 300. It is supposed to do.

ここで、比較例として、タブレット端末に設けられたタッチパネルに対するユーザの選択操作を、上記の所作として捉え、この所作があった場合には、この選択操作により選択された対象物(タブレット端末の表示画面に表示されている表示物)を所作の要因として捉える態様も考えられる。   Here, as a comparative example, the user's selection operation on the touch panel provided on the tablet terminal is regarded as the above-mentioned operation, and if there is this operation, the object selected by this selection operation (display of the tablet terminal). A mode in which the display object displayed on the screen) is considered as a factor of the operation is also considered.

この場合、タッチパネル等が所作検出部321となり、要因検出部323は、この所作検出部321が設けられているタブレット端末にて起きた事象の中から、所作の要因を検出することになる。
具体的には、この場合、要因検出部323は、タブレット端末に表示された表示物(ユーザによる選択操作があった表示物)を、所作の要因として検出することになる。
In this case, the touch panel or the like serves as the action detection unit 321, and the factor detection unit 323 detects the factor of the action from the events that have occurred in the tablet terminal in which the action detection unit 321 is provided.
Specifically, in this case, the factor detection unit 323 detects the display object displayed on the tablet terminal (the display object selected by the user) as the cause of the operation.

ところで、この場合は、検出される、所作の要因が、タブレット端末に表示された表示物のみに限られることになる。付言すると、検出される、所作の要因が、タブレット端末にて起きた事象のみに限られることになる。
これに対し、本実施形態のように、所作検出部321が設けられている機器以外にて起きた事象の中から、所作の要因を検出する構成であると、より広い候補の中から、所作の要因を検出できるようになる。
By the way, in this case, the cause of the detected action is limited to only the display object displayed on the tablet terminal. In addition, the factor of the detected action is limited to the event that occurred in the tablet terminal.
On the other hand, as in the present embodiment, if the configuration is such that the cause of the action is detected from the events that occurred in devices other than the device in which the action detection unit 321 is provided, the action is selected from a wider range of candidates. The factor of can be detected.

1…情報処理システム、200…室内機器、300…管理サーバ、321…所作検出部、322…状況情報取得部、323…要因検出部、324…位置情報取得部 DESCRIPTION OF SYMBOLS 1 ... Information processing system, 200 ... Indoor equipment, 300 ... Management server, 321 ... Action detection part, 322 ... Situation information acquisition part, 323 ... Factor detection part, 324 ... Position information acquisition part

Claims (15)

ユーザが興味を示したことを示す所作を検出する所作検出手段と、
ユーザの前記所作が検出された際の当該ユーザの周辺の状況についての情報である周辺状況情報を取得する状況情報取得手段と、
を備える情報処理システム。
An action detection means for detecting an action indicating that the user has shown an interest,
Status information acquisition means for acquiring surrounding status information which is information about the surroundings of the user when the behavior of the user is detected,
An information processing system including.
前記状況情報取得手段により取得された前記周辺状況情報から、前記ユーザの前記所作の要因を検出する要因検出手段を更に備える請求項1に記載の情報処理システム。   The information processing system according to claim 1, further comprising a factor detection unit that detects a factor of the action of the user from the peripheral situation information acquired by the condition information acquisition unit. 前記要因検出手段は、前記所作が検出された際に前記ユーザの周辺にて起きた事象を、前記所作の要因として検出する請求項2に記載の情報処理システム。   The information processing system according to claim 2, wherein the factor detection unit detects an event that occurred around the user when the action was detected, as a factor of the action. 前記要因検出手段は、前記所作が検出された際に前記ユーザの視線の先にて起きた事象を、前記所作の要因として検出する請求項2に記載の情報処理システム。   The information processing system according to claim 2, wherein the factor detection unit detects, as a factor of the action, an event that occurs in front of the line of sight of the user when the action is detected. 前記要因検出手段は、前記所作が検出された際に前記ユーザの周囲にてなされていた放送を、前記所作の要因として検出する請求項2に記載の情報処理システム。   The information processing system according to claim 2, wherein the factor detection unit detects, as a factor of the action, a broadcast being performed around the user when the action is detected. 前記ユーザの位置情報を取得する位置情報取得手段と、
前記状況情報取得手段は、前記周辺状況情報として、前記位置情報により特定される位置の周辺にて実行されるイベントについての情報を取得し、
前記要因検出手段は、前記所作が検出された際に前記ユーザの周辺にて実行されているイベントを、前記所作の要因として検出する請求項2に記載の情報処理システム。
Position information acquisition means for acquiring the position information of the user,
The status information acquisition unit acquires, as the peripheral status information, information about an event executed in the vicinity of the position specified by the position information,
The information processing system according to claim 2, wherein the factor detection unit detects, as a factor of the action, an event executed in the vicinity of the user when the action is detected.
前記要因検出手段は、前記所作が検出された際に前記ユーザの周囲に位置する人物を、前記所作の要因として検出する請求項2に記載の情報処理システム。   The information processing system according to claim 2, wherein the factor detection unit detects a person located around the user as a factor of the action when the action is detected. 前記要因検出手段は、前記所作検出手段が設けられている機器以外にて起きた事象の中から、前記所作の要因を検出する請求項2に記載の情報処理システム。   The information processing system according to claim 2, wherein the factor detection unit detects the factor of the action from among events that have occurred in devices other than the device in which the action detection unit is provided. 前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザが特定の方向を予め定められた時間を超えて見る動作を検出する請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the action detecting means detects, as the action indicating that the user has shown an interest, an action in which the user looks in a specific direction for a predetermined time or longer. 前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、予め定められた内容の音声を発する動作を検出する請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the action detecting means detects an action of emitting a voice having a predetermined content as the action indicating that the user has shown an interest. 前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザが一方向に向かって移動する動作を検出する請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the action detecting means detects an action of the user moving in one direction as the action indicating that the user has shown an interest. 前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザの顔の表情の変化を検出する請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the action detecting means detects a change in facial expression of the user as the action indicating that the user has shown an interest. 前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、ユーザが特定の機器に触れる動作を検出する請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the action detection means detects an action in which the user touches a specific device as the action indicating that the user has shown an interest. 前記所作検出手段は、ユーザが興味を示したことを示す前記所作として、同意又は反同意の何れかを示す動きを検出する請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the action detecting means detects a motion indicating either consent or disagreement as the action indicating that the user has shown an interest. ユーザが興味を示したことを示す所作を検出する所作検出機能と、
ユーザの前記所作が検出された際の当該ユーザの周辺の状況についての情報である周辺状況情報を取得する状況情報取得機能と、
をコンピュータに実現させるためのプログラム。
An action detection function that detects an action indicating that the user has shown an interest,
A situation information acquisition function that obtains surrounding situation information that is information about the situation around the user when the user's behavior is detected,
A program that makes a computer realize.
JP2018194644A 2018-10-15 2018-10-15 Information processing system and program Active JP7182990B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018194644A JP7182990B2 (en) 2018-10-15 2018-10-15 Information processing system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018194644A JP7182990B2 (en) 2018-10-15 2018-10-15 Information processing system and program

Publications (2)

Publication Number Publication Date
JP2020064376A true JP2020064376A (en) 2020-04-23
JP7182990B2 JP7182990B2 (en) 2022-12-05

Family

ID=70388321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018194644A Active JP7182990B2 (en) 2018-10-15 2018-10-15 Information processing system and program

Country Status (1)

Country Link
JP (1) JP7182990B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022254693A1 (en) * 2021-06-04 2022-12-08 日産自動車株式会社 Operation detection device and operation detection method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11265398A (en) * 1998-03-18 1999-09-28 Fujitsu Ltd Information providing system and recording medium recording control program for the system
JP2001292478A (en) * 2000-04-06 2001-10-19 Daihatsu Motor Co Ltd Information edit device and information terminal communicating with information management unit managing the information edit device
JP2004280673A (en) * 2003-03-18 2004-10-07 Takenaka Komuten Co Ltd Information providing device
JP2007088803A (en) * 2005-09-22 2007-04-05 Hitachi Ltd Information processor
JP2009061547A (en) * 2007-09-06 2009-03-26 Olympus Corp Robot control system, robot, program, and information storage medium
JP2010130448A (en) * 2008-11-28 2010-06-10 Ntt Docomo Inc Event detection server and event detection method
JP2015066625A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Attention object estimation system, robot, and control program
US20150179141A1 (en) * 2013-12-23 2015-06-25 Motorola Mobility Llc Portable Electronic Device Controlling Diffuse Light Source to Emit Light Approximating Color of Object of User Interest
JP2015135674A (en) * 2014-01-03 2015-07-27 ハーマン インターナショナル インダストリーズ インコーポレイテッド User-directed personal information assistant
JP6298563B1 (en) * 2017-06-30 2018-03-20 株式会社コロプラ Program and method for providing virtual space by head mounted device, and information processing apparatus for executing the program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11265398A (en) * 1998-03-18 1999-09-28 Fujitsu Ltd Information providing system and recording medium recording control program for the system
JP2001292478A (en) * 2000-04-06 2001-10-19 Daihatsu Motor Co Ltd Information edit device and information terminal communicating with information management unit managing the information edit device
JP2004280673A (en) * 2003-03-18 2004-10-07 Takenaka Komuten Co Ltd Information providing device
JP2007088803A (en) * 2005-09-22 2007-04-05 Hitachi Ltd Information processor
JP2009061547A (en) * 2007-09-06 2009-03-26 Olympus Corp Robot control system, robot, program, and information storage medium
JP2010130448A (en) * 2008-11-28 2010-06-10 Ntt Docomo Inc Event detection server and event detection method
JP2015066625A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Attention object estimation system, robot, and control program
US20150179141A1 (en) * 2013-12-23 2015-06-25 Motorola Mobility Llc Portable Electronic Device Controlling Diffuse Light Source to Emit Light Approximating Color of Object of User Interest
JP2015135674A (en) * 2014-01-03 2015-07-27 ハーマン インターナショナル インダストリーズ インコーポレイテッド User-directed personal information assistant
JP6298563B1 (en) * 2017-06-30 2018-03-20 株式会社コロプラ Program and method for providing virtual space by head mounted device, and information processing apparatus for executing the program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022254693A1 (en) * 2021-06-04 2022-12-08 日産自動車株式会社 Operation detection device and operation detection method

Also Published As

Publication number Publication date
JP7182990B2 (en) 2022-12-05

Similar Documents

Publication Publication Date Title
US9363361B2 (en) Conduct and context relationships in mobile devices
US9024844B2 (en) Recognition of image on external display
US9661214B2 (en) Depth determination using camera focus
EP3075142A1 (en) Shift camera focus based on speaker position
CN105009031A (en) Context-aware augmented reality object commands
CN103620620A (en) Using spatial information in device interaction
US10127002B2 (en) Method for real-time multimedia interface management
US11836764B2 (en) Media collection navigation with opt-out interstitial
US20180025050A1 (en) Methods and systems to detect disengagement of user from an ongoing
CN107409131B (en) Techniques for seamless data streaming experience
US11182600B2 (en) Automatic selection of event video content
US10997400B2 (en) Interest maintaining system and server
KR20140052263A (en) Contents service system, method and apparatus for service contents in the system
CN112822529A (en) Electronic device and control method thereof
US9400575B1 (en) Finger detection for element selection
US10425769B2 (en) Media navigation recommendations
US20150325210A1 (en) Method for real-time multimedia interface management
JP2020064376A (en) Information processing system and program
US20190033603A1 (en) Lighting stand type multimedia device
CN113591515B (en) Concentration degree processing method, device and storage medium
CN112333518A (en) Function configuration method and device for video and electronic equipment
US11375275B2 (en) Method and system for using lip sequences to control operations of a device
CN111919250B (en) Intelligent assistant device for conveying non-language prompt
US20150295783A1 (en) Method for real-time multimedia interface management sensor data
US11928379B2 (en) Information orientation and display in extended reality environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221122

R150 Certificate of patent or registration of utility model

Ref document number: 7182990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150