JP6405826B2 - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP6405826B2 JP6405826B2 JP2014190812A JP2014190812A JP6405826B2 JP 6405826 B2 JP6405826 B2 JP 6405826B2 JP 2014190812 A JP2014190812 A JP 2014190812A JP 2014190812 A JP2014190812 A JP 2014190812A JP 6405826 B2 JP6405826 B2 JP 6405826B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- content
- output
- unit
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 25
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000000034 method Methods 0.000 claims description 34
- 238000000605 extraction Methods 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 2
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Projection Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
従来、映像供給装置に接続される映像出力装置と、反射部材と、スクリーンとを有し、映像出力装置からコンテンツを投影する出力光を反射部材によって反射し、この反射部材によって反射された出力光を当該コンテンツの輪郭の形状に形成されたスクリーンに投影することにより、閲覧者に対して印象を高めることができる映像出力装置搭載機器が知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, an image output device connected to an image supply device, a reflection member, and a screen, output light that projects content from the image output device is reflected by the reflection member, and output light reflected by the reflection member There is known a video output device-equipped device that can enhance the impression to the viewer by projecting the image on a screen formed in the shape of the outline of the content (see, for example, Patent Document 1).
しかしながら、特許文献1に記載の技術においては、一方的に映像を出力するだけである。そのため、例えば、ユーザ操作を必要とするコンテンツを出力するような場合に、ユーザに適した操作の種類を把握して、ユーザに適した操作案内を行うことができなかった。
However, the technique described in
本発明の課題は、ユーザに適した操作の種類を把握できるようにすることである。 An object of the present invention is to make it possible to grasp the type of operation suitable for a user.
上記課題を解決するため、請求項1に記載の発明の情報処理装置は、
ユーザを検出し、当該ユーザの特徴を抽出する抽出手段と、
出力手段により所定のコンテンツが出力されている間に、前記ユーザにより入力手段に対して行われた操作の種類を検出する検出手段と、
前記抽出手段により抽出された操作したユーザの特徴と、前記検出手段により検出された前記ユーザによる操作の種類と、前記操作が検出された際に出力されていたコンテンツと、を対応付けて記憶する記憶手段と、
を備える。
In order to solve the above problem, an information processing apparatus according to
Extraction means for detecting a user and extracting the characteristics of the user;
Detecting means for detecting the type of operation performed on the input means by the user while the predetermined content is output by the output means;
And characteristics of the user who operated extracted by the extraction means, the type of operation by the user detected by the detection unit, the operation is stored in association with a content that has been outputted when detected Storage means;
Is provided.
本発明によれば、ユーザに適した種類の操作を把握することが可能となる。 According to the present invention, it is possible to grasp the types of operations suitable for the user.
以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。以下の実施形態では、本発明に係る情報処理装置をデジタルサイネージ装置1に適用した場合を例にとり説明する。なお、本発明は、図示例に限定されるものではない。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, a case where the information processing apparatus according to the present invention is applied to the
[コンテンツ出力システム100の構成]
図1は、本発明の実施形態におけるコンテンツ出力システム100の全体構成を示す図である。コンテンツ出力システム100は、図1に示すように、店舗に設けられたデジタルサイネージ装置1と、サーバ装置2とを備えて構成されている。デジタルサイネージ装置1とサーバ装置2は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークNを介して通信接続可能に構成されている。なお、デジタルサイネージ装置1の台数は特に限定されない。
[Configuration of Content Output System 100]
FIG. 1 is a diagram showing an overall configuration of a
[デジタルサイネージ装置1の構成]
図2は、デジタルサイネージ装置1の主制御構成を示すブロック図である。
デジタルサイネージ装置1は、例えば、店舗で取り扱っている商品に係るコンテンツを出力する装置であり、図2に示すように、コンテンツの映像光を照射する投影部21と、投影部21から照射された映像光を背面で受けて前面に投影するスクリーン部22とを備えている。
[Configuration of Digital Signage Device 1]
FIG. 2 is a block diagram showing a main control configuration of the
The
まず、投影部21について説明する。
投影部21は、制御部23と、プロジェクタ24と、記憶部25と、通信部26と、計時部30と、を備えている。プロジェクタ24、記憶部25、通信部26、計時部30は、図2に示すように制御部23に接続されている。
First, the
The
制御部23は、記憶部25のプログラム記憶部251に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うCPUとプログラム実行時の作業領域となるメモリとを備えている(いずれも図示略)。制御部23は、プログラムとの協働により、後述する操作情報記録処理やコンテンツ出力制御処理を始めとする各種処理を実行し、抽出手段、出力制御手段、推定手段として機能する。
The
プロジェクタ24は、制御部23から出力された画像データを映像光に変換してスクリーン部22に向けて照射する投影装置である。プロジェクタ24は、例えば、アレイ状に配列された複数個(XGAの場合、横1024画素×縦768画素)の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することでその反射光により光像を形成する表示素子であるDMD(デジタルマイクロミラーデバイス)を利用したDLP(Digital Light Processing)(登録商標)プロジェクタが適用可能である。
The
記憶部25は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部25には、図2に示すように、プログラム記憶部251が設けられている。プログラム記憶部251には、制御部23で実行されるシステムプログラムや、後述する操作情報記録処理やコンテンツ出力制御処理を始めとする各種処理を実行するための処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
The
また、記憶部25には、コンテンツ記憶部252が設けられている。コンテンツ記憶部252には、コンテンツの識別情報に対応付けて、デジタルサイネージ装置1で再生するコンテンツのデータが記憶されている。コンテンツデータは、例えば、複数のフレーム画像により構成される動画データ及び各フレーム画像に対応する音声データにより構成されている。
また、記憶部25には、自装置の装置NO.が記憶されている。
The
Further, the
通信部26は、モデム、ルータ、ネットワークカード等により構成され、通信ネットワークNに接続された外部機器との通信を行う。
The
計時部30は、RTC(Real Time Clock)等により構成され、現在日時を取得して制御部23に出力する。
The
次に、スクリーン部22について説明する。
図3は、スクリーン部22の概略構成を示す正面図である。図3に示すようにスクリーン部22には、画像形成部27と、画像形成部27を支持する台座28とが備えられている。
Next, the
FIG. 3 is a front view illustrating a schematic configuration of the
画像形成部27は、映像光の照射方向に対して略直交するように配置された、例えばアクリル板などの人型に成形された一枚の透光板29に、フィルム状のフレネルレンズが積層された背面投影用のフィルムスクリーン291や予め人物が印刷されたフィルム292が貼付されて構成されたスクリーンである。プロジェクタ24は、画像形成部27のフィルムスクリーン291が貼付された領域に画像を投影する。なお、透光板29全体にフィルムスクリーン291を貼付した構成とし、人物についても投影を行うこととしてもよい。画像形成部27と前述したプロジェクタ24とにより、出力手段を構成している。
The
台座28には、ボタン式の操作部32と、音声を出力するスピーカなどの音声出力部33と、非接触通信部34と、プリンタ35と、撮像部36と、が設けられている。
The
操作部32は、複数の操作ボタンを備え、操作ボタンの押下信号を検出して制御部23に出力する。各操作ボタンには、その操作ボタンを押下することにより実行される処理やその操作ボタンを押下することによるコンテンツの切り替え先等を表示する表示領域32aがそれぞれ対応付けられている。
The
非接触通信部34は、NFC(Near Field Communication)等による無線通信機能を備え、ICカード3や携帯端末4と無線通信を行うことにより、ICカード3や携帯端末4に対してデータの読み書きを行ったり、携帯端末4とデータの送受信を行ったりする。非接触通信部34は、検出手段として機能する。
The
ここで、ICカード3は、デジタルサイネージ装置1が設置された店舗の会員カード等であり、非接触通信が可能であり、ユーザを識別するためのユーザID等が記憶されている。携帯端末4は、ユーザが所持している、非接触通信可能な携帯端末である。
Here, the
プリンタ35は、制御部23からの指示に従って用紙に印刷を行い、排出口351から出力する。
The
撮像部36は、画像形成部27に対向する空間の画像を撮影して撮影画像を生成する。撮像部36は、図示は省略するが、光学系及び撮像素子を備えるカメラと、カメラを制御する撮像制御部とを備えている。
カメラの光学系は、画像形成部27の前にいる人物(ユーザ)を撮影可能な方向に向けられている。また、その撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサである。そして、撮像素子は、光学系を通過した光学像を2次元の画像信号に変換する。
The
The optical system of the camera is directed in a direction in which a person (user) in front of the
操作部32、音声出力部33、非接触通信部34、プリンタ35、撮像部36は、図2に示すように制御部23に接続されている。
The
[サーバ装置2の構成]
図4は、サーバ装置2の主制御構成を示すブロック図である。サーバ装置2は、ユーザに適したコンテンツを選定する装置であり、図4に示すように、制御部201、記憶部202、通信部203等を備えて構成されている。
[Configuration of Server Device 2]
FIG. 4 is a block diagram illustrating a main control configuration of the
制御部201は、記憶部202のプログラム記憶部221に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うCPU(Central Processing Unit)とプログラム実行時の作業領域となるメモリとを備えている(いずれも図示略)。制御部201は、記憶部202のプログラム記憶部221に記憶されているプログラムとの協働により、操作情報分析処理を始めとする各種処理を実行する。
The
記憶部202は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部202には、図4に示すように、プログラム記憶部221が設けられている。プログラム記憶部221には、制御部201で実行されるシステムプログラム、操作情報分析処理を始めとする各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
The
また、記憶部202には、操作情報記憶部222、適合コンテンツ情報記憶部223が設けられている。
The
図5に、操作情報記憶部222のデータ格納例を示す。図5に示すように、操作情報記憶部222には、「日時」、「装置NO.」、「ユーザの特徴」、「再生コンテンツ」、「操作の種類」等の項目が設けられており、デジタルサイネージ装置1において操作が行われたときの操作したユーザの特徴、操作時に再生していたコンテンツを特定する情報、操作の種類等の操作情報を対応付けて記憶する。
ここで、「日時」は、操作が行われた日時である。「装置NO.」は、操作が行われたデジタルサイネージ装置1を識別するための識別番号である。「ユーザの特徴」は、操作を行ったユーザの特徴を示す情報であり、ここでは、性別及び推定年齢とする。「再生コンテンツ」は、どのコンテンツの再生中に操作が行われたかを特定する情報(例えば、操作が行われたときのコンテンツの識別情報や再生開始からの時間)等である。「操作の種類」は、例えば、ボタン操作(操作されたボタン番号)、ICカード3をかざす操作、携帯端末4をかざす操作等である。
FIG. 5 shows an example of data storage in the operation
Here, “date and time” is the date and time when the operation was performed. “Apparatus No.” is an identification number for identifying the
適合コンテンツ情報記憶部223は、ユーザの特徴(ここでは、性別及び年齢)と、その特徴を有するユーザに適したコンテンツの識別情報等を対応付けて記憶する。
The compatible content
通信部203は、モデム、ルータ、ネットワークカード等により構成され、通信ネットワークNに接続された外部機器との通信を行う。
The
[コンテンツ出力システム100の動作]
次に、コンテンツ出力システム100の動作について説明する。
[Operation of Content Output System 100]
Next, the operation of the
コンテンツ出力システム100においては、まず、所定期間の或いは所定数の操作情報が操作情報記憶部222に蓄積されるまでの間、デジタルサイネージ装置1において操作情報記録処理(図6参照)を実行し、操作情報の蓄積を行う。所定期間の或いは所定数の操作情報が操作情報記憶部222に記憶されると、サーバ装置2において操作情報分析処理を実行し、操作情報記憶部222に蓄積された操作情報に基づいてユーザの特徴毎の嗜好や操作の種類の傾向を分析して、その分析結果に基づいてユーザの特徴毎に適合するコンテンツを選定又は作成する。そして、ユーザの特徴毎に適合するコンテンツの識別情報を適合コンテンツ情報記憶部223に記憶する。その後、デジタルサイネージ装置1においては、コンテンツ出力制御処理(図7参照)を行って、ユーザに適合するコンテンツを出力しつつ、更なる操作情報の蓄積を行う。サーバ装置2は、所定期間の或いは所定数の操作情報が操作情報記憶部222に記憶される毎に、操作情報分析処理を実行し、操作情報記憶部222に蓄積された操作情報に基づいて分析を行い、適合コンテンツの情報を更新する。以下、各装置において実行される処理について説明する。
In the
(操作情報記録処理)
図6に、デジタルサイネージ装置1において実行される操作情報記録処理のフローチャートを示す。操作情報記録処理は、所定期間の或いは所定数の操作情報が蓄積されるまでの期間内においてデジタルサイネージ装置1の電源がONの間、制御部23とプログラム記憶部251に記憶されているプログラムとの協働により実行される。
(Operation information recording process)
FIG. 6 shows a flowchart of the operation information recording process executed in the
まず、制御部23は、画像形成部27及び音声出力部33によりコンテンツを出力させる(ステップS1)。例えば、制御部23は、コンテンツ記憶部252から順次コンテンツのコンテンツデータを読み出し、そのフレーム画像を順次プロジェクタ24に出力してプロジェクタ24により画像形成部27に投影させる。また、読み出したコンテンツデータの音声データを音声出力部33に出力し、コンテンツの音声を出力させる。なお、ステップS2以降においてもコンテンツの出力は続行される。
First, the
ここで出力されるコンテンツは、例えば、店舗で取り扱っている商品に係る広告等のコンテンツである。コンテンツの中では、例えば、ユーザの操作に応じてコンテンツで説明している商品の割引クーポンが当たるくじ引きや、商品の売場案内の表示、商品カタログのホームページのURLのダウンロード等を行うことができる。また、ユーザ操作(ここでは、操作部32のボタン操作)に応じて、他の商品のコンテンツに切り替えることができる。 The content output here is, for example, content such as an advertisement related to a product handled at a store. In the content, for example, a lottery where a discount coupon for a product described in the content is won, display of a product sales floor guide, download of a URL of a product catalog homepage, and the like can be performed according to a user operation. Moreover, it can switch to the content of another goods according to user operation (here button operation of the operation part 32).
即ち、コンテンツに対するユーザ操作及び操作された時に出力されていたコンテンツを特定する情報をユーザの特徴毎に蓄積すれば、ユーザの特徴毎に、所望する商品の傾向(嗜好の傾向)を取得することが可能である。例えば、くじ引き、売場案内の表示、ダウンロード等を指示する操作は、その操作が行われた時に出力されていたコンテンツで説明されている商品にユーザが興味を持っているとみなすことができる。また、他のコンテンツに切り替える操作は、切り替え先のコンテンツにユーザが興味を持っているとみなすことができる。 That is, if the user operation on the content and the information specifying the content output when the operation is performed are accumulated for each user feature, a desired product tendency (preference trend) is obtained for each user feature. Is possible. For example, an operation that instructs a lottery, display of a sales floor guide, download, or the like can be considered that the user is interested in the product described in the content that was output when the operation was performed. In addition, an operation for switching to another content can be considered that the user is interested in the switching destination content.
また、ここで出力されるコンテンツでは、複数種類の操作手段が用意されている。例えば、くじ引きにより割引クーポンを取得する操作としては、(1)操作ボタンを押下して、紙のクーポンを発行、(2)ICカード3を非接触通信部34にかざしてICカード3にクーポン情報を書き込み、(3)携帯端末4のアプリを立ち上げ非接触通信部34にかざして携帯端末4にクーポン情報を書き込み、の3つの操作手段が用意されている。そこで、コンテンツに対するユーザ操作の種類をユーザの特徴毎に蓄積すれば、ユーザの特徴毎にどのような種類の操作が多く用いられているかの情報を取得することができる。
In addition, a plurality of types of operation means are prepared for the content output here. For example, operations for obtaining a discount coupon by lottery include (1) pressing an operation button to issue a paper coupon, and (2) holding the
次いで、制御部23は、撮像部36により撮影を行わせて撮影画像を取得し(ステップS2)、取得した撮影画像に対して顔認識処理を行う(ステップS3)。そして、撮影画像から顔が検出されたか否かを判断する(ステップS4)。顔認識処理は、目、鼻、口等の特徴に基づく公知の画像処理技術を用いて行うことができる。
Next, the
撮影画像から顔が検出されなかったと判断した場合(ステップS4;NO)、制御部23は、ステップS1に戻り、コンテンツの出力中において所定時間間隔で撮像部36により撮影を行わせる。
If it is determined that no face has been detected from the captured image (step S4; NO), the
撮影画像から顔が検出されたと判断した場合(ステップS4;YES)、制御部23は、ユーザが検出されたと判断し、撮影画像から検出された顔画像から、デジタルサイネージ装置1の前に来たユーザの特徴(具体的には、年齢、性別)を抽出し、抽出されたユーザの特徴を顔領域(位置及びサイズ)に対応付けてメモリの所定領域に記憶(上書き)する(ステップS5)。なお、ユーザの年齢及び性別の抽出は、例えば、顔画像から抽出した顔の輪郭やパーツの特徴に基づいて年齢や性別を推定する手法等、公知の何れの画像処理技術を用いて行ってもよい。撮影画像から複数の顔が検出された場合は、それぞれの顔画像から特徴の抽出を行う。
When it is determined that a face has been detected from the captured image (step S4; YES), the
次いで、制御部23は、ユーザ操作が検出されたか否かを判断する(ステップS6)。ここでは、操作部32の何れかの操作ボタンの操作、ICカード3をかざす操作、携帯端末4をかざす操作、の何れかが検出されたか否かを判断する。ICカード3や携帯端末4をかざす操作が検出されたか否かは、非接触通信部34の通信エリア内にICカード3や携帯端末4が検出されたか否かに基づいて判断する。
Next, the
ユーザ操作が検出されていないと判断した場合(ステップS6;NO)、制御部23は、ステップS1に戻る。
If it is determined that no user operation has been detected (step S6; NO), the
ユーザ操作が検出されたと判断した場合(ステップS6;YES)、制御部23は、計時部30により現在日時(操作日時)を取得し、操作したユーザを推定する(ステップS7)。具体的には、ステップS4において検出された顔が1つである場合は、その顔のユーザが操作したユーザであると推定する。ステップS4において検出された顔が複数である場合は、顔領域が最も大きいユーザが操作したユーザであると推定する。
If it is determined that a user operation has been detected (step S6; YES), the
そして、制御部23は、操作日時、自装置の装置NO.、メモリに記憶されている操作したユーザの特徴、操作時に再生されていたコンテンツを特定する情報、及び操作の種類(ボタン操作(操作されたボタン番号)、ICカードをかざす操作、携帯端末をかざす操作)を対応付けて操作情報として通信部26によりサーバ装置2に送信して操作情報記憶部222に記憶させ(ステップS8)、ステップS1に戻る。
Then, the
制御部23は、デジタルサイネージ装置1の電源がONである間、ステップS1〜ステップS8を繰り返し実行する。
The
サーバ装置2の制御部201は、通信部203によりデジタルサイネージ装置1から操作情報を受信すると、受信した操作情報を操作情報記憶部222に記憶する。
When the
(操作情報分析処理)
所定期間の或いは所定数の操作情報が操作情報記憶部222に記憶されると、サーバ装置2の制御部201は、操作情報分析処理を実行し、分析手段として操作情報記憶部222に蓄積された操作情報に基づいてユーザの特徴毎の嗜好や操作の種類の傾向を分析し、ユーザの特徴毎に適合するコンテンツの傾向を取得する。操作の種類の傾向としては、例えば、ユーザの特徴毎に、最も多く用いられていると判定された操作の種類を分析する。そして、分析結果に基づいて、ユーザの特徴毎に適合するコンテンツを既に用意されたコンテンツの中から選定するか、又はユーザの特徴毎に適合するコンテンツを新たに生成し、ユーザの特徴とそのコンテンツの識別情報とを対応付けて適合コンテンツ情報記憶部223に記憶する。新たにコンテンツが生成された場合は、コンテンツの識別情報とコンテンツデータとを対応付けてデジタルサイネージ装置1に送信し、コンテンツ記憶部252に記憶させる。
(Operation information analysis processing)
When operation information for a predetermined period or a predetermined number of operations is stored in the operation
ここで、上述のように、サーバ装置2においては、操作情報記憶部222に蓄積された操作情報に基づいて、ユーザの特徴毎に、例えば、所望する商品の傾向(嗜好の傾向)及び操作の種類の傾向を分析して取得することができる。そこで、本実施形態においては、サーバ装置2の制御部201は、操作情報記憶部222に蓄積された操作情報に基づいて、ユーザの特徴毎に、その特徴を有するユーザの嗜好に適合する商品についてのコンテンツであって、その特徴を有するユーザに最も多く用いられている操作の種類の操作案内が表示されるコンテンツを適合コンテンツとして、その識別情報をユーザの特徴に対応付けて適合コンテンツ情報記憶部223に記憶する。
なお、サーバ装置2の制御部201は、操作情報分析処理が終了すると、通信部203によりデジタルサイネージ装置1にその旨を通知する。
Here, as described above, in the
When the operation information analysis process is completed, the
(コンテンツ出力制御処理)
サーバ装置2において、上述の操作情報記録処理によりユーザの特徴毎に適合するコンテンツの識別情報が適合コンテンツ情報記憶部223に記憶されると、デジタルサイネージ装置1はの制御部23は、コンテンツ出力制御処理(図7参照)を行って、ユーザに適合するコンテンツを出力しつつ、更なる操作情報の蓄積を行う。
(Content output control processing)
In the
図7に、デジタルサイネージ装置1において実行されるコンテンツ出力制御処理のフローチャートを示す。コンテンツ出力制御処理は、デジタルサイネージ装置1の電源がONの間、制御部23とプログラム記憶部251に記憶されているプログラムとの協働により実行される。
FIG. 7 shows a flowchart of content output control processing executed in the
まず、制御部23は、画像形成部27及び音声出力部33によりコンテンツを出力させる(ステップS11)。例えば、制御部23は、コンテンツ記憶部252から順次コンテンツのコンテンツデータを読み出して画像形成部27及び音声出力部33により出力させる。なお、ステップS12以降においてもコンテンツの出力は続行される。
First, the
次いで、制御部23は、撮像部36により撮影を行わせて撮影画像を取得し(ステップS12)、取得した撮影画像に対して顔認識処理を行う(ステップS13)。そして、撮影画像から顔が検出されたか否かを判断する(ステップS14)。
Next, the
撮影画像から顔が検出されなかったと判断した場合(ステップS14;NO)、制御部23は、ステップS11に戻り、コンテンツの出力中において所定時間間隔で撮像部36により撮影を行わせる。
If it is determined that no face has been detected from the captured image (step S14; NO), the
撮影画像から顔が検出されたと判断した場合(ステップS14;YES)、制御部23は、新たにユーザが検出されたと判断し、撮影画像から検出された顔画像から、デジタルサイネージ装置1の前に来たユーザの特徴(具体的には、年齢、性別)を抽出し、抽出されたユーザの特徴を顔領域に対応付けてメモリの所定領域に記憶(上書き)する(ステップS15)。なお、撮影画像から複数の顔が検出された場合は、最も大きい顔領域、即ち、最もデジタルサイネージ装置1の近くにいるユーザの顔画像からユーザの特徴を抽出する。
When it is determined that a face has been detected from the captured image (step S14; YES), the
そして、制御部23は、通信部26によりサーバ装置2にユーザの特徴の情報を送信してコンテンツの選定を依頼する(ステップS16)。
And the
サーバ装置2において、制御部201は、通信部203により操作情報を受信すると、適合コンテンツ情報記憶部223を参照し、受信したユーザの特徴に対応付けて記憶されている識別情報のコンテンツをユーザに適合したコンテンツとして選定する。ここでユーザに適合したコンテンツとは、操作情報記憶部222に蓄積されている、受信にしたユーザの特徴に紐づいている操作情報に基づいたコンテンツである。例えば、女性30代が携帯端末で最も操作を行っている場合、携帯端末で操作することをメインとするコンテンツを選定する。そして、選定したコンテンツの識別情報を通信部203によりデジタルサイネージ装置1に送信する。
In the
デジタルサイネージ装置1においては、通信部26によりサーバ装置2からの選定されたコンテンツの識別情報の受信を待機する(ステップS17)。
通信部26によりサーバ装置2からの選定されたコンテンツの識別情報を受信すると(ステップS17;YES)、制御部23は、ステップS15で抽出した特徴と同じ特徴のユーザが検出されたか否かを判断する(ステップS18)。具体的には、ステップS11〜ステップS15で説明したものと同様の処理を再度行って、抽出された特徴がメモリに記憶されている特徴と一致している場合に、ステップS15で抽出した特徴と同じ特徴のユーザが検出されたと判断する。
In the
When the identification information of the selected content from the
ステップS15で抽出した特徴と同じ特徴のユーザが検出されたと判断した場合(ステップS18;YES)、制御部23は、サーバ装置2において選定されたコンテンツを画像形成部27及び音声出力部33により出力させる(ステップS19)。
When it is determined that a user having the same feature as the feature extracted in step S15 is detected (step S18; YES), the
次いで、制御部23は、ユーザ操作が検出されたか否かを判断する(ステップS20)。ここでは、操作部32の何れかの操作ボタンの操作、ICカード3をかざす操作、携帯端末4をかざす操作、の何れかが検出されたか否かを判断する。
Next, the
ユーザ操作が検出されていないと判断した場合(ステップS20;NO)、制御部23は、ステップS18に戻る。
ユーザ操作が検出されたと判断した場合(ステップS20;YES)、制御部23は、計時部30により現在日時(操作日時)を取得し、メモリにその特徴が記憶されているユーザ(撮影画像中で最も顔領域の大きいユーザ)を操作したユーザと推定する(ステップS21)。そして、制御部23は、操作日時、自装置の装置NO.、メモリに記憶されている操作したユーザの特徴、操作時に再生されていたコンテンツを特定する情報、及び操作の種類(ボタン操作(操作されたボタン番号)、ICカードをかざす操作、携帯端末をかざす操作)を対応付けて操作情報として通信部26によりサーバ装置2に送信し(ステップS22)、ステップS18に戻る。
If it is determined that no user operation has been detected (step S20; NO), the
If it is determined that a user operation has been detected (step S20; YES), the
サーバ装置2の制御部201は、通信部203によりデジタルサイネージ装置1から操作情報を受信すると、受信した操作情報を操作情報記憶部222に記憶する。
When the
一方、ステップS18において、ステップS15で抽出した特徴と同じ特徴のユーザが検出されていないと判断した場合(ステップS18;NO)、制御部23は、ステップS11に戻る。
On the other hand, when it is determined in step S18 that a user having the same feature as that extracted in step S15 has not been detected (step S18; NO), the
制御部23は、デジタルサイネージ装置1の電源がONである間、ステップS11〜ステップS22の処理を繰り返し実行する。
The
このように、コンテンツ出力システム100においては、デジタルサイネージ装置1の前にいるユーザの特徴に応じて、ユーザの嗜好に合った商品についてのコンテンツであって、ユーザに適した操作の種類の操作案内を出力するコンテンツを選定して出力する。従って、ユーザの嗜好に応じた利便性の高いコンテンツを提供することが可能となる。
As described above, in the
所定期間の或いは所定数の操作情報が操作情報記憶部222に記憶されると、サーバ装置2の制御部201は、上述の操作情報分析処理を実行し、適合コンテンツ情報記憶部223に記憶されている内容やコンテンツ記憶部252に記憶されているコンテンツデータの更新を行う。
When operation information for a predetermined period or a predetermined number of pieces of operation information is stored in the operation
以上説明したように、本実施形態におけるデジタルサイネージ装置1によれば、制御部23は、ユーザにより行われた操作の種類を検出し、操作したユーザの特徴と操作の種類とを対応付けてサーバ装置2の操作情報記憶部222に記憶させる。
As described above, according to the
従って、ユーザの特徴毎に操作の種類の傾向を取得することが可能となるので、ユーザに適した操作の種類を把握することが可能となる。 Therefore, since it is possible to acquire the tendency of the type of operation for each feature of the user, it is possible to grasp the type of operation suitable for the user.
ユーザによる操作の種類には、ボタン操作、カードをかざす操作、携帯端末をかざす操作が含まれるので、ユーザに適した操作の種類がボタン操作なのか、カードをかざす操作なのか、携帯端末をかざす操作なのか等を把握することが可能となる。 The types of operations by the user include button operations, card-holding operations, and operations that hold the mobile terminal, so whether the type of operation suitable for the user is a button operation, an operation that holds the card, or the mobile terminal It becomes possible to grasp whether it is an operation or the like.
また、サーバ装置2の制御部201は、操作情報記憶部222において互いに対応付けて記憶されているユーザの特徴及び操作の種類に基づいて、ユーザの特徴毎に、当該特徴を有するユーザに最も多く用いられている操作の種類の傾向を分析し、この傾向に応じた適合コンテンツ(具体的には、最も多く用いられている操作の種類の操作案内を行うコンテンツ)の識別情報をユーザの特徴に対応付けて適合コンテンツ情報記憶部223に記憶する。デジタルサイネージ装置1の制御部23は、新たにユーザを検出してその特徴を抽出した場合に、出力されているコンテンツを、抽出した特徴に対応するコンテンツに切り替える。
従って、ユーザに適した操作の種類の操作案内を行うコンテンツを出力するので、ユーザの利便性を向上させることができる。
In addition, the
Therefore, since the content for performing the operation guidance of the type of operation suitable for the user is output, the convenience for the user can be improved.
また、操作情報記憶部222には、操作したユーザの特徴と、操作の種類と、操作が検出されたときに出力されていたコンテンツを特定する情報とを対応付けて記憶するので、ユーザの特徴毎に、興味を持ったコンテンツ、即ち嗜好の傾向を把握することが可能となる。
In addition, the operation
ユーザの特徴は、ユーザの撮影画像を撮像部36により取得し、取得した撮影画像に顔認識処理を行い、認識した顔画像に基づいて抽出することができる。
The user's characteristics can be extracted based on the recognized face image by acquiring the user's captured image by the
また、顔認識処理により複数の顔画像が認識された場合に、認識された顔画像のうち最も大きい顔画像を操作したユーザの顔画像と推定するので、操作したユーザを容易に推定することができる。 In addition, when a plurality of face images are recognized by the face recognition process, the largest face image among the recognized face images is estimated as the face image of the user who operated, so that the operated user can be easily estimated. it can.
また、ユーザの特徴としてユーザの性別及び年齢を抽出することで、性別及び年齢別に操作の種類の傾向を取得することが可能となるので、ユーザの性別や年齢に適した操作の種類を把握し、ユーザの性別や年齢に適した操作の種類の操作案内を出力するコンテンツを出力することが可能となる。 Also, by extracting the user's gender and age as the user's characteristics, it becomes possible to acquire the tendency of the operation type by gender and age, so it is possible to grasp the type of operation suitable for the user's gender and age. It is possible to output content that outputs operation guidance of the type of operation suitable for the user's gender and age.
なお、上記実施形態における記述内容は、本発明に係るコンテンツ出力システム及びデジタルサイネージ装置の好適な一例であり、これに限定されるものではない。 In addition, the description content in the said embodiment is a suitable example of the content output system and digital signage apparatus which concern on this invention, and is not limited to this.
例えば、上記実施形態においては、撮影画像からのユーザの検出及びユーザの特徴の抽出をデジタルサイネージ装置1において行うこととしたが、サーバ装置2で行うこととしてもよい。そして、デジタルサイネージ装置1において操作が行われ、操作日時、装置NO.、操作の種類及び操作時に再生されていたコンテンツの情報がサーバ装置2に送信されると、サーバ装置2の制御部23は、直前に抽出された操作したユーザの特徴を受信した情報に対応付けて操作情報記憶部222に記憶し、操作したユーザに適合するコンテンツを選定することとしてもよい。
For example, in the above-described embodiment, the user detection and the user feature extraction from the captured image are performed in the
また、上記実施形態においては、操作情報記憶部222及び適合コンテンツ情報記憶部223をサーバ装置2に設け、サーバ装置2において操作情報の記憶を行ったり、蓄積された操作情報に基づく分析を行ったり、ユーザに適合するコンテンツを選定したりする場合を例にとり説明したが、操作情報記憶部222及び適合コンテンツ情報記憶部223をデジタルサイネージ装置1の記憶部25に設け、サーバ装置2で行った処理についてもデジタルサイネージ装置1の制御部23により行うこととしてもよい。
In the above-described embodiment, the operation
また、上記実施形態においては、コンテンツ出力制御処理において、ユーザを検出した際にユーザの特徴を抽出してこの特徴に適合したコンテンツを選定して出力することとして説明したが、ユーザ操作が検出された際に、操作したユーザの特徴に適合したコンテンツを選定して出力することとしてもよい。 In the above embodiment, in the content output control process, when a user is detected, the feature of the user is extracted, and content that matches the feature is selected and output. However, a user operation is detected. In this case, it is also possible to select and output content suitable for the characteristics of the operated user.
また、上記実施形態においては、コンテンツを予めデジタルサイネージ装置1に記憶しておき、記憶されているコンテンツの中から検出されたユーザの特徴に適合するコンテンツを選定することとしたが、ユーザの特徴に適合するコンテンツをサーバ装置2からその場でネット配信することとしてもよい。
In the above embodiment, the content is stored in the
また、上記実施形態においては、操作の種類を、ボタン操作、ICカードをかざす操作、携帯端末をかざす操作の3種類としたが、操作の種類はこれらに限定されるものではない。例えば、デジタルサイネージ装置1からの質問に対して音声で応答を入力する対話型操作や、デジタルサイネージ装置1の前での動作(例えば、手の動き等)で操作入力を行うアクション操作等を含めることとしてもよい。また、この場合、対話の内容(回答)やアクションの内容を併せて操作情報に記憶する。
Moreover, in the said embodiment, although the kind of operation was made into 3 types, the operation of holding up a button operation, holding up an IC card, and holding up a portable terminal, the kind of operation is not limited to these. For example, an interactive operation for inputting a response to a question from the
また、上記実施形態においては、顔画像からユーザの特徴として性別及び年齢を取得する場合を例にとり説明したが、ユーザの特徴としては、これに限定されない。例えば、人種、操作者の表情(笑っているか等)、メガネの有無、服装等をユーザの特徴として取得してもよい。これにより、よりきめ細かくユーザの特徴を分類し、より一層ユーザに適合したコンテンツを選定することができる。また、操作情報記憶部222に記憶されている操作情報のマーケティングデータとしての価値を向上させることができる。
Moreover, in the said embodiment, although the case where sex and age were acquired as a user's characteristic from a face image was demonstrated as an example, as a user's characteristic, it is not limited to this. For example, race, operator's facial expression (whether laughing, etc.), presence / absence of glasses, clothes, etc. may be acquired as user characteristics. As a result, it is possible to classify the user's characteristics more finely and select content that is more suitable for the user. Further, the value of the operation information stored in the operation
また、上記実施形態においては、操作者と推定されたユーザの特徴のみを操作情報に含めて記憶することとしたが、撮影画像に顔画像が複数存在する場合、他の顔画像の人数(一緒にコンテンツを見ていた人数)やそれぞれのユーザの特徴を操作情報に対応付けて記憶することとしてもよい。これにより操作情報記憶部222に記憶されている操作情報のマーケティングデータとしての価値を更に向上させることができる。
In the above embodiment, only the features of the user estimated to be the operator are included in the operation information and stored. However, when there are a plurality of face images in the captured image, the number of other face images (together) The number of users who are viewing the content) and the characteristics of each user may be stored in association with the operation information. Thereby, the value as marketing data of the operation information memorize | stored in the operation information memory |
また、例えば、店舗の会員登録時等に個人情報とともに登録されたユーザの顔画像をデジタルサイネージ装置1又はサーバ装置2のデータベースに記憶している場合、撮影画像から得られたユーザの顔画像とデータベースの顧客の顔画像とを照合することによりユーザの個人を特定してもよい。そして、特定したユーザのユーザID等に対応付けて操作情報を記憶しておけば、操作情報に基づいてユーザ個人の嗜好や操作の種類の傾向を取得することができ、ユーザ個人に適したコンテンツの選定が可能となる。また、所定時間毎に撮影を行ってそのユーザが笑顔になった時点のコンテンツの内容や位置を記憶しておけば、そのユーザがコンテンツのどこに反応したのかを明確にすることができ、マーケティングに役立てることができる。
Further, for example, when the face image of the user registered together with the personal information at the time of registering the store member is stored in the database of the
また、上記実施形態においては、撮影画像から抽出された操作者の顔画像は特に利用せずに破棄しているが、目的に応じて操作情報に対応付けて記憶することとしてもよい。顔画像のデータを毎回記憶していくと、記憶すべきデータ量が大量となるという問題があるが、例えば、犯罪防止用の監視カメラの機能も兼ねるという目的で使用するのであれば顔画像も併せて記憶してもよい。 In the above embodiment, the operator's face image extracted from the photographed image is discarded without being used in particular, but may be stored in association with the operation information according to the purpose. If the face image data is stored every time, there is a problem that the amount of data to be stored becomes large. For example, if it is used for the purpose of also serving as a crime prevention surveillance camera, the face image is also used. It may be stored together.
また、上記実施形態においては、画像形成部27が人型である場合を例にとり説明したが、他の形状としてもよく、これに限定されるものではない。
In the above-described embodiment, the case where the
また、上記実施形態においては、本発明をプロジェクタからスクリーンに画像を投影することで画像の表示を行うデジタルサイネージ装置に適用した場合を例にとり説明したが、例えば、液晶ディスプレイ、プラズマディスプレイ等、他の表示装置を有するコンテンツ出力装置に適用しても同様の効果を奏することができ、この例に限定されない。 In the above embodiment, the case where the present invention is applied to a digital signage apparatus that displays an image by projecting an image from a projector onto a screen has been described as an example. Even if it is applied to a content output device having the display device, the same effect can be obtained, and the present invention is not limited to this example.
その他、コンテンツ出力システム及びデジタルサイネージ装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and detailed operation of the content output system and the digital signage apparatus can be changed as appropriate without departing from the spirit of the invention.
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
ユーザを検出し、当該ユーザの特徴を抽出する抽出手段と、
前記ユーザにより行われた操作の種類を検出する検出手段と、
前記抽出手段により抽出された操作したユーザの特徴と前記検出手段により検出された前記ユーザによる操作の種類とを対応付けて記憶する記憶手段と、
を備える情報処理装置。
<請求項2>
前記ユーザによる操作の種類には、ボタン操作、カードをかざす操作、携帯端末をかざす操作が含まれる請求項1に記載の情報処理装置。
<請求項3>
コンテンツを出力する出力手段と、
前記抽出手段が新たにユーザを検出してその特徴を抽出した場合に、前記出力手段により出力されているコンテンツを前記記憶手段において前記抽出された特徴に対応付けて記憶されている操作の種類に基づくコンテンツに切り替える出力制御手段と、
を備える請求項1又は2に記載の情報処理装置。
<請求項4>
前記記憶手段において互いに対応付けて記憶されているユーザの特徴及び操作の種類に基づいて、ユーザの特徴毎に、当該特徴を有するユーザに最も多く用いられている操作の種類を分析する分析手段を備え、
前記出力制御手段は、前記抽出手段が新たにユーザを検出してその特徴を抽出した場合に、前記出力手段により出力されているコンテンツを、前記分析手段により前記抽出された特徴を有するユーザに最も多く用いられていると判定された操作の種類の操作案内を行うコンテンツに切り替える請求項3に記載の情報処理装置。
<請求項5>
前記記憶手段は、前記抽出手段により抽出された操作したユーザの特徴と、前記検出手段により検出された前記ユーザによる操作の種類と、前記ユーザによる操作が検出されたときに出力されていたコンテンツを特定する情報とを対応付けて記憶する請求項3又は4に記載の情報処理装置。
<請求項6>
前記抽出手段は、ユーザの撮影画像を取得する撮像手段を有し、前記撮像手段により取得された撮影画像に顔認識処理を行い、認識した顔画像に基づいて、前記ユーザの特徴を抽出する請求項1〜5の何れか一項に記載の情報処理装置。
<請求項7>
前記顔認識処理により複数の顔画像が認識された場合に、認識された顔画像のうち最も大きい顔画像を操作したユーザの顔画像と推定する推定手段を備える請求項6に記載の情報処理装置。
<請求項8>
前記ユーザの特徴は、ユーザの性別及び年齢である請求項1〜7の何れか一項に記載の情報処理装置。
<請求項9>
ユーザを検出し、当該ユーザの特徴を抽出する工程と、
前記ユーザにより行われた操作の種類を検出する工程と、
前記抽出された操作したユーザの特徴と前記検出された前記ユーザによる操作の種類とを対応付けて記憶手段に記憶する工程と、
を含む情報処理方法。
<請求項10>
コンピュータを、
ユーザを検出し、当該ユーザの特徴を抽出する抽出手段、
前記ユーザにより行われた操作の種類を検出する検出手段、
前記抽出手段により抽出された操作したユーザの特徴と前記検出手段により検出された前記ユーザによる操作の種類とを対応付けて記憶する記憶手段、
として機能させるためのプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Extraction means for detecting a user and extracting the characteristics of the user;
Detecting means for detecting the type of operation performed by the user;
Storage means for storing the characteristics of the operated user extracted by the extracting means and the type of operation by the user detected by the detecting means in association with each other;
An information processing apparatus comprising:
<Claim 2>
The information processing apparatus according to
<Claim 3>
Output means for outputting content;
When the extraction unit newly detects the user and extracts the feature, the content output by the output unit is stored in the storage unit in association with the extracted feature. Output control means for switching to content based on;
The information processing apparatus according to
<Claim 4>
Analyzing means for analyzing, for each user feature, the type of operation most frequently used by the user having the feature based on the user feature and the kind of operation stored in association with each other in the storage means. Prepared,
When the extraction means newly detects a user and extracts its features, the output control means assigns the content output by the output means to the user having the characteristics extracted by the analysis means. The information processing apparatus according to
<Claim 5>
The storage means stores the characteristics of the operated user extracted by the extracting means, the type of operation by the user detected by the detecting means, and the content output when the operation by the user is detected. The information processing apparatus according to
<Claim 6>
The extraction unit includes an imaging unit that acquires a captured image of a user, performs face recognition processing on the captured image acquired by the imaging unit, and extracts features of the user based on the recognized face image. Item 6. The information processing device according to any one of
<Claim 7>
The information processing apparatus according to claim 6, further comprising: an estimation unit configured to estimate a face image of a user who has operated a largest face image among recognized face images when a plurality of face images are recognized by the face recognition process. .
<Claim 8>
The information processing apparatus according to
<Claim 9>
Detecting a user and extracting features of the user;
Detecting the type of operation performed by the user;
Storing the extracted characteristics of the operated user in association with the detected type of operation by the user in a storage unit;
An information processing method including:
<Claim 10>
Computer
Extraction means for detecting a user and extracting the characteristics of the user;
Detecting means for detecting the type of operation performed by the user;
Storage means for storing the characteristics of the operated user extracted by the extracting means and the type of operation by the user detected by the detecting means in association with each other;
Program to function as.
100 コンテンツ出力システム
1 デジタルサイネージ装置
21 投影部
22 スクリーン部
23 制御部
24 プロジェクタ
25 記憶部
251 プログラム記憶部
252 コンテンツ記憶部
26 通信部
27 画像形成部
28 台座
29 透光板
32 操作部
33 音声出力部
34 非接触通信部
2 サーバ装置
201 制御部
202 記憶部
221 プログラム記憶部
222 操作情報記憶部
223 適合コンテンツ情報記憶部
203 通信部
DESCRIPTION OF
Claims (9)
出力手段により所定のコンテンツが出力されている間に、前記ユーザにより入力手段に対して行われた操作の種類を検出する検出手段と、
前記抽出手段により抽出された操作したユーザの特徴と、前記検出手段により検出された前記ユーザによる操作の種類と、前記操作が検出された際に出力されていたコンテンツと、を対応付けて記憶する記憶手段と、
を備える情報処理装置。 Extraction means for detecting a user and extracting the characteristics of the user;
Detecting means for detecting the type of operation performed on the input means by the user while the predetermined content is output by the output means;
The characteristics of the operated user extracted by the extracting unit, the type of operation by the user detected by the detecting unit , and the content output when the operation is detected are stored in association with each other. Storage means;
An information processing apparatus comprising:
前記抽出手段が新たにユーザを検出してその特徴を抽出した場合に、前記出力手段により出力されているコンテンツを前記記憶手段において前記抽出された特徴に対応付けて記憶されている操作の種類に基づくコンテンツに切り替える出力制御手段と、
を備える請求項1又は2に記載の情報処理装置。 Output means for outputting content;
When the extraction unit newly detects the user and extracts the feature, the content output by the output unit is stored in the storage unit in association with the extracted feature. Output control means for switching to content based on;
The information processing apparatus according to claim 1, comprising:
前記出力制御手段は、前記抽出手段が新たにユーザを検出してその特徴を抽出した場合に、前記出力手段により出力されているコンテンツを、前記分析手段により前記抽出された特徴を有するユーザに最も多く用いられていると判定された操作の種類の操作案内を行うコンテンツに切り替える請求項3に記載の情報処理装置。 Analyzing means for analyzing, for each user feature, the type of operation most frequently used by the user having the feature based on the user feature and the kind of operation stored in association with each other in the storage means. Prepared,
When the extraction means newly detects a user and extracts its features, the output control means assigns the content output by the output means to the user having the characteristics extracted by the analysis means. The information processing apparatus according to claim 3, wherein the information processing apparatus switches to content that provides operation guidance of an operation type that is determined to be frequently used.
出力手段により所定のコンテンツが出力されている間に、前記ユーザにより入力手段に対して行われた操作の種類を検出する工程と、
前記抽出された操作したユーザの特徴と、前記検出された前記ユーザによる操作の種類と、前記操作が検出された際に出力されていたコンテンツと、を対応付けて記憶手段に記憶する工程と、
を含む情報処理方法。 Detecting a user and extracting features of the user;
Detecting the type of operation performed on the input means by the user while the predetermined content is being output by the output means ;
Storing the extracted characteristics of the operated user , the detected type of operation by the user, and the content output when the operation is detected in a storage unit in association with each other;
An information processing method including:
ユーザを検出し、当該ユーザの特徴を抽出する抽出手段、
出力手段により所定のコンテンツが出力されている間に、前記ユーザにより入力手段に対して行われた操作の種類を検出する検出手段、
前記抽出手段により抽出された操作したユーザの特徴と前記検出手段により検出された前記ユーザによる操作の種類と、前記操作が検出された際に出力されていたコンテンツと、を対応付けて記憶する記憶手段、
として機能させるためのプログラム。 Computer
Extraction means for detecting a user and extracting the characteristics of the user;
Detecting means for detecting the type of operation performed on the input means by the user while predetermined content is output by the output means;
A storage for storing the characteristics of the operated user extracted by the extraction unit, the type of operation by the user detected by the detection unit , and the content output when the operation is detected in association with each other means,
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014190812A JP6405826B2 (en) | 2014-09-19 | 2014-09-19 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014190812A JP6405826B2 (en) | 2014-09-19 | 2014-09-19 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016062390A JP2016062390A (en) | 2016-04-25 |
JP6405826B2 true JP6405826B2 (en) | 2018-10-17 |
Family
ID=55797797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014190812A Active JP6405826B2 (en) | 2014-09-19 | 2014-09-19 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6405826B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7502752B2 (en) | 2017-10-16 | 2024-06-19 | 株式会社スマイルテレビ | Content distribution system and content distribution method |
JP7305116B2 (en) * | 2017-10-16 | 2023-07-10 | 株式会社スマイルテレビ | Content delivery system and content delivery method |
JP2021036376A (en) * | 2019-08-30 | 2021-03-04 | 東芝Itコントロールシステム株式会社 | Guiding device |
JP6842136B1 (en) * | 2020-01-10 | 2021-03-17 | クェスタ株式会社 | Program, display control method, display control device and signage system |
KR20210132915A (en) * | 2020-04-28 | 2021-11-05 | 주식회사 이노스피치 | Advertising curation system using face recognition and IoT technology |
WO2023021590A1 (en) * | 2021-08-18 | 2023-02-23 | シャープNecディスプレイソリューションズ株式会社 | Display control device, display control method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293580A (en) * | 1999-04-08 | 2000-10-20 | Sharp Corp | Information selection system |
JP2004348488A (en) * | 2003-05-22 | 2004-12-09 | Japan Tobacco Inc | Vending machine system |
US7398921B2 (en) * | 2004-11-17 | 2008-07-15 | Zito Jr Arthur J | User-specific dispensing system |
JP5441609B2 (en) * | 2009-10-20 | 2014-03-12 | Jr東日本メカトロニクス株式会社 | Information processing apparatus, information processing method, and program |
-
2014
- 2014-09-19 JP JP2014190812A patent/JP6405826B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016062390A (en) | 2016-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6405826B2 (en) | Information processing apparatus, information processing method, and program | |
JP2016177393A (en) | Image processing apparatus, face recognition method, and program | |
TWI779343B (en) | Method of a state recognition, apparatus thereof, electronic device and computer readable storage medium | |
US10803438B2 (en) | Reading apparatus | |
WO2010053191A1 (en) | Electronic advertisement system, electronic advertisement distribution apparatus, electronic advertisement distribution method, and recording medium | |
CN113507621A (en) | Live broadcast method, device, system, computer equipment and storage medium | |
TW201448585A (en) | Real time object scanning using a mobile phone and cloud-based visual search engine | |
JP2016038877A (en) | Display system and display method | |
JP6795667B1 (en) | Network system, suspicious person detection device, and suspicious person detection method | |
JP6048475B2 (en) | Content output apparatus and program | |
JP6519157B2 (en) | INFORMATION EVALUATING DEVICE, INFORMATION EVALUATING METHOD, AND PROGRAM | |
EP3057314A1 (en) | Method, device and system for multipoint video communications | |
KR101405439B1 (en) | System for providing background image based on motion capture, method for providing background image based on motion capture and recording medium thereof | |
JP2016178403A (en) | Information output device, information output method, and program | |
JP6326866B2 (en) | Display device, display method, and program | |
JP2017174222A (en) | Guide output device, guide output method, and program | |
JP2016012174A (en) | Intake estimation device, intake estimation method and program | |
JP2018137513A (en) | Photo taking device, photo taking method, and program | |
JP2017174385A (en) | Content evaluation device, content evaluation method and program | |
JP6531435B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP2017162223A (en) | Content evaluation device, content evaluation method, and program | |
JP2016118816A (en) | Display system, display method, and program | |
JP2017167573A (en) | Information processing apparatus, layout evaluation method, and program | |
JP2016057417A (en) | Information output device, content output method, and program | |
JP2017162221A (en) | Information processing device, content evaluation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170831 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180821 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6405826 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |