JP6405826B2 - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP6405826B2
JP6405826B2 JP2014190812A JP2014190812A JP6405826B2 JP 6405826 B2 JP6405826 B2 JP 6405826B2 JP 2014190812 A JP2014190812 A JP 2014190812A JP 2014190812 A JP2014190812 A JP 2014190812A JP 6405826 B2 JP6405826 B2 JP 6405826B2
Authority
JP
Japan
Prior art keywords
user
content
output
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014190812A
Other languages
Japanese (ja)
Other versions
JP2016062390A (en
Inventor
渋谷 敦
敦 渋谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014190812A priority Critical patent/JP6405826B2/en
Publication of JP2016062390A publication Critical patent/JP2016062390A/en
Application granted granted Critical
Publication of JP6405826B2 publication Critical patent/JP6405826B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Projection Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

従来、映像供給装置に接続される映像出力装置と、反射部材と、スクリーンとを有し、映像出力装置からコンテンツを投影する出力光を反射部材によって反射し、この反射部材によって反射された出力光を当該コンテンツの輪郭の形状に形成されたスクリーンに投影することにより、閲覧者に対して印象を高めることができる映像出力装置搭載機器が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, an image output device connected to an image supply device, a reflection member, and a screen, output light that projects content from the image output device is reflected by the reflection member, and output light reflected by the reflection member There is known a video output device-equipped device that can enhance the impression to the viewer by projecting the image on a screen formed in the shape of the outline of the content (see, for example, Patent Document 1).

特開2011−150221号公報JP 2011-150221 A

しかしながら、特許文献1に記載の技術においては、一方的に映像を出力するだけである。そのため、例えば、ユーザ操作を必要とするコンテンツを出力するような場合に、ユーザに適した操作の種類を把握して、ユーザに適した操作案内を行うことができなかった。   However, the technique described in Patent Document 1 only outputs a video unilaterally. For this reason, for example, when content that requires user operation is output, it is impossible to grasp the type of operation suitable for the user and perform operation guidance suitable for the user.

本発明の課題は、ユーザに適した操作の種類を把握できるようにすることである。   An object of the present invention is to make it possible to grasp the type of operation suitable for a user.

上記課題を解決するため、請求項1に記載の発明の情報処理装置は、
ユーザを検出し、当該ユーザの特徴を抽出する抽出手段と、
出力手段により所定のコンテンツが出力されている間に、前記ユーザにより入力手段に対して行われた操作の種類を検出する検出手段と、
前記抽出手段により抽出された操作したユーザの特徴と前記検出手段により検出された前記ユーザによる操作の種類と、前記操作が検出された際に出力されていたコンテンツと、を対応付けて記憶する記憶手段と、
を備える。
In order to solve the above problem, an information processing apparatus according to claim 1 is provided.
Extraction means for detecting a user and extracting the characteristics of the user;
Detecting means for detecting the type of operation performed on the input means by the user while the predetermined content is output by the output means;
And characteristics of the user who operated extracted by the extraction means, the type of operation by the user detected by the detection unit, the operation is stored in association with a content that has been outputted when detected Storage means;
Is provided.

本発明によれば、ユーザに適した種類の操作を把握することが可能となる。   According to the present invention, it is possible to grasp the types of operations suitable for the user.

本実施形態におけるコンテンツ出力システムの全体構成例を示す図である。It is a figure which shows the example of whole structure of the content output system in this embodiment. 図1のデジタルサイネージ装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the digital signage apparatus of FIG. 図2のスクリーン部の概略構成を示す図である。It is a figure which shows schematic structure of the screen part of FIG. 図1のサーバ装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the server apparatus of FIG. 図4の操作情報記憶部のデータ格納例を示す図である。It is a figure which shows the example of data storage of the operation information storage part of FIG. 図2の制御部により実行される操作情報記録処理を示すフローチャートである。It is a flowchart which shows the operation information recording process performed by the control part of FIG. 図2の制御部により実行されるコンテンツ出力制御処理を示すフローチャートである。It is a flowchart which shows the content output control process performed by the control part of FIG.

以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。以下の実施形態では、本発明に係る情報処理装置をデジタルサイネージ装置1に適用した場合を例にとり説明する。なお、本発明は、図示例に限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, a case where the information processing apparatus according to the present invention is applied to the digital signage apparatus 1 will be described as an example. The present invention is not limited to the illustrated example.

[コンテンツ出力システム100の構成]
図1は、本発明の実施形態におけるコンテンツ出力システム100の全体構成を示す図である。コンテンツ出力システム100は、図1に示すように、店舗に設けられたデジタルサイネージ装置1と、サーバ装置2とを備えて構成されている。デジタルサイネージ装置1とサーバ装置2は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークNを介して通信接続可能に構成されている。なお、デジタルサイネージ装置1の台数は特に限定されない。
[Configuration of Content Output System 100]
FIG. 1 is a diagram showing an overall configuration of a content output system 100 according to an embodiment of the present invention. As shown in FIG. 1, the content output system 100 includes a digital signage device 1 provided in a store and a server device 2. The digital signage device 1 and the server device 2 are configured to be communicable via a communication network N such as a LAN (Local Area Network) or a WAN (Wide Area Network). The number of digital signage devices 1 is not particularly limited.

[デジタルサイネージ装置1の構成]
図2は、デジタルサイネージ装置1の主制御構成を示すブロック図である。
デジタルサイネージ装置1は、例えば、店舗で取り扱っている商品に係るコンテンツを出力する装置であり、図2に示すように、コンテンツの映像光を照射する投影部21と、投影部21から照射された映像光を背面で受けて前面に投影するスクリーン部22とを備えている。
[Configuration of Digital Signage Device 1]
FIG. 2 is a block diagram showing a main control configuration of the digital signage apparatus 1.
The digital signage device 1 is, for example, a device that outputs content related to a product handled in a store. As illustrated in FIG. 2, a projection unit 21 that emits image light of the content, and a projection unit 21 that emits the light. And a screen unit 22 that receives the image light on the back surface and projects the image light on the front surface.

まず、投影部21について説明する。
投影部21は、制御部23と、プロジェクタ24と、記憶部25と、通信部26と、計時部30と、を備えている。プロジェクタ24、記憶部25、通信部26、計時部30は、図2に示すように制御部23に接続されている。
First, the projection unit 21 will be described.
The projection unit 21 includes a control unit 23, a projector 24, a storage unit 25, a communication unit 26, and a timer unit 30. The projector 24, the storage unit 25, the communication unit 26, and the time measuring unit 30 are connected to the control unit 23 as shown in FIG.

制御部23は、記憶部25のプログラム記憶部251に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うCPUとプログラム実行時の作業領域となるメモリとを備えている(いずれも図示略)。制御部23は、プログラムとの協働により、後述する操作情報記録処理やコンテンツ出力制御処理を始めとする各種処理を実行し、抽出手段、出力制御手段、推定手段として機能する。   The control unit 23 includes a CPU that executes various programs stored in the program storage unit 251 of the storage unit 25 to perform predetermined calculations and control of each unit, and a memory that is a work area when the program is executed. (Both not shown). The control unit 23 performs various processes including an operation information recording process and a content output control process described later in cooperation with the program, and functions as an extraction unit, an output control unit, and an estimation unit.

プロジェクタ24は、制御部23から出力された画像データを映像光に変換してスクリーン部22に向けて照射する投影装置である。プロジェクタ24は、例えば、アレイ状に配列された複数個(XGAの場合、横1024画素×縦768画素)の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することでその反射光により光像を形成する表示素子であるDMD(デジタルマイクロミラーデバイス)を利用したDLP(Digital Light Processing)(登録商標)プロジェクタが適用可能である。   The projector 24 is a projection device that converts the image data output from the control unit 23 into image light and irradiates the image data toward the screen unit 22. For example, the projector 24 performs a display operation by individually turning on / off each tilt angle of a plurality of micromirrors arranged in an array (in the case of XGA, horizontal 1024 pixels × vertical 768 pixels) at high speed. A DLP (Digital Light Processing) (registered trademark) projector using a DMD (digital micromirror device), which is a display element that forms a light image with the reflected light, is applicable.

記憶部25は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部25には、図2に示すように、プログラム記憶部251が設けられている。プログラム記憶部251には、制御部23で実行されるシステムプログラムや、後述する操作情報記録処理やコンテンツ出力制御処理を始めとする各種処理を実行するための処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。   The storage unit 25 is configured by an HDD (Hard Disk Drive), a nonvolatile semiconductor memory, or the like. The storage unit 25 is provided with a program storage unit 251 as shown in FIG. The program storage unit 251 includes a system program executed by the control unit 23, a processing program for executing various processes including an operation information recording process and a content output control process, which will be described later, and is necessary for executing these programs. Various data are stored.

また、記憶部25には、コンテンツ記憶部252が設けられている。コンテンツ記憶部252には、コンテンツの識別情報に対応付けて、デジタルサイネージ装置1で再生するコンテンツのデータが記憶されている。コンテンツデータは、例えば、複数のフレーム画像により構成される動画データ及び各フレーム画像に対応する音声データにより構成されている。
また、記憶部25には、自装置の装置NO.が記憶されている。
The storage unit 25 is provided with a content storage unit 252. The content storage unit 252 stores content data to be reproduced by the digital signage apparatus 1 in association with content identification information. The content data is composed of, for example, moving image data composed of a plurality of frame images and audio data corresponding to each frame image.
Further, the storage unit 25 stores the device No. of its own device. Is remembered.

通信部26は、モデム、ルータ、ネットワークカード等により構成され、通信ネットワークNに接続された外部機器との通信を行う。   The communication unit 26 includes a modem, a router, a network card, and the like, and performs communication with an external device connected to the communication network N.

計時部30は、RTC(Real Time Clock)等により構成され、現在日時を取得して制御部23に出力する。   The time measuring unit 30 is configured by an RTC (Real Time Clock) or the like, acquires the current date and time, and outputs it to the control unit 23.

次に、スクリーン部22について説明する。
図3は、スクリーン部22の概略構成を示す正面図である。図3に示すようにスクリーン部22には、画像形成部27と、画像形成部27を支持する台座28とが備えられている。
Next, the screen unit 22 will be described.
FIG. 3 is a front view illustrating a schematic configuration of the screen unit 22. As shown in FIG. 3, the screen unit 22 includes an image forming unit 27 and a pedestal 28 that supports the image forming unit 27.

画像形成部27は、映像光の照射方向に対して略直交するように配置された、例えばアクリル板などの人型に成形された一枚の透光板29に、フィルム状のフレネルレンズが積層された背面投影用のフィルムスクリーン291や予め人物が印刷されたフィルム292が貼付されて構成されたスクリーンである。プロジェクタ24は、画像形成部27のフィルムスクリーン291が貼付された領域に画像を投影する。なお、透光板29全体にフィルムスクリーン291を貼付した構成とし、人物についても投影を行うこととしてもよい。画像形成部27と前述したプロジェクタ24とにより、出力手段を構成している。   The image forming unit 27 is formed by laminating a film-like Fresnel lens on a single translucent plate 29 formed in a human shape such as an acrylic plate, which is disposed so as to be substantially orthogonal to the image light irradiation direction. The rear screen projection film screen 291 and a film 292 on which a person is printed in advance are attached. The projector 24 projects an image on the area where the film screen 291 of the image forming unit 27 is pasted. In addition, it is good also as a structure which stuck the film screen 291 to the translucent board 29 whole, and also projects a person. The image forming unit 27 and the projector 24 described above constitute an output unit.

台座28には、ボタン式の操作部32と、音声を出力するスピーカなどの音声出力部33と、非接触通信部34と、プリンタ35と、撮像部36と、が設けられている。   The pedestal 28 is provided with a button-type operation unit 32, an audio output unit 33 such as a speaker that outputs audio, a non-contact communication unit 34, a printer 35, and an imaging unit 36.

操作部32は、複数の操作ボタンを備え、操作ボタンの押下信号を検出して制御部23に出力する。各操作ボタンには、その操作ボタンを押下することにより実行される処理やその操作ボタンを押下することによるコンテンツの切り替え先等を表示する表示領域32aがそれぞれ対応付けられている。   The operation unit 32 includes a plurality of operation buttons, detects a press signal of the operation button, and outputs it to the control unit 23. Each operation button is associated with a display area 32a for displaying a process executed by pressing the operation button, a content switching destination by pressing the operation button, and the like.

非接触通信部34は、NFC(Near Field Communication)等による無線通信機能を備え、ICカード3や携帯端末4と無線通信を行うことにより、ICカード3や携帯端末4に対してデータの読み書きを行ったり、携帯端末4とデータの送受信を行ったりする。非接触通信部34は、検出手段として機能する。   The non-contact communication unit 34 has a wireless communication function such as NFC (Near Field Communication), and performs wireless communication with the IC card 3 and the mobile terminal 4 to read / write data from / to the IC card 3 and the mobile terminal 4. Or send / receive data to / from the portable terminal 4. The non-contact communication unit 34 functions as a detection unit.

ここで、ICカード3は、デジタルサイネージ装置1が設置された店舗の会員カード等であり、非接触通信が可能であり、ユーザを識別するためのユーザID等が記憶されている。携帯端末4は、ユーザが所持している、非接触通信可能な携帯端末である。   Here, the IC card 3 is a membership card or the like of a store where the digital signage device 1 is installed, and can perform non-contact communication, and stores a user ID and the like for identifying a user. The portable terminal 4 is a portable terminal that is possessed by the user and capable of non-contact communication.

プリンタ35は、制御部23からの指示に従って用紙に印刷を行い、排出口351から出力する。   The printer 35 performs printing on a sheet in accordance with an instruction from the control unit 23 and outputs it from the discharge port 351.

撮像部36は、画像形成部27に対向する空間の画像を撮影して撮影画像を生成する。撮像部36は、図示は省略するが、光学系及び撮像素子を備えるカメラと、カメラを制御する撮像制御部とを備えている。
カメラの光学系は、画像形成部27の前にいる人物(ユーザ)を撮影可能な方向に向けられている。また、その撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサである。そして、撮像素子は、光学系を通過した光学像を2次元の画像信号に変換する。
The imaging unit 36 captures an image of a space facing the image forming unit 27 and generates a captured image. Although not shown, the imaging unit 36 includes a camera including an optical system and an imaging element, and an imaging control unit that controls the camera.
The optical system of the camera is directed in a direction in which a person (user) in front of the image forming unit 27 can be photographed. The imaging element is, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS). The imaging element converts the optical image that has passed through the optical system into a two-dimensional image signal.

操作部32、音声出力部33、非接触通信部34、プリンタ35、撮像部36は、図2に示すように制御部23に接続されている。   The operation unit 32, the audio output unit 33, the non-contact communication unit 34, the printer 35, and the imaging unit 36 are connected to the control unit 23 as shown in FIG.

[サーバ装置2の構成]
図4は、サーバ装置2の主制御構成を示すブロック図である。サーバ装置2は、ユーザに適したコンテンツを選定する装置であり、図4に示すように、制御部201、記憶部202、通信部203等を備えて構成されている。
[Configuration of Server Device 2]
FIG. 4 is a block diagram illustrating a main control configuration of the server device 2. The server device 2 is a device that selects content suitable for the user, and includes a control unit 201, a storage unit 202, a communication unit 203, and the like, as shown in FIG.

制御部201は、記憶部202のプログラム記憶部221に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うCPU(Central Processing Unit)とプログラム実行時の作業領域となるメモリとを備えている(いずれも図示略)。制御部201は、記憶部202のプログラム記憶部221に記憶されているプログラムとの協働により、操作情報分析処理を始めとする各種処理を実行する。   The control unit 201 executes a variety of programs stored in the program storage unit 221 of the storage unit 202 to perform a predetermined calculation and control of each unit, and a memory serving as a work area when executing the program (Both not shown). The control unit 201 executes various processes including an operation information analysis process in cooperation with a program stored in the program storage unit 221 of the storage unit 202.

記憶部202は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部202には、図4に示すように、プログラム記憶部221が設けられている。プログラム記憶部221には、制御部201で実行されるシステムプログラム、操作情報分析処理を始めとする各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。   The storage unit 202 includes an HDD (Hard Disk Drive), a nonvolatile semiconductor memory, or the like. As shown in FIG. 4, the storage unit 202 is provided with a program storage unit 221. The program storage unit 221 stores a system program executed by the control unit 201, various processing programs including an operation information analysis process, data necessary for executing these programs, and the like.

また、記憶部202には、操作情報記憶部222、適合コンテンツ情報記憶部223が設けられている。   The storage unit 202 is provided with an operation information storage unit 222 and a compatible content information storage unit 223.

図5に、操作情報記憶部222のデータ格納例を示す。図5に示すように、操作情報記憶部222には、「日時」、「装置NO.」、「ユーザの特徴」、「再生コンテンツ」、「操作の種類」等の項目が設けられており、デジタルサイネージ装置1において操作が行われたときの操作したユーザの特徴、操作時に再生していたコンテンツを特定する情報、操作の種類等の操作情報を対応付けて記憶する。
ここで、「日時」は、操作が行われた日時である。「装置NO.」は、操作が行われたデジタルサイネージ装置1を識別するための識別番号である。「ユーザの特徴」は、操作を行ったユーザの特徴を示す情報であり、ここでは、性別及び推定年齢とする。「再生コンテンツ」は、どのコンテンツの再生中に操作が行われたかを特定する情報(例えば、操作が行われたときのコンテンツの識別情報や再生開始からの時間)等である。「操作の種類」は、例えば、ボタン操作(操作されたボタン番号)、ICカード3をかざす操作、携帯端末4をかざす操作等である。
FIG. 5 shows an example of data storage in the operation information storage unit 222. As shown in FIG. 5, the operation information storage unit 222 includes items such as “date and time”, “apparatus No.”, “user characteristics”, “reproduction content”, and “operation type”. Operation information such as the characteristics of the operated user when the operation is performed in the digital signage apparatus 1, the information specifying the content reproduced during the operation, and the operation type are stored in association with each other.
Here, “date and time” is the date and time when the operation was performed. “Apparatus No.” is an identification number for identifying the digital signage apparatus 1 that has been operated. “User characteristics” is information indicating the characteristics of the user who performed the operation, and here, gender and estimated age. “Reproduced content” is information (for example, content identification information when the operation is performed or time from the start of reproduction) that identifies which content is being operated. The “type of operation” is, for example, a button operation (operated button number), an operation of holding the IC card 3, an operation of holding the mobile terminal 4, or the like.

適合コンテンツ情報記憶部223は、ユーザの特徴(ここでは、性別及び年齢)と、その特徴を有するユーザに適したコンテンツの識別情報等を対応付けて記憶する。   The compatible content information storage unit 223 stores user characteristics (here, gender and age) and content identification information suitable for the user having the characteristics in association with each other.

通信部203は、モデム、ルータ、ネットワークカード等により構成され、通信ネットワークNに接続された外部機器との通信を行う。   The communication unit 203 includes a modem, a router, a network card, and the like, and performs communication with an external device connected to the communication network N.

[コンテンツ出力システム100の動作]
次に、コンテンツ出力システム100の動作について説明する。
[Operation of Content Output System 100]
Next, the operation of the content output system 100 will be described.

コンテンツ出力システム100においては、まず、所定期間の或いは所定数の操作情報が操作情報記憶部222に蓄積されるまでの間、デジタルサイネージ装置1において操作情報記録処理(図6参照)を実行し、操作情報の蓄積を行う。所定期間の或いは所定数の操作情報が操作情報記憶部222に記憶されると、サーバ装置2において操作情報分析処理を実行し、操作情報記憶部222に蓄積された操作情報に基づいてユーザの特徴毎の嗜好や操作の種類の傾向を分析して、その分析結果に基づいてユーザの特徴毎に適合するコンテンツを選定又は作成する。そして、ユーザの特徴毎に適合するコンテンツの識別情報を適合コンテンツ情報記憶部223に記憶する。その後、デジタルサイネージ装置1においては、コンテンツ出力制御処理(図7参照)を行って、ユーザに適合するコンテンツを出力しつつ、更なる操作情報の蓄積を行う。サーバ装置2は、所定期間の或いは所定数の操作情報が操作情報記憶部222に記憶される毎に、操作情報分析処理を実行し、操作情報記憶部222に蓄積された操作情報に基づいて分析を行い、適合コンテンツの情報を更新する。以下、各装置において実行される処理について説明する。   In the content output system 100, first, operation information recording processing (see FIG. 6) is executed in the digital signage device 1 until a predetermined period or a predetermined number of operation information is accumulated in the operation information storage unit 222. Accumulate operation information. When operation information for a predetermined period or a predetermined number of pieces of operation information is stored in the operation information storage unit 222, an operation information analysis process is executed in the server device 2, and the user characteristics are based on the operation information accumulated in the operation information storage unit 222. The tendency of each preference and operation type is analyzed, and content that matches each user feature is selected or created based on the analysis result. And the identification information of the content adapted for every user characteristic is stored in the adapted content information storage unit 223. Thereafter, the digital signage apparatus 1 performs content output control processing (see FIG. 7), and accumulates further operation information while outputting content suitable for the user. The server device 2 executes an operation information analysis process every time operation information for a predetermined period or a predetermined number is stored in the operation information storage unit 222, and analyzes based on the operation information accumulated in the operation information storage unit 222. To update the information on the relevant content. Hereinafter, processing executed in each apparatus will be described.

(操作情報記録処理)
図6に、デジタルサイネージ装置1において実行される操作情報記録処理のフローチャートを示す。操作情報記録処理は、所定期間の或いは所定数の操作情報が蓄積されるまでの期間内においてデジタルサイネージ装置1の電源がONの間、制御部23とプログラム記憶部251に記憶されているプログラムとの協働により実行される。
(Operation information recording process)
FIG. 6 shows a flowchart of the operation information recording process executed in the digital signage apparatus 1. The operation information recording process includes a program stored in the control unit 23 and the program storage unit 251 while the power of the digital signage device 1 is ON within a predetermined period or a period until a predetermined number of operation information is accumulated. It is executed by the cooperation.

まず、制御部23は、画像形成部27及び音声出力部33によりコンテンツを出力させる(ステップS1)。例えば、制御部23は、コンテンツ記憶部252から順次コンテンツのコンテンツデータを読み出し、そのフレーム画像を順次プロジェクタ24に出力してプロジェクタ24により画像形成部27に投影させる。また、読み出したコンテンツデータの音声データを音声出力部33に出力し、コンテンツの音声を出力させる。なお、ステップS2以降においてもコンテンツの出力は続行される。   First, the control unit 23 causes the image forming unit 27 and the audio output unit 33 to output content (step S1). For example, the control unit 23 sequentially reads content data of content from the content storage unit 252, sequentially outputs the frame images to the projector 24, and causes the projector 24 to project the image forming unit 27. Also, the audio data of the read content data is output to the audio output unit 33, and the audio of the content is output. Note that the output of the content is continued after step S2.

ここで出力されるコンテンツは、例えば、店舗で取り扱っている商品に係る広告等のコンテンツである。コンテンツの中では、例えば、ユーザの操作に応じてコンテンツで説明している商品の割引クーポンが当たるくじ引きや、商品の売場案内の表示、商品カタログのホームページのURLのダウンロード等を行うことができる。また、ユーザ操作(ここでは、操作部32のボタン操作)に応じて、他の商品のコンテンツに切り替えることができる。   The content output here is, for example, content such as an advertisement related to a product handled at a store. In the content, for example, a lottery where a discount coupon for a product described in the content is won, display of a product sales floor guide, download of a URL of a product catalog homepage, and the like can be performed according to a user operation. Moreover, it can switch to the content of another goods according to user operation (here button operation of the operation part 32).

即ち、コンテンツに対するユーザ操作及び操作された時に出力されていたコンテンツを特定する情報をユーザの特徴毎に蓄積すれば、ユーザの特徴毎に、所望する商品の傾向(嗜好の傾向)を取得することが可能である。例えば、くじ引き、売場案内の表示、ダウンロード等を指示する操作は、その操作が行われた時に出力されていたコンテンツで説明されている商品にユーザが興味を持っているとみなすことができる。また、他のコンテンツに切り替える操作は、切り替え先のコンテンツにユーザが興味を持っているとみなすことができる。   That is, if the user operation on the content and the information specifying the content output when the operation is performed are accumulated for each user feature, a desired product tendency (preference trend) is obtained for each user feature. Is possible. For example, an operation that instructs a lottery, display of a sales floor guide, download, or the like can be considered that the user is interested in the product described in the content that was output when the operation was performed. In addition, an operation for switching to another content can be considered that the user is interested in the switching destination content.

また、ここで出力されるコンテンツでは、複数種類の操作手段が用意されている。例えば、くじ引きにより割引クーポンを取得する操作としては、(1)操作ボタンを押下して、紙のクーポンを発行、(2)ICカード3を非接触通信部34にかざしてICカード3にクーポン情報を書き込み、(3)携帯端末4のアプリを立ち上げ非接触通信部34にかざして携帯端末4にクーポン情報を書き込み、の3つの操作手段が用意されている。そこで、コンテンツに対するユーザ操作の種類をユーザの特徴毎に蓄積すれば、ユーザの特徴毎にどのような種類の操作が多く用いられているかの情報を取得することができる。   In addition, a plurality of types of operation means are prepared for the content output here. For example, operations for obtaining a discount coupon by lottery include (1) pressing an operation button to issue a paper coupon, and (2) holding the IC card 3 over the non-contact communication unit 34 and coupon information on the IC card 3 Three operation means are prepared: (3) launching the application of the mobile terminal 4 and holding the application over the non-contact communication unit 34 to write the coupon information to the mobile terminal 4. Therefore, if the types of user operations for content are accumulated for each user feature, information on what types of operations are frequently used for each user feature can be acquired.

次いで、制御部23は、撮像部36により撮影を行わせて撮影画像を取得し(ステップS2)、取得した撮影画像に対して顔認識処理を行う(ステップS3)。そして、撮影画像から顔が検出されたか否かを判断する(ステップS4)。顔認識処理は、目、鼻、口等の特徴に基づく公知の画像処理技術を用いて行うことができる。   Next, the control unit 23 obtains a photographed image by photographing with the imaging unit 36 (step S2), and performs face recognition processing on the obtained photographed image (step S3). Then, it is determined whether or not a face is detected from the captured image (step S4). The face recognition process can be performed using a known image processing technique based on features such as eyes, nose, and mouth.

撮影画像から顔が検出されなかったと判断した場合(ステップS4;NO)、制御部23は、ステップS1に戻り、コンテンツの出力中において所定時間間隔で撮像部36により撮影を行わせる。   If it is determined that no face has been detected from the captured image (step S4; NO), the control unit 23 returns to step S1 and causes the imaging unit 36 to capture images at predetermined time intervals during the output of the content.

撮影画像から顔が検出されたと判断した場合(ステップS4;YES)、制御部23は、ユーザが検出されたと判断し、撮影画像から検出された顔画像から、デジタルサイネージ装置1の前に来たユーザの特徴(具体的には、年齢、性別)を抽出し、抽出されたユーザの特徴を顔領域(位置及びサイズ)に対応付けてメモリの所定領域に記憶(上書き)する(ステップS5)。なお、ユーザの年齢及び性別の抽出は、例えば、顔画像から抽出した顔の輪郭やパーツの特徴に基づいて年齢や性別を推定する手法等、公知の何れの画像処理技術を用いて行ってもよい。撮影画像から複数の顔が検出された場合は、それぞれの顔画像から特徴の抽出を行う。   When it is determined that a face has been detected from the captured image (step S4; YES), the control unit 23 determines that the user has been detected and has come to the front of the digital signage device 1 from the face image detected from the captured image. User characteristics (specifically, age and sex) are extracted, and the extracted user characteristics are stored (overwritten) in a predetermined area of the memory in association with the face area (position and size) (step S5). Note that the extraction of the user's age and gender may be performed using any known image processing technique such as a method of estimating the age and gender based on the facial contour extracted from the face image and the characteristics of the parts. Good. When a plurality of faces are detected from the photographed image, features are extracted from each face image.

次いで、制御部23は、ユーザ操作が検出されたか否かを判断する(ステップS6)。ここでは、操作部32の何れかの操作ボタンの操作、ICカード3をかざす操作、携帯端末4をかざす操作、の何れかが検出されたか否かを判断する。ICカード3や携帯端末4をかざす操作が検出されたか否かは、非接触通信部34の通信エリア内にICカード3や携帯端末4が検出されたか否かに基づいて判断する。   Next, the control unit 23 determines whether a user operation has been detected (step S6). Here, it is determined whether any one of the operation buttons 32 of the operation unit 32, the operation of holding the IC card 3 or the operation of holding the portable terminal 4 is detected. Whether or not an operation of holding the IC card 3 or the portable terminal 4 is detected is determined based on whether or not the IC card 3 or the portable terminal 4 is detected in the communication area of the non-contact communication unit 34.

ユーザ操作が検出されていないと判断した場合(ステップS6;NO)、制御部23は、ステップS1に戻る。   If it is determined that no user operation has been detected (step S6; NO), the control unit 23 returns to step S1.

ユーザ操作が検出されたと判断した場合(ステップS6;YES)、制御部23は、計時部30により現在日時(操作日時)を取得し、操作したユーザを推定する(ステップS7)。具体的には、ステップS4において検出された顔が1つである場合は、その顔のユーザが操作したユーザであると推定する。ステップS4において検出された顔が複数である場合は、顔領域が最も大きいユーザが操作したユーザであると推定する。   If it is determined that a user operation has been detected (step S6; YES), the control unit 23 acquires the current date and time (operation date and time) by the time measuring unit 30, and estimates the operated user (step S7). Specifically, when the number of faces detected in step S4 is one, it is estimated that the user operated by the user of that face. When there are a plurality of faces detected in step S4, it is estimated that the user operated by the user with the largest face area is operated.

そして、制御部23は、操作日時、自装置の装置NO.、メモリに記憶されている操作したユーザの特徴、操作時に再生されていたコンテンツを特定する情報、及び操作の種類(ボタン操作(操作されたボタン番号)、ICカードをかざす操作、携帯端末をかざす操作)を対応付けて操作情報として通信部26によりサーバ装置2に送信して操作情報記憶部222に記憶させ(ステップS8)、ステップS1に戻る。   Then, the control unit 23 operates the operation date and time, the device number of the own device, the characteristics of the operated user stored in the memory, the information specifying the content reproduced at the time of operation, and the type of operation (button operation (operation Button number), an operation of holding an IC card, and an operation of holding a portable terminal) are associated with each other and transmitted as operation information to the server device 2 by the communication unit 26 and stored in the operation information storage unit 222 (step S8). Return to S1.

制御部23は、デジタルサイネージ装置1の電源がONである間、ステップS1〜ステップS8を繰り返し実行する。   The control unit 23 repeatedly executes Steps S1 to S8 while the digital signage device 1 is powered on.

サーバ装置2の制御部201は、通信部203によりデジタルサイネージ装置1から操作情報を受信すると、受信した操作情報を操作情報記憶部222に記憶する。   When the control unit 201 of the server device 2 receives the operation information from the digital signage device 1 through the communication unit 203, the control unit 201 stores the received operation information in the operation information storage unit 222.

(操作情報分析処理)
所定期間の或いは所定数の操作情報が操作情報記憶部222に記憶されると、サーバ装置2の制御部201は、操作情報分析処理を実行し、分析手段として操作情報記憶部222に蓄積された操作情報に基づいてユーザの特徴毎の嗜好や操作の種類の傾向を分析し、ユーザの特徴毎に適合するコンテンツの傾向を取得する。操作の種類の傾向としては、例えば、ユーザの特徴毎に、最も多く用いられていると判定された操作の種類を分析する。そして、分析結果に基づいて、ユーザの特徴毎に適合するコンテンツを既に用意されたコンテンツの中から選定するか、又はユーザの特徴毎に適合するコンテンツを新たに生成し、ユーザの特徴とそのコンテンツの識別情報とを対応付けて適合コンテンツ情報記憶部223に記憶する。新たにコンテンツが生成された場合は、コンテンツの識別情報とコンテンツデータとを対応付けてデジタルサイネージ装置1に送信し、コンテンツ記憶部252に記憶させる。
(Operation information analysis processing)
When operation information for a predetermined period or a predetermined number of operations is stored in the operation information storage unit 222, the control unit 201 of the server device 2 executes an operation information analysis process and is stored in the operation information storage unit 222 as an analysis unit. Based on the operation information, the tendency of the preference and operation type for each feature of the user is analyzed, and the tendency of the content suitable for each feature of the user is acquired. As the tendency of the type of operation, for example, the type of operation determined to be used most frequently is analyzed for each feature of the user. Based on the analysis result, content that matches each user's characteristics is selected from the already prepared contents, or content that matches each user's characteristics is newly generated. Are stored in the matching content information storage unit 223 in association with each other. When a new content is generated, the content identification information and the content data are associated with each other and transmitted to the digital signage apparatus 1 and stored in the content storage unit 252.

ここで、上述のように、サーバ装置2においては、操作情報記憶部222に蓄積された操作情報に基づいて、ユーザの特徴毎に、例えば、所望する商品の傾向(嗜好の傾向)及び操作の種類の傾向を分析して取得することができる。そこで、本実施形態においては、サーバ装置2の制御部201は、操作情報記憶部222に蓄積された操作情報に基づいて、ユーザの特徴毎に、その特徴を有するユーザの嗜好に適合する商品についてのコンテンツであって、その特徴を有するユーザに最も多く用いられている操作の種類の操作案内が表示されるコンテンツを適合コンテンツとして、その識別情報をユーザの特徴に対応付けて適合コンテンツ情報記憶部223に記憶する。
なお、サーバ装置2の制御部201は、操作情報分析処理が終了すると、通信部203によりデジタルサイネージ装置1にその旨を通知する。
Here, as described above, in the server device 2, for example, for a feature of the user, for example, a desired product tendency (preference tendency) and an operation are performed based on the operation information accumulated in the operation information storage unit 222. Analyzes and obtains trends of types. Therefore, in the present embodiment, the control unit 201 of the server device 2 uses the operation information stored in the operation information storage unit 222 to determine, for each user feature, a product that matches the user preference having the feature. Content for which the operation guide of the type of operation most frequently used by the user having the feature is displayed as the matching content, and the identification information is associated with the user's feature and the matching content information storage unit Store in 223.
When the operation information analysis process is completed, the control unit 201 of the server device 2 notifies the digital signage device 1 to that effect by the communication unit 203.

(コンテンツ出力制御処理)
サーバ装置2において、上述の操作情報記録処理によりユーザの特徴毎に適合するコンテンツの識別情報が適合コンテンツ情報記憶部223に記憶されると、デジタルサイネージ装置1はの制御部23は、コンテンツ出力制御処理(図7参照)を行って、ユーザに適合するコンテンツを出力しつつ、更なる操作情報の蓄積を行う。
(Content output control processing)
In the server device 2, when content identification information that matches each user feature is stored in the compatible content information storage unit 223 by the above-described operation information recording process, the control unit 23 of the digital signage device 1 performs content output control. Processing (refer to FIG. 7) is performed, and further operation information is accumulated while outputting contents suitable for the user.

図7に、デジタルサイネージ装置1において実行されるコンテンツ出力制御処理のフローチャートを示す。コンテンツ出力制御処理は、デジタルサイネージ装置1の電源がONの間、制御部23とプログラム記憶部251に記憶されているプログラムとの協働により実行される。   FIG. 7 shows a flowchart of content output control processing executed in the digital signage apparatus 1. The content output control process is executed by cooperation of the control unit 23 and the program stored in the program storage unit 251 while the digital signage device 1 is powered on.

まず、制御部23は、画像形成部27及び音声出力部33によりコンテンツを出力させる(ステップS11)。例えば、制御部23は、コンテンツ記憶部252から順次コンテンツのコンテンツデータを読み出して画像形成部27及び音声出力部33により出力させる。なお、ステップS12以降においてもコンテンツの出力は続行される。   First, the control unit 23 causes the image forming unit 27 and the audio output unit 33 to output content (step S11). For example, the control unit 23 sequentially reads content data of content from the content storage unit 252 and causes the image forming unit 27 and the audio output unit 33 to output the content data. Note that the output of the content is continued after step S12.

次いで、制御部23は、撮像部36により撮影を行わせて撮影画像を取得し(ステップS12)、取得した撮影画像に対して顔認識処理を行う(ステップS13)。そして、撮影画像から顔が検出されたか否かを判断する(ステップS14)。   Next, the control unit 23 obtains a photographed image by photographing with the imaging unit 36 (step S12), and performs face recognition processing on the obtained photographed image (step S13). Then, it is determined whether or not a face has been detected from the captured image (step S14).

撮影画像から顔が検出されなかったと判断した場合(ステップS14;NO)、制御部23は、ステップS11に戻り、コンテンツの出力中において所定時間間隔で撮像部36により撮影を行わせる。   If it is determined that no face has been detected from the captured image (step S14; NO), the control unit 23 returns to step S11 and causes the image capturing unit 36 to capture images at predetermined time intervals during the output of the content.

撮影画像から顔が検出されたと判断した場合(ステップS14;YES)、制御部23は、新たにユーザが検出されたと判断し、撮影画像から検出された顔画像から、デジタルサイネージ装置1の前に来たユーザの特徴(具体的には、年齢、性別)を抽出し、抽出されたユーザの特徴を顔領域に対応付けてメモリの所定領域に記憶(上書き)する(ステップS15)。なお、撮影画像から複数の顔が検出された場合は、最も大きい顔領域、即ち、最もデジタルサイネージ装置1の近くにいるユーザの顔画像からユーザの特徴を抽出する。   When it is determined that a face has been detected from the captured image (step S14; YES), the control unit 23 determines that a new user has been detected, and before the digital signage device 1 from the face image detected from the captured image. The features (specifically, age and gender) of the user who has come are extracted, and the extracted user features are associated with the face area and stored (overwritten) in a predetermined area of the memory (step S15). When a plurality of faces are detected from the captured image, the user's features are extracted from the largest face area, that is, the face image of the user closest to the digital signage device 1.

そして、制御部23は、通信部26によりサーバ装置2にユーザの特徴の情報を送信してコンテンツの選定を依頼する(ステップS16)。   And the control part 23 requests | requires selection of a content by transmitting the information of a user's characteristic to the server apparatus 2 by the communication part 26 (step S16).

サーバ装置2において、制御部201は、通信部203により操作情報を受信すると、適合コンテンツ情報記憶部223を参照し、受信したユーザの特徴に対応付けて記憶されている識別情報のコンテンツをユーザに適合したコンテンツとして選定する。ここでユーザに適合したコンテンツとは、操作情報記憶部222に蓄積されている、受信にしたユーザの特徴に紐づいている操作情報に基づいたコンテンツである。例えば、女性30代が携帯端末で最も操作を行っている場合、携帯端末で操作することをメインとするコンテンツを選定する。そして、選定したコンテンツの識別情報を通信部203によりデジタルサイネージ装置1に送信する。   In the server device 2, when the control unit 201 receives the operation information from the communication unit 203, the control unit 201 refers to the compatible content information storage unit 223, and sends the content of the identification information stored in association with the received user characteristics to the user. Select as suitable content. Here, the content suitable for the user is content based on the operation information stored in the operation information storage unit 222 and associated with the received user characteristics. For example, when the female 30's is performing the most operation on the mobile terminal, the content that is mainly operated by the mobile terminal is selected. Then, the identification information of the selected content is transmitted to the digital signage device 1 by the communication unit 203.

デジタルサイネージ装置1においては、通信部26によりサーバ装置2からの選定されたコンテンツの識別情報の受信を待機する(ステップS17)。
通信部26によりサーバ装置2からの選定されたコンテンツの識別情報を受信すると(ステップS17;YES)、制御部23は、ステップS15で抽出した特徴と同じ特徴のユーザが検出されたか否かを判断する(ステップS18)。具体的には、ステップS11〜ステップS15で説明したものと同様の処理を再度行って、抽出された特徴がメモリに記憶されている特徴と一致している場合に、ステップS15で抽出した特徴と同じ特徴のユーザが検出されたと判断する。
In the digital signage apparatus 1, the communication unit 26 waits for reception of identification information of the selected content from the server apparatus 2 (step S17).
When the identification information of the selected content from the server device 2 is received by the communication unit 26 (step S17; YES), the control unit 23 determines whether or not a user having the same feature as the feature extracted in step S15 has been detected. (Step S18). Specifically, when the same process as described in steps S11 to S15 is performed again and the extracted feature matches the feature stored in the memory, the feature extracted in step S15 It is determined that a user having the same characteristics has been detected.

ステップS15で抽出した特徴と同じ特徴のユーザが検出されたと判断した場合(ステップS18;YES)、制御部23は、サーバ装置2において選定されたコンテンツを画像形成部27及び音声出力部33により出力させる(ステップS19)。   When it is determined that a user having the same feature as the feature extracted in step S15 is detected (step S18; YES), the control unit 23 outputs the content selected in the server device 2 by the image forming unit 27 and the audio output unit 33. (Step S19).

次いで、制御部23は、ユーザ操作が検出されたか否かを判断する(ステップS20)。ここでは、操作部32の何れかの操作ボタンの操作、ICカード3をかざす操作、携帯端末4をかざす操作、の何れかが検出されたか否かを判断する。   Next, the control unit 23 determines whether a user operation is detected (step S20). Here, it is determined whether any one of the operation buttons 32 of the operation unit 32, the operation of holding the IC card 3 or the operation of holding the portable terminal 4 is detected.

ユーザ操作が検出されていないと判断した場合(ステップS20;NO)、制御部23は、ステップS18に戻る。
ユーザ操作が検出されたと判断した場合(ステップS20;YES)、制御部23は、計時部30により現在日時(操作日時)を取得し、メモリにその特徴が記憶されているユーザ(撮影画像中で最も顔領域の大きいユーザ)を操作したユーザと推定する(ステップS21)。そして、制御部23は、操作日時、自装置の装置NO.、メモリに記憶されている操作したユーザの特徴、操作時に再生されていたコンテンツを特定する情報、及び操作の種類(ボタン操作(操作されたボタン番号)、ICカードをかざす操作、携帯端末をかざす操作)を対応付けて操作情報として通信部26によりサーバ装置2に送信し(ステップS22)、ステップS18に戻る。
If it is determined that no user operation has been detected (step S20; NO), the control unit 23 returns to step S18.
If it is determined that a user operation has been detected (step S20; YES), the control unit 23 acquires the current date and time (operation date and time) by the time measuring unit 30, and the user whose characteristics are stored in the memory (in the captured image). It is estimated that the user who operated the user with the largest face area is the operated user (step S21). Then, the control unit 23 operates the operation date and time, the device number of the own device, the characteristics of the operated user stored in the memory, the information specifying the content reproduced at the time of operation, and the type of operation (button operation (operation Button number), an operation of holding an IC card, and an operation of holding a portable terminal are associated with each other and transmitted as operation information to the server device 2 by the communication unit 26 (step S22), and the process returns to step S18.

サーバ装置2の制御部201は、通信部203によりデジタルサイネージ装置1から操作情報を受信すると、受信した操作情報を操作情報記憶部222に記憶する。   When the control unit 201 of the server device 2 receives the operation information from the digital signage device 1 through the communication unit 203, the control unit 201 stores the received operation information in the operation information storage unit 222.

一方、ステップS18において、ステップS15で抽出した特徴と同じ特徴のユーザが検出されていないと判断した場合(ステップS18;NO)、制御部23は、ステップS11に戻る。   On the other hand, when it is determined in step S18 that a user having the same feature as that extracted in step S15 has not been detected (step S18; NO), the control unit 23 returns to step S11.

制御部23は、デジタルサイネージ装置1の電源がONである間、ステップS11〜ステップS22の処理を繰り返し実行する。   The control unit 23 repeatedly executes the processes of steps S11 to S22 while the power of the digital signage device 1 is ON.

このように、コンテンツ出力システム100においては、デジタルサイネージ装置1の前にいるユーザの特徴に応じて、ユーザの嗜好に合った商品についてのコンテンツであって、ユーザに適した操作の種類の操作案内を出力するコンテンツを選定して出力する。従って、ユーザの嗜好に応じた利便性の高いコンテンツを提供することが可能となる。   As described above, in the content output system 100, the content is about the product that matches the user's preference according to the characteristics of the user in front of the digital signage device 1, and the operation guidance of the type of operation suitable for the user. Select the content to be output. Therefore, it is possible to provide highly convenient content according to the user's preference.

所定期間の或いは所定数の操作情報が操作情報記憶部222に記憶されると、サーバ装置2の制御部201は、上述の操作情報分析処理を実行し、適合コンテンツ情報記憶部223に記憶されている内容やコンテンツ記憶部252に記憶されているコンテンツデータの更新を行う。   When operation information for a predetermined period or a predetermined number of pieces of operation information is stored in the operation information storage unit 222, the control unit 201 of the server device 2 executes the above-described operation information analysis process and is stored in the compatible content information storage unit 223. Content data stored in the content storage unit 252 is updated.

以上説明したように、本実施形態におけるデジタルサイネージ装置1によれば、制御部23は、ユーザにより行われた操作の種類を検出し、操作したユーザの特徴と操作の種類とを対応付けてサーバ装置2の操作情報記憶部222に記憶させる。   As described above, according to the digital signage apparatus 1 in the present embodiment, the control unit 23 detects the type of operation performed by the user, and associates the operated user's characteristics with the type of operation to the server. The information is stored in the operation information storage unit 222 of the device 2.

従って、ユーザの特徴毎に操作の種類の傾向を取得することが可能となるので、ユーザに適した操作の種類を把握することが可能となる。   Therefore, since it is possible to acquire the tendency of the type of operation for each feature of the user, it is possible to grasp the type of operation suitable for the user.

ユーザによる操作の種類には、ボタン操作、カードをかざす操作、携帯端末をかざす操作が含まれるので、ユーザに適した操作の種類がボタン操作なのか、カードをかざす操作なのか、携帯端末をかざす操作なのか等を把握することが可能となる。   The types of operations by the user include button operations, card-holding operations, and operations that hold the mobile terminal, so whether the type of operation suitable for the user is a button operation, an operation that holds the card, or the mobile terminal It becomes possible to grasp whether it is an operation or the like.

また、サーバ装置2の制御部201は、操作情報記憶部222において互いに対応付けて記憶されているユーザの特徴及び操作の種類に基づいて、ユーザの特徴毎に、当該特徴を有するユーザに最も多く用いられている操作の種類の傾向を分析し、この傾向に応じた適合コンテンツ(具体的には、最も多く用いられている操作の種類の操作案内を行うコンテンツ)の識別情報をユーザの特徴に対応付けて適合コンテンツ情報記憶部223に記憶する。デジタルサイネージ装置1の制御部23は、新たにユーザを検出してその特徴を抽出した場合に、出力されているコンテンツを、抽出した特徴に対応するコンテンツに切り替える。
従って、ユーザに適した操作の種類の操作案内を行うコンテンツを出力するので、ユーザの利便性を向上させることができる。
In addition, the control unit 201 of the server device 2 is most frequently assigned to the user having the feature for each user feature based on the user feature and the type of operation stored in the operation information storage unit 222 in association with each other. Analyzing the tendency of the type of operation used, and using the identification information of the matching content (specifically, the content that provides operation guidance for the most frequently used operation type) according to this trend as the user's characteristics The associated content information storage unit 223 is stored in association with each other. When the control unit 23 of the digital signage apparatus 1 newly detects a user and extracts its features, the output content is switched to content corresponding to the extracted features.
Therefore, since the content for performing the operation guidance of the type of operation suitable for the user is output, the convenience for the user can be improved.

また、操作情報記憶部222には、操作したユーザの特徴と、操作の種類と、操作が検出されたときに出力されていたコンテンツを特定する情報とを対応付けて記憶するので、ユーザの特徴毎に、興味を持ったコンテンツ、即ち嗜好の傾向を把握することが可能となる。   In addition, the operation information storage unit 222 stores the characteristics of the operated user, the type of operation, and information specifying the content that was output when the operation was detected in association with each other. Every time, it becomes possible to grasp the content of interest, that is, the tendency of preference.

ユーザの特徴は、ユーザの撮影画像を撮像部36により取得し、取得した撮影画像に顔認識処理を行い、認識した顔画像に基づいて抽出することができる。   The user's characteristics can be extracted based on the recognized face image by acquiring the user's captured image by the imaging unit 36, performing face recognition processing on the acquired captured image.

また、顔認識処理により複数の顔画像が認識された場合に、認識された顔画像のうち最も大きい顔画像を操作したユーザの顔画像と推定するので、操作したユーザを容易に推定することができる。   In addition, when a plurality of face images are recognized by the face recognition process, the largest face image among the recognized face images is estimated as the face image of the user who operated, so that the operated user can be easily estimated. it can.

また、ユーザの特徴としてユーザの性別及び年齢を抽出することで、性別及び年齢別に操作の種類の傾向を取得することが可能となるので、ユーザの性別や年齢に適した操作の種類を把握し、ユーザの性別や年齢に適した操作の種類の操作案内を出力するコンテンツを出力することが可能となる。   Also, by extracting the user's gender and age as the user's characteristics, it becomes possible to acquire the tendency of the operation type by gender and age, so it is possible to grasp the type of operation suitable for the user's gender and age. It is possible to output content that outputs operation guidance of the type of operation suitable for the user's gender and age.

なお、上記実施形態における記述内容は、本発明に係るコンテンツ出力システム及びデジタルサイネージ装置の好適な一例であり、これに限定されるものではない。   In addition, the description content in the said embodiment is a suitable example of the content output system and digital signage apparatus which concern on this invention, and is not limited to this.

例えば、上記実施形態においては、撮影画像からのユーザの検出及びユーザの特徴の抽出をデジタルサイネージ装置1において行うこととしたが、サーバ装置2で行うこととしてもよい。そして、デジタルサイネージ装置1において操作が行われ、操作日時、装置NO.、操作の種類及び操作時に再生されていたコンテンツの情報がサーバ装置2に送信されると、サーバ装置2の制御部23は、直前に抽出された操作したユーザの特徴を受信した情報に対応付けて操作情報記憶部222に記憶し、操作したユーザに適合するコンテンツを選定することとしてもよい。   For example, in the above-described embodiment, the user detection and the user feature extraction from the captured image are performed in the digital signage device 1, but may be performed in the server device 2. And operation is performed in the digital signage apparatus 1, operation date and time, apparatus NO. When the information on the type of operation and the content reproduced at the time of operation is transmitted to the server device 2, the control unit 23 of the server device 2 associates the feature of the operated user extracted immediately before with the received information. It is also possible to select content that is stored in the operation information storage unit 222 and that matches the operated user.

また、上記実施形態においては、操作情報記憶部222及び適合コンテンツ情報記憶部223をサーバ装置2に設け、サーバ装置2において操作情報の記憶を行ったり、蓄積された操作情報に基づく分析を行ったり、ユーザに適合するコンテンツを選定したりする場合を例にとり説明したが、操作情報記憶部222及び適合コンテンツ情報記憶部223をデジタルサイネージ装置1の記憶部25に設け、サーバ装置2で行った処理についてもデジタルサイネージ装置1の制御部23により行うこととしてもよい。   In the above-described embodiment, the operation information storage unit 222 and the compatible content information storage unit 223 are provided in the server device 2 so that the server device 2 stores the operation information or performs an analysis based on the accumulated operation information. However, the operation information storage unit 222 and the compatible content information storage unit 223 are provided in the storage unit 25 of the digital signage device 1 and processing performed by the server device 2 is described. This may be performed by the control unit 23 of the digital signage apparatus 1.

また、上記実施形態においては、コンテンツ出力制御処理において、ユーザを検出した際にユーザの特徴を抽出してこの特徴に適合したコンテンツを選定して出力することとして説明したが、ユーザ操作が検出された際に、操作したユーザの特徴に適合したコンテンツを選定して出力することとしてもよい。   In the above embodiment, in the content output control process, when a user is detected, the feature of the user is extracted, and content that matches the feature is selected and output. However, a user operation is detected. In this case, it is also possible to select and output content suitable for the characteristics of the operated user.

また、上記実施形態においては、コンテンツを予めデジタルサイネージ装置1に記憶しておき、記憶されているコンテンツの中から検出されたユーザの特徴に適合するコンテンツを選定することとしたが、ユーザの特徴に適合するコンテンツをサーバ装置2からその場でネット配信することとしてもよい。   In the above embodiment, the content is stored in the digital signage device 1 in advance, and the content that matches the detected user's characteristics is selected from the stored contents. Content that conforms to the above may be distributed on the spot from the server device 2.

また、上記実施形態においては、操作の種類を、ボタン操作、ICカードをかざす操作、携帯端末をかざす操作の3種類としたが、操作の種類はこれらに限定されるものではない。例えば、デジタルサイネージ装置1からの質問に対して音声で応答を入力する対話型操作や、デジタルサイネージ装置1の前での動作(例えば、手の動き等)で操作入力を行うアクション操作等を含めることとしてもよい。また、この場合、対話の内容(回答)やアクションの内容を併せて操作情報に記憶する。   Moreover, in the said embodiment, although the kind of operation was made into 3 types, the operation of holding up a button operation, holding up an IC card, and holding up a portable terminal, the kind of operation is not limited to these. For example, an interactive operation for inputting a response to a question from the digital signage device 1 by voice, an action operation for performing an operation input by an operation in front of the digital signage device 1 (for example, a hand movement), and the like are included. It is good as well. In this case, the content of the dialogue (answer) and the content of the action are also stored in the operation information.

また、上記実施形態においては、顔画像からユーザの特徴として性別及び年齢を取得する場合を例にとり説明したが、ユーザの特徴としては、これに限定されない。例えば、人種、操作者の表情(笑っているか等)、メガネの有無、服装等をユーザの特徴として取得してもよい。これにより、よりきめ細かくユーザの特徴を分類し、より一層ユーザに適合したコンテンツを選定することができる。また、操作情報記憶部222に記憶されている操作情報のマーケティングデータとしての価値を向上させることができる。   Moreover, in the said embodiment, although the case where sex and age were acquired as a user's characteristic from a face image was demonstrated as an example, as a user's characteristic, it is not limited to this. For example, race, operator's facial expression (whether laughing, etc.), presence / absence of glasses, clothes, etc. may be acquired as user characteristics. As a result, it is possible to classify the user's characteristics more finely and select content that is more suitable for the user. Further, the value of the operation information stored in the operation information storage unit 222 as marketing data can be improved.

また、上記実施形態においては、操作者と推定されたユーザの特徴のみを操作情報に含めて記憶することとしたが、撮影画像に顔画像が複数存在する場合、他の顔画像の人数(一緒にコンテンツを見ていた人数)やそれぞれのユーザの特徴を操作情報に対応付けて記憶することとしてもよい。これにより操作情報記憶部222に記憶されている操作情報のマーケティングデータとしての価値を更に向上させることができる。   In the above embodiment, only the features of the user estimated to be the operator are included in the operation information and stored. However, when there are a plurality of face images in the captured image, the number of other face images (together) The number of users who are viewing the content) and the characteristics of each user may be stored in association with the operation information. Thereby, the value as marketing data of the operation information memorize | stored in the operation information memory | storage part 222 can further be improved.

また、例えば、店舗の会員登録時等に個人情報とともに登録されたユーザの顔画像をデジタルサイネージ装置1又はサーバ装置2のデータベースに記憶している場合、撮影画像から得られたユーザの顔画像とデータベースの顧客の顔画像とを照合することによりユーザの個人を特定してもよい。そして、特定したユーザのユーザID等に対応付けて操作情報を記憶しておけば、操作情報に基づいてユーザ個人の嗜好や操作の種類の傾向を取得することができ、ユーザ個人に適したコンテンツの選定が可能となる。また、所定時間毎に撮影を行ってそのユーザが笑顔になった時点のコンテンツの内容や位置を記憶しておけば、そのユーザがコンテンツのどこに反応したのかを明確にすることができ、マーケティングに役立てることができる。   Further, for example, when the face image of the user registered together with the personal information at the time of registering the store member is stored in the database of the digital signage device 1 or the server device 2, the user's face image obtained from the photographed image The user's individual may be specified by collating with the customer's face image in the database. If operation information is stored in association with the user ID and the like of the identified user, the user's personal preference and operation type tendency can be acquired based on the operation information, and content suitable for the user's individual Can be selected. Also, if you take a picture every predetermined time and remember the content and position of the content when the user smiles, you can clarify where the user reacted in the content, Can be useful.

また、上記実施形態においては、撮影画像から抽出された操作者の顔画像は特に利用せずに破棄しているが、目的に応じて操作情報に対応付けて記憶することとしてもよい。顔画像のデータを毎回記憶していくと、記憶すべきデータ量が大量となるという問題があるが、例えば、犯罪防止用の監視カメラの機能も兼ねるという目的で使用するのであれば顔画像も併せて記憶してもよい。   In the above embodiment, the operator's face image extracted from the photographed image is discarded without being used in particular, but may be stored in association with the operation information according to the purpose. If the face image data is stored every time, there is a problem that the amount of data to be stored becomes large. For example, if it is used for the purpose of also serving as a crime prevention surveillance camera, the face image is also used. It may be stored together.

また、上記実施形態においては、画像形成部27が人型である場合を例にとり説明したが、他の形状としてもよく、これに限定されるものではない。   In the above-described embodiment, the case where the image forming unit 27 is a human type has been described as an example. However, other shapes may be used, and the present invention is not limited to this.

また、上記実施形態においては、本発明をプロジェクタからスクリーンに画像を投影することで画像の表示を行うデジタルサイネージ装置に適用した場合を例にとり説明したが、例えば、液晶ディスプレイ、プラズマディスプレイ等、他の表示装置を有するコンテンツ出力装置に適用しても同様の効果を奏することができ、この例に限定されない。   In the above embodiment, the case where the present invention is applied to a digital signage apparatus that displays an image by projecting an image from a projector onto a screen has been described as an example. Even if it is applied to a content output device having the display device, the same effect can be obtained, and the present invention is not limited to this example.

その他、コンテンツ出力システム及びデジタルサイネージ装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of the content output system and the digital signage apparatus can be changed as appropriate without departing from the spirit of the invention.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
ユーザを検出し、当該ユーザの特徴を抽出する抽出手段と、
前記ユーザにより行われた操作の種類を検出する検出手段と、
前記抽出手段により抽出された操作したユーザの特徴と前記検出手段により検出された前記ユーザによる操作の種類とを対応付けて記憶する記憶手段と、
を備える情報処理装置。
<請求項2>
前記ユーザによる操作の種類には、ボタン操作、カードをかざす操作、携帯端末をかざす操作が含まれる請求項1に記載の情報処理装置。
<請求項3>
コンテンツを出力する出力手段と、
前記抽出手段が新たにユーザを検出してその特徴を抽出した場合に、前記出力手段により出力されているコンテンツを前記記憶手段において前記抽出された特徴に対応付けて記憶されている操作の種類に基づくコンテンツに切り替える出力制御手段と、
を備える請求項1又は2に記載の情報処理装置。
<請求項4>
前記記憶手段において互いに対応付けて記憶されているユーザの特徴及び操作の種類に基づいて、ユーザの特徴毎に、当該特徴を有するユーザに最も多く用いられている操作の種類を分析する分析手段を備え、
前記出力制御手段は、前記抽出手段が新たにユーザを検出してその特徴を抽出した場合に、前記出力手段により出力されているコンテンツを、前記分析手段により前記抽出された特徴を有するユーザに最も多く用いられていると判定された操作の種類の操作案内を行うコンテンツに切り替える請求項3に記載の情報処理装置。
<請求項5>
前記記憶手段は、前記抽出手段により抽出された操作したユーザの特徴と、前記検出手段により検出された前記ユーザによる操作の種類と、前記ユーザによる操作が検出されたときに出力されていたコンテンツを特定する情報とを対応付けて記憶する請求項3又は4に記載の情報処理装置。
<請求項6>
前記抽出手段は、ユーザの撮影画像を取得する撮像手段を有し、前記撮像手段により取得された撮影画像に顔認識処理を行い、認識した顔画像に基づいて、前記ユーザの特徴を抽出する請求項1〜5の何れか一項に記載の情報処理装置。
<請求項7>
前記顔認識処理により複数の顔画像が認識された場合に、認識された顔画像のうち最も大きい顔画像を操作したユーザの顔画像と推定する推定手段を備える請求項6に記載の情報処理装置。
<請求項8>
前記ユーザの特徴は、ユーザの性別及び年齢である請求項1〜7の何れか一項に記載の情報処理装置。
<請求項9>
ユーザを検出し、当該ユーザの特徴を抽出する工程と、
前記ユーザにより行われた操作の種類を検出する工程と、
前記抽出された操作したユーザの特徴と前記検出された前記ユーザによる操作の種類とを対応付けて記憶手段に記憶する工程と、
を含む情報処理方法。
<請求項10>
コンピュータを、
ユーザを検出し、当該ユーザの特徴を抽出する抽出手段、
前記ユーザにより行われた操作の種類を検出する検出手段、
前記抽出手段により抽出された操作したユーザの特徴と前記検出手段により検出された前記ユーザによる操作の種類とを対応付けて記憶する記憶手段、
として機能させるためのプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Extraction means for detecting a user and extracting the characteristics of the user;
Detecting means for detecting the type of operation performed by the user;
Storage means for storing the characteristics of the operated user extracted by the extracting means and the type of operation by the user detected by the detecting means in association with each other;
An information processing apparatus comprising:
<Claim 2>
The information processing apparatus according to claim 1, wherein the type of operation by the user includes a button operation, an operation of holding a card, and an operation of holding a mobile terminal.
<Claim 3>
Output means for outputting content;
When the extraction unit newly detects the user and extracts the feature, the content output by the output unit is stored in the storage unit in association with the extracted feature. Output control means for switching to content based on;
The information processing apparatus according to claim 1, comprising:
<Claim 4>
Analyzing means for analyzing, for each user feature, the type of operation most frequently used by the user having the feature based on the user feature and the kind of operation stored in association with each other in the storage means. Prepared,
When the extraction means newly detects a user and extracts its features, the output control means assigns the content output by the output means to the user having the characteristics extracted by the analysis means. The information processing apparatus according to claim 3, wherein the information processing apparatus switches to content that provides operation guidance of an operation type that is determined to be frequently used.
<Claim 5>
The storage means stores the characteristics of the operated user extracted by the extracting means, the type of operation by the user detected by the detecting means, and the content output when the operation by the user is detected. The information processing apparatus according to claim 3 or 4, wherein the information to be identified is stored in association with each other.
<Claim 6>
The extraction unit includes an imaging unit that acquires a captured image of a user, performs face recognition processing on the captured image acquired by the imaging unit, and extracts features of the user based on the recognized face image. Item 6. The information processing device according to any one of Items 1 to 5.
<Claim 7>
The information processing apparatus according to claim 6, further comprising: an estimation unit configured to estimate a face image of a user who has operated a largest face image among recognized face images when a plurality of face images are recognized by the face recognition process. .
<Claim 8>
The information processing apparatus according to claim 1, wherein the user characteristics are a user's gender and age.
<Claim 9>
Detecting a user and extracting features of the user;
Detecting the type of operation performed by the user;
Storing the extracted characteristics of the operated user in association with the detected type of operation by the user in a storage unit;
An information processing method including:
<Claim 10>
Computer
Extraction means for detecting a user and extracting the characteristics of the user;
Detecting means for detecting the type of operation performed by the user;
Storage means for storing the characteristics of the operated user extracted by the extracting means and the type of operation by the user detected by the detecting means in association with each other;
Program to function as.

100 コンテンツ出力システム
1 デジタルサイネージ装置
21 投影部
22 スクリーン部
23 制御部
24 プロジェクタ
25 記憶部
251 プログラム記憶部
252 コンテンツ記憶部
26 通信部
27 画像形成部
28 台座
29 透光板
32 操作部
33 音声出力部
34 非接触通信部
2 サーバ装置
201 制御部
202 記憶部
221 プログラム記憶部
222 操作情報記憶部
223 適合コンテンツ情報記憶部
203 通信部
DESCRIPTION OF SYMBOLS 100 Content output system 1 Digital signage apparatus 21 Projection part 22 Screen part 23 Control part 24 Projector 25 Storage part 251 Program storage part 252 Content storage part 26 Communication part 27 Image formation part 28 Base 29 Translucent board 32 Operation part 33 Audio | voice output part 34 Non-contact communication unit 2 Server device 201 Control unit 202 Storage unit 221 Program storage unit 222 Operation information storage unit 223 Conforming content information storage unit 203 Communication unit

Claims (9)

ユーザを検出し、当該ユーザの特徴を抽出する抽出手段と、
出力手段により所定のコンテンツが出力されている間に、前記ユーザにより入力手段に対して行われた操作の種類を検出する検出手段と、
前記抽出手段により抽出された操作したユーザの特徴と、前記検出手段により検出された前記ユーザによる操作の種類と、前記操作が検出された際に出力されていたコンテンツと、を対応付けて記憶する記憶手段と、
を備える情報処理装置。
Extraction means for detecting a user and extracting the characteristics of the user;
Detecting means for detecting the type of operation performed on the input means by the user while the predetermined content is output by the output means;
The characteristics of the operated user extracted by the extracting unit, the type of operation by the user detected by the detecting unit , and the content output when the operation is detected are stored in association with each other. Storage means;
An information processing apparatus comprising:
前記ユーザによる操作の種類には、ボタン操作、カードをかざす操作、携帯端末をかざす操作が含まれる請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the type of operation by the user includes a button operation, an operation of holding a card, and an operation of holding a mobile terminal. コンテンツを出力する出力手段と、
前記抽出手段が新たにユーザを検出してその特徴を抽出した場合に、前記出力手段により出力されているコンテンツを前記記憶手段において前記抽出された特徴に対応付けて記憶されている操作の種類に基づくコンテンツに切り替える出力制御手段と、
を備える請求項1又は2に記載の情報処理装置。
Output means for outputting content;
When the extraction unit newly detects the user and extracts the feature, the content output by the output unit is stored in the storage unit in association with the extracted feature. Output control means for switching to content based on;
The information processing apparatus according to claim 1, comprising:
前記記憶手段において互いに対応付けて記憶されているユーザの特徴及び操作の種類に基づいて、ユーザの特徴毎に、当該特徴を有するユーザに最も多く用いられている操作の種類を分析する分析手段を備え、
前記出力制御手段は、前記抽出手段が新たにユーザを検出してその特徴を抽出した場合に、前記出力手段により出力されているコンテンツを、前記分析手段により前記抽出された特徴を有するユーザに最も多く用いられていると判定された操作の種類の操作案内を行うコンテンツに切り替える請求項3に記載の情報処理装置。
Analyzing means for analyzing, for each user feature, the type of operation most frequently used by the user having the feature based on the user feature and the kind of operation stored in association with each other in the storage means. Prepared,
When the extraction means newly detects a user and extracts its features, the output control means assigns the content output by the output means to the user having the characteristics extracted by the analysis means. The information processing apparatus according to claim 3, wherein the information processing apparatus switches to content that provides operation guidance of an operation type that is determined to be frequently used.
前記抽出手段は、ユーザの撮影画像を取得する撮像手段を有し、前記撮像手段により取得された撮影画像に顔認識処理を行い、認識した顔画像に基づいて、前記ユーザの特徴を抽出する請求項1〜の何れか一項に記載の情報処理装置。 The extraction unit includes an imaging unit that acquires a captured image of a user, performs face recognition processing on the captured image acquired by the imaging unit, and extracts features of the user based on the recognized face image. Item 5. The information processing device according to any one of Items 1 to 4 . 前記顔認識処理により複数の顔画像が認識された場合に、認識された顔画像のうち最も大きい顔画像を操作したユーザの顔画像と推定する推定手段を備える請求項に記載の情報処理装置。 The information processing apparatus according to claim 5 , further comprising: an estimation unit configured to estimate a face image of a user who has operated the largest face image among the recognized face images when a plurality of face images are recognized by the face recognition process. . 前記ユーザの特徴は、ユーザの性別及び年齢である請求項1〜の何れか一項に記載の情報処理装置。 Features of the user, the information processing apparatus according to any one of claim 1 to 6, which is a sex and age of the user. ユーザを検出し、当該ユーザの特徴を抽出する工程と、
出力手段により所定のコンテンツが出力されている間に、前記ユーザにより入力手段に対して行われた操作の種類を検出する工程と、
前記抽出された操作したユーザの特徴と前記検出された前記ユーザによる操作の種類と、前記操作が検出された際に出力されていたコンテンツと、を対応付けて記憶手段に記憶する工程と、
を含む情報処理方法。
Detecting a user and extracting features of the user;
Detecting the type of operation performed on the input means by the user while the predetermined content is being output by the output means ;
Storing the extracted characteristics of the operated user , the detected type of operation by the user, and the content output when the operation is detected in a storage unit in association with each other;
An information processing method including:
コンピュータを、
ユーザを検出し、当該ユーザの特徴を抽出する抽出手段、
出力手段により所定のコンテンツが出力されている間に、前記ユーザにより入力手段に対して行われた操作の種類を検出する検出手段、
前記抽出手段により抽出された操作したユーザの特徴と前記検出手段により検出された前記ユーザによる操作の種類と、前記操作が検出された際に出力されていたコンテンツと、を対応付けて記憶する記憶手段、
として機能させるためのプログラム。
Computer
Extraction means for detecting a user and extracting the characteristics of the user;
Detecting means for detecting the type of operation performed on the input means by the user while predetermined content is output by the output means;
A storage for storing the characteristics of the operated user extracted by the extraction unit, the type of operation by the user detected by the detection unit , and the content output when the operation is detected in association with each other means,
Program to function as.
JP2014190812A 2014-09-19 2014-09-19 Information processing apparatus, information processing method, and program Active JP6405826B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014190812A JP6405826B2 (en) 2014-09-19 2014-09-19 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014190812A JP6405826B2 (en) 2014-09-19 2014-09-19 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2016062390A JP2016062390A (en) 2016-04-25
JP6405826B2 true JP6405826B2 (en) 2018-10-17

Family

ID=55797797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014190812A Active JP6405826B2 (en) 2014-09-19 2014-09-19 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6405826B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7502752B2 (en) 2017-10-16 2024-06-19 株式会社スマイルテレビ Content distribution system and content distribution method
JP7305116B2 (en) * 2017-10-16 2023-07-10 株式会社スマイルテレビ Content delivery system and content delivery method
JP2021036376A (en) * 2019-08-30 2021-03-04 東芝Itコントロールシステム株式会社 Guiding device
JP6842136B1 (en) * 2020-01-10 2021-03-17 クェスタ株式会社 Program, display control method, display control device and signage system
KR20210132915A (en) * 2020-04-28 2021-11-05 주식회사 이노스피치 Advertising curation system using face recognition and IoT technology
WO2023021590A1 (en) * 2021-08-18 2023-02-23 シャープNecディスプレイソリューションズ株式会社 Display control device, display control method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293580A (en) * 1999-04-08 2000-10-20 Sharp Corp Information selection system
JP2004348488A (en) * 2003-05-22 2004-12-09 Japan Tobacco Inc Vending machine system
US7398921B2 (en) * 2004-11-17 2008-07-15 Zito Jr Arthur J User-specific dispensing system
JP5441609B2 (en) * 2009-10-20 2014-03-12 Jr東日本メカトロニクス株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2016062390A (en) 2016-04-25

Similar Documents

Publication Publication Date Title
JP6405826B2 (en) Information processing apparatus, information processing method, and program
JP2016177393A (en) Image processing apparatus, face recognition method, and program
TWI779343B (en) Method of a state recognition, apparatus thereof, electronic device and computer readable storage medium
US10803438B2 (en) Reading apparatus
WO2010053191A1 (en) Electronic advertisement system, electronic advertisement distribution apparatus, electronic advertisement distribution method, and recording medium
CN113507621A (en) Live broadcast method, device, system, computer equipment and storage medium
TW201448585A (en) Real time object scanning using a mobile phone and cloud-based visual search engine
JP2016038877A (en) Display system and display method
JP6795667B1 (en) Network system, suspicious person detection device, and suspicious person detection method
JP6048475B2 (en) Content output apparatus and program
JP6519157B2 (en) INFORMATION EVALUATING DEVICE, INFORMATION EVALUATING METHOD, AND PROGRAM
EP3057314A1 (en) Method, device and system for multipoint video communications
KR101405439B1 (en) System for providing background image based on motion capture, method for providing background image based on motion capture and recording medium thereof
JP2016178403A (en) Information output device, information output method, and program
JP6326866B2 (en) Display device, display method, and program
JP2017174222A (en) Guide output device, guide output method, and program
JP2016012174A (en) Intake estimation device, intake estimation method and program
JP2018137513A (en) Photo taking device, photo taking method, and program
JP2017174385A (en) Content evaluation device, content evaluation method and program
JP6531435B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2017162223A (en) Content evaluation device, content evaluation method, and program
JP2016118816A (en) Display system, display method, and program
JP2017167573A (en) Information processing apparatus, layout evaluation method, and program
JP2016057417A (en) Information output device, content output method, and program
JP2017162221A (en) Information processing device, content evaluation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180903

R150 Certificate of patent or registration of utility model

Ref document number: 6405826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150