JP2014203223A - Display device, display system, and program - Google Patents

Display device, display system, and program Download PDF

Info

Publication number
JP2014203223A
JP2014203223A JP2013078144A JP2013078144A JP2014203223A JP 2014203223 A JP2014203223 A JP 2014203223A JP 2013078144 A JP2013078144 A JP 2013078144A JP 2013078144 A JP2013078144 A JP 2013078144A JP 2014203223 A JP2014203223 A JP 2014203223A
Authority
JP
Japan
Prior art keywords
unit
user
game
display
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013078144A
Other languages
Japanese (ja)
Inventor
滋 加福
Shigeru Kafuku
滋 加福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013078144A priority Critical patent/JP2014203223A/en
Publication of JP2014203223A publication Critical patent/JP2014203223A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To exert a higher advertisement effect.SOLUTION: A display device comprises: a display unit; an imaging unit that captures a surrounding environment of the display unit; and a control unit that displays content concerning a game established by recognizing a motion of a hand on the display unit, captures a user's motion in the game by the imaging unit, analyzes the video to predict the user's final hand form before a result, and reflects it in the result of the game. The control unit detects the user's face from the video captured by the imaging unit, analyzes the detected face part to determine an attribute of the user, and determines a winning rate of the game on the basis of the determination result.

Description

本発明は、例えばクーポン券などの景品を発行可能な表示装置、表示システム及びプログラムに関する。   The present invention relates to a display device, a display system, and a program that can issue premiums such as coupons.

従来、例えばデジタルサイネージ装置などの表示装置においては、広告画像の内容を容易に変更することができるため、最新の情報を常に閲覧者に提供できる点で優れた広告効果を発揮する(例えば特許文献1参照)。
近年では、ユーザが有する携帯端末と表示装置とを通信させることにより、表示中の広告内容に関連した景品(例えばクーポン券など)を表示装置から携帯端末へと転送する技術も開発されている。
Conventionally, in a display device such as a digital signage device, the content of an advertisement image can be easily changed, so that an excellent advertising effect can be achieved in that the latest information can always be provided to a viewer (for example, Patent Documents). 1).
In recent years, a technology has also been developed in which a premium (for example, a coupon ticket) related to a displayed advertisement content is transferred from a display device to a mobile terminal by communicating the mobile terminal of the user with the display device.

特開2012−128210号公報JP2012-128210A

ところで、景品発行型の表示装置であっても広告効果をより高めることが望まれている。
本発明の課題は、より高い広告効果を発揮させることである。
By the way, it is desired to further improve the advertising effect even in the premium issue type display device.
An object of the present invention is to exert a higher advertising effect.

請求項1に記載の発明の表示装置は、
表示部と、
前記表示部の周囲環境を撮像する撮像部と、
手の動作を認識することで成立するゲームに関する内容を前記表示部に表示させるとともに、ユーザによる前記ゲームの動作を前記撮像部で撮像し、当該映像を解析することで前記ユーザの最終的な手の形を結果前に予測して、前記ゲームの結果に反映させる制御部とを備え、
前記制御部は、前記撮像部で撮像された映像から前記ユーザの顔を検出して、当該検出した顔部分を解析することで前記ユーザの属性を判断し、当該判断結果に基づいて前記ゲームの勝率を決定する。
The display device of the invention according to claim 1
A display unit;
An imaging unit for imaging the surrounding environment of the display unit;
The content related to the game established by recognizing the movement of the hand is displayed on the display unit, the movement of the game by the user is captured by the imaging unit, and the video is analyzed to analyze the final hand of the user. A control unit that predicts the shape of the game before the result and reflects it in the game result,
The control unit detects the user's face from the video captured by the imaging unit, determines the user's attribute by analyzing the detected face portion, and based on the determination result, Determine the winning percentage.

請求項5に記載の発明の表示システムは、
表示装置と、
前記表示装置とネットワークを介して接続されたサーバとを備え、
前記表示装置は、
表示部と、
前記表示部の周囲環境を撮像する撮像部と、
前記サーバと通信を行うための通信部と、
手の動作を認識することで成立するゲームに関する内容を前記表示部に表示させるとともに、ユーザによる前記ゲームの動作を前記撮像部で撮像し、当該映像を解析することで前記ユーザの最終的な手の形を結果前に予測して、前記ゲームの結果に反映させる制御部とを備え、
前記制御部は、前記撮像部で撮像された映像から前記ユーザの顔を検出して、当該検出した顔部分を解析することで前記ユーザの属性を判断し、当該判断結果を前記通信部から前記サーバに出力させ、
前記サーバは、
前記制御部が判断した判断結果が前記通信部から入力されると、当該判断結果に基づいて前記ゲームの勝率を決定し、当該決定した前記勝率を前記表示装置に出力する。
The display system of the invention according to claim 5 is:
A display device;
A server connected to the display device via a network;
The display device
A display unit;
An imaging unit for imaging the surrounding environment of the display unit;
A communication unit for communicating with the server;
The content related to the game established by recognizing the movement of the hand is displayed on the display unit, the movement of the game by the user is captured by the imaging unit, and the video is analyzed to analyze the final hand of the user. A control unit that predicts the shape of the game before the result and reflects it in the game result,
The control unit detects the user's face from the image captured by the imaging unit, determines the user's attribute by analyzing the detected face part, and determines the determination result from the communication unit. Output to the server,
The server
When the determination result determined by the control unit is input from the communication unit, the winning rate of the game is determined based on the determination result, and the determined winning rate is output to the display device.

請求項9記載の発明のプログラムは、
表示装置のコンピュータを、
表示部の周囲環境を撮像する撮像部、
手の動作を認識することで成立するゲームに関する内容を前記表示部に表示させるとともに、ユーザによる前記ゲームの動作を前記撮像部で撮像し、当該映像を解析することで前記ユーザの最終的な手の形を結果前に予測して、前記ゲームの結果に反映させる制御部として機能させ、
前記制御部は、前記撮像部で撮像された映像から前記ユーザの顔を検出して、当該検出した顔部分を解析することで前記ユーザの属性を判断し、当該判断結果に基づいて前記ゲームの勝率を決定させるためのプログラムである。
The program of the invention according to claim 9 is:
Display computer,
An imaging unit for imaging the surrounding environment of the display unit;
The content related to the game established by recognizing the movement of the hand is displayed on the display unit, the movement of the game by the user is captured by the imaging unit, and the video is analyzed to analyze the final hand of the user. Function as a control unit that predicts the shape before the result and reflects it in the result of the game,
The control unit detects the user's face from the video captured by the imaging unit, determines the user's attribute by analyzing the detected face portion, and based on the determination result, This is a program for determining the winning percentage.

本発明によれば、より高い広告効果を発揮することができる。   According to the present invention, a higher advertising effect can be exhibited.

本実施形態に係る表示システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the display system which concerns on this embodiment. 本実施形態に係るデジタルサイネージ装置の主制御構成を示すブロック図である。It is a block diagram which shows the main control structure of the digital signage apparatus which concerns on this embodiment. 本実施形態に係るスクリーン部の概略構成を示す正面図である。It is a front view which shows schematic structure of the screen part which concerns on this embodiment. 本実施形態に係る景品情報における当選確率の一例を示す表である。It is a table | surface which shows an example of the winning probability in the prize information which concerns on this embodiment. 本実施形態に係る携帯端末の主制御構成を示すブロック図である。It is a block diagram which shows the main control structure of the portable terminal which concerns on this embodiment. 本実施形態に係るデジタルサイネージ装置で実行されるじゃんけん処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the soap process performed with the digital signage apparatus which concerns on this embodiment.

以下に、本発明を実施するための最良の形態について図面を用いて説明する。ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているが、発明の範囲を以下の実施形態及び図示例に限定するものではない。   The best mode for carrying out the present invention will be described below with reference to the drawings. However, although various technically preferable limitations for implementing the present invention are given to the embodiments described below, the scope of the invention is not limited to the following embodiments and illustrated examples.

図1は本実施形態に係る表示システム1の概略構成を示すブロック図である。表示システム1には、本発明に係る表示装置としてのデジタルサイネージ装置2と、ネットワークNを介してデジタルサイネージ装置2に通信自在なサーバ3と、例えばNFCなどの近距離無線通信技術によってデジタルサイネージ装置2に通信自在な携帯端末4とが備えられている。   FIG. 1 is a block diagram showing a schematic configuration of a display system 1 according to the present embodiment. The display system 1 includes a digital signage device 2 as a display device according to the present invention, a server 3 that can communicate with the digital signage device 2 via a network N, and a digital signage device using a short-range wireless communication technology such as NFC. 2 is provided with a portable terminal 4 that can communicate freely.

図2はデジタルサイネージ装置2の主制御構成を示すブロック図である。デジタルサイネージ装置2は、人物画像の映像光を照射する投影部21と、投影部21から照射された映像光を背面で受けて前面に投影する人型のスクリーン部22とを備えている。   FIG. 2 is a block diagram showing a main control configuration of the digital signage apparatus 2. The digital signage device 2 includes a projection unit 21 that emits image light of a person image, and a human-type screen unit 22 that receives the image light emitted from the projection unit 21 at the back and projects it onto the front.

投影部21は、画像や音声からなるコンテンツデータに基づいて各部を制御する制御部23と、制御部23に接続され、当該制御部23から出力された映像データを映像光に変換してスクリーン部22に向けて照射するプロジェクタ24と、各コンテンツデータやプログラムを記憶する記憶部25と、ネットワークNを介してサーバ3と通信する通信部26とを備えている。   The projection unit 21 is connected to the control unit 23 that controls each unit based on content data including images and sounds, and is connected to the control unit 23. The projection unit 21 converts the video data output from the control unit 23 into video light and converts it into a screen unit. A projector 24 that irradiates toward the projector 22, a storage unit 25 that stores each content data and program, and a communication unit 26 that communicates with the server 3 via the network N are provided.

次に、スクリーン部22について説明する。
図3は、スクリーン部22の概略構成を示す正面図である。図3に示すようにスクリーン部22には、人物の上半身が表示される表示部27と、表示部27を支持する台座28とが備えられている。
表示部27の外形は人物の上半身を模した形状に形成されている。表示部27は、映像光の照射方向に対して略直交する例えばアクリル板などの一枚の透光板29により形成されている。透光板29の背面には背面投影用のフィルムスクリーンが積層され、なおかつフィルムスクリーンの背面にはフィルム状のフレネルレンズが積層されている。そして、表示部27における人物の目に対応する部分には、例えばカメラなどの撮像部30が設けられている。この撮像部30が表示部27に対向する空間の映像をリアルタイムに撮像している。撮像部30においては高速撮影機能を有していることが好ましい。
台座28には、携帯端末4と近距離通信し携帯端末4に対して情報を読み書きするためのリーダライター部(近距離通信部)31と、ボタン式の操作部32と、スピーカなどの音声出力部33と、マイクなどの音声入力部34とが設けられている。
リーダライター部31、操作部32、音声出力部33、音声入力部34及び撮像部30は、図2に示すように制御部23に接続されている。
Next, the screen unit 22 will be described.
FIG. 3 is a front view illustrating a schematic configuration of the screen unit 22. As shown in FIG. 3, the screen unit 22 includes a display unit 27 on which the upper body of a person is displayed and a pedestal 28 that supports the display unit 27.
The outer shape of the display unit 27 is formed in a shape imitating the upper body of a person. The display unit 27 is formed by a single translucent plate 29 such as an acrylic plate that is substantially orthogonal to the image light irradiation direction. A film screen for rear projection is laminated on the back surface of the translucent plate 29, and a film-like Fresnel lens is laminated on the back surface of the film screen. An imaging unit 30 such as a camera is provided at a portion of the display unit 27 corresponding to the eyes of the person. The imaging unit 30 captures an image of a space facing the display unit 27 in real time. The imaging unit 30 preferably has a high-speed shooting function.
The pedestal 28 has a reader / writer unit (near field communication unit) 31 for performing near field communication with the portable terminal 4 and reading / writing information from / to the portable terminal 4, a button type operation unit 32, and an audio output such as a speaker. A unit 33 and a voice input unit 34 such as a microphone are provided.
The reader / writer unit 31, the operation unit 32, the audio output unit 33, the audio input unit 34, and the imaging unit 30 are connected to the control unit 23 as shown in FIG.

記憶部25には、各コンテンツデータ以外にも景品情報が記憶されている。景品情報とは、デジタルサイネージ装置2で実行されるじゃんけんゲームに関する情報であり、じゃんけんの勝率や、勝利後に提供される景品の内容等を含んでいる。   The storage unit 25 stores premium information in addition to each content data. The premium information is information related to the Janken game executed by the digital signage device 2, and includes the winning rate of Janken, the contents of the premium provided after the victory, and the like.

この景品情報は、じゃんけんをするユーザの属性に基づいてその内容が決定されるようになっている。
図4は、景品情報における勝率の一例を示す表である。この例では、ユーザの属性が男性の場合にはユーザ側の勝率が50%、ユーザの属性が女性の場合にはユーザ側の勝率が60%、ユーザの属性が子どもの場合にはユーザ側の勝率が80%に設定されている。このように、じゃんけんをするユーザの属性に基づいて勝率が変動するようになっている。
なお、図4の例ではユーザの属性として男性、女性、子どもの三種類を例示しているが、より細かく属性を分別することも可能である。
The contents of the free gift information are determined based on the attributes of the user who performs the janken.
FIG. 4 is a table showing an example of the winning percentage in the premium information. In this example, when the user attribute is male, the user-side winning rate is 50%, when the user attribute is female, the user-side winning rate is 60%, and when the user attribute is child, the user-side winning rate is The winning percentage is set to 80%. In this way, the winning percentage is changed based on the attribute of the user who is playing.
In the example of FIG. 4, three types of male, female, and child are illustrated as user attributes. However, it is possible to classify the attributes more finely.

制御部23はリーダライター部31に対して携帯端末4がかざされると、読み取り時においては携帯端末4に記憶されている情報を、リーダライター部31を介して読み出す。他方、書き込み時においては制御部23は書き込み情報を、リーダライター部31を介して携帯端末4に記憶させる。
また、制御部23は、操作部32からの操作信号に基づいて、操作内容に関連したコンテンツデータを記憶部25から読み出し、プロジェクタ24及び音声出力部33を制御する。
When the portable terminal 4 is held over the reader / writer unit 31, the control unit 23 reads information stored in the portable terminal 4 through the reader / writer unit 31 at the time of reading. On the other hand, at the time of writing, the control unit 23 stores the write information in the portable terminal 4 via the reader / writer unit 31.
Further, the control unit 23 reads content data related to the operation content from the storage unit 25 based on the operation signal from the operation unit 32, and controls the projector 24 and the audio output unit 33.

制御部23は、撮像部30から得られた画像や、音声入力部34から得られた音声を解析し、その解析内容に関連したコンテンツデータを記憶部25から読み出して、プロジェクタ24及び音声出力部33を制御する。
ここで、記憶部25には、ユーザにじゃんけんを促すじゃんけんコンテンツデータが、コンテンツデータの1つとして記憶されている。じゃんけんコンテンツデータが記憶部25から読み出されると、制御部23は、じゃんけんコンテンツデータに基づいてプロジェクタ24及び音声出力部33を制御する。これにより、ユーザはじゃんけんを行う。じゃんけんの動作前においては、撮像部30によってユーザの顔が撮像されているために、制御部23は、その撮像されたユーザの顔画像に対して周知の画像処理を施すことによってユーザの属性を判断する。制御部23はユーザの属性を判断すると当該属性に基づいてじゃんけんの勝率を決定する。次いで、じゃんけん中におけるユーザの動作は撮像部30によってリアルタイムで撮像されている。制御部23は、撮像部30を介して入力された映像に対して所定コマ毎高速で画像処理を施し解析することにより、ユーザの手を特定し、その手の形の変遷から最終的な手の形をじゃんけんの結果前に予測する。そして、制御部23は、それ以前に決定していた勝率に基づいてデジタルサイネージ装置2側の最終的な手の形を決定してから、プロジェクタ24を制御することにより最終的な手の形を表示する。
The control unit 23 analyzes the image obtained from the imaging unit 30 and the sound obtained from the sound input unit 34, reads out content data related to the analysis content from the storage unit 25, and outputs the projector 24 and the sound output unit. 33 is controlled.
Here, the storage unit 25 stores, as one of the content data, the janken content data that prompts the user to perform the janken. When the janken content data is read from the storage unit 25, the control unit 23 controls the projector 24 and the audio output unit 33 based on the janken content data. As a result, the user performs the janken. Before the Janken operation, the user's face is imaged by the imaging unit 30, and thus the control unit 23 performs well-known image processing on the captured user's face image to set the user's attributes. to decide. When the control unit 23 determines the attribute of the user, the control unit 23 determines the winning rate of the Janken based on the attribute. Next, the user's action in the hood is imaged in real time by the imaging unit 30. The control unit 23 performs image processing at high speed for each predetermined frame and analyzes the video input via the imaging unit 30 to identify the user's hand, and the final hand from the transition of the shape of the hand. Predict the shape before the result of Janken. Then, the control unit 23 determines the final hand shape on the digital signage apparatus 2 side based on the winning percentage determined before that, and then controls the projector 24 to determine the final hand shape. indicate.

制御部23は、携帯端末4からの情報や、操作部32からの操作信号によっては、通信部26を制御してサーバ3と通信を行う。通信により得られた情報は記憶部25に格納される。   The control unit 23 controls the communication unit 26 to communicate with the server 3 according to information from the mobile terminal 4 and an operation signal from the operation unit 32. Information obtained by communication is stored in the storage unit 25.

図5は、携帯端末4の主制御構成を示すブロック図である。
携帯端末4は、例えば携帯電話、スマートフォン、タブレット式端末などの携帯機器である。図5に示すように携帯端末4には、例えば表示部41と、操作部42と、通信部43と、近距離通信部44と、記憶部45と、これらを制御する制御部46とが設けられている。
表示部41は例えば液晶パネルや有機ELパネルなどから構成されている。
操作部42は例えばタッチパネルや、操作キーなどである。
通信部43は3GやLTE、Wi−Fiなどの規格に応じた通信を行う。
近距離通信部44は例えばNFCなどの近距離無線通信技術によってデジタルサイネージ装置2のリーダライター部31と通信を行う。
記憶部45には、デジタルサイネージ装置2との通信を行うためのアプリケーションが記憶されている。デジタルサイネージ装置2との通信を行うためのアプリケーションとしては、クーポン取得アプリなどが挙げられる。
制御部46は、近距離通信部44がデジタルサイネージ装置2のリーダライター部31に接近すると、クーポン取得アプリを起動し、近距離通信部44及びリーダライター部31を介してデジタルサイネージ装置2と情報の送受を実行する。
FIG. 5 is a block diagram showing a main control configuration of the mobile terminal 4.
The mobile terminal 4 is a mobile device such as a mobile phone, a smartphone, or a tablet terminal. As shown in FIG. 5, for example, the mobile terminal 4 includes a display unit 41, an operation unit 42, a communication unit 43, a short-range communication unit 44, a storage unit 45, and a control unit 46 that controls them. It has been.
The display unit 41 is composed of, for example, a liquid crystal panel or an organic EL panel.
The operation unit 42 is, for example, a touch panel or an operation key.
The communication unit 43 performs communication according to standards such as 3G, LTE, and Wi-Fi.
The short-range communication unit 44 communicates with the reader / writer unit 31 of the digital signage device 2 by a short-range wireless communication technology such as NFC.
The storage unit 45 stores an application for communicating with the digital signage device 2. An application for performing communication with the digital signage device 2 includes a coupon acquisition application.
When the short-range communication unit 44 approaches the reader / writer unit 31 of the digital signage device 2, the control unit 46 activates a coupon acquisition application and communicates with the digital signage device 2 via the short-range communication unit 44 and the reader / writer unit 31. Send and receive.

次に、本実施形態の作用について説明する。
デジタルサイネージ装置2で実行されるじゃんけん処理について説明する。図6はじゃんけん処理の流れを示すフローチャートである。
デジタルサイネージ装置2の制御部23は、リーダライター部31に対して携帯端末4から情報が入力されたり、操作部32からの操作信号が入力されたりすることでじゃんけん処理の実行が指示されると、じゃんけん処理を実行する。
Next, the operation of this embodiment will be described.
The Janken process executed by the digital signage apparatus 2 will be described. FIG. 6 is a flowchart showing the flow of the Janken process.
When the control unit 23 of the digital signage apparatus 2 is instructed to execute the soap processing by inputting information from the portable terminal 4 to the reader / writer unit 31 or an operation signal from the operation unit 32. Execute Janken processing.

ステップS1では、制御部23は、撮像部30により撮像された映像からユーザの顔を特定し、その顔画像に対して所定の画像処理を施すことにより、ユーザの属性を判断する。
ステップS2では、制御部23は、ステップS1で判断したユーザの属性に基づいて景品情報の内容を決定する。
ステップS3では、じゃんけんコンテンツデータを記憶部25から読み出し、当該じゃんけんコンテンツデータを基にプロジェクタ24及び音声出力部33を制御する。これにより、じゃんけんが開始される。
In step S <b> 1, the control unit 23 determines the user's attribute by specifying the user's face from the video imaged by the imaging unit 30 and performing predetermined image processing on the face image.
In step S2, the control unit 23 determines the content of the premium information based on the user attribute determined in step S1.
In step S3, the janken content data is read from the storage unit 25, and the projector 24 and the audio output unit 33 are controlled based on the kenken content data. This starts Janken.

ステップS4では、制御部23は、じゃんけん開始後に撮像部30で撮像された映像に対して周知の画像処理を施したり、デプスセンサーなどによってユーザの手を検出する。
ステップS5では、制御部23は、撮像部30から得られたユーザの手の画像を所定コマ毎高速で画像処理を施し解析する。これにより、制御部23は、ユーザの手の形の変遷を認識し、最終的な手の形をじゃんけんの結果前に推測する。
ステップS6では、制御部23は乱数を発生させて景品情報内の勝率と比較することでじゃんけんの結果を判定し、当該判定に対応するデジタルサイネージ装置2側の最終的な手の形を決定してから、プロジェクタ24を制御することにより最終的な手の形を表示する。なお、負けと判定された場合のうち、一部をあいことして表示することが好ましい。
In step S4, the control unit 23 performs well-known image processing on the video imaged by the imaging unit 30 after the start of the soap, or detects the user's hand using a depth sensor or the like.
In step S5, the control unit 23 analyzes the image of the user's hand obtained from the imaging unit 30 by performing image processing at a high speed for each predetermined frame. Thereby, the control unit 23 recognizes the transition of the shape of the user's hand, and estimates the final hand shape before the result of the Janken.
In step S6, the control unit 23 generates a random number and compares it with the winning rate in the prize information to determine the result of the soap, and determines the final hand shape on the digital signage apparatus 2 side corresponding to the determination. After that, the final hand shape is displayed by controlling the projector 24. In addition, it is preferable to display a part of the case where it is determined that the player has lost.

ステップS7では、制御部23は、じゃんけんの結果がユーザの勝ち以外(負けやあいこ)である場合はそのまま終了し、ユーザの勝ちの場合はステップS8に移行する。
ステップS8では、制御部23は、プロジェクタ24を制御して、近距離通信要求表示を実行する。
ステップS9では、制御部23は、リーダライター部31と携帯端末4とが通信可能な状態か否かを判断し、通信可能な状態であればステップS10に移行し、通信ができない状態であればステップS8に移行して、携帯端末4がリーダライター部31にかざされるまで待機する。
ステップS10では、制御部23は、ステップS4で選択した景品情報に対応した景品を取得し、リーダライター部31を介して携帯端末4に出力する。これにより、景品がユーザに提供される。
In step S7, if the result of Janken is other than the user's win (losing or Aiko), the control unit 23 ends as it is, and if the user wins, the control unit 23 proceeds to Step S8.
In step S8, the control unit 23 controls the projector 24 to execute a near field communication request display.
In step S9, the control unit 23 determines whether or not the reader / writer unit 31 and the portable terminal 4 are communicable. If the communicable state is reached, the control unit 23 proceeds to step S10. The process proceeds to step S8 and waits until the portable terminal 4 is held over the reader / writer unit 31.
In step S <b> 10, the control unit 23 acquires a premium corresponding to the premium information selected in step S <b> 4 and outputs it to the portable terminal 4 via the reader / writer unit 31. Thereby, a free gift is provided to the user.

以上のように、本実施形態によれば、撮像部30で撮像された映像からユーザの顔を検出して、当該検出した顔部分を解析することでユーザの属性を判断し、当該判断結果に基づいてじゃんけんの勝率が決定されているので、ユーザの属性に対応させて勝率を異ならせることができ、ユーザの属性毎に適した興趣性を提供することができる。興趣性が高まれば、デジタルサイネージ装置2に表示されている商品に対して好印象を抱かせる要因にもなり広告効果を高めることができる。   As described above, according to the present embodiment, the user's face is detected from the video imaged by the imaging unit 30, and the user's attribute is determined by analyzing the detected face portion. Since the winning rate of Janken is determined based on this, the winning rate can be made different according to the attribute of the user, and an interesting property suitable for each attribute of the user can be provided. If interest is enhanced, it can be a factor that gives a good impression to the product displayed on the digital signage device 2 and can increase the advertising effect.

また、デジタルサイネージ装置2で決定した景品情報がリーダライター部31から携帯端末4に出力されているので、紙などの別の媒体に出力しなくとも、ユーザが所有する携帯端末4に直接景品を提供することができる。   Also, since the prize information determined by the digital signage device 2 is output from the reader / writer unit 31 to the portable terminal 4, the prize can be directly displayed on the portable terminal 4 owned by the user without being output to another medium such as paper. Can be provided.

また、表示部27の外形が人型であるために、じゃんけんする相手があたかもその場にいるような臨場感を醸し出すことができ、興趣性をより高めることができる。   In addition, since the outer shape of the display unit 27 is humanoid, it is possible to create a sense of presence as if the other party is in the spot and to enhance the interest.

なお、本発明は上記実施形態に限らず適宜変更可能である。
例えば上記実施形態では、表示装置として投影式のデジタルサイネージ装置2を例示して説明したが、液晶パネル或いは有機ELパネルを用いたデジタルサイネージ装置を表示装置として適用することも可能である。
Note that the present invention is not limited to the above embodiment, and can be modified as appropriate.
For example, in the above-described embodiment, the projection type digital signage device 2 has been described as an example of the display device. However, a digital signage device using a liquid crystal panel or an organic EL panel can be applied as the display device.

また、上記実施形態では、デジタルサイネージ装置2との通信を行うため、それ専用のアプリケーションを実行するようになっているが、これ以外にも携帯端末4に搭載されているインターネットブラウザによってネット上のアプリケーションを実行することでデジタルサイネージ装置2との通信を行うことも可能である。   Moreover, in the said embodiment, since it communicates with the digital signage apparatus 2, the application for exclusive use is performed, but on the network by the internet browser mounted in the portable terminal 4 besides this It is also possible to communicate with the digital signage device 2 by executing an application.

また、上記実施形態では、ユーザの属性に基づいて景品情報の一部であるじゃんけんの勝率を変更する場合を例示して説明したが、これに加えて景品情報の一部である景品の内容を変更するようにしてもよい。これにより、ユーザの属性に適した景品を提供することが可能となる。   In the above embodiment, the case where the winning rate of the Janken, which is a part of the prize information, is changed based on the user attribute has been described as an example. It may be changed. This makes it possible to provide a prize suitable for the user's attribute.

また、上記実施形態では、デジタルサイネージ装置2がじゃんけんを実行する場合を例示して説明したが、手の動作を認識することで成立するゲームであれば、じゃんけん以外の他のゲームに対しても本発明の構成は適用可能である。じゃんけん以外のゲームとしては例えば「あっち向いてホイ」などが挙げられる。   Further, in the above embodiment, the case where the digital signage device 2 executes Janken has been described as an example. However, as long as the game is established by recognizing the hand movement, it can be applied to other games other than Janken. The configuration of the present invention is applicable. As a game other than Janken, for example, “Turn it away”.

また、上記実施形態では、じゃんけん処理全体をデジタルサイネージ装置2で実行する場合について例示したが、じゃんけん処理における景品情報の決定(ステップS2)をサーバ3で実行することも可能である。この場合、デジタルサイネージ装置2の制御部23が判断した判断結果が通信部26から入力されると、サーバ3は、判断結果に基づいて景品情報(じゃんけんの勝率や景品の内容)を決定し、当該決定した景品情報をデジタルサイネージ装置2に出力するようになっている。   In the above-described embodiment, the case where the entire Janken process is executed by the digital signage device 2 has been exemplified. However, it is also possible to execute the determination of premium information in the Janken process (Step S2) by the server 3. In this case, when the determination result determined by the control unit 23 of the digital signage device 2 is input from the communication unit 26, the server 3 determines the premium information (the winning rate of Janken or the contents of the premium) based on the determination result, The determined prize information is output to the digital signage device 2.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.

〔付記〕
<請求項1>
表示部と、
前記表示部の周囲環境を撮像する撮像部と、
手の動作を認識することで成立するゲームに関する内容を前記表示部に表示させるとともに、ユーザによる前記ゲームの動作を前記撮像部で撮像し、当該映像を解析することで前記ユーザの最終的な手の形を結果前に予測して、前記ゲームの結果に反映させる制御部とを備え、
前記制御部は、前記撮像部で撮像された映像から前記ユーザの顔を検出して、当該検出した顔部分を解析することで前記ユーザの属性を判断し、当該判断結果に基づいて前記ゲームの勝率を決定する表示装置。
<請求項2>
前記制御部は、前記判断結果に基づいて景品情報の内容を決定する請求項1記載の表示装置。
<請求項3>
携帯端末と近距離通信を行うための近距離通信部を備え、
前記制御部は、決定した前記景品情報を前記近距離通信部から前記携帯端末に出力させる請求項2記載の表示装置。
<請求項4>
前記表示部は、人型に形成されている請求項1〜3のいずれか一項に記載の表示装置。
<請求項5>
表示装置と、
前記表示装置とネットワークを介して接続されたサーバとを備え、
前記表示装置は、
表示部と、
前記表示部の周囲環境を撮像する撮像部と、
前記サーバと通信を行うための通信部と、
手の動作を認識することで成立するゲームに関する内容を前記表示部に表示させるとともに、ユーザによる前記ゲームの動作を前記撮像部で撮像し、当該映像を解析することで前記ユーザの最終的な手の形を結果前に予測して、前記ゲームの結果に反映させる制御部とを備え、
前記制御部は、前記撮像部で撮像された映像から前記ユーザの顔を検出して、当該検出した顔部分を解析することで前記ユーザの属性を判断し、当該判断結果を前記通信部から前記サーバに出力させ、
前記サーバは、
前記制御部が判断した判断結果が前記通信部から入力されると、当該判断結果に基づいて前記ゲームの勝率を決定し、当該決定した前記勝率を前記表示装置に出力する表示システム。
<請求項6>
前記サーバは、前記判断結果に基づいて景品情報の内容を決定し、当該決定した景品情報を前記表示装置に出力する請求項5記載の表示システム。
<請求項7>
前記表示装置は、
携帯端末と近距離通信を行うための近距離通信部を備え、
前記制御部は、前記景品情報を前記近距離通信部から前記携帯端末に出力させる請求項6記載の表示システム。
<請求項8>
前記表示部は、人型に形成されている請求項5〜7のいずれか一項に記載の表示システム。
<請求項9>
表示装置のコンピュータを、
表示部の周囲環境を撮像する撮像部、
手の動作を認識することで成立するゲームに関する内容を前記表示部に表示させるとともに、ユーザによる前記ゲームの動作を前記撮像部で撮像し、当該映像を解析することで前記ユーザの最終的な手の形を結果前に予測して、前記ゲームの結果に反映させる制御部として機能させ、
前記制御部は、前記撮像部で撮像された映像から前記ユーザの顔を検出して、当該検出した顔部分を解析することで前記ユーザの属性を判断し、当該判断結果に基づいて前記ゲームの勝率を決定させるためのプログラム。
[Appendix]
<Claim 1>
A display unit;
An imaging unit for imaging the surrounding environment of the display unit;
The content related to the game established by recognizing the movement of the hand is displayed on the display unit, the movement of the game by the user is captured by the imaging unit, and the video is analyzed to analyze the final hand of the user. A control unit that predicts the shape of the game before the result and reflects it in the game result,
The control unit detects the user's face from the video captured by the imaging unit, determines the user's attribute by analyzing the detected face portion, and based on the determination result, A display device that determines the winning percentage.
<Claim 2>
The display device according to claim 1, wherein the control unit determines the content of the premium information based on the determination result.
<Claim 3>
A short-range communication unit for short-range communication with a mobile terminal is provided.
The display device according to claim 2, wherein the control unit causes the short distance communication unit to output the determined premium information to the mobile terminal.
<Claim 4>
The display device according to claim 1, wherein the display unit is formed in a human shape.
<Claim 5>
A display device;
A server connected to the display device via a network;
The display device
A display unit;
An imaging unit for imaging the surrounding environment of the display unit;
A communication unit for communicating with the server;
The content related to the game established by recognizing the movement of the hand is displayed on the display unit, the movement of the game by the user is captured by the imaging unit, and the video is analyzed to analyze the final hand of the user. A control unit that predicts the shape of the game before the result and reflects it in the game result,
The control unit detects the user's face from the image captured by the imaging unit, determines the user's attribute by analyzing the detected face part, and determines the determination result from the communication unit. Output to the server,
The server
When a determination result determined by the control unit is input from the communication unit, a win rate of the game is determined based on the determination result, and the determined win rate is output to the display device.
<Claim 6>
The display system according to claim 5, wherein the server determines the content of the premium information based on the determination result, and outputs the determined premium information to the display device.
<Claim 7>
The display device
A short-range communication unit for short-range communication with a mobile terminal is provided.
The display system according to claim 6, wherein the control unit outputs the premium information from the short-range communication unit to the portable terminal.
<Claim 8>
The display system according to claim 5, wherein the display unit is formed in a human shape.
<Claim 9>
Display computer,
An imaging unit for imaging the surrounding environment of the display unit;
The content related to the game established by recognizing the movement of the hand is displayed on the display unit, the movement of the game by the user is captured by the imaging unit, and the video is analyzed to analyze the final hand of the user. Function as a control unit that predicts the shape before the result and reflects it in the result of the game,
The control unit detects the user's face from the video captured by the imaging unit, determines the user's attribute by analyzing the detected face portion, and based on the determination result, A program to determine the winning percentage.

1 表示システム
2 デジタルサイネージ装置
3 サーバ
4 携帯端末
21 投影部
22 スクリーン部
23 制御部
24 プロジェクタ
25 記憶部
26 通信部
27 表示部
28 台座
29 透光板
30 撮像部
31 リーダライター部(近距離通信部)
32 操作部
33 音声出力部
34 音声入力部
DESCRIPTION OF SYMBOLS 1 Display system 2 Digital signage apparatus 3 Server 4 Portable terminal 21 Projection part 22 Screen part 23 Control part 24 Projector 25 Memory | storage part 26 Communication part 27 Display part 28 Base 29 Light transmission board 30 Imaging part 31 Reader / writer part (Near field communication part) )
32 Operation unit 33 Audio output unit 34 Audio input unit

Claims (9)

表示部と、
前記表示部の周囲環境を撮像する撮像部と、
手の動作を認識することで成立するゲームに関する内容を前記表示部に表示させるとともに、ユーザによる前記ゲームの動作を前記撮像部で撮像し、当該映像を解析することで前記ユーザの最終的な手の形を結果前に予測して、前記ゲームの結果に反映させる制御部とを備え、
前記制御部は、前記撮像部で撮像された映像から前記ユーザの顔を検出して、当該検出した顔部分を解析することで前記ユーザの属性を判断し、当該判断結果に基づいて前記ゲームの勝率を決定する表示装置。
A display unit;
An imaging unit for imaging the surrounding environment of the display unit;
The content related to the game established by recognizing the movement of the hand is displayed on the display unit, the movement of the game by the user is captured by the imaging unit, and the video is analyzed to analyze the final hand of the user. A control unit that predicts the shape of the game before the result and reflects it in the game result,
The control unit detects the user's face from the video captured by the imaging unit, determines the user's attribute by analyzing the detected face portion, and based on the determination result, A display device that determines the winning percentage.
前記制御部は、前記判断結果に基づいて景品情報の内容を決定する請求項1記載の表示装置。   The display device according to claim 1, wherein the control unit determines the content of the premium information based on the determination result. 携帯端末と近距離通信を行うための近距離通信部を備え、
前記制御部は、決定した前記景品情報を前記近距離通信部から前記携帯端末に出力させる請求項2記載の表示装置。
A short-range communication unit for short-range communication with a mobile terminal is provided.
The display device according to claim 2, wherein the control unit causes the short distance communication unit to output the determined premium information to the mobile terminal.
前記表示部は、人型に形成されている請求項1〜3のいずれか一項に記載の表示装置。   The display device according to claim 1, wherein the display unit is formed in a human shape. 表示装置と、
前記表示装置とネットワークを介して接続されたサーバとを備え、
前記表示装置は、
表示部と、
前記表示部の周囲環境を撮像する撮像部と、
前記サーバと通信を行うための通信部と、
手の動作を認識することで成立するゲームに関する内容を前記表示部に表示させるとともに、ユーザによる前記ゲームの動作を前記撮像部で撮像し、当該映像を解析することで前記ユーザの最終的な手の形を結果前に予測して、前記ゲームの結果に反映させる制御部とを備え、
前記制御部は、前記撮像部で撮像された映像から前記ユーザの顔を検出して、当該検出した顔部分を解析することで前記ユーザの属性を判断し、当該判断結果を前記通信部から前記サーバに出力させ、
前記サーバは、
前記制御部が判断した判断結果が前記通信部から入力されると、当該判断結果に基づいて前記ゲームの勝率を決定し、当該決定した前記勝率を前記表示装置に出力する表示システム。
A display device;
A server connected to the display device via a network;
The display device
A display unit;
An imaging unit for imaging the surrounding environment of the display unit;
A communication unit for communicating with the server;
The content related to the game established by recognizing the movement of the hand is displayed on the display unit, the movement of the game by the user is captured by the imaging unit, and the video is analyzed to analyze the final hand of the user. A control unit that predicts the shape of the game before the result and reflects it in the game result,
The control unit detects the user's face from the image captured by the imaging unit, determines the user's attribute by analyzing the detected face part, and determines the determination result from the communication unit. Output to the server,
The server
When a determination result determined by the control unit is input from the communication unit, a win rate of the game is determined based on the determination result, and the determined win rate is output to the display device.
前記サーバは、前記判断結果に基づいて景品情報の内容を決定し、当該決定した景品情報を前記表示装置に出力する請求項5記載の表示システム。   The display system according to claim 5, wherein the server determines the content of the premium information based on the determination result, and outputs the determined premium information to the display device. 前記表示装置は、
携帯端末と近距離通信を行うための近距離通信部を備え、
前記制御部は、前記景品情報を前記近距離通信部から前記携帯端末に出力させる請求項6記載の表示システム。
The display device
A short-range communication unit for short-range communication with a mobile terminal is provided.
The display system according to claim 6, wherein the control unit outputs the premium information from the short-range communication unit to the portable terminal.
前記表示部は、人型に形成されている請求項5〜7のいずれか一項に記載の表示システム。   The display system according to claim 5, wherein the display unit is formed in a human shape. 表示装置のコンピュータを、
表示部の周囲環境を撮像する撮像部、
手の動作を認識することで成立するゲームに関する内容を前記表示部に表示させるとともに、ユーザによる前記ゲームの動作を前記撮像部で撮像し、当該映像を解析することで前記ユーザの最終的な手の形を結果前に予測して、前記ゲームの結果に反映させる制御部として機能させ、
前記制御部は、前記撮像部で撮像された映像から前記ユーザの顔を検出して、当該検出した顔部分を解析することで前記ユーザの属性を判断し、当該判断結果に基づいて前記ゲームの勝率を決定させるためのプログラム。
Display computer,
An imaging unit for imaging the surrounding environment of the display unit;
The content related to the game established by recognizing the movement of the hand is displayed on the display unit, the movement of the game by the user is captured by the imaging unit, and the video is analyzed to analyze the final hand of the user. Function as a control unit that predicts the shape before the result and reflects it in the result of the game,
The control unit detects the user's face from the video captured by the imaging unit, determines the user's attribute by analyzing the detected face portion, and based on the determination result, A program to determine the winning percentage.
JP2013078144A 2013-04-04 2013-04-04 Display device, display system, and program Pending JP2014203223A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013078144A JP2014203223A (en) 2013-04-04 2013-04-04 Display device, display system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013078144A JP2014203223A (en) 2013-04-04 2013-04-04 Display device, display system, and program

Publications (1)

Publication Number Publication Date
JP2014203223A true JP2014203223A (en) 2014-10-27

Family

ID=52353620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013078144A Pending JP2014203223A (en) 2013-04-04 2013-04-04 Display device, display system, and program

Country Status (1)

Country Link
JP (1) JP2014203223A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001093031A (en) * 1999-09-20 2001-04-06 Stance:Kk Service providing machine with user identifying function
JP2003208659A (en) * 2002-01-16 2003-07-25 Namco Ltd Automatic sales system, program, and information storage medium
JP2008152529A (en) * 2006-12-18 2008-07-03 Nec Corp Customer information utilization system, waste paper recovery device, customer information utilization method and program
JP2011150221A (en) * 2010-01-25 2011-08-04 Seiko Epson Corp Apparatus for mounting video output equipment, and method for projection of video output equipment
JP2012027871A (en) * 2010-07-28 2012-02-09 Nomura Research Institute Ltd Information processor and sales promotion system
JP2013020366A (en) * 2011-07-08 2013-01-31 Namco Bandai Games Inc Game system, program, and information storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001093031A (en) * 1999-09-20 2001-04-06 Stance:Kk Service providing machine with user identifying function
JP2003208659A (en) * 2002-01-16 2003-07-25 Namco Ltd Automatic sales system, program, and information storage medium
JP2008152529A (en) * 2006-12-18 2008-07-03 Nec Corp Customer information utilization system, waste paper recovery device, customer information utilization method and program
JP2011150221A (en) * 2010-01-25 2011-08-04 Seiko Epson Corp Apparatus for mounting video output equipment, and method for projection of video output equipment
JP2012027871A (en) * 2010-07-28 2012-02-09 Nomura Research Institute Ltd Information processor and sales promotion system
JP2013020366A (en) * 2011-07-08 2013-01-31 Namco Bandai Games Inc Game system, program, and information storage medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
諫山 大輔: "ディジタルコンテンツ", 映像情報メディア学会誌, vol. 第65巻 第2号, JPN6017004404, 1 February 2011 (2011-02-01), JP, pages 211 - 217, ISSN: 0003498049 *

Similar Documents

Publication Publication Date Title
US11750767B2 (en) Selective identification and order of image modifiers
CN113383369A (en) Body posture estimation
US11809633B2 (en) Mirroring device with pointing based navigation
US20220206581A1 (en) Communication interface with haptic feedback response
US11989348B2 (en) Media content items with haptic feedback augmentations
US20220317773A1 (en) Real-time communication interface with haptic and audio feedback response
US11531400B2 (en) Electronic communication interface with haptic feedback response
US20220317774A1 (en) Real-time communication interface with haptic and audio feedback response
US20220206584A1 (en) Communication interface with haptic feedback response
US20220317775A1 (en) Virtual reality communication interface with haptic feedback response
WO2022212174A1 (en) Interface with haptic and audio feedback response
WO2022212175A1 (en) Interface with haptic and audio feedback response
CN114630135A (en) Live broadcast interaction method and device
US20240015260A1 (en) Dynamically switching between rgb and ir capture
US20220319125A1 (en) User-aligned spatial volumes
WO2022212144A1 (en) User-defined contextual spaces
WO2022213030A1 (en) Neural networks accompaniment extraction from songs
JP2014203223A (en) Display device, display system, and program
KR101791775B1 (en) Method of providing exhibition publicity service by exhibition publicity kiosk
JP6260105B2 (en) Display device and display system
JP6229288B2 (en) Display device and display system
JP2014197301A (en) Display device, prize providing system, and program
US11922587B2 (en) Dynamic augmented reality experience
US11825276B2 (en) Selector input device to transmit audio signals
US11949969B1 (en) Mixed reality media content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170808