JP2016086215A - Information output device, information output method, and program - Google Patents

Information output device, information output method, and program Download PDF

Info

Publication number
JP2016086215A
JP2016086215A JP2014215886A JP2014215886A JP2016086215A JP 2016086215 A JP2016086215 A JP 2016086215A JP 2014215886 A JP2014215886 A JP 2014215886A JP 2014215886 A JP2014215886 A JP 2014215886A JP 2016086215 A JP2016086215 A JP 2016086215A
Authority
JP
Japan
Prior art keywords
user
unit
screen
visually recognize
information output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014215886A
Other languages
Japanese (ja)
Inventor
千寿 外山
Chihiro Toyama
千寿 外山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014215886A priority Critical patent/JP2016086215A/en
Publication of JP2016086215A publication Critical patent/JP2016086215A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow a user to recognize the existence or position of invisible operation means.SOLUTION: In a digital signage device 1, a control section 23 detects the position of a user based on an image captured by an imaging section 34, and determines whether or not operation buttons 32a-32d, invisible for the user because any one of them hides a screen 27 having a three-dimensional part 271b, exists based on the position of the user thus detected. When a determination is made that an operation button invisible for the user exists, a guidance of the operation button invisible for the user is outputted on the screen 27.SELECTED DRAWING: Figure 7

Description

本発明は、情報出力装置、情報出力方法、及びプログラムに関する。   The present invention relates to an information output device, an information output method, and a program.

従来、映像供給装置に接続される映像出力装置と、反射部材と、スクリーンとを有し、映像出力装置からコンテンツを投影する出力光を反射部材によって反射し、この反射部材によって反射された出力光を当該コンテンツの輪郭の形状に形成されたスクリーンに投影することにより、視聴者(ユーザ)に対して印象を高めることができる映像出力装置搭載機器が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, an image output device connected to an image supply device, a reflection member, and a screen, output light that projects content from the image output device is reflected by the reflection member, and output light reflected by the reflection member A video output device-equipped device that can enhance the impression to the viewer (user) by projecting the image onto a screen formed in the shape of the outline of the content is known (for example, see Patent Document 1). .

特開2011−150221号公報JP 2011-150221 A

ところで、より現実味のある印象を視聴者に与えるべく、立体的に形成されたスクリーンにコンテンツを投影する技術が検討されている。しかし、例えば、立体的なスクリーンを用いた場合、ユーザの位置によって操作ボタン等の操作手段がスクリーンに隠れて視認できなくなってしまうという問題がある。   By the way, in order to give viewers a more realistic impression, a technique for projecting content onto a three-dimensionally formed screen has been studied. However, for example, when a three-dimensional screen is used, there is a problem that operation means such as operation buttons are hidden behind the screen depending on the position of the user and cannot be viewed.

図2は、スクリーン27を正面から見た図、図3(a)は、スクリーン27を上方から見た図、図3(b)は、スクリーン27を斜め上方から見た図である。例えば、図3(a)に示すように、スクリーン27を上方から見た場合、ユーザは、4つの操作ボタン32a〜32dのうち、操作ボタン32aを視認することができない。図3(b)に示すように、スクリーンを斜め上方から見た場合、ユーザは、4つの操作ボタン32a〜32dのうち、操作ボタン32a〜32cを視認することができない。   2 is a view of the screen 27 viewed from the front, FIG. 3A is a view of the screen 27 viewed from above, and FIG. 3B is a view of the screen 27 viewed obliquely from above. For example, as shown in FIG. 3A, when the screen 27 is viewed from above, the user cannot visually recognize the operation button 32a among the four operation buttons 32a to 32d. As shown in FIG. 3B, when the screen is viewed obliquely from above, the user cannot visually recognize the operation buttons 32a to 32c among the four operation buttons 32a to 32d.

本発明の課題は、ユーザが視認することのできない操作手段の存在や位置を認識できるようにすることである。   An object of the present invention is to make it possible to recognize the presence and position of an operation means that cannot be visually recognized by a user.

上記課題を解決するため、請求項1に記載の発明の情報出力装置は、
ユーザの位置を検出する検出手段と、
前記検出手段により検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する判断手段と、
前記判断手段により前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する出力手段と、
を備える。
In order to solve the above-described problem, an information output device according to a first aspect of the present invention provides:
Detecting means for detecting the position of the user;
A determination unit that determines whether or not there is an operation unit that the user cannot visually recognize based on the position of the user detected by the detection unit;
An output means for outputting guidance of the operating means that the user cannot visually recognize when it is determined by the determining means that there is an operating means that the user cannot visually recognize;
Is provided.

本発明によれば、ユーザが視認することのできない操作手段の存在や位置を認識することが可能となる。   According to the present invention, it is possible to recognize the presence and position of an operation unit that cannot be visually recognized by the user.

本実施形態におけるデジタルサイネージ装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the digital signage apparatus in this embodiment. 本実施形態におけるデジタルサイネージ装置の概略構成を示す正面図である。It is a front view which shows schematic structure of the digital signage apparatus in this embodiment. (a)は、デジタルサイネージ装置を上方から見た図、(b)は、デジタルサイネージ装置を斜め上方から見た図である。(A) is the figure which looked at the digital signage apparatus from upper direction, (b) is the figure which looked at the digital signage apparatus from diagonally upward. 操作ボタン視認可否判定テーブルのデータ格納例を示す図である。It is a figure which shows the example of data storage of the operation button view permission rejection determination table. 目の位置X,Y及び目間距離Dを説明するための図である。It is a figure for demonstrating position X, Y of eyes, and the distance D between eyes. スクリーンを上方から見た断面を模式的に示した図である。It is the figure which showed typically the cross section which looked at the screen from upper direction. 図1の制御部により実行されるコンテンツ出力処理を示すフローチャートである。It is a flowchart which shows the content output process performed by the control part of FIG. 操作ボタンの位置を案内する表示をスクリーンに表示した例を示す図である。It is a figure which shows the example which displayed the display which guides the position of an operation button on the screen.

以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。以下の実施形態では、本発明に係る情報出力装置としてデジタルサイネージ装置1を適用した場合を例にとり説明する。なお、本発明は、図示例に限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, a case where the digital signage apparatus 1 is applied as an information output apparatus according to the present invention will be described as an example. The present invention is not limited to the illustrated example.

[デジタルサイネージ装置1の構成]
図1は、デジタルサイネージ装置1の主制御構成を示すブロック図である。図2は、デジタルサイネージ装置1の概略構成を示す正面図である。デジタルサイネージ装置1は、例えば、店舗等に設置され、ユーザに対して商品説明等のコンテンツを出力する。
[Configuration of Digital Signage Device 1]
FIG. 1 is a block diagram showing a main control configuration of the digital signage apparatus 1. FIG. 2 is a front view showing a schematic configuration of the digital signage apparatus 1. The digital signage apparatus 1 is installed in a store or the like, for example, and outputs contents such as product descriptions to the user.

図1、2に示すように、デジタルサイネージ装置1は、筐体20に内蔵された投影部21と、筐体20の前面に備えられたユーザインターフェース部22と、を備えている。   As shown in FIGS. 1 and 2, the digital signage apparatus 1 includes a projection unit 21 built in the housing 20 and a user interface unit 22 provided on the front surface of the housing 20.

まず、投影部21について説明する。
投影部21は、制御部23と、プロジェクタ24と、記憶部25と、通信部26と、を備えている。プロジェクタ24、記憶部25、通信部26は、図1に示すように制御部23に接続されている。
First, the projection unit 21 will be described.
The projection unit 21 includes a control unit 23, a projector 24, a storage unit 25, and a communication unit 26. The projector 24, the storage unit 25, and the communication unit 26 are connected to the control unit 23 as shown in FIG.

制御部23は、記憶部25のプログラム記憶部251に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うCPU(Central Processing Unit)とプログラム実行時の作業領域となるメモリ(いずれも図示略)とを備えている。制御部23は、記憶部25のプログラム記憶部251に記憶されているプログラムとの協働により、後述するコンテンツ出力処理を実行することにより、検出手段、判断手段として機能する。   The control unit 23 includes a CPU (Central Processing Unit) that executes various programs stored in the program storage unit 251 of the storage unit 25 to perform predetermined calculations and control of each unit, and a memory that is a work area when the program is executed (Both not shown). The control unit 23 functions as a detection unit and a determination unit by executing a content output process to be described later in cooperation with a program stored in the program storage unit 251 of the storage unit 25.

プロジェクタ24は、制御部23から出力された画像データを投影光に変換してスクリーン27に向けて照射する投影装置である。プロジェクタ24は、例えば、アレイ状に配列された複数個(XGAの場合、横1024画素×縦768画素)の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することでその反射光により光像を形成する表示素子であるDMD(デジタルマイクロミラーデバイス)を利用したDLP(Digital Light Processing)(登録商標)プロジェクタが適用可能である。   The projector 24 is a projection device that converts the image data output from the control unit 23 into projection light and irradiates the screen 27 with the projection light. For example, the projector 24 performs a display operation by individually turning on / off each tilt angle of a plurality of micromirrors arranged in an array (in the case of XGA, horizontal 1024 pixels × vertical 768 pixels) at high speed. A DLP (Digital Light Processing) (registered trademark) projector using a DMD (digital micromirror device), which is a display element that forms a light image with the reflected light, is applicable.

記憶部25は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部25には、図1に示すように、プログラム記憶部251が設けられている。プログラム記憶部251には、制御部23で実行されるシステムプログラムや後述するコンテンツ出力処理を始めとする各種処理を実行するための処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。   The storage unit 25 is configured by an HDD (Hard Disk Drive), a nonvolatile semiconductor memory, or the like. The storage unit 25 is provided with a program storage unit 251 as shown in FIG. The program storage unit 251 stores a system program executed by the control unit 23, a processing program for executing various processes including a content output process described later, data necessary for executing these programs, and the like. Yes.

また、記憶部25には、コンテンツ記憶部252、スクリーン種記憶部253、テーブル記憶部254が設けられている。   The storage unit 25 includes a content storage unit 252, a screen type storage unit 253, and a table storage unit 254.

コンテンツ記憶部252には、商品説明等のコンテンツをスクリーン27等(図2参照)に出力するためのコンテンツデータが記憶されている。コンテンツデータは、複数のフレーム画像により構成される動画データ及び各フレーム画像に対応する音声データにより構成されている。コンテンツデータは、コンテンツを識別するためのID(ここでは1〜4)に対応付けて記憶されている。   The content storage unit 252 stores content data for outputting content such as product descriptions to the screen 27 or the like (see FIG. 2). The content data is composed of moving image data composed of a plurality of frame images and audio data corresponding to each frame image. The content data is stored in association with an ID (1 to 4 in this case) for identifying the content.

スクリーン種記憶部253には、筐体20に取り付けられているスクリーン27の種類を示す情報が記憶されている。スクリーン27の種類は、例えば、スクリーン27の取り付け作業時に作業者が操作部32等により設定したものである。   The screen type storage unit 253 stores information indicating the type of the screen 27 attached to the housing 20. For example, the type of the screen 27 is set by the operator using the operation unit 32 or the like when the screen 27 is attached.

テーブル記憶部254には、操作ボタン視認可否判定テーブル254aが記憶されている。操作ボタン視認可否判定テーブル254aは、後述するコンテンツ出力処理において、現在筐体20に取り付けられているスクリーン27の種類とユーザの位置から操作ボタン32a〜32dのそれぞれが視認可能であるか否かを判定するために設けられたテーブルである。
ここで、図3(a)、(b)に示すように、操作部32の操作ボタン32a〜32dは、ユーザの位置(ユーザの視点の位置)によって見えたり見えなかったりする。これは、立体的なスクリーン27によって隠れてしまうことに起因するもので、ユーザの位置が同じであってもスクリーン27の形状によって視認可能か否かは異なる。
The table storage unit 254 stores an operation button view authorization rejection determination table 254a. The operation button view authorization rejection determination table 254a indicates whether or not each of the operation buttons 32a to 32d is visible from the type of the screen 27 currently attached to the housing 20 and the position of the user in the content output process described later. It is the table provided in order to determine.
Here, as illustrated in FIGS. 3A and 3B, the operation buttons 32 a to 32 d of the operation unit 32 may or may not be visible depending on the position of the user (the position of the user's viewpoint). This is because it is hidden by the three-dimensional screen 27, and whether or not the user can visually recognize it depends on the shape of the screen 27 even if the position of the user is the same.

図4に、操作ボタン視認可否判定テーブル254aのデータ格納例を示す。操作ボタン視認可否判定テーブル254aは、スクリーン27の種類と、ユーザの位置を示す情報(ここでは、撮像部34により撮影された撮影画像におけるユーザの目の位置X、目の位置Y、及び目間距離D)との組み合わせに対応付けて、その位置からスクリーンを見ているユーザが操作部32の各操作ボタン32a〜32dを視認できるか否かを示すフラグ(0=視認可能、1=視認不可)を格納したテーブルである。操作ボタン視認可否判定テーブル254aにおいて、操作ボタン32a〜32dは、それぞれボタンa〜dと表記されている。この操作ボタン視認可否判定テーブル254aに記憶されている情報は、予め実験により得られた結果を記憶したものである。   FIG. 4 shows a data storage example of the operation button view authorization rejection determination table 254a. The operation button view approval / disapproval determination table 254a includes information indicating the type of the screen 27 and the position of the user (here, the user's eye position X, eye position Y, and eye interval in the captured image captured by the imaging unit 34). In correspondence with the combination with the distance D), a flag indicating whether or not the user viewing the screen from that position can visually recognize each of the operation buttons 32a to 32d of the operation unit 32 (0 = visible), 1 = not visible ). In the operation button view approval / disapproval determination table 254a, the operation buttons 32a to 32d are indicated as buttons a to d, respectively. The information stored in the operation button view approval / disapproval determination table 254a is obtained by storing results obtained in advance by experiments.

ここで、図5を参照して、目の位置X,Y及び目間距離Dについて説明する。図5においては、一例として、撮像部34により得られる撮影画像が640×480画素である場合を示している。図3に示すように、撮像部34により取得された撮影画像の座標の左上をx=0、y=0、右下をx=639、y=479と定義する。目の位置Xは、撮影画像から認識されたユーザの2つの目(例えば、目の中心)のx座標の平均であり、値の範囲は、0〜639である。目の位置Yは、撮影画像から認識されたユーザの2つの目のy座標の平均であり、値の範囲は、0〜479である。目間距離Dは、撮影画像から認識されたユーザの2つの目の距離であり、値の範囲は、0〜320である。   Here, with reference to FIG. 5, the positions X and Y of the eyes and the distance D between the eyes will be described. In FIG. 5, as an example, a case where the captured image obtained by the imaging unit 34 is 640 × 480 pixels is illustrated. As shown in FIG. 3, the upper left of the coordinates of the captured image acquired by the imaging unit 34 is defined as x = 0, y = 0, the lower right is defined as x = 639, and y = 479. The eye position X is an average of the x-coordinates of the two eyes (for example, the center of the eyes) of the user recognized from the captured image, and the range of values is 0-639. The eye position Y is the average of the y coordinates of the two eyes of the user recognized from the captured image, and the range of values is 0-479. The distance between eyes D is the distance between the two eyes of the user recognized from the captured image, and the range of values is 0-320.

目の位置X,Yにより、ユーザの位置(ユーザの視点の位置)のおおよその方向を特定することができる。また、目間距離Dにより、ユーザの位置のデジタルサイネージ装置1からのおおよその距離を特定することができる。ユーザがデジタルサイネージ装置1から離れているほど目間距離Dは小さくなり、ユーザがデジタルサイネージ装置1から近いほど目間距離Dは大きくなる。   The approximate direction of the user position (the position of the user's viewpoint) can be specified by the eye positions X and Y. Moreover, the approximate distance from the digital signage apparatus 1 of a user's position can be specified by the distance D between eyes. The distance between eyes D becomes smaller as the user is away from the digital signage apparatus 1, and the distance between eyes D becomes larger as the user is closer to the digital signage apparatus 1.

通信部26は、モデム、ルータ、ネットワークカード等により構成され、通信ネットワークに接続された外部機器との通信を行う。   The communication unit 26 includes a modem, a router, a network card, and the like, and performs communication with an external device connected to the communication network.

次に、ユーザインターフェース部22について説明する。
図2に示すように、ユーザインターフェース部22は、スクリーン27と、操作部32と、音声出力部33と、撮像部34と、LCD(Liquid Crystal Display)35と、を備えている。なお、図2及び図3においては、スクリーン27に人物像が投影されている例を図示している。
Next, the user interface unit 22 will be described.
As shown in FIG. 2, the user interface unit 22 includes a screen 27, an operation unit 32, an audio output unit 33, an imaging unit 34, and an LCD (Liquid Crystal Display) 35. 2 and 3 show an example in which a human image is projected on the screen 27. FIG.

スクリーン27は、筐体20に交換可能に取り付けられており、コンテンツに応じて、形状の異なる複数種類のスクリーンの中から適切な形状のスクリーン27に交換することが可能となっている。   The screen 27 is attached to the housing 20 in a replaceable manner, and can be replaced with a screen 27 having an appropriate shape from a plurality of types of screens having different shapes according to the content.

図6は、スクリーン27を上方から見た断面を模式的に示した図である。
スクリーン27は、例えばアクリル板などから形成された拡散透過部271と、拡散透過部271の背面側に配置されたフレネルレンズ272とを備えている。
FIG. 6 is a diagram schematically showing a cross section of the screen 27 as viewed from above.
The screen 27 includes a diffuse transmission part 271 formed of, for example, an acrylic plate, and a Fresnel lens 272 disposed on the back side of the diffusion transmission part 271.

拡散透過部271は、平板状に形成された平板部271aと、前方に向けて凸となるように立体的に形成された立体部271bとを備えている。本実施形態において、スクリーン27に投影されるコンテンツは、人物が商品説明等を行うものであり、平板部271aは、例えば、商品に係る各種情報が表示される掲示部であるため、視認性を確保すべく平板状に形成されている。また、立体部271bは、背面側が開放された中空形状となっている。立体部271bは、人物像をなす投影光が投影される部分であり、リアリティを追求するのであれば、より人に近い立体形状に形成されていることが好ましい。さらに、立体部271bにおいては、少なくとも一部のパーツの表面にマット加工が施されていることが好ましい。マット加工によって、外部の光が拡散透過部271の表面で反射しにくくなり、映像が見えにくくなることを防止することができる。   The diffuse transmission portion 271 includes a flat plate portion 271a formed in a flat plate shape and a three-dimensional portion 271b formed in a three-dimensional manner so as to protrude forward. In the present embodiment, the content projected on the screen 27 is for a person to explain a product and the like, and the flat plate portion 271a is, for example, a posting unit on which various information related to the product is displayed. In order to ensure, it is formed in a flat plate shape. The three-dimensional part 271b has a hollow shape with an open back side. The three-dimensional part 271b is a part on which projection light forming a human image is projected. If pursuing reality, the three-dimensional part 271b is preferably formed in a three-dimensional shape that is closer to a person. Furthermore, in the three-dimensional part 271b, it is preferable that the surface of at least some of the parts is matted. By the mat processing, it is possible to prevent the external light from being reflected on the surface of the diffuse transmission part 271 and the image from becoming difficult to see.

フレネルレンズ272は、拡散透過部271の背面側に配置されており、プロジェクタ24から投影された投影光を所定の角度で屈折させるとともにスクリーン27に正対する仮想平面(ユーザの仮想的な正対位置)に対して略直交する平行光に変換して、拡散透過部271に向けて案内する。これにより、元の画像データを補正しなくとも、立体部271bを有するスクリーン27に対して歪みの少ない画像を表示することができる。   The Fresnel lens 272 is arranged on the back side of the diffusing and transmitting unit 271 and refracts the projection light projected from the projector 24 at a predetermined angle and faces the screen 27 (a virtual facing position of the user). ) And is guided toward the diffuse transmission part 271. Thereby, an image with less distortion can be displayed on the screen 27 having the three-dimensional part 271b without correcting the original image data.

操作部32は、例えば、操作ボタン32a〜32dを備え、操作ボタンの押下信号を検出して制御部23に出力する。   The operation unit 32 includes, for example, operation buttons 32 a to 32 d, detects a press signal of the operation button, and outputs it to the control unit 23.

音声出力部33は、制御部23により指示された音声データを音声信号に変換してスピーカから出力させる。   The audio output unit 33 converts the audio data instructed by the control unit 23 into an audio signal and outputs the audio signal from the speaker.

撮像部34は、スクリーン27の前方の空間の画像を撮影して撮影画像を生成する。撮像部34は、図示は省略するが、光学系及び撮像素子を備えるカメラと、カメラを制御する撮像制御部とを備えている。
カメラの光学系は、スクリーン27の前方にいる人物(ユーザ)を撮影可能な方向に向けられている。また、その撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサである。そして、撮像素子は、光学系を通過した光学像を2次元の画像信号に変換する。
The imaging unit 34 captures an image of a space in front of the screen 27 and generates a captured image. Although not shown, the imaging unit 34 includes a camera including an optical system and an imaging element, and an imaging control unit that controls the camera.
The optical system of the camera is directed in a direction in which a person (user) in front of the screen 27 can be photographed. The imaging element is, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS). The imaging element converts the optical image that has passed through the optical system into a two-dimensional image signal.

LCD35は、操作ボタン32a〜32dに対応付けて、操作ボタン32a〜32dの機能等を表示する。本実施形態においては、操作ボタン32a〜32dはコンテンツの切り替え機能を有するものであり、各操作ボタン32a〜32dに対応するLCD35の領域には、それぞれ切り替え先のコンテンツの内容等が表示される。   The LCD 35 displays the functions and the like of the operation buttons 32a to 32d in association with the operation buttons 32a to 32d. In the present embodiment, the operation buttons 32a to 32d have a content switching function, and the contents of the switching destination content and the like are displayed in the area of the LCD 35 corresponding to each operation button 32a to 32d.

操作部32、音声出力部33、撮像部34、LCD35は、図1に示すように制御部23に接続されている。   The operation unit 32, the audio output unit 33, the imaging unit 34, and the LCD 35 are connected to the control unit 23 as shown in FIG.

[デジタルサイネージ装置1の動作]
次に、デジタルサイネージ装置1の動作について説明する。
[Operation of Digital Signage Device 1]
Next, the operation of the digital signage apparatus 1 will be described.

図7に、デジタルサイネージ装置1において実行されるコンテンツ出力処理のフローチャートを示す。コンテンツ出力処理は、デジタルサイネージ装置1の電源がONとなった際に、制御部23とプログラム記憶部251に記憶されているプログラムとの協働により実行される。   FIG. 7 shows a flowchart of content output processing executed in the digital signage apparatus 1. The content output process is executed in cooperation with the program stored in the control unit 23 and the program storage unit 251 when the power of the digital signage apparatus 1 is turned on.

コンテンツ出力処理において、まず、制御部23は、スクリーン種記憶部253から筐体20に取り付けられているスクリーン27の種類の情報を取得する(ステップS1)。   In the content output process, first, the control unit 23 acquires information on the type of the screen 27 attached to the housing 20 from the screen type storage unit 253 (step S1).

次いで、制御部23は、スクリーン27及び音声出力部33によりコンテンツを出力させる(ステップS2)。
具体的に、制御部23は、コンテンツ記憶部252から出力するコンテンツのコンテンツデータを読み出し、そのフレーム画像を順次プロジェクタ24に出力してプロジェクタ24によりスクリーン27に投影させる。また、読み出したコンテンツデータの音声データを音声出力部33に出力し、コンテンツの音声を出力させる。併せて、LCD35に操作ボタン32a〜32dの機能を表示させる。なお、コンテンツは、例えば、スクリーン27の立体部271bに投影された人物像が商品を説明するものである。
Next, the control unit 23 causes the screen 27 and the audio output unit 33 to output content (step S2).
Specifically, the control unit 23 reads the content data of the content output from the content storage unit 252, sequentially outputs the frame images to the projector 24, and causes the projector 24 to project it onto the screen 27. Also, the audio data of the read content data is output to the audio output unit 33, and the audio of the content is output. In addition, the functions of the operation buttons 32a to 32d are displayed on the LCD 35. The content is, for example, a person image projected on the three-dimensional part 271b of the screen 27 that describes the product.

なお、コンテンツは上述のコンテンツデータに対応付けられているIDの順番に出力され、最後のコンテンツまで出力されると最初のコンテンツに戻るが、操作ボタンAからDの何れかの操作ボタンが押下されると、押下されたボタンに対応するコンテンツに切り替えが行われる。その後は、切り替えたコンテンツからIDの順番に出力される。   The content is output in the order of the IDs associated with the content data described above, and when the last content is output, it returns to the first content, but any one of the operation buttons A to D is pressed. Then, the content corresponding to the pressed button is switched. Thereafter, the contents are output in the order of IDs from the switched contents.

次いで、制御部23は、ユーザが検出されたか否かを判断する(ステップS3)。具体的に、制御部23は、撮像部34により撮影を行わせて撮影画像を取得し、取得した撮影画像に対して顔認識処理を行い、撮影画像から顔が認識された場合に、ユーザが検出されたと判断する。顔認識処理は、目、鼻、口等の特徴に基づく公知の画像処理技術を用いて行うことができる。   Next, the control unit 23 determines whether or not a user has been detected (step S3). Specifically, the control unit 23 causes the imaging unit 34 to capture an image to acquire a captured image, performs face recognition processing on the acquired captured image, and when a face is recognized from the captured image, the user performs Judge that it was detected. The face recognition process can be performed using a known image processing technique based on features such as eyes, nose, and mouth.

ユーザが検出されていないと判断した場合(ステップS3;NO)、制御部23は、ステップS2に戻り、コンテンツの出力中において所定時間間隔で撮像部34により撮影を行わせ、得られた撮影画像に顔認識処理を行う。   When it is determined that the user has not been detected (step S3; NO), the control unit 23 returns to step S2, causes the image capturing unit 34 to perform image capturing at predetermined time intervals during output of the content, and obtains a captured image obtained. The face recognition process is performed.

ユーザが検出されたと判断した場合(ステップS3;YES)、制御部23は、ユーザの目の位置X、Y及び目間距離Dを取得することにより、ユーザの位置を検出する(ステップS4)。具体的には、撮像部34により取得された撮影画像における顔領域から目を抽出し、2つの目の位置の平均を算出して目の位置X,Yとして取得する。また、2つの目の中心の距離を測定して目間距離Dとして取得する。   When it is determined that the user has been detected (step S3; YES), the control unit 23 detects the position of the user by acquiring the user's eye positions X and Y and the inter-eye distance D (step S4). Specifically, the eyes are extracted from the face area in the captured image acquired by the imaging unit 34, and the average of the positions of the two eyes is calculated and acquired as the eye positions X and Y. Further, the distance between the centers of the two eyes is measured and acquired as an inter-eye distance D.

次いで、制御部23は、テーブル記憶部254に記憶されている操作ボタン視認可否判定テーブル254aを参照し、ステップS1で取得されたスクリーン27の種類と、ステップS4で取得された目の位置X,Y及び目間距離Dとに基づいて、ユーザが視認できない操作ボタンが存在するか否かを判断する(ステップS5)。   Next, the control unit 23 refers to the operation button view authorization rejection determination table 254a stored in the table storage unit 254, and determines the type of the screen 27 acquired in step S1 and the eye position X, acquired in step S4. Based on Y and the distance D between eyes, it is determined whether or not there is an operation button that the user cannot visually recognize (step S5).

ユーザが視認できない操作ボタンが存在しないと判断した場合(ステップS5;NO)、制御部23は、ステップS2に戻る。
ユーザが視認できない操作ボタンが存在すると判断した場合(ステップS5;YES)、制御部23は、ユーザが視認できない操作ボタンの位置を案内する表示をコンテンツデータに上書きし(ステップS6)、ステップS2に戻る。
When it is determined that there is no operation button that cannot be visually recognized by the user (step S5; NO), the control unit 23 returns to step S2.
When it is determined that there is an operation button that cannot be visually recognized by the user (step S5; YES), the control unit 23 overwrites the content data with a display that guides the position of the operation button that cannot be visually recognized by the user (step S6). Return.

制御部23は、デジタルサイネージ装置1の電源がOFFされるまでステップS2〜ステップS6の処理を繰り返し実行する。   The control unit 23 repeatedly executes the processing from step S2 to step S6 until the power of the digital signage device 1 is turned off.

図8に、ステップS6でユーザが視認できない操作ボタンの位置を案内する表示をコンテンツデータに上書きした後、ステップS2に戻った際のスクリーン27の表示の一例を示す。
図8に示すように、スクリーン27には、コンテンツに重ねて、ユーザが視認できない操作ボタンの位置を案内する矢印等が表示される。従って、ユーザは、視認できない操作ボタンの存在や位置を認識することが可能となる。
FIG. 8 shows an example of the display on the screen 27 when returning to step S2 after overwriting the content data with a display for guiding the position of the operation button that the user cannot visually recognize in step S6.
As shown in FIG. 8, an arrow or the like for guiding the position of the operation button that the user cannot visually recognize is displayed on the screen 27 so as to overlap the content. Therefore, the user can recognize the presence and position of an operation button that cannot be visually recognized.

以上説明したように、デジタルサイネージ装置1によれば、制御部23は、ユーザの位置を検出し、検出されたユーザの位置に基づいて、操作ボタン32a〜32dの何れかが立体部271bを有するスクリーン27に隠れることによってユーザが視認できない操作ボタン32a〜32bが存在するか否かを判断する。そして、ユーザが視認できない操作ボタンが存在すると判断した場合に、そのユーザが視認できない操作ボタンの案内をスクリーン27に出力する。   As described above, according to the digital signage apparatus 1, the control unit 23 detects the position of the user, and any one of the operation buttons 32a to 32d has the three-dimensional unit 271b based on the detected position of the user. It is determined whether or not there are operation buttons 32 a to 32 b that cannot be visually recognized by the user by hiding on the screen 27. When it is determined that there is an operation button that cannot be visually recognized by the user, the operation button guidance that the user cannot visually recognize is output to the screen 27.

従って、ユーザが視認することのできない操作手段の存在や位置を認識することが可能となる。   Accordingly, it is possible to recognize the presence and position of the operation means that cannot be visually recognized by the user.

また、例えば、ユーザの位置及び設置されているスクリーンの種類に基づいてユーザが視認できない操作ボタン32a〜32dが存在するか否かを判断するようにすることで、スクリーン27を異なる形状のものに交換してもユーザが視認できない操作ボタン32a〜32dを判断することが可能となる。   Further, for example, by determining whether or not there are operation buttons 32a to 32d that cannot be visually recognized by the user based on the position of the user and the type of the installed screen, the screen 27 has a different shape. It becomes possible to determine the operation buttons 32a to 32d that the user cannot visually recognize even after replacement.

また、例えば、撮像部34により取得された撮影画像に顔認識処理を行い、認識した顔画像から目を抽出してユーザの目の位置及び目間距離を検出することによりユーザの位置を検出するようにすることで、容易にユーザの位置を検出することが可能となる。   Also, for example, face recognition processing is performed on the captured image acquired by the imaging unit 34, eyes are extracted from the recognized face image, and the position of the user's eyes and the distance between the eyes are detected, thereby detecting the user's position. By doing so, it becomes possible to easily detect the position of the user.

また、ユーザが視認できない操作ボタンの位置を示す案内をスクリーン27上に表示出力するようにすることで、ユーザが視認できない操作ボタンの存在及び位置を容易に認識することが可能となる。   Further, by displaying and displaying on the screen 27 the guidance indicating the position of the operation button that cannot be visually recognized by the user, the presence and position of the operation button that cannot be visually recognized by the user can be easily recognized.

なお、上記実施形態における記述内容は、本発明に係るデジタルサイネージ装置の好適な一例であり、これに限定されるものではない。   In addition, the description content in the said embodiment is a suitable example of the digital signage apparatus which concerns on this invention, and is not limited to this.

例えば、上記実施形態においては、ユーザが視認することのできない操作ボタンの位置を矢印等で案内する場合を例にとり説明したが、例えば、ユーザが視認することのできない操作ボタンの機能等を併せて表示することとしてもよい。   For example, in the above embodiment, the case where the position of the operation button that cannot be visually recognized by the user is guided by an arrow or the like has been described as an example. It may be displayed.

また、上記実施形態においては、操作ボタンの位置の案内を表示により行うこととしたが、音声出力により行うこととしてもよい。例えば、「2つの操作ボタンが立体スクリーンの下に隠れています」等のメッセージを音声により出力することとしてもよい。   Further, in the above-described embodiment, the guidance of the position of the operation button is performed by display, but it may be performed by voice output. For example, a message such as “Two operation buttons are hidden under the three-dimensional screen” may be output by voice.

また、上記実施形態においては、ユーザの位置を特定するためのパラメーターとして、目の位置X,Y及び目間距離Dを用いた場合を例にとり説明したが、これに限定されない。例えば、視線方向等を加えてユーザの位置を特定してもよい。   In the above embodiment, the case where the eye positions X and Y and the inter-eye distance D are used as parameters for specifying the position of the user has been described as an example. However, the present invention is not limited to this. For example, the user's position may be specified by adding the line-of-sight direction or the like.

また、上記実施形態においては、スクリーン27の立体部271bによって操作ボタン32a〜32dが隠れることによりユーザが視認できない操作手段が存在する場合を例にとり説明したが、本発明は、スクリーン27の立体部271bに限らずデジタルサイネージ装置1の筐体20にある何らかの凸部によりユーザから視認できない操作手段が存在する場合についても適用可能である。   Further, in the above-described embodiment, the case where there is an operation unit that cannot be visually recognized by the user due to the operation buttons 32a to 32d being hidden by the solid portion 271b of the screen 27 has been described as an example. The present invention is not limited to 271b and can be applied to a case where there is an operation unit that cannot be visually recognized by the user due to some convex portion in the casing 20 of the digital signage apparatus 1.

また、上記実施形態においては、スクリーン27の立体部271bが人型である場合を例にとり説明したが、立体部271bの形状は、これに限定されるものではない。   Moreover, in the said embodiment, although demonstrated taking the case where the solid part 271b of the screen 27 was a humanoid, the shape of the solid part 271b is not limited to this.

また、顔認識処理によって複数のユーザの顔を認識した場合、それぞれのユーザが視認できない操作手段の情報を表示しても良い。
また、顔認識処理のみでユーザの位置を検出してもよい。
また、認識したユーザの距離が遠い場合(例えば、目間距離Dが所定の閾値以下である場合)は、見えない操作手段が存在する位置にいてもその操作手段の情報を表示しなくてもよい。
Further, when the faces of a plurality of users are recognized by the face recognition process, information on operation means that cannot be visually recognized by each user may be displayed.
Further, the position of the user may be detected only by face recognition processing.
Further, when the recognized user is far away (for example, when the distance D between eyes is equal to or smaller than a predetermined threshold), even if the invisible operation means exists, the information on the operation means may not be displayed. Good.

その他、デジタルサイネージ装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of the digital signage apparatus can be changed as appropriate without departing from the spirit of the invention.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
ユーザの位置を検出する検出手段と、
前記検出手段により検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する判断手段と、
前記判断手段により前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する出力手段と、
を備える情報出力装置。
<請求項2>
立体部を有するスクリーンを備え、
前記判断手段は、前記検出手段により検出されたユーザの位置に基づいて、前記スクリーンに隠れることによって前記ユーザが視認できない操作手段が存在するか否かを判断する請求項1に記載の情報出力装置。
<請求項3>
形状の異なる複数種類のスクリーンが交換可能に構成され、
前記判断手段は、前記検出手段により検出されたユーザの位置及び設置されているスクリーンの種類に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する請求項2に記載の情報出力装置。
<請求項4>
前記検出手段は、前記ユーザの位置として、前記ユーザの目の位置及び目間距離を検出する請求項1〜3の何れか一項に記載の情報出力装置。
<請求項5>
前記検出手段は、ユーザの撮影画像を取得する撮像手段を有し、前記撮像手段により取得された撮影画像に顔認識処理を行い、認識した顔画像から目を抽出して前記ユーザの目の位置及び目間距離を検出する請求項4に記載の情報出力装置。
<請求項6>
前記出力手段は、前記ユーザが視認できない操作手段の位置を示す案内を前記スクリーン上に表示出力する請求項2〜5の何れか一項に記載の情報出力装置。
<請求項7>
ユーザの位置を検出する工程と、
前記検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する工程と、
前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する工程と、
を含む情報出力方法。
<請求項8>
コンピュータを、
ユーザの位置を検出する検出手段、
前記検出手段により検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する判断手段、
前記判断手段により前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する出力手段、
として機能させるためのプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Detecting means for detecting the position of the user;
A determination unit that determines whether or not there is an operation unit that the user cannot visually recognize based on the position of the user detected by the detection unit;
An output means for outputting guidance of the operating means that the user cannot visually recognize when it is determined by the determining means that there is an operating means that the user cannot visually recognize;
An information output device comprising:
<Claim 2>
A screen having a three-dimensional part;
The information output device according to claim 1, wherein the determination unit determines whether or not there is an operation unit that cannot be visually recognized by the user by being hidden by the screen based on the position of the user detected by the detection unit. .
<Claim 3>
Multiple types of screens with different shapes can be exchanged,
The information according to claim 2, wherein the determination unit determines whether there is an operation unit that the user cannot visually recognize based on the position of the user detected by the detection unit and the type of screen installed. Output device.
<Claim 4>
The information output device according to any one of claims 1 to 3, wherein the detection unit detects a position of an eye of the user and a distance between eyes as the position of the user.
<Claim 5>
The detection unit includes an imaging unit that acquires a captured image of the user, performs face recognition processing on the captured image acquired by the imaging unit, extracts eyes from the recognized face image, and positions the eyes of the user The information output device according to claim 4, wherein the distance between eyes is detected.
<Claim 6>
The information output device according to any one of claims 2 to 5, wherein the output unit displays and outputs a guide indicating the position of the operation unit that the user cannot visually recognize on the screen.
<Claim 7>
Detecting the position of the user;
Determining whether there is an operation means that the user cannot visually recognize based on the detected position of the user;
When it is determined that there is an operation means that the user cannot visually recognize, and a guide for the operation means that the user cannot visually recognize;
Information output method.
<Claim 8>
Computer
Detecting means for detecting the position of the user;
Determination means for determining whether or not there is an operation means that the user cannot visually recognize based on the position of the user detected by the detection means;
An output means for outputting guidance of the operating means that cannot be visually recognized by the user when the determining means determines that there is an operating means that the user cannot visually recognize;
Program to function as.

1 デジタルサイネージ装置
20 筐体
21 投影部
22 ユーザインターフェース部
23 制御部
24 プロジェクタ
25 記憶部
251 プログラム記憶部
252 コンテンツ記憶部
253 スクリーン種記憶部
254 テーブル記憶部
26 通信部
27 スクリーン
271 拡散透過部
271a 平板部
271b 立体部
272 フレネルレンズ
32 操作部
33 音声出力部
34 撮像部
35 LCD
DESCRIPTION OF SYMBOLS 1 Digital signage apparatus 20 Case 21 Projection part 22 User interface part 23 Control part 24 Projector 25 Storage part 251 Program storage part 252 Content storage part 253 Screen seed | species storage part 254 Table storage part 26 Communication part 27 Screen 271 Diffuse transmission part 271a Flat plate Unit 271b three-dimensional unit 272 Fresnel lens 32 operation unit 33 audio output unit 34 imaging unit 35 LCD

Claims (8)

ユーザの位置を検出する検出手段と、
前記検出手段により検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する判断手段と、
前記判断手段により前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する出力手段と、
を備える情報出力装置。
Detecting means for detecting the position of the user;
A determination unit that determines whether or not there is an operation unit that the user cannot visually recognize based on the position of the user detected by the detection unit;
An output means for outputting guidance of the operating means that the user cannot visually recognize when it is determined by the determining means that there is an operating means that the user cannot visually recognize;
An information output device comprising:
立体部を有するスクリーンを備え、
前記判断手段は、前記検出手段により検出されたユーザの位置に基づいて、前記スクリーンに隠れることによって前記ユーザが視認できない操作手段が存在するか否かを判断する請求項1に記載の情報出力装置。
A screen having a three-dimensional part;
The information output device according to claim 1, wherein the determination unit determines whether or not there is an operation unit that cannot be visually recognized by the user by being hidden by the screen based on the position of the user detected by the detection unit. .
形状の異なる複数種類のスクリーンが交換可能に構成され、
前記判断手段は、前記検出手段により検出されたユーザの位置及び設置されているスクリーンの種類に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する請求項2に記載の情報出力装置。
Multiple types of screens with different shapes can be exchanged,
The information according to claim 2, wherein the determination unit determines whether there is an operation unit that the user cannot visually recognize based on the position of the user detected by the detection unit and the type of screen installed. Output device.
前記検出手段は、前記ユーザの位置として、前記ユーザの目の位置及び目間距離を検出する請求項1〜3の何れか一項に記載の情報出力装置。   The information output device according to any one of claims 1 to 3, wherein the detection unit detects a position of an eye of the user and a distance between eyes as the position of the user. 前記検出手段は、ユーザの撮影画像を取得する撮像手段を有し、前記撮像手段により取得された撮影画像に顔認識処理を行い、認識した顔画像から目を抽出して前記ユーザの目の位置及び目間距離を検出する請求項4に記載の情報出力装置。   The detection unit includes an imaging unit that acquires a captured image of the user, performs face recognition processing on the captured image acquired by the imaging unit, extracts eyes from the recognized face image, and positions the eyes of the user The information output device according to claim 4, wherein the distance between eyes is detected. 前記出力手段は、前記ユーザが視認できない操作手段の位置を示す案内を前記スクリーン上に表示出力する請求項2〜5の何れか一項に記載の情報出力装置。   The information output device according to any one of claims 2 to 5, wherein the output unit displays and outputs a guide indicating the position of the operation unit that the user cannot visually recognize on the screen. ユーザの位置を検出する工程と、
前記検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する工程と、
前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する工程と、
を含む情報出力方法。
Detecting the position of the user;
Determining whether there is an operation means that the user cannot visually recognize based on the detected position of the user;
When it is determined that there is an operation means that the user cannot visually recognize, and a guide for the operation means that the user cannot visually recognize;
Information output method.
コンピュータを、
ユーザの位置を検出する検出手段、
前記検出手段により検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する判断手段、
前記判断手段により前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する出力手段、
として機能させるためのプログラム。
Computer
Detecting means for detecting the position of the user;
Determination means for determining whether or not there is an operation means that the user cannot visually recognize based on the position of the user detected by the detection means;
An output means for outputting guidance of the operating means that cannot be visually recognized by the user when the determining means determines that there is an operating means that the user cannot visually recognize;
Program to function as.
JP2014215886A 2014-10-23 2014-10-23 Information output device, information output method, and program Pending JP2016086215A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014215886A JP2016086215A (en) 2014-10-23 2014-10-23 Information output device, information output method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014215886A JP2016086215A (en) 2014-10-23 2014-10-23 Information output device, information output method, and program

Publications (1)

Publication Number Publication Date
JP2016086215A true JP2016086215A (en) 2016-05-19

Family

ID=55973365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014215886A Pending JP2016086215A (en) 2014-10-23 2014-10-23 Information output device, information output method, and program

Country Status (1)

Country Link
JP (1) JP2016086215A (en)

Similar Documents

Publication Publication Date Title
JP5050120B1 (en) Stereoscopic image display device
JP6885668B2 (en) Projection system
JPH1124603A (en) Information display device and information collecting device
EP1611744B1 (en) An arrangement and method for permitting eye contact between participants in a videoconference
JP2011193348A (en) Parallax amount determining device for 3d image display device and operation control method thereof
US20160328201A1 (en) Display control system, display control apparatus, display control method, and storage medium
WO2016155227A1 (en) Method and apparatus for displaying viewfinding information
KR101507458B1 (en) Interactive display
JP2015079201A (en) Video display system, video display method, and projection type video display device
TWI486054B (en) A portrait processing device, a three-dimensional image display device, a method and a program
JP6149904B2 (en) Display device
US20210400234A1 (en) Information processing apparatus, information processing method, and program
JP2016086215A (en) Information output device, information output method, and program
JP2007208819A (en) Imaging and display device
JP2007322704A (en) Image display system and its control method
JP2015159460A (en) Projection system, projection device, photographing device, method for generating guide frame, and program
JP2011101244A (en) 3d camera
JP2015159461A (en) Communication device, communication system, image segmentation method, and program
JP6939861B2 (en) Projection system
JP5343157B2 (en) Stereoscopic image display device, display method, and test pattern
JP2016085270A (en) Display device, display method and program
JP6085951B2 (en) Image processing apparatus and image selection method
JP2017117037A (en) Advertisement device, staff selection method, and program
JP7149915B2 (en) Projection device, projection method and program
JP2017162221A (en) Information processing device, content evaluation method, and program