JP2016086215A - Information output device, information output method, and program - Google Patents
Information output device, information output method, and program Download PDFInfo
- Publication number
- JP2016086215A JP2016086215A JP2014215886A JP2014215886A JP2016086215A JP 2016086215 A JP2016086215 A JP 2016086215A JP 2014215886 A JP2014215886 A JP 2014215886A JP 2014215886 A JP2014215886 A JP 2014215886A JP 2016086215 A JP2016086215 A JP 2016086215A
- Authority
- JP
- Japan
- Prior art keywords
- user
- unit
- screen
- visually recognize
- information output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、情報出力装置、情報出力方法、及びプログラムに関する。 The present invention relates to an information output device, an information output method, and a program.
従来、映像供給装置に接続される映像出力装置と、反射部材と、スクリーンとを有し、映像出力装置からコンテンツを投影する出力光を反射部材によって反射し、この反射部材によって反射された出力光を当該コンテンツの輪郭の形状に形成されたスクリーンに投影することにより、視聴者(ユーザ)に対して印象を高めることができる映像出力装置搭載機器が知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, an image output device connected to an image supply device, a reflection member, and a screen, output light that projects content from the image output device is reflected by the reflection member, and output light reflected by the reflection member A video output device-equipped device that can enhance the impression to the viewer (user) by projecting the image onto a screen formed in the shape of the outline of the content is known (for example, see Patent Document 1). .
ところで、より現実味のある印象を視聴者に与えるべく、立体的に形成されたスクリーンにコンテンツを投影する技術が検討されている。しかし、例えば、立体的なスクリーンを用いた場合、ユーザの位置によって操作ボタン等の操作手段がスクリーンに隠れて視認できなくなってしまうという問題がある。 By the way, in order to give viewers a more realistic impression, a technique for projecting content onto a three-dimensionally formed screen has been studied. However, for example, when a three-dimensional screen is used, there is a problem that operation means such as operation buttons are hidden behind the screen depending on the position of the user and cannot be viewed.
図2は、スクリーン27を正面から見た図、図3(a)は、スクリーン27を上方から見た図、図3(b)は、スクリーン27を斜め上方から見た図である。例えば、図3(a)に示すように、スクリーン27を上方から見た場合、ユーザは、4つの操作ボタン32a〜32dのうち、操作ボタン32aを視認することができない。図3(b)に示すように、スクリーンを斜め上方から見た場合、ユーザは、4つの操作ボタン32a〜32dのうち、操作ボタン32a〜32cを視認することができない。
2 is a view of the
本発明の課題は、ユーザが視認することのできない操作手段の存在や位置を認識できるようにすることである。 An object of the present invention is to make it possible to recognize the presence and position of an operation means that cannot be visually recognized by a user.
上記課題を解決するため、請求項1に記載の発明の情報出力装置は、
ユーザの位置を検出する検出手段と、
前記検出手段により検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する判断手段と、
前記判断手段により前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する出力手段と、
を備える。
In order to solve the above-described problem, an information output device according to a first aspect of the present invention provides:
Detecting means for detecting the position of the user;
A determination unit that determines whether or not there is an operation unit that the user cannot visually recognize based on the position of the user detected by the detection unit;
An output means for outputting guidance of the operating means that the user cannot visually recognize when it is determined by the determining means that there is an operating means that the user cannot visually recognize;
Is provided.
本発明によれば、ユーザが視認することのできない操作手段の存在や位置を認識することが可能となる。 According to the present invention, it is possible to recognize the presence and position of an operation unit that cannot be visually recognized by the user.
以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。以下の実施形態では、本発明に係る情報出力装置としてデジタルサイネージ装置1を適用した場合を例にとり説明する。なお、本発明は、図示例に限定されるものではない。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, a case where the
[デジタルサイネージ装置1の構成]
図1は、デジタルサイネージ装置1の主制御構成を示すブロック図である。図2は、デジタルサイネージ装置1の概略構成を示す正面図である。デジタルサイネージ装置1は、例えば、店舗等に設置され、ユーザに対して商品説明等のコンテンツを出力する。
[Configuration of Digital Signage Device 1]
FIG. 1 is a block diagram showing a main control configuration of the
図1、2に示すように、デジタルサイネージ装置1は、筐体20に内蔵された投影部21と、筐体20の前面に備えられたユーザインターフェース部22と、を備えている。
As shown in FIGS. 1 and 2, the
まず、投影部21について説明する。
投影部21は、制御部23と、プロジェクタ24と、記憶部25と、通信部26と、を備えている。プロジェクタ24、記憶部25、通信部26は、図1に示すように制御部23に接続されている。
First, the
The
制御部23は、記憶部25のプログラム記憶部251に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うCPU(Central Processing Unit)とプログラム実行時の作業領域となるメモリ(いずれも図示略)とを備えている。制御部23は、記憶部25のプログラム記憶部251に記憶されているプログラムとの協働により、後述するコンテンツ出力処理を実行することにより、検出手段、判断手段として機能する。
The
プロジェクタ24は、制御部23から出力された画像データを投影光に変換してスクリーン27に向けて照射する投影装置である。プロジェクタ24は、例えば、アレイ状に配列された複数個(XGAの場合、横1024画素×縦768画素)の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することでその反射光により光像を形成する表示素子であるDMD(デジタルマイクロミラーデバイス)を利用したDLP(Digital Light Processing)(登録商標)プロジェクタが適用可能である。
The
記憶部25は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部25には、図1に示すように、プログラム記憶部251が設けられている。プログラム記憶部251には、制御部23で実行されるシステムプログラムや後述するコンテンツ出力処理を始めとする各種処理を実行するための処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
The
また、記憶部25には、コンテンツ記憶部252、スクリーン種記憶部253、テーブル記憶部254が設けられている。
The
コンテンツ記憶部252には、商品説明等のコンテンツをスクリーン27等(図2参照)に出力するためのコンテンツデータが記憶されている。コンテンツデータは、複数のフレーム画像により構成される動画データ及び各フレーム画像に対応する音声データにより構成されている。コンテンツデータは、コンテンツを識別するためのID(ここでは1〜4)に対応付けて記憶されている。
The
スクリーン種記憶部253には、筐体20に取り付けられているスクリーン27の種類を示す情報が記憶されている。スクリーン27の種類は、例えば、スクリーン27の取り付け作業時に作業者が操作部32等により設定したものである。
The screen
テーブル記憶部254には、操作ボタン視認可否判定テーブル254aが記憶されている。操作ボタン視認可否判定テーブル254aは、後述するコンテンツ出力処理において、現在筐体20に取り付けられているスクリーン27の種類とユーザの位置から操作ボタン32a〜32dのそれぞれが視認可能であるか否かを判定するために設けられたテーブルである。
ここで、図3(a)、(b)に示すように、操作部32の操作ボタン32a〜32dは、ユーザの位置(ユーザの視点の位置)によって見えたり見えなかったりする。これは、立体的なスクリーン27によって隠れてしまうことに起因するもので、ユーザの位置が同じであってもスクリーン27の形状によって視認可能か否かは異なる。
The
Here, as illustrated in FIGS. 3A and 3B, the
図4に、操作ボタン視認可否判定テーブル254aのデータ格納例を示す。操作ボタン視認可否判定テーブル254aは、スクリーン27の種類と、ユーザの位置を示す情報(ここでは、撮像部34により撮影された撮影画像におけるユーザの目の位置X、目の位置Y、及び目間距離D)との組み合わせに対応付けて、その位置からスクリーンを見ているユーザが操作部32の各操作ボタン32a〜32dを視認できるか否かを示すフラグ(0=視認可能、1=視認不可)を格納したテーブルである。操作ボタン視認可否判定テーブル254aにおいて、操作ボタン32a〜32dは、それぞれボタンa〜dと表記されている。この操作ボタン視認可否判定テーブル254aに記憶されている情報は、予め実験により得られた結果を記憶したものである。
FIG. 4 shows a data storage example of the operation button view authorization rejection determination table 254a. The operation button view approval / disapproval determination table 254a includes information indicating the type of the
ここで、図5を参照して、目の位置X,Y及び目間距離Dについて説明する。図5においては、一例として、撮像部34により得られる撮影画像が640×480画素である場合を示している。図3に示すように、撮像部34により取得された撮影画像の座標の左上をx=0、y=0、右下をx=639、y=479と定義する。目の位置Xは、撮影画像から認識されたユーザの2つの目(例えば、目の中心)のx座標の平均であり、値の範囲は、0〜639である。目の位置Yは、撮影画像から認識されたユーザの2つの目のy座標の平均であり、値の範囲は、0〜479である。目間距離Dは、撮影画像から認識されたユーザの2つの目の距離であり、値の範囲は、0〜320である。
Here, with reference to FIG. 5, the positions X and Y of the eyes and the distance D between the eyes will be described. In FIG. 5, as an example, a case where the captured image obtained by the
目の位置X,Yにより、ユーザの位置(ユーザの視点の位置)のおおよその方向を特定することができる。また、目間距離Dにより、ユーザの位置のデジタルサイネージ装置1からのおおよその距離を特定することができる。ユーザがデジタルサイネージ装置1から離れているほど目間距離Dは小さくなり、ユーザがデジタルサイネージ装置1から近いほど目間距離Dは大きくなる。
The approximate direction of the user position (the position of the user's viewpoint) can be specified by the eye positions X and Y. Moreover, the approximate distance from the
通信部26は、モデム、ルータ、ネットワークカード等により構成され、通信ネットワークに接続された外部機器との通信を行う。
The
次に、ユーザインターフェース部22について説明する。
図2に示すように、ユーザインターフェース部22は、スクリーン27と、操作部32と、音声出力部33と、撮像部34と、LCD(Liquid Crystal Display)35と、を備えている。なお、図2及び図3においては、スクリーン27に人物像が投影されている例を図示している。
Next, the
As shown in FIG. 2, the
スクリーン27は、筐体20に交換可能に取り付けられており、コンテンツに応じて、形状の異なる複数種類のスクリーンの中から適切な形状のスクリーン27に交換することが可能となっている。
The
図6は、スクリーン27を上方から見た断面を模式的に示した図である。
スクリーン27は、例えばアクリル板などから形成された拡散透過部271と、拡散透過部271の背面側に配置されたフレネルレンズ272とを備えている。
FIG. 6 is a diagram schematically showing a cross section of the
The
拡散透過部271は、平板状に形成された平板部271aと、前方に向けて凸となるように立体的に形成された立体部271bとを備えている。本実施形態において、スクリーン27に投影されるコンテンツは、人物が商品説明等を行うものであり、平板部271aは、例えば、商品に係る各種情報が表示される掲示部であるため、視認性を確保すべく平板状に形成されている。また、立体部271bは、背面側が開放された中空形状となっている。立体部271bは、人物像をなす投影光が投影される部分であり、リアリティを追求するのであれば、より人に近い立体形状に形成されていることが好ましい。さらに、立体部271bにおいては、少なくとも一部のパーツの表面にマット加工が施されていることが好ましい。マット加工によって、外部の光が拡散透過部271の表面で反射しにくくなり、映像が見えにくくなることを防止することができる。
The diffuse
フレネルレンズ272は、拡散透過部271の背面側に配置されており、プロジェクタ24から投影された投影光を所定の角度で屈折させるとともにスクリーン27に正対する仮想平面(ユーザの仮想的な正対位置)に対して略直交する平行光に変換して、拡散透過部271に向けて案内する。これにより、元の画像データを補正しなくとも、立体部271bを有するスクリーン27に対して歪みの少ない画像を表示することができる。
The
操作部32は、例えば、操作ボタン32a〜32dを備え、操作ボタンの押下信号を検出して制御部23に出力する。
The
音声出力部33は、制御部23により指示された音声データを音声信号に変換してスピーカから出力させる。
The
撮像部34は、スクリーン27の前方の空間の画像を撮影して撮影画像を生成する。撮像部34は、図示は省略するが、光学系及び撮像素子を備えるカメラと、カメラを制御する撮像制御部とを備えている。
カメラの光学系は、スクリーン27の前方にいる人物(ユーザ)を撮影可能な方向に向けられている。また、その撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサである。そして、撮像素子は、光学系を通過した光学像を2次元の画像信号に変換する。
The
The optical system of the camera is directed in a direction in which a person (user) in front of the
LCD35は、操作ボタン32a〜32dに対応付けて、操作ボタン32a〜32dの機能等を表示する。本実施形態においては、操作ボタン32a〜32dはコンテンツの切り替え機能を有するものであり、各操作ボタン32a〜32dに対応するLCD35の領域には、それぞれ切り替え先のコンテンツの内容等が表示される。
The
操作部32、音声出力部33、撮像部34、LCD35は、図1に示すように制御部23に接続されている。
The
[デジタルサイネージ装置1の動作]
次に、デジタルサイネージ装置1の動作について説明する。
[Operation of Digital Signage Device 1]
Next, the operation of the
図7に、デジタルサイネージ装置1において実行されるコンテンツ出力処理のフローチャートを示す。コンテンツ出力処理は、デジタルサイネージ装置1の電源がONとなった際に、制御部23とプログラム記憶部251に記憶されているプログラムとの協働により実行される。
FIG. 7 shows a flowchart of content output processing executed in the
コンテンツ出力処理において、まず、制御部23は、スクリーン種記憶部253から筐体20に取り付けられているスクリーン27の種類の情報を取得する(ステップS1)。
In the content output process, first, the
次いで、制御部23は、スクリーン27及び音声出力部33によりコンテンツを出力させる(ステップS2)。
具体的に、制御部23は、コンテンツ記憶部252から出力するコンテンツのコンテンツデータを読み出し、そのフレーム画像を順次プロジェクタ24に出力してプロジェクタ24によりスクリーン27に投影させる。また、読み出したコンテンツデータの音声データを音声出力部33に出力し、コンテンツの音声を出力させる。併せて、LCD35に操作ボタン32a〜32dの機能を表示させる。なお、コンテンツは、例えば、スクリーン27の立体部271bに投影された人物像が商品を説明するものである。
Next, the
Specifically, the
なお、コンテンツは上述のコンテンツデータに対応付けられているIDの順番に出力され、最後のコンテンツまで出力されると最初のコンテンツに戻るが、操作ボタンAからDの何れかの操作ボタンが押下されると、押下されたボタンに対応するコンテンツに切り替えが行われる。その後は、切り替えたコンテンツからIDの順番に出力される。 The content is output in the order of the IDs associated with the content data described above, and when the last content is output, it returns to the first content, but any one of the operation buttons A to D is pressed. Then, the content corresponding to the pressed button is switched. Thereafter, the contents are output in the order of IDs from the switched contents.
次いで、制御部23は、ユーザが検出されたか否かを判断する(ステップS3)。具体的に、制御部23は、撮像部34により撮影を行わせて撮影画像を取得し、取得した撮影画像に対して顔認識処理を行い、撮影画像から顔が認識された場合に、ユーザが検出されたと判断する。顔認識処理は、目、鼻、口等の特徴に基づく公知の画像処理技術を用いて行うことができる。
Next, the
ユーザが検出されていないと判断した場合(ステップS3;NO)、制御部23は、ステップS2に戻り、コンテンツの出力中において所定時間間隔で撮像部34により撮影を行わせ、得られた撮影画像に顔認識処理を行う。
When it is determined that the user has not been detected (step S3; NO), the
ユーザが検出されたと判断した場合(ステップS3;YES)、制御部23は、ユーザの目の位置X、Y及び目間距離Dを取得することにより、ユーザの位置を検出する(ステップS4)。具体的には、撮像部34により取得された撮影画像における顔領域から目を抽出し、2つの目の位置の平均を算出して目の位置X,Yとして取得する。また、2つの目の中心の距離を測定して目間距離Dとして取得する。
When it is determined that the user has been detected (step S3; YES), the
次いで、制御部23は、テーブル記憶部254に記憶されている操作ボタン視認可否判定テーブル254aを参照し、ステップS1で取得されたスクリーン27の種類と、ステップS4で取得された目の位置X,Y及び目間距離Dとに基づいて、ユーザが視認できない操作ボタンが存在するか否かを判断する(ステップS5)。
Next, the
ユーザが視認できない操作ボタンが存在しないと判断した場合(ステップS5;NO)、制御部23は、ステップS2に戻る。
ユーザが視認できない操作ボタンが存在すると判断した場合(ステップS5;YES)、制御部23は、ユーザが視認できない操作ボタンの位置を案内する表示をコンテンツデータに上書きし(ステップS6)、ステップS2に戻る。
When it is determined that there is no operation button that cannot be visually recognized by the user (step S5; NO), the
When it is determined that there is an operation button that cannot be visually recognized by the user (step S5; YES), the
制御部23は、デジタルサイネージ装置1の電源がOFFされるまでステップS2〜ステップS6の処理を繰り返し実行する。
The
図8に、ステップS6でユーザが視認できない操作ボタンの位置を案内する表示をコンテンツデータに上書きした後、ステップS2に戻った際のスクリーン27の表示の一例を示す。
図8に示すように、スクリーン27には、コンテンツに重ねて、ユーザが視認できない操作ボタンの位置を案内する矢印等が表示される。従って、ユーザは、視認できない操作ボタンの存在や位置を認識することが可能となる。
FIG. 8 shows an example of the display on the
As shown in FIG. 8, an arrow or the like for guiding the position of the operation button that the user cannot visually recognize is displayed on the
以上説明したように、デジタルサイネージ装置1によれば、制御部23は、ユーザの位置を検出し、検出されたユーザの位置に基づいて、操作ボタン32a〜32dの何れかが立体部271bを有するスクリーン27に隠れることによってユーザが視認できない操作ボタン32a〜32bが存在するか否かを判断する。そして、ユーザが視認できない操作ボタンが存在すると判断した場合に、そのユーザが視認できない操作ボタンの案内をスクリーン27に出力する。
As described above, according to the
従って、ユーザが視認することのできない操作手段の存在や位置を認識することが可能となる。 Accordingly, it is possible to recognize the presence and position of the operation means that cannot be visually recognized by the user.
また、例えば、ユーザの位置及び設置されているスクリーンの種類に基づいてユーザが視認できない操作ボタン32a〜32dが存在するか否かを判断するようにすることで、スクリーン27を異なる形状のものに交換してもユーザが視認できない操作ボタン32a〜32dを判断することが可能となる。
Further, for example, by determining whether or not there are
また、例えば、撮像部34により取得された撮影画像に顔認識処理を行い、認識した顔画像から目を抽出してユーザの目の位置及び目間距離を検出することによりユーザの位置を検出するようにすることで、容易にユーザの位置を検出することが可能となる。
Also, for example, face recognition processing is performed on the captured image acquired by the
また、ユーザが視認できない操作ボタンの位置を示す案内をスクリーン27上に表示出力するようにすることで、ユーザが視認できない操作ボタンの存在及び位置を容易に認識することが可能となる。
Further, by displaying and displaying on the
なお、上記実施形態における記述内容は、本発明に係るデジタルサイネージ装置の好適な一例であり、これに限定されるものではない。 In addition, the description content in the said embodiment is a suitable example of the digital signage apparatus which concerns on this invention, and is not limited to this.
例えば、上記実施形態においては、ユーザが視認することのできない操作ボタンの位置を矢印等で案内する場合を例にとり説明したが、例えば、ユーザが視認することのできない操作ボタンの機能等を併せて表示することとしてもよい。 For example, in the above embodiment, the case where the position of the operation button that cannot be visually recognized by the user is guided by an arrow or the like has been described as an example. It may be displayed.
また、上記実施形態においては、操作ボタンの位置の案内を表示により行うこととしたが、音声出力により行うこととしてもよい。例えば、「2つの操作ボタンが立体スクリーンの下に隠れています」等のメッセージを音声により出力することとしてもよい。 Further, in the above-described embodiment, the guidance of the position of the operation button is performed by display, but it may be performed by voice output. For example, a message such as “Two operation buttons are hidden under the three-dimensional screen” may be output by voice.
また、上記実施形態においては、ユーザの位置を特定するためのパラメーターとして、目の位置X,Y及び目間距離Dを用いた場合を例にとり説明したが、これに限定されない。例えば、視線方向等を加えてユーザの位置を特定してもよい。 In the above embodiment, the case where the eye positions X and Y and the inter-eye distance D are used as parameters for specifying the position of the user has been described as an example. However, the present invention is not limited to this. For example, the user's position may be specified by adding the line-of-sight direction or the like.
また、上記実施形態においては、スクリーン27の立体部271bによって操作ボタン32a〜32dが隠れることによりユーザが視認できない操作手段が存在する場合を例にとり説明したが、本発明は、スクリーン27の立体部271bに限らずデジタルサイネージ装置1の筐体20にある何らかの凸部によりユーザから視認できない操作手段が存在する場合についても適用可能である。
Further, in the above-described embodiment, the case where there is an operation unit that cannot be visually recognized by the user due to the
また、上記実施形態においては、スクリーン27の立体部271bが人型である場合を例にとり説明したが、立体部271bの形状は、これに限定されるものではない。
Moreover, in the said embodiment, although demonstrated taking the case where the
また、顔認識処理によって複数のユーザの顔を認識した場合、それぞれのユーザが視認できない操作手段の情報を表示しても良い。
また、顔認識処理のみでユーザの位置を検出してもよい。
また、認識したユーザの距離が遠い場合(例えば、目間距離Dが所定の閾値以下である場合)は、見えない操作手段が存在する位置にいてもその操作手段の情報を表示しなくてもよい。
Further, when the faces of a plurality of users are recognized by the face recognition process, information on operation means that cannot be visually recognized by each user may be displayed.
Further, the position of the user may be detected only by face recognition processing.
Further, when the recognized user is far away (for example, when the distance D between eyes is equal to or smaller than a predetermined threshold), even if the invisible operation means exists, the information on the operation means may not be displayed. Good.
その他、デジタルサイネージ装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and detailed operation of the digital signage apparatus can be changed as appropriate without departing from the spirit of the invention.
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
ユーザの位置を検出する検出手段と、
前記検出手段により検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する判断手段と、
前記判断手段により前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する出力手段と、
を備える情報出力装置。
<請求項2>
立体部を有するスクリーンを備え、
前記判断手段は、前記検出手段により検出されたユーザの位置に基づいて、前記スクリーンに隠れることによって前記ユーザが視認できない操作手段が存在するか否かを判断する請求項1に記載の情報出力装置。
<請求項3>
形状の異なる複数種類のスクリーンが交換可能に構成され、
前記判断手段は、前記検出手段により検出されたユーザの位置及び設置されているスクリーンの種類に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する請求項2に記載の情報出力装置。
<請求項4>
前記検出手段は、前記ユーザの位置として、前記ユーザの目の位置及び目間距離を検出する請求項1〜3の何れか一項に記載の情報出力装置。
<請求項5>
前記検出手段は、ユーザの撮影画像を取得する撮像手段を有し、前記撮像手段により取得された撮影画像に顔認識処理を行い、認識した顔画像から目を抽出して前記ユーザの目の位置及び目間距離を検出する請求項4に記載の情報出力装置。
<請求項6>
前記出力手段は、前記ユーザが視認できない操作手段の位置を示す案内を前記スクリーン上に表示出力する請求項2〜5の何れか一項に記載の情報出力装置。
<請求項7>
ユーザの位置を検出する工程と、
前記検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する工程と、
前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する工程と、
を含む情報出力方法。
<請求項8>
コンピュータを、
ユーザの位置を検出する検出手段、
前記検出手段により検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する判断手段、
前記判断手段により前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する出力手段、
として機能させるためのプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Detecting means for detecting the position of the user;
A determination unit that determines whether or not there is an operation unit that the user cannot visually recognize based on the position of the user detected by the detection unit;
An output means for outputting guidance of the operating means that the user cannot visually recognize when it is determined by the determining means that there is an operating means that the user cannot visually recognize;
An information output device comprising:
<Claim 2>
A screen having a three-dimensional part;
The information output device according to
<Claim 3>
Multiple types of screens with different shapes can be exchanged,
The information according to
<Claim 4>
The information output device according to any one of
<Claim 5>
The detection unit includes an imaging unit that acquires a captured image of the user, performs face recognition processing on the captured image acquired by the imaging unit, extracts eyes from the recognized face image, and positions the eyes of the user The information output device according to claim 4, wherein the distance between eyes is detected.
<Claim 6>
The information output device according to any one of
<Claim 7>
Detecting the position of the user;
Determining whether there is an operation means that the user cannot visually recognize based on the detected position of the user;
When it is determined that there is an operation means that the user cannot visually recognize, and a guide for the operation means that the user cannot visually recognize;
Information output method.
<Claim 8>
Computer
Detecting means for detecting the position of the user;
Determination means for determining whether or not there is an operation means that the user cannot visually recognize based on the position of the user detected by the detection means;
An output means for outputting guidance of the operating means that cannot be visually recognized by the user when the determining means determines that there is an operating means that the user cannot visually recognize;
Program to function as.
1 デジタルサイネージ装置
20 筐体
21 投影部
22 ユーザインターフェース部
23 制御部
24 プロジェクタ
25 記憶部
251 プログラム記憶部
252 コンテンツ記憶部
253 スクリーン種記憶部
254 テーブル記憶部
26 通信部
27 スクリーン
271 拡散透過部
271a 平板部
271b 立体部
272 フレネルレンズ
32 操作部
33 音声出力部
34 撮像部
35 LCD
DESCRIPTION OF
Claims (8)
前記検出手段により検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する判断手段と、
前記判断手段により前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する出力手段と、
を備える情報出力装置。 Detecting means for detecting the position of the user;
A determination unit that determines whether or not there is an operation unit that the user cannot visually recognize based on the position of the user detected by the detection unit;
An output means for outputting guidance of the operating means that the user cannot visually recognize when it is determined by the determining means that there is an operating means that the user cannot visually recognize;
An information output device comprising:
前記判断手段は、前記検出手段により検出されたユーザの位置に基づいて、前記スクリーンに隠れることによって前記ユーザが視認できない操作手段が存在するか否かを判断する請求項1に記載の情報出力装置。 A screen having a three-dimensional part;
The information output device according to claim 1, wherein the determination unit determines whether or not there is an operation unit that cannot be visually recognized by the user by being hidden by the screen based on the position of the user detected by the detection unit. .
前記判断手段は、前記検出手段により検出されたユーザの位置及び設置されているスクリーンの種類に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する請求項2に記載の情報出力装置。 Multiple types of screens with different shapes can be exchanged,
The information according to claim 2, wherein the determination unit determines whether there is an operation unit that the user cannot visually recognize based on the position of the user detected by the detection unit and the type of screen installed. Output device.
前記検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する工程と、
前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する工程と、
を含む情報出力方法。 Detecting the position of the user;
Determining whether there is an operation means that the user cannot visually recognize based on the detected position of the user;
When it is determined that there is an operation means that the user cannot visually recognize, and a guide for the operation means that the user cannot visually recognize;
Information output method.
ユーザの位置を検出する検出手段、
前記検出手段により検出されたユーザの位置に基づいて、前記ユーザが視認できない操作手段が存在するか否かを判断する判断手段、
前記判断手段により前記ユーザが視認できない操作手段が存在すると判断された場合に、前記ユーザが視認できない操作手段の案内を出力する出力手段、
として機能させるためのプログラム。 Computer
Detecting means for detecting the position of the user;
Determination means for determining whether or not there is an operation means that the user cannot visually recognize based on the position of the user detected by the detection means;
An output means for outputting guidance of the operating means that cannot be visually recognized by the user when the determining means determines that there is an operating means that the user cannot visually recognize;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014215886A JP2016086215A (en) | 2014-10-23 | 2014-10-23 | Information output device, information output method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014215886A JP2016086215A (en) | 2014-10-23 | 2014-10-23 | Information output device, information output method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016086215A true JP2016086215A (en) | 2016-05-19 |
Family
ID=55973365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014215886A Pending JP2016086215A (en) | 2014-10-23 | 2014-10-23 | Information output device, information output method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016086215A (en) |
-
2014
- 2014-10-23 JP JP2014215886A patent/JP2016086215A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5050120B1 (en) | Stereoscopic image display device | |
JP6885668B2 (en) | Projection system | |
JPH1124603A (en) | Information display device and information collecting device | |
EP1611744B1 (en) | An arrangement and method for permitting eye contact between participants in a videoconference | |
JP2011193348A (en) | Parallax amount determining device for 3d image display device and operation control method thereof | |
US20160328201A1 (en) | Display control system, display control apparatus, display control method, and storage medium | |
WO2016155227A1 (en) | Method and apparatus for displaying viewfinding information | |
KR101507458B1 (en) | Interactive display | |
JP2015079201A (en) | Video display system, video display method, and projection type video display device | |
TWI486054B (en) | A portrait processing device, a three-dimensional image display device, a method and a program | |
JP6149904B2 (en) | Display device | |
US20210400234A1 (en) | Information processing apparatus, information processing method, and program | |
JP2016086215A (en) | Information output device, information output method, and program | |
JP2007208819A (en) | Imaging and display device | |
JP2007322704A (en) | Image display system and its control method | |
JP2015159460A (en) | Projection system, projection device, photographing device, method for generating guide frame, and program | |
JP2011101244A (en) | 3d camera | |
JP2015159461A (en) | Communication device, communication system, image segmentation method, and program | |
JP6939861B2 (en) | Projection system | |
JP5343157B2 (en) | Stereoscopic image display device, display method, and test pattern | |
JP2016085270A (en) | Display device, display method and program | |
JP6085951B2 (en) | Image processing apparatus and image selection method | |
JP2017117037A (en) | Advertisement device, staff selection method, and program | |
JP7149915B2 (en) | Projection device, projection method and program | |
JP2017162221A (en) | Information processing device, content evaluation method, and program |