JP2013156670A - Display method and display device - Google Patents

Display method and display device Download PDF

Info

Publication number
JP2013156670A
JP2013156670A JP2012014225A JP2012014225A JP2013156670A JP 2013156670 A JP2013156670 A JP 2013156670A JP 2012014225 A JP2012014225 A JP 2012014225A JP 2012014225 A JP2012014225 A JP 2012014225A JP 2013156670 A JP2013156670 A JP 2013156670A
Authority
JP
Japan
Prior art keywords
user
display
image
transmissive display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012014225A
Other languages
Japanese (ja)
Other versions
JP5842634B2 (en
Inventor
Yoshiro Haneda
芳朗 羽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012014225A priority Critical patent/JP5842634B2/en
Publication of JP2013156670A publication Critical patent/JP2013156670A/en
Application granted granted Critical
Publication of JP5842634B2 publication Critical patent/JP5842634B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To present an AR image having consistency between lighting condition of an image in a real world and shadow processing of a content in a display method and a display device.SOLUTION: A display method includes the steps of: applying shadow processing on an image content to be displayed on a transmission-type display according to lighting condition of an environment where the transmission-type display is installed and a relative position of a user position to the transmission-type display; and displaying the image content applied with the shadow processing by overlapping the image content on an image in a real world that can be seen through the transmission-type display from the user position. The lighting condition is configured as seen from the transmission-type display in a light source direction.

Description

本発明は、表示方法及び表示装置に関する。   The present invention relates to a display method and a display device.

実世界の画像とコンテンツの画像が重ねられた拡張現実(AR:Augmented Reality)画像を表示する表示装置が提案されている。スマートホン(Smartphone)、タブレット(Tablet)、パーソナルデジタルアシスタント(PDA:Personal Digital Assistant)などの携帯端末は、このような表示装置の一例である。携帯端末は、実世界の画像を自己のカメラ機能で撮影し、撮影された画像にコンピュータグラフィック(CG:Computer Graphics)などのコンテンツの画像を重ねたAR画像を表示する。   A display device that displays an augmented reality (AR) image in which a real-world image and a content image are superimposed has been proposed. A portable terminal such as a smart phone, a tablet, or a personal digital assistant (PDA) is an example of such a display device. The portable terminal captures a real-world image with its own camera function, and displays an AR image in which an image of content such as computer graphics (CG) is superimposed on the captured image.

しかし、携帯端末のカメラ機能で撮影された実世界の画像は、縮尺が変換されており実際の画像より小さいので、AR画像に高い臨場感を持たせることは難しい。また、カメラ機能で撮影された実世界の画像の照明状態とコンテンツの陰影処理との間で整合性が取れていないと、表示されるAR画像が不自然なものとなる。ところが、カメラ機能で撮影された実世界の画像の照明状態を知るには、撮影時の携帯端末の位置を基準とした光源の位置を推定する必要があるため、実世界の照明状態と整合性の取れたコンテンツの陰影処理を行うことは難しい。   However, since the real-world image captured by the camera function of the mobile terminal has been reduced in scale and smaller than the actual image, it is difficult to give the AR image a high sense of presence. Further, if there is no consistency between the illumination state of the real-world image taken by the camera function and the shadow processing of the content, the displayed AR image becomes unnatural. However, in order to know the illumination state of the real-world image captured by the camera function, it is necessary to estimate the position of the light source based on the position of the mobile terminal at the time of capture, so it is consistent with the real-world illumination state. It is difficult to perform shading processing of content that has been removed.

一方、透過型ディスプレイを有する表示装置が提案されている。このような表示装置は、情報提示装置またはデジタルサイネージ(Digital Signage)などとも呼ばれる。ユーザは、実世界の映像を透過型ディスプレイを通して見ることができ、CGなどのコンテンツの画像を透過型ディスプレイに表示することで、ユーザは実世界の背景映像にコンテンツの画像が重ねられたAR画像を見ることができる。透過型ディスプレイを有する表示装置の場合、ユーザは実際の画像の縮尺で実世界の画像を透過型ディスプレイを通して見ることができるので、高い臨場感を有するAR画像を表示可能なARインタフェースを提供することができる。   On the other hand, a display device having a transmissive display has been proposed. Such a display device is also called an information presentation device or a digital signage. The user can view the real-world video through the transmissive display, and by displaying the content image such as CG on the transmissive display, the user can view the AR image in which the content image is superimposed on the real-world background video. Can see. In the case of a display device having a transmissive display, a user can view an image of the real world through the transmissive display at a scale of an actual image, and thus an AR interface capable of displaying an AR image with a high sense of reality is provided. Can do.

しかし、表示装置の設置環境の照明状態に合わないコンテンツの画像を透過型ディスプレイに表示すると、透過型ディスプレイを通して見える実世界の画像の照明状態とコンテンツの陰影処理との間で整合性が取れなくなる。このような場合、コンテンツの陰影処理が実世界の画像に対して不自然であるため、透過型ディスプレイを通して見えるAR画像は不自然なものとなり、ユーザはAR画像に違和感を覚える。   However, if an image of content that does not match the lighting condition of the installation environment of the display device is displayed on the transmissive display, consistency between the illumination state of the real-world image seen through the transmissive display and the shading process of the content cannot be achieved. . In such a case, since the shading process of the content is unnatural with respect to the real-world image, the AR image seen through the transmissive display becomes unnatural, and the user feels uncomfortable with the AR image.

特開2008−33531号公報JP 2008-33531 A 特開平9−237355号公報JP-A-9-237355

従来の透過型ディスプレイを有する表示装置では、コンテンツの陰影処理を実世界の背景映像に対して常に適切に行うことは難しい。このため、実世界の背景の照明状態とコンテンツの陰影処理との間で整合性が取れたAR画像を提示することは難しい。   In a display device having a conventional transmissive display, it is difficult to always appropriately perform shadow processing of content on a background image in the real world. For this reason, it is difficult to present an AR image that is consistent between the illumination state of the background in the real world and the shading process of the content.

そこで、本発明は、実世界の画像の照明状態とコンテンツの陰影処理との間で整合性が取れたAR画像を提示可能な表示方法及び表示装置を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a display method and a display device capable of presenting an AR image that is consistent between the illumination state of a real-world image and the shading process of content.

本発明の一観点によれば、透過型ディスプレイが設置されている環境の照明条件、及びユーザ位置と前記透過型ディスプレイとの相対位置に応じて、透過型ディスプレイに表示する画像コンテンツに陰影処理を施し、前記ユーザ位置から前記透過型ディスプレイを通して見える実世界の映像に前記陰影処理を施された画像コンテンツを重ねて表示し、前記照明条件は、前記透過型ディスプレイから見た光源方向であることを特徴とする表示方法が提供される。   According to one aspect of the present invention, the shading process is performed on the image content displayed on the transmissive display according to the illumination condition of the environment where the transmissive display is installed and the relative position between the user position and the transmissive display. And displaying the shading-processed image content superimposed on a real-world image viewed through the transmissive display from the user position, and the illumination condition is a light source direction viewed from the transmissive display. A characteristic display method is provided.

本発明の一観点によれば、透過型ディスプレイと、複数の光センサと、前記複数の光センサの検知出力に基づいて前記透過型ディスプレイから見た光源方向を推定する推定部と、ユーザ位置と前記透過型ディスプレイとの相対位置を検知する検知装置と、前記光源方向及び前記相対位置に応じて画像コンテンツに陰影処理を施す陰影処理部と、前記ユーザ位置から前記透過型ディスプレイを通して見える実世界の映像に前記陰影処理を施された画像コンテンツを投射して重ねて表示するプロジェクタを備えたことを特徴とする表示装置が提供される。   According to an aspect of the present invention, a transmissive display, a plurality of optical sensors, an estimation unit that estimates a light source direction viewed from the transmissive display based on detection outputs of the plurality of optical sensors, a user position, A detection device that detects a relative position with respect to the transmissive display, a shadow processing unit that performs a shadow process on the image content according to the light source direction and the relative position, and a real-world view that can be seen from the user position through the transmissive display. There is provided a display device characterized by including a projector that projects and displays the image content subjected to the shading process on an image.

開示の表示方法及び表示装置によれば、実世界の画像の照明状態とコンテンツの陰影処理との間で整合性が取れたAR画像を提示することが可能である。   According to the disclosed display method and display apparatus, it is possible to present an AR image that is consistent between the illumination state of the real-world image and the shadow processing of the content.

一実施例における表示装置の一例を示す斜視図である。It is a perspective view which shows an example of the display apparatus in one Example. 学習時の表示装置を示す斜視図である。It is a perspective view which shows the display apparatus at the time of learning. 学習処理を説明するフローチャートである。It is a flowchart explaining a learning process. ニューラルネットワークを用いた学習処理を説明する図である。It is a figure explaining the learning process using a neural network. ニューラルネットワークの一例を示す図である。It is a figure which shows an example of a neural network. 補間処理の一例を説明する図である。It is a figure explaining an example of an interpolation process. 一実施例における表示装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the display apparatus in one Example. ユーザによるポインティングを説明する図である。It is a figure explaining the pointing by a user. ポインティング位置検出処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a pointing position detection process. 座標とコンテンツを対応付けるデータベースとコンテンツデータベースの一例を示す図である。It is a figure which shows an example of the database which matches a coordinate and a content, and a content database. コンテンツ選択処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a content selection process. ユーザによるポインティングを説明する正面図である。It is a front view explaining pointing by a user. ユーザによるポインティングを説明する側面図である。It is a side view explaining the pointing by a user. ポインティングされた商品に関する情報表示の一例を説明する図である。It is a figure explaining an example of the information display regarding the pointed goods. 履歴記録処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a history recording process. 履歴データベースの一例を示す図である。It is a figure which shows an example of a history database.

開示の表示方法及び表示装置では、透過型ディスプレイが設置されている環境の照明条件及びユーザと透過型ディスプレイとの相対位置に応じて、透過型ディスプレイに表示するコンテンツの陰影処理を行うことで、透過型ディスプレイを通して見える実世界の背景の照明状態とコンテンツの陰影処理との間の整合性を取る。   In the disclosed display method and display device, by performing shading processing of content displayed on the transmissive display according to the illumination conditions of the environment where the transmissive display is installed and the relative position between the user and the transmissive display, Consistency between the lighting conditions of the real world background seen through the transmissive display and the shading of the content.

以下に、開示の表示方法及び表示装置の各実施例を図面と共に説明する。   Embodiments of the disclosed display method and display device will be described below with reference to the drawings.

図1は、一実施例における表示装置の一例を示す斜視図である。図1に示す表示装置1は、ベース11、ベース11の上面に設けられたフレーム12、フレーム12に例えば一定間隔で配置された複数の光センサ13、ベース11の上面に設けられたプロジェクタ14、ベース11の下面に設けられた車輪15、及びフレーム12に指示された透過型スクリーン16を有する。透過型スクリーン16は、透過型ディスプレイの一例であり、ユーザ(図示せず)が矢印方向を向くと見える表面16−1と、プロジェクタ14のレンズ14−1から画像が投射される裏面16−2を有する。ユーザが矢印方向を向くと、透過型スクリーン16を通して裏面16−2の後方にある実世界の画像が見える。また、プロジェクタ14からCGなどのコンテンツの画像が裏面16−2に投射されると、ユーザには実世界の映像とコンテンツの画像が重ねられた拡張現実(AR:Augmented Reality)画像が表示されているように見える。   FIG. 1 is a perspective view illustrating an example of a display device according to an embodiment. A display device 1 shown in FIG. 1 includes a base 11, a frame 12 provided on the upper surface of the base 11, a plurality of optical sensors 13 arranged on the frame 12 at regular intervals, a projector 14 provided on the upper surface of the base 11, A wheel 15 provided on the lower surface of the base 11 and a transmission screen 16 indicated by the frame 12 are provided. The transmissive screen 16 is an example of a transmissive display, and a front surface 16-1 that can be seen by a user (not shown) when facing the arrow direction, and a back surface 16-2 on which an image is projected from the lens 14-1 of the projector 14. Have When the user turns in the direction of the arrow, a real-world image behind the back surface 16-2 can be seen through the transmissive screen 16. Further, when a content image such as CG is projected from the projector 14 onto the back surface 16-2, an augmented reality (AR) image in which a real-world video and a content image are superimposed is displayed to the user. Looks like you are.

なお、プロジェクタ14は、透過型スクリーン16の表面16−1にコンテンツの画像を投射しても良い。この例では、表示装置1は可動型(または、移動型)であるため車輪15が設けられており、車輪15は必要に応じてモータなどの駆動部(図示せず)により駆動されるが、車輪15は省略可能である。   The projector 14 may project a content image on the surface 16-1 of the transmissive screen 16. In this example, since the display device 1 is a movable type (or a movable type), wheels 15 are provided, and the wheels 15 are driven by a drive unit (not shown) such as a motor as needed. The wheel 15 can be omitted.

さらに、透過型スクリーン16の形状は縦長の長方形に限定されず、横長の長方形、円形、楕円形などを含む任意の形状に形成可能である。フレーム12は、透過型スクリーン16の形状の合わせた形状とすれば良い。   Furthermore, the shape of the transmissive screen 16 is not limited to a vertically long rectangle, and can be formed in any shape including a horizontally long rectangle, a circle, an ellipse, and the like. The frame 12 may have a shape that is the same as the shape of the transmissive screen 16.

背景の照明状態に合わせて透明スクリーンに投影するAR画像に適切に陰影処理をするための光源方向推定には、例えばニューラルネットワークのような機械学習を利用する。以下では、楽章とは特に明記しない限り機械学習のことを指すものとする。   Machine learning such as a neural network is used for light source direction estimation for appropriately shading the AR image projected onto the transparent screen in accordance with the background illumination state. In the following, the movement refers to machine learning unless otherwise specified.

図2は、学習時の表示装置を示す斜視図である。図2中、図1と同一部分には同一符号を付し、その説明は省略する。図2に示す複数の光センサ131は、学習時のみに用いられるセンサであり、学習時以外の時は取り外される。光センサ12と光センサ131は、いずれも規則的に配置され、この例ではマトリクス状に配置される。   FIG. 2 is a perspective view showing the display device during learning. In FIG. 2, the same parts as those of FIG. The plurality of optical sensors 131 shown in FIG. 2 are sensors used only at the time of learning, and are removed at times other than learning. Both the optical sensor 12 and the optical sensor 131 are regularly arranged, and in this example, are arranged in a matrix.

光センサ131は、学習時以外の時に取り外し可能であれば良く、透過型スクリーン16に直接取り外し可能に接着されていても、学習時のみに透過型スクリーン16の表面16−1に設置されるアダプタ(図示せず)に設けられていても良い。フィルム状のアダプタの場合、光センサ131はフィルムに印刷されていても良い。この場合、フィルムは、例えばローラブラインドの如き構成として、学習時以外の時は光センサ12の検知動作に干渉しない表示装置1内の位置に収納可能としても良い。   The optical sensor 131 only needs to be removable at times other than during learning, and is an adapter that is installed on the surface 16-1 of the transmissive screen 16 only during learning, even if it is directly detachably bonded to the transmissive screen 16. (Not shown) may be provided. In the case of a film-like adapter, the optical sensor 131 may be printed on a film. In this case, the film may be configured to be a roller blind, for example, so that it can be stored in a position in the display device 1 that does not interfere with the detection operation of the optical sensor 12 except during learning.

図3は、学習処理を説明するフローチャートである。図3の学習処理が開始されると、ステップS1は、図2に示すように光センサ131が配置された表示装置1を使用する場所(以下、設置位置とも言う)へ移動する。表示装置1に駆動部が設けられており自律走行型ロボットの如き自律走行が可能であれば、駆動部を制御することで表示装置1を設置位置まで自動的に移動させることも可能である。ステップS2は、設置位置にある表示装置1を用いて光源方向情報を学習する学習処理を行う。ステップS3は、学習処理が終了したか否かを判定し、判定結果がNOであれば処理はステップS2へ戻り、判定結果がYESであれば処理は終了する。   FIG. 3 is a flowchart for explaining the learning process. When the learning process of FIG. 3 is started, step S1 moves to a place (hereinafter also referred to as an installation position) where the display device 1 in which the optical sensor 131 is disposed is used as shown in FIG. If the display unit 1 is provided with a drive unit and can autonomously travel like an autonomously traveling robot, the display unit 1 can be automatically moved to the installation position by controlling the drive unit. Step S2 performs a learning process of learning the light source direction information using the display device 1 at the installation position. Step S3 determines whether or not the learning process has ended. If the determination result is NO, the process returns to step S2, and if the determination result is YES, the process ends.

図4は、ニューラルネットワークを用いた学習処理を説明する図である。図4において、ニューラルネットワーク(NN:Neural Network)32の入力31は、フレーム12のみに設けられた光センサ13で検知された照度分布である。NN32の出力33は、学習時のみに使用される光センサ131を含む全ての光センサ13,131で検知された照度分布である。学習処理は、全ての光センサ13,131で検知された照度分布である出力33を教師信号と比較し、比較結果に応じてNN32の結合強度を変更することで行われる。   FIG. 4 is a diagram illustrating learning processing using a neural network. In FIG. 4, an input 31 of a neural network (NN) 32 is an illuminance distribution detected by the optical sensor 13 provided only in the frame 12. An output 33 of the NN 32 is an illuminance distribution detected by all the optical sensors 13 and 131 including the optical sensor 131 used only at the time of learning. The learning process is performed by comparing the output 33, which is the illuminance distribution detected by all the optical sensors 13, 131, with the teacher signal and changing the coupling strength of the NN 32 according to the comparison result.

図5は、ニューラルネットワークの一例を示す図である。図5に示すNN32は、X〜Xで形成された入力31が入力される入力層321、中間層322、及び出力33が出力される出力層323を有する階層型である。誤差逆伝搬アルゴリズムに基づいてNN32の結合の重みを学習させることで、図5中丸印で示すニューロン間の結合強度が変更される。 FIG. 5 is a diagram illustrating an example of a neural network. The NN 32 illustrated in FIG. 5 is a hierarchical type having an input layer 321 to which an input 31 formed by X 0 to X i is input, an intermediate layer 322, and an output layer 323 to which an output 33 is output. By learning the connection weight of the NN 32 based on the back propagation algorithm, the connection strength between neurons indicated by a circle in FIG. 5 is changed.

光センサ31,131は、マトリクス状に配置されているが、隣り合う光センサ間の部分の照度は、当該隣り合う光センサで検知された照度に基づく補間処理で補間する。図6は、補間処理の一例を説明する図である。図6中、縦軸はxy座標系のy座標値を示し、横軸はxy座標系のx座標値を示す。図6は隣り合う4個の光センサの位置(x,yj+1),(xi+1,yj+1),(x、y),(xi+1,y)で検知された照度S(x,yj+1),S(xi+1,yj+1),S(x、y),S(xi+1,y)と、位置(x、y)からy方向へV、x方向へH離れた位置(x,y)における照度P(x,y)を示す。補間処理が例えば線形補間を行う場合、位置(x,y)におけるx方向についての照度の補間はH(x)=S(x,y)+a×Hに基づいて行うことができ、a={S(xi+1,y)−S(x,y)}/(xi+1−x)である。また、位置(x,y)におけるy方向についての照度の補間はV(y)=S(x,y)+b×Vに基づいて行うことができ、b={S(x,yj+1)−S(x,y)}/(yj+1−y)である。従って、位置(x,y)における照度P(x,y)はH(x)+V(y)から求めることができる。なお、補間処理は線形補間に限定されない。 Although the optical sensors 31 and 131 are arranged in a matrix, the illuminance at a portion between adjacent optical sensors is interpolated by interpolation processing based on the illuminance detected by the adjacent optical sensors. FIG. 6 is a diagram illustrating an example of interpolation processing. In FIG. 6, the vertical axis indicates the y coordinate value of the xy coordinate system, and the horizontal axis indicates the x coordinate value of the xy coordinate system. FIG. 6 shows the illuminance S () detected at the positions (x i , y j + 1 ), (x i + 1 , y j + 1 ), (x i , y j ), (x i + 1 , y j ) of four adjacent optical sensors. x i , y j + 1 ), S (x i + 1 , y j + 1 ), S (x i , y j ), S (x i + 1 , y j ) and V i from the position (x i , y j ) in the y direction, position away H i to the x direction (x, y) indicating the illuminance P (x, y) in the. When the interpolation process is, for example, linear interpolation, the illuminance interpolation in the x direction at the position (x, y) can be performed based on H (x) = S (x i , y j ) + a × H i , a = {S (x i + 1 , y j ) −S (x i , y j )} / (x i + 1 −x i ). Further, the illuminance interpolation in the y direction at the position (x, y) can be performed based on V (y) = S (x i , y j ) + b × V i , and b = {S (x i , y j + 1 ) −S (x i , y j )} / (y j + 1 −y j ). Accordingly, the illuminance P (x, y) at the position (x, y) can be obtained from H (x) + V (y). The interpolation process is not limited to linear interpolation.

図7は、一実施例における表示装置の構成の一例を示すブロック図である。表示装置1は、外部装置と通信可能な構成を有する。サーバ500は、外部装置の一例であり、この例では表示装置1のホスト装置として動作可能である。表示装置1とサーバ500は、ケーブルまたは有線ネットワークで接続されていても、無線ネットワークで接続されていても良い。   FIG. 7 is a block diagram illustrating an example of a configuration of a display device according to an embodiment. The display device 1 has a configuration capable of communicating with an external device. The server 500 is an example of an external device. In this example, the server 500 can operate as a host device of the display device 1. The display device 1 and the server 500 may be connected via a cable or a wired network, or may be connected via a wireless network.

表示装置1は、図7に示す如く接続された光センサ13−1〜13−N(Nは2以上の自然数)、光源方向推定及び学習部51、陰影処理部52、プロジェクタ14、撮影装置53、測位装置54、人検知装置55、タッチパネル56、マイクロホン57、通信部58、画像処理部59、制御部61、移動制御部62、駆動部63、コンテンツセレクタ64、記憶部65、及び音再生部66を有する。光センサ131−1〜131−M(Mは2以上の自然数)は、学習時にのみ光源方向推定及び学習部51に接続される。光センサ13−1〜13−Nは図2に示す光センサ13に相当し、光センサ131−1〜131−Mは図2に示す光センサ131に相当する。   The display device 1 includes optical sensors 13-1 to 13 -N (N is a natural number of 2 or more), a light source direction estimation and learning unit 51, a shadow processing unit 52, a projector 14, and an imaging device 53 connected as illustrated in FIG. 7. , Positioning device 54, human detection device 55, touch panel 56, microphone 57, communication unit 58, image processing unit 59, control unit 61, movement control unit 62, drive unit 63, content selector 64, storage unit 65, and sound reproduction unit 66. The optical sensors 131-1 to 131-M (M is a natural number of 2 or more) are connected to the light source direction estimation and learning unit 51 only during learning. The optical sensors 13-1 to 13-N correspond to the optical sensor 13 shown in FIG. 2, and the optical sensors 131-1 to 131-M correspond to the optical sensor 131 shown in FIG.

光センサ13−1〜13−N,131−1〜131−Mは、光の強度(または、光量)を検知可能なホトダイオードなどで形成可能である。光源方向推定及び学習部51は、例えばニューラルネットワーク(NN)で形成可能であり、光源方向推定NNと学習NNを含む。光源方向推定NNは、光センサ13−1〜13−N、或いは、光センサ13−1〜13−N,131−1〜131−Mで検知された光量情報(即ち、照度分布)に基づいて、ユーザ側から見た透過型スクリーン16の表面16−1に対する光源の向き(即ち、光源方向)を推定し、推定された光源方向を示す光源方向情報を陰影処理部52に供給する。光源方向を推定する際には、上記の如き補間処理を行っても良い。一方、学習NNは、例えば図5に示すNN32で形成可能であり、出力33を制御部61に供給する。   The optical sensors 13-1 to 13-N and 131-1 to 131-M can be formed of photodiodes that can detect the intensity (or light amount) of light. The light source direction estimation and learning unit 51 can be formed by, for example, a neural network (NN), and includes a light source direction estimation NN and a learning NN. The light source direction estimation NN is based on light amount information (that is, illuminance distribution) detected by the optical sensors 13-1 to 13-N or the optical sensors 13-1 to 13-N and 131-1 to 131-M. The direction of the light source with respect to the surface 16-1 of the transmissive screen 16 viewed from the user side (ie, the light source direction) is estimated, and the light source direction information indicating the estimated light source direction is supplied to the shadow processing unit 52. When estimating the light source direction, the interpolation processing as described above may be performed. On the other hand, the learning NN can be formed by, for example, the NN 32 illustrated in FIG. 5 and supplies the output 33 to the control unit 61.

測位装置54は、表示装置1の位置を周知の方法で測位して、表示装置1の位置を示す装置位置情報を制御部61に供給する。測位装置54は、例えばGPS(Global Positioning System)で形成可能である。人検知装置55は、表示装置1の透過型スクリーン16の表面16−1の手前側にいるユーザを周知の方法で検知して、表示装置1から見た(即ち、表示装置1の位置を基準とした)ユーザの相対的な位置を示す人検知情報を制御部61と陰影処理部52に供給する。例えば、人検知装置55は1以上のカメラを含んでも良い。制御部61は、装置位置情報及び人検知情報に基づいて、透過型スクリーン16の表面16−1に対するユーザの位置を周知の方法で推定して、ユーザの推定位置を示す推定位置情報を撮影装置53へフィードバックする。また、制御部61には、光源方向推定及び学習部51から推定照度分布を示す出力33(即ち、推定照度情報)が供給されるので、この推定照度情報と人検知情報とに基づいて表示装置1の向きを微調整する移動指令を出力することで、透過型スクリーン16がユーザから見やすい向きになるようにしても良い。   The positioning device 54 measures the position of the display device 1 by a known method and supplies device position information indicating the position of the display device 1 to the control unit 61. The positioning device 54 can be formed by, for example, GPS (Global Positioning System). The human detection device 55 detects a user on the front side of the surface 16-1 of the transmission screen 16 of the display device 1 by a known method and sees it from the display device 1 (that is, the position of the display device 1 is a reference). The human detection information indicating the relative position of the user is supplied to the control unit 61 and the shadow processing unit 52. For example, the human detection device 55 may include one or more cameras. The control unit 61 estimates the position of the user with respect to the surface 16-1 of the transmissive screen 16 based on the apparatus position information and the person detection information by a known method, and obtains estimated position information indicating the estimated position of the user by the imaging apparatus. Feedback to 53. The controller 61 is supplied with an output 33 (ie, estimated illuminance information) indicating the estimated illuminance distribution from the light source direction estimating and learning unit 51, so that the display device is based on the estimated illuminance information and the human detection information. By outputting a movement command that finely adjusts the direction of 1, the transmissive screen 16 may be in a direction that is easy for the user to see.

撮影装置53は、例えば首振りカメラで形成可能であり、推定位置情報に基づいてスクリーン16の裏面16−2の後方の画像を撮影する。推定位置情報はユーザの推定位置を示すので、撮影装置53はユーザの推定位置から透過型スクリーン16を通して見える画像を撮影する。撮影装置53が撮影した画像を示す画像情報は、画像処理部59に供給される。画像処理部59は、画像情報の特徴を周知の方法で抽出して得られる画像特徴情報を制御部61に供給する。   The imaging device 53 can be formed by, for example, a swing camera, and images an image behind the back surface 16-2 of the screen 16 based on the estimated position information. Since the estimated position information indicates the estimated position of the user, the imaging device 53 captures an image that can be seen through the transmission screen 16 from the estimated position of the user. Image information indicating an image photographed by the photographing device 53 is supplied to the image processing unit 59. The image processing unit 59 supplies the image feature information obtained by extracting the features of the image information by a known method to the control unit 61.

タッチパネル56は、例えば透過型スクリーン16と一体的に設けられている。ユーザがタッチパネル56を操作すると、操作情報が制御部61に供給される。ユーザがタッチパネル56上の任意の位置、即ち、透過型スクリーン16の表面16−1の任意の位置に触れると、触れられた位置を示す操作情報が制御部61に供給される。制御部61には、ユーザが透過型スクリーン16を通して見ている画像を示す画像情報から抽出された画像特徴情報が供給されているので、ユーザが触れた透過型スクリーン16上の位置を示す操作情報が制御部61に供給されると、制御部61はユーザが透過型スクリーン16を通して見ている画像中でユーザがポインティングしている箇所を認識することができる。マイクロホン57は、検知した音声を示す音声情報を制御部61に供給するので、制御部61は必要に応じてユーザからの質問などを認識することができる。また、マイクロホン57が複数設けられていれば、制御部61は音声情報から音源であるユーザの位置を認識することができるので、認識されたユーザの位置に応じて表示装置1の透過型スクリーン16が見やすい位置まで移動させるための移動指令を出力することもできる。   The touch panel 56 is provided integrally with the transmissive screen 16, for example. When the user operates the touch panel 56, operation information is supplied to the control unit 61. When the user touches an arbitrary position on the touch panel 56, that is, an arbitrary position on the surface 16-1 of the transmissive screen 16, operation information indicating the touched position is supplied to the control unit 61. Since the image feature information extracted from the image information indicating the image viewed by the user through the transmissive screen 16 is supplied to the control unit 61, operation information indicating the position on the transmissive screen 16 touched by the user. Is supplied to the control unit 61, the control unit 61 can recognize the point where the user is pointing in the image that the user is looking through the transmissive screen 16. Since the microphone 57 supplies sound information indicating the detected sound to the control unit 61, the control unit 61 can recognize a question or the like from the user as necessary. If a plurality of microphones 57 are provided, the control unit 61 can recognize the position of the user as the sound source from the sound information, and therefore the transmissive screen 16 of the display device 1 according to the recognized position of the user. It is also possible to output a movement command for moving to a position where it is easy to see.

通信部58は、サーバ500と通信するための送信機及び受信機を含み、サーバ500からの動作指令、コンテンツ情報などを受信する。動作指令は、表示装置1を設置位置まで移動させるための移動指令、出力するべきコンテンツ情報を選択する選択指令などを含む。コンテンツ情報は、音声コンテンツ及び画像コンテンツを含む。音声コンテンツは、音声案内、音楽、効果音、これらの任意の組み合わせなどの各種音声情報を含む。画像コンテンツは、CGを含む動画像、静止画像、テキスト、これらの任意の組み合わせなどの各種画像情報を含む。通信部58が受信した動作指令は制御部61に供給され、通信部58が受信したコンテンツ情報は記憶部65に格納される。コンテンツ情報は、表示装置1の後方にある固定の既知位置にある商品棚(図示せず)などのユーザの目視対象(即ち、ユーザが透過型スクリーン16を通して見る対象)の各部の基準座標系における座標に対応させて管理される。   The communication unit 58 includes a transmitter and a receiver for communicating with the server 500, and receives an operation command, content information, and the like from the server 500. The operation command includes a movement command for moving the display device 1 to the installation position, a selection command for selecting content information to be output, and the like. The content information includes audio content and image content. The audio content includes various types of audio information such as audio guidance, music, sound effects, and any combination thereof. The image content includes various pieces of image information such as a moving image including CG, a still image, text, and any combination thereof. The operation command received by the communication unit 58 is supplied to the control unit 61, and the content information received by the communication unit 58 is stored in the storage unit 65. The content information is in a reference coordinate system of each part of a user's visual object (that is, an object that the user sees through the transmissive screen 16) such as a product shelf (not shown) at a fixed known position behind the display device 1. Managed according to the coordinates.

なお、記憶部65は、表示装置1内ではなく、表示装置1外部に設けられていても良い。記憶部65が表示装置1外部に設けられている場合には、コンテンツセレクタ64が通信部58を介して選択出力するべきコンテンツ情報を外部の記憶部65から読み出す。   Note that the storage unit 65 may be provided outside the display device 1 instead of inside the display device 1. When the storage unit 65 is provided outside the display device 1, the content selector 64 reads content information to be selectively output via the communication unit 58 from the external storage unit 65.

制御部61は、通信部58から供給された動作指令が移動指令であると、表示装置1を設置位置まで移動させるための移動指令を発行して移動制御部62に供給する。移動制御部62は、移動指令に応答して表示装置1を設置位置まで移動させるよう駆動部63を駆動する制御指令を出力する。駆動部63は、例えばモータで形成可能であり、制御指令に応答して図1に示す車輪15を駆動する。   When the operation command supplied from the communication unit 58 is a movement command, the control unit 61 issues a movement command for moving the display device 1 to the installation position and supplies the movement command to the movement control unit 62. The movement control unit 62 outputs a control command for driving the driving unit 63 to move the display device 1 to the installation position in response to the movement command. The drive part 63 can be formed with a motor, for example, and drives the wheel 15 shown in FIG. 1 in response to a control command.

制御部61は、通信部58からの動作指令がコンテンツ情報を選択する選択指令であると、選択指令に応じてコンテンツを選択するコンテンツ選択指令をコンテンツセレクタ64に供給する。コンテンツセレクタ64は、コンテンツ選択指令が選択したコンテンツを記憶部65から読み出して選択出力する。コンテンツ選択指令が選択した音声コンテンツは音声再生部66に供給され、音声コンテンツが再生される。音声再生部66は、例えばスピーカで形成される。コンテンツ選択指令が選択した画像コンテンツは陰影処理部52に供給される。陰影処理部52は、画像コンテンツに光源方向情報及び人検知情報に基づいた陰影処理を施す。つまり、陰影処理部52では、光源方向とユーザの相対位置に基づき、ユーザの視点から見た空間の照明状況に合うように画像コンテンツに陰影処理を施す。陰影処理部52は、陰影処理を施された画像コンテンツをプロジェクタ14に供給する。プロジェクタ14は、陰影処理を施された画像コンテンツを、透過型スクリーン16の裏面16−2に投射する。   If the operation command from the communication unit 58 is a selection command for selecting content information, the control unit 61 supplies the content selector 64 with a content selection command for selecting content in accordance with the selection command. The content selector 64 reads out the content selected by the content selection command from the storage unit 65 and selectively outputs it. The audio content selected by the content selection command is supplied to the audio reproduction unit 66, and the audio content is reproduced. The audio reproduction unit 66 is formed by a speaker, for example. The image content selected by the content selection command is supplied to the shadow processing unit 52. The shadow processing unit 52 performs a shadow process on the image content based on the light source direction information and the human detection information. In other words, the shadow processing unit 52 performs a shadow process on the image content based on the light source direction and the relative position of the user so as to match the lighting condition of the space viewed from the user's viewpoint. The shadow processing unit 52 supplies the image content subjected to the shadow processing to the projector 14. The projector 14 projects the image content subjected to the shading process onto the back surface 16-2 of the transmissive screen 16.

例えば、コンテンツ情報は表示装置1の後方にある商品棚に置かれた商品に関するものである。制御部61はユーザが透過型スクリーン16を通して見ている画像中でユーザがポインティングしている箇所を上記の如く認識することができるので、商品棚が固定位置に設置されていれば、制御部61はユーザがポインティングしている商品棚の商品を認識することができる。例えば、商品棚に置かれた各商品の位置を基準座標系で管理しておけば、基準座標系の座標値に応じて各商品の説明などのコンテンツ情報を記憶部65に格納しておくことで、ポインティングされた箇所の商品に関する説明などの音声コンテンツを音声再生部66から出力したり、画像コンテンツをプロジェクタ14により透過型スクリーン16に投射したりすることができる。また、マイクロホン57が検知した音声を示す音声情報が制御部61に供給されているので、制御部61はユーザからの質問などを認識するとポインティングされた箇所の商品に関する説明などのコンテンツ情報を出力するようにしても良い。このようにして、表示装置1は、ユーザとのインタラクションに応じて出力するコンテンツ情報を決定し、画像コンテンツを表示すると共に、必要に応じて音声情報を出力することができる。   For example, the content information relates to a product placed on a product shelf behind the display device 1. Since the control unit 61 can recognize the point where the user is pointing in the image the user is looking through the transmissive screen 16 as described above, if the product shelf is installed at a fixed position, the control unit 61 Can recognize the product on the product shelf that the user is pointing to. For example, if the position of each product placed on the product shelf is managed in the reference coordinate system, content information such as a description of each product is stored in the storage unit 65 according to the coordinate value of the reference coordinate system. Thus, it is possible to output audio content such as a description about the commodity at the pointed portion from the audio reproduction unit 66, or to project the image content onto the transmissive screen 16 by the projector 14. In addition, since the audio information indicating the audio detected by the microphone 57 is supplied to the control unit 61, the control unit 61 outputs content information such as an explanation regarding the product at the pointed position when recognizing a question from the user. You may do it. In this way, the display device 1 can determine content information to be output according to user interaction, display image content, and output audio information as necessary.

なお、ユーザがポインティングした箇所は、以下に図8及び図9と共に説明するように、ユーザが透過型スクリーン16に触れない場合でも認識することができる。   Note that the location pointed by the user can be recognized even when the user does not touch the transmissive screen 16, as will be described below with reference to FIGS.

図8は、ユーザによるポインティングを説明する図である。図8中、(a)は透過型スクリーン16の正面図、(B)は表示装置1の側面図を示す。この例では、人検知装置55は、基準座標系から見たユーザ501の位置と姿勢を計測可能なステレオカメラで形成されている。また、ユーザ501は、手501Aで表示装置1の後方にある商品棚(図示せず)にある商品を矢印方向に沿ってポインティングするものとする。商品棚の前面で形成される対象空間の面601(以下、対象空間面601と言う)と破線で示すポインティング方向502との交点503は、ユーザ501がポインティングしている商品の位置に相当する。ポインティング方向502は、基準座標系から見た手501Aの向きを示す直線である。基準座標系から見た対象空間面601の位置は既知であるものとする。   FIG. 8 is a diagram for explaining pointing by the user. 8A is a front view of the transmission screen 16 and FIG. 8B is a side view of the display device 1. In this example, the human detection device 55 is formed of a stereo camera that can measure the position and orientation of the user 501 viewed from the reference coordinate system. In addition, the user 501 points the product in the product shelf (not shown) behind the display device 1 with the hand 501A along the arrow direction. An intersection 503 between a target space surface 601 (hereinafter referred to as a target space surface 601) formed on the front surface of the product shelf and a pointing direction 502 indicated by a broken line corresponds to the position of the product that the user 501 is pointing to. The pointing direction 502 is a straight line indicating the direction of the hand 501A viewed from the reference coordinate system. It is assumed that the position of the target space plane 601 viewed from the reference coordinate system is known.

図9は、ポインティング位置検出処理の一例を説明するフローチャートである。ポインティング位置検出処理は、制御部61を形成するCPU(Central Processing Unit)などのプロセッサにより実行される。CPUが実行するプログラムは、制御部61を形成する記憶部などのコンピュータ読み取り可能な記憶媒体に格納されていても良い。図9において、ステップS11は、基準座標系から見た表示装置1の位置と姿勢を、測位装置54から供給される装置位置情報及び人検知装置55から供給される人検知情報に基づいて計測する。ステップS12は、表示装置1から見たユーザ501の手501Aの向きを、人検知装置55から供給される人検知情報に基づいて計測する。ステップS13は、計測した手501Aの向きを、表示装置1の座標系から基準座標系に変換する。ステップS14は、基準座標系から見た手501Aの向き、即ち、ポインティング方向502と、対象空間面601との交点503を算出し、処理は終了する。   FIG. 9 is a flowchart for explaining an example of the pointing position detection process. The pointing position detection process is executed by a processor such as a CPU (Central Processing Unit) that forms the control unit 61. The program executed by the CPU may be stored in a computer-readable storage medium such as a storage unit that forms the control unit 61. 9, step S11 measures the position and orientation of the display device 1 viewed from the reference coordinate system based on the device position information supplied from the positioning device 54 and the human detection information supplied from the human detection device 55. . In step S <b> 12, the direction of the hand 501 </ b> A of the user 501 viewed from the display device 1 is measured based on the human detection information supplied from the human detection device 55. In step S13, the orientation of the measured hand 501A is converted from the coordinate system of the display device 1 to the reference coordinate system. In step S14, the direction of the hand 501A viewed from the reference coordinate system, that is, the intersection point 503 between the pointing direction 502 and the target space surface 601 is calculated, and the process ends.

なお、人検知装置55はステレオカメラに限定されず、例えばマイクロソフト社製のKinect Sensor(登録商標)などの、基準座標系から見たユーザ501の位置と姿勢を計測可能な三次元計測装置を用いても良いことは、言うまでもない。   The human detection device 55 is not limited to a stereo camera. For example, a three-dimensional measurement device that can measure the position and orientation of the user 501 viewed from the reference coordinate system, such as Kinect Sensor (registered trademark) manufactured by Microsoft Corporation, is used. Needless to say, you can.

図10は、座標とコンテンツを対応付けるデータベースとコンテンツデータベースの一例を示す図である。図10中、(a)は座標とコンテンツを対応付けるデータベース(DB:Data Base)651を示し、(b)はコンテンツデータベース(DB)652を示す。DB651は、基準座標系から見た空間座標値に対応するコンテンツのIDを管理している。この例では、DB651は、座標値x,y,zに対応付けられたコンテンツの対象IDを格納している。一方、DB652は、コンテンツの対象IDをインデックスとするコンテンツ情報(例えば、コンテンツのファイル名)を管理している。この例では、DB652は、コンテンツの対象IDに対応付けられたコンテンツ情報(例えば、コンテンツのファイル名)を格納している。DB651,652は、表示装置1内または表示装置1外の記憶部に格納されており、例えば記憶部65に格納されていても良い。   FIG. 10 is a diagram illustrating an example of a database that associates coordinates with content and a content database. 10, (a) shows a database (DB: Data Base) 651 for associating coordinates and content, and (b) shows a content database (DB) 652. The DB 651 manages content IDs corresponding to spatial coordinate values viewed from the reference coordinate system. In this example, the DB 651 stores the target ID of the content associated with the coordinate values x, y, and z. On the other hand, the DB 652 manages content information (for example, the file name of the content) using the content target ID as an index. In this example, the DB 652 stores content information (for example, a content file name) associated with a content target ID. The DBs 651 and 652 are stored in the storage unit inside the display device 1 or outside the display device 1, and may be stored in the storage unit 65, for example.

図11は、コンテンツ選択処理の一例を説明するフローチャートである。コンテンツ選択処理は、コンテンツセレクタ64により実行される。コンテンツセレクタ64の処理を制御部61で行う場合には、コンテンツ選択処理は制御部61を形成するCPUにより実行される。図11において、ステップS21は、図9のポインティング位置検出処理により算出された交点503の基準座標系から見た空間座標値を取得する。ステップS22は、測定誤差を吸収するため、取得した空間座標値との距離が閾値ε以下となる空間座標値に対応する対象IDをDB651から読み出して取得する。ステップS23は、取得した対象IDをインデックスとしてDB652を検索して対応するコンテンツを取得する。   FIG. 11 is a flowchart illustrating an example of content selection processing. The content selection process is executed by the content selector 64. When the processing of the content selector 64 is performed by the control unit 61, the content selection processing is executed by the CPU that forms the control unit 61. In FIG. 11, step S21 acquires the spatial coordinate value seen from the reference coordinate system of the intersection 503 calculated by the pointing position detection process of FIG. In step S22, in order to absorb the measurement error, the target ID corresponding to the spatial coordinate value whose distance from the acquired spatial coordinate value is equal to or less than the threshold ε is read from the DB 651 and acquired. In step S23, the DB 652 is searched using the acquired target ID as an index, and the corresponding content is acquired.

図12及び図13は、ユーザによるポインティングを説明する正面図及び側面図であり、図14は、ポインティングされた商品に関する情報表示の一例を説明する図である。   12 and 13 are a front view and a side view for explaining pointing by the user, and FIG. 14 is a view for explaining an example of information display regarding the pointed product.

図12に示すように、ユーザ501が商品棚600の前を通ると、表示装置1はユーザ501と商品棚600の間に位置するように移動する。図13に示すように、ユーザ501が表示装置1の透過型スクリーン16を通して見える商品棚600にある対象商品610をポインティングすると、上記の如きポインティング位置検出処理により交点503が算出され、交点503の位置にある商品610が認識される。また、上記の如きコンテンツ選択処理により交点503の位置にある商品610に関するコンテンツの対象IDがDB651から取得され、対象IDをインデックスとしてDB652を検索することで対応する商品610のコンテンツを取得される。これにより、図14に示すように、商品610に関するコンテンツ情報がプロジェクタ14により表示装置1の透過型スクリーン16の裏面16−2に投射される。   As shown in FIG. 12, when the user 501 passes in front of the product shelf 600, the display device 1 moves so as to be positioned between the user 501 and the product shelf 600. As shown in FIG. 13, when the user 501 points to the target product 610 on the product shelf 600 that can be seen through the transmissive screen 16 of the display device 1, the intersection point 503 is calculated by the pointing position detection process as described above, and the position of the intersection point 503 is obtained. The product 610 located in is recognized. Further, the content ID of the content related to the product 610 at the position of the intersection 503 is acquired from the DB 651 by the content selection process as described above, and the content of the corresponding product 610 is acquired by searching the DB 652 using the target ID as an index. Thereby, as shown in FIG. 14, the content information related to the product 610 is projected by the projector 14 onto the back surface 16-2 of the transmission screen 16 of the display device 1.

図14の例では、「この商品は○○です。」なる商品610に関する画像コンテンツが透過型スクリーン16に表示されるので、ユーザ501は透過型スクリーン16を通して見ている商品棚600の商品610の位置に対応させて表示された画像コンテンツを見ることで、商品610に関する情報を得ることができる。この例では、図14に示すように、商品610の商品名または価格などを示すラベル615が商品棚600に設けられているので、商品610に関する画像コンテンツはこのラベル615をポインティングするように表示されるが、画像コンテンツは商品610をポインティングするように表示されても良い。要は、画像コンテンツは、商品610に関するものであることがユーザ501に分かり易いように表示されれば良い。なお、「この商品は○○です。」なる商品610に関する音声コンテンツを音声再生部66から出力しても良い。   In the example of FIG. 14, the image content related to the product 610 “This product is OO” is displayed on the transmissive screen 16, so that the user 501 can view the product 610 of the product shelf 600 viewed through the transmissive screen 16. By viewing the image content displayed in correspondence with the position, information regarding the product 610 can be obtained. In this example, as shown in FIG. 14, since the label 615 indicating the product name or price of the product 610 is provided on the product shelf 600, the image content related to the product 610 is displayed so as to point to the label 615. However, the image content may be displayed so as to point to the product 610. In short, it is only necessary that the image content is displayed so that the user 501 can easily understand that the image content is related to the product 610. Note that the audio playback unit 66 may output the audio content related to the product 610 “This product is OO”.

ところで、ユーザがポインティングした履歴を記録するようにしても良い。このような履歴を解析することで、ユーザが知りたがっている商品情報、ユーザが興味を示している商品の傾向などを把握してマーケティング戦略などに反映させることもできる。   By the way, a history of pointing by the user may be recorded. By analyzing such a history, it is possible to grasp the product information that the user wants to know, the tendency of the product that the user is interested in, and the like and reflect it in the marketing strategy and the like.

図15は、履歴記録処理の一例を説明するフローチャートである。履歴記録処理は、制御部61を形成するCPUにより実行可能である。また、履歴記録処理は、表示装置1内または表示装置1外の記憶部に履歴を記録可能である。履歴は、例えば記憶部65に記録しても良い。   FIG. 15 is a flowchart illustrating an example of the history recording process. The history recording process can be executed by the CPU forming the control unit 61. In the history recording process, a history can be recorded in a storage unit inside the display device 1 or outside the display device 1. The history may be recorded in the storage unit 65, for example.

図15において、ステップS31は、ユーザが商品などの対象をポインティングした時刻のタイムスタンプを記録し、人検知装置55のカメラでユーザを撮影する。ステップS32は、撮影した画像に対して周知の画像処理を行うことでユーザの顔を検知する。ステップS33は、検知されたユーザの顔画像を周知の画像処理で分析することで、ユーザの性別、年代、表情を抽出する。ステップS34は、ユーザが人検知装置55により検知されなくなり、ユーザがいなくなった時刻までの経過時間から、ユーザが表示装置1の前にいた滞在時間を算出する。ステップS35は、ステップS33,S34で求めた情報を例えば図16に示す履歴データベース653に格納する。履歴データベース653は、例えば記憶部65に格納される。   In FIG. 15, in step S31, a time stamp at the time when the user points to an object such as a product is recorded, and the user is photographed with the camera of the human detection device 55. In step S32, the user's face is detected by performing known image processing on the captured image. In step S33, the user's gender, age, and facial expression are extracted by analyzing the detected user's face image by known image processing. A step S34 calculates the stay time that the user has been in front of the display device 1 from the elapsed time until the time when the user is no longer detected by the human detection device 55 and the user disappears. In step S35, the information obtained in steps S33 and S34 is stored in, for example, the history database 653 shown in FIG. The history database 653 is stored in the storage unit 65, for example.

図16に示す履歴データベース653には、タイムスタンプ、ポインティングされた商品などの対象ID、ユーザの滞在時間、ユーザの性別、ユーザの年代、ユーザの表情などが格納されている。ユーザの表情は、例えばユーザの笑顔であり、笑顔の度合い(笑顔度)を履歴データベース653に格納しても良い。この例では、笑顔度が大きい値ほど、ユーザが微笑んでいることを表す。なお、ユーザの笑顔の抽出または検出には、デジタルカメラなどで用いられている周知の方法を用いることができる。   The history database 653 illustrated in FIG. 16 stores a time stamp, a target ID such as a pointed product, a user's stay time, a user's gender, a user's age, a user's facial expression, and the like. The user's facial expression is, for example, the user's smile, and the degree of smile (smile level) may be stored in the history database 653. In this example, the higher the smile level, the more smile the user has. A known method used in a digital camera or the like can be used for extracting or detecting a user's smile.

上記の実施例によれば、ユーザが表示装置の透過型スクリーンを通して見ている実世界の映像に、適切に陰影処理された画像コンテンツを重ねて表示することが可能になる。例えば、表示装置である移動式デジタルサイネージを、遠隔地にいるユーザのアバタ(Avatar)として使用することもできる。この場合に従来のサイネージと大きく異なるのは、上記の実施例ではユーザの視点から見える背景に遠隔地にいる人の画像(アバタ)が透過型スクリーンに適切に陰影処理されて投影されるため、臨場感が格段に高まる効果が得られる点である。   According to the above-described embodiment, it is possible to display the image content appropriately shaded on the real-world video that the user is viewing through the transmissive screen of the display device. For example, mobile digital signage as a display device can be used as an avatar for a user at a remote location. In this case, a significant difference from conventional signage is that in the above embodiment, an image (avatar) of a person at a remote place is projected on a transmissive screen after being appropriately shaded on the background visible from the user's viewpoint. It is a point that an effect that a sense of reality is remarkably increased can be obtained.

また、ユーザが透過型スクリーンを通して見る対象は、商品棚に限定されず、風景に組まれるランドマーク、TV会議システムの参加者などであっても良い。   Further, the object that the user sees through the transmissive screen is not limited to the product shelf, but may be a landmark assembled in a landscape, a participant in a TV conference system, or the like.

さらに、上記実施例では、表示装置に設けられた光センサを用いて光源方向を推定するため、光源の明るさの急激な変化も検知することができ、リアルタイムで光源方向を知ることができる。光源の3次元位置を推定する必要はなく、画像投影面である透過型スクリーンから見た光源方向のみを推定し、推定した光源方向に基づいた陰影処理を行うため、比較的簡単な処理で実世界の画像の照明状態とコンテンツの陰影処理との間で整合性が取れたAR画像を提示可能となる。   Further, in the above embodiment, since the light source direction is estimated using the optical sensor provided in the display device, a sudden change in the brightness of the light source can be detected, and the light source direction can be known in real time. There is no need to estimate the three-dimensional position of the light source, only the direction of the light source viewed from the transmissive screen that is the image projection plane is estimated, and shading processing based on the estimated light source direction is performed. It is possible to present an AR image that is consistent between the illumination state of the image in the world and the shading process of the content.

以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
透過型ディスプレイが設置されている環境の照明条件、及びユーザ位置と前記透過型ディスプレイとの相対位置に応じて、透過型ディスプレイに表示する画像コンテンツに陰影処理を施し、
前記ユーザ位置から前記透過型ディスプレイを通して見える実世界の映像に前記陰影処理を施された画像コンテンツを重ねて表示し、
前記照明条件は、前記透過型ディスプレイから見た光源方向である
ことを特徴とする、表示方法。
(付記2)
前記透過型ディスプレイに対してユーザがポインティングした位置を検出し、
前記画像コンテンツは前記ポインティングした位置に関する情報を含む
ことを特徴とする、付記1記載の表示方法。
(付記3)
前記ポインティングした位置は、前記透過型ディスプレイと一体的に設けられたタッチパネル上でユーザにより触れられた位置を検出することにより検出される
ことを特徴とする、付記1または2記載の表示方法。
(付記4)
前記ポインティングした位置は、
前記透過型ディスプレイから見たポインティングの向きを、測位装置から供給される該透過型ディスプレイの位置情報及び三次元計測装置から供給されるユーザの検知情報に基づいて計測し、
計測したポインティングの向きを、前記透過型ディスプレイの座標系から前記基準座標系に変換し、該基準座標系から見たポインティングの向きと、前記透過型ディスプレイを通して見える対象の対象空間面との交点を算出することで求める
ことを特徴とする、付記1または2記載の表示方法。
(付記5)
前記透過型ディスプレイは透過型スクリーンで形成され、
前記陰影処理を施された画像コンテンツは、プロジェクタにより前記透過型スクリーンに投射される
ことを特徴とする、付記1乃至4のいずれか1項記載の表示方法。
(付記6)
複数の第1の光センサにより検知された照度分布に基づいて前記光源方向を推定し、
学習時には、前記学習時にのみ設けられる複数の第2の光センサと前記複数の第1の光センサとにより検知された照度分布に基づいて前記光源方向を学習する
ことを特徴とする、付記1乃至5のいずれか1項記載の表示方法。
(付記7)
前記ポインティングに関する履歴をデータベースに記録する
ことを特徴とする、付記1乃至6のいずれか1項記載の表示方法。
(付記8)
透過型ディスプレイと、
複数の光センサと、
前記複数の光センサの検知出力に基づいて前記透過型ディスプレイから見た光源方向を推定する推定部と、
ユーザ位置と前記透過型ディスプレイとの相対位置を検知する検知装置と、
前記光源方向及び前記相対位置に応じて画像コンテンツに陰影処理を施す陰影処理部と、
前記ユーザ位置から前記透過型ディスプレイを通して見える実世界の映像に前記陰影処理を施された画像コンテンツを投射して重ねて表示するプロジェクタ
を備えたことを特徴とする、表示装置。
(付記9)
前記透過型ディスプレイに対してユーザがポインティングした位置を検出する検出手段
を更に備え、
前記画像コンテンツは前記ポインティングした位置に関する情報を含む
ことを特徴とする、付記8記載の表示装置。
(付記10)
前記検出手段は、前記透過型ディスプレイと一体的に設けられ、ユーザにより触れられた位置を検出することで前記ポインティングした位置を検出するタッチパネルを有する
ことを特徴とする、付記8または9記載の表示装置。
(付記11)
前記検出手段は、
前記透過型ディスプレイの位置を測位して位置情報を出力する測位装置と、
前記ユーザを検知して検知情報を出力する三次元計測装置と、
前記位置情報及び前記検知情報に基づいて計測した前記表示装置から見たポインティングの向きを、前記表示装置の座標系から前記基準座標系に変換し、該基準座標系から見たポインティングの向きと、前記透過型ディスプレイを通して見える対象の対象空間面との交点を算出する制御部
を有することを特徴とする、付記8または9記載の表示装置。
(付記12)
前記透過型ディスプレイは透過型スクリーンで形成されている
ことを特徴とする、付記8乃至11のいずれか1項記載の表示装置。
(付記13)
前記ポインティングに関する履歴をデータベースに記録する制御部
を更に備えたことを特徴とする、付記8乃至12のいずれか1項記載の表示装置。
The following additional notes are further disclosed with respect to the embodiment including the above examples.
(Appendix 1)
Depending on the lighting conditions of the environment where the transmissive display is installed and the relative position between the user position and the transmissive display, the image content displayed on the transmissive display is subjected to shading processing,
The image content that has been subjected to the shading process is superimposed and displayed on a real-world image that can be seen through the transmissive display from the user position,
The display method according to claim 1, wherein the illumination condition is a light source direction viewed from the transmissive display.
(Appendix 2)
Detecting a position where the user points to the transmissive display;
The display method according to claim 1, wherein the image content includes information on the pointing position.
(Appendix 3)
The display method according to claim 1 or 2, wherein the pointing position is detected by detecting a position touched by a user on a touch panel provided integrally with the transmissive display.
(Appendix 4)
The pointed position is
Measuring the pointing direction as seen from the transmissive display based on the position information of the transmissive display supplied from the positioning device and the detection information of the user supplied from the three-dimensional measuring device,
The measured pointing direction is converted from the coordinate system of the transmissive display to the reference coordinate system, and the intersection of the pointing direction viewed from the reference coordinate system and the target space plane of the object seen through the transmissive display is obtained. The display method according to appendix 1 or 2, wherein the display method is obtained by calculation.
(Appendix 5)
The transmissive display is formed of a transmissive screen,
The display method according to any one of appendices 1 to 4, wherein the image content subjected to the shading process is projected onto the transmissive screen by a projector.
(Appendix 6)
Estimating the light source direction based on the illuminance distribution detected by the plurality of first optical sensors;
In learning, the light source direction is learned on the basis of illuminance distributions detected by the plurality of second optical sensors and the plurality of first optical sensors provided only during the learning. 6. The display method according to any one of 5 above.
(Appendix 7)
The display method according to any one of appendices 1 to 6, wherein a history of the pointing is recorded in a database.
(Appendix 8)
A transmissive display;
A plurality of light sensors;
An estimation unit that estimates a light source direction viewed from the transmissive display based on detection outputs of the plurality of optical sensors;
A detection device for detecting a relative position between a user position and the transmissive display;
A shadow processing unit that performs a shadow process on the image content according to the light source direction and the relative position;
A display device comprising: a projector that projects and displays the image content that has undergone the shading process on a real-world image that can be seen from the user position through the transmissive display.
(Appendix 9)
Detecting means for detecting a position pointed to by the user with respect to the transmissive display;
The display device according to appendix 8, wherein the image content includes information regarding the pointed position.
(Appendix 10)
The display according to appendix 8 or 9, wherein the detection means includes a touch panel that is provided integrally with the transmissive display and detects the pointed position by detecting a position touched by a user. apparatus.
(Appendix 11)
The detection means includes
A positioning device that measures the position of the transmissive display and outputs position information;
A three-dimensional measurement device that detects the user and outputs detection information;
The pointing direction seen from the display device measured based on the position information and the detection information is converted from the coordinate system of the display device to the reference coordinate system, and the pointing direction seen from the reference coordinate system; The display device according to appendix 8 or 9, further comprising: a control unit that calculates an intersection with a target space plane of the target that can be seen through the transmissive display.
(Appendix 12)
The display device according to any one of appendices 8 to 11, wherein the transmissive display is formed of a transmissive screen.
(Appendix 13)
The display device according to any one of appendices 8 to 12, further comprising a control unit that records a history of the pointing in a database.

以上、開示の表示方法及び表示装置を実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。   Although the disclosed display method and display device have been described with reference to the embodiments, it is needless to say that the present invention is not limited to the above embodiments, and various modifications and improvements can be made within the scope of the present invention. .

1 表示装置
11 ベース
12 フレーム
13,13−1〜13−N,131 センサ
14 プロジェクタ
16 透過型スクリーン
51 光源方向推定及び学習部
52 陰影処理部
53 撮影装置
54 測位装置
55 人検知装置
56 タッチパネル
61 制御部
DESCRIPTION OF SYMBOLS 1 Display apparatus 11 Base 12 Frame 13, 13-1 to 13-N, 131 Sensor 14 Projector 16 Transmission type screen 51 Light source direction estimation and learning part 52 Shading process part 53 Shooting apparatus 54 Positioning apparatus 55 Human detection apparatus 56 Touch panel 61 Control Part

Claims (5)

透過型ディスプレイが設置されている環境の照明条件、及びユーザ位置と前記透過型ディスプレイとの相対位置に応じて、透過型ディスプレイに表示する画像コンテンツに陰影処理を施し、
前記ユーザ位置から前記透過型ディスプレイを通して見える実世界の映像に前記陰影処理を施された画像コンテンツを重ねて表示し、
前記照明条件は、前記透過型ディスプレイから見た光源方向である
ことを特徴とする、表示方法。
Depending on the lighting conditions of the environment where the transmissive display is installed and the relative position between the user position and the transmissive display, the image content displayed on the transmissive display is subjected to shading processing,
The image content that has been subjected to the shading process is superimposed and displayed on a real-world image that can be seen through the transmissive display from the user position,
The display method according to claim 1, wherein the illumination condition is a light source direction viewed from the transmissive display.
透過型ディスプレイと、
複数の光センサと、
前記複数の光センサの検知出力に基づいて前記透過型ディスプレイから見た光源方向を推定する推定部と、
ユーザ位置と前記透過型ディスプレイとの相対位置を検知する検知装置と、
前記光源方向及び前記相対位置に応じて画像コンテンツに陰影処理を施す陰影処理部と、
前記ユーザ位置から前記透過型ディスプレイを通して見える実世界の映像に前記陰影処理を施された画像コンテンツを投射して重ねて表示するプロジェクタ
を備えたことを特徴とする、表示装置。
A transmissive display;
A plurality of light sensors;
An estimation unit that estimates a light source direction viewed from the transmissive display based on detection outputs of the plurality of optical sensors;
A detection device for detecting a relative position between a user position and the transmissive display;
A shadow processing unit that performs a shadow process on the image content according to the light source direction and the relative position;
A display device comprising: a projector that projects and displays the image content that has undergone the shading process on a real-world image that can be seen from the user position through the transmissive display.
前記透過型ディスプレイに対してユーザがポインティングした位置を検出する検出手段
を更に備え、
前記画像コンテンツは前記ポインティングした位置に関する情報を含む
ことを特徴とする、請求項2記載の表示装置。
Detecting means for detecting a position pointed to by the user with respect to the transmissive display;
The display device according to claim 2, wherein the image content includes information regarding the pointed position.
前記検出手段は、前記透過型ディスプレイと一体的に設けられ、ユーザにより触れられた位置を検出することで前記ポインティングした位置を検出するタッチパネルを有する
ことを特徴とする、請求項2または3記載の表示装置。
The said detection means is provided integrally with the said transmissive display, and has a touch panel which detects the said pointed position by detecting the position touched by the user. Display device.
前記検出手段は、
前記透過型ディスプレイの位置を測位して位置情報を出力する測位装置と、
前記ユーザを検知して検知情報を出力する三次元計測装置と、
前記位置情報及び前記検知情報に基づいて計測した前記表示装置から見たポインティングの向きを、前記表示装置の座標系から前記基準座標系に変換し、該基準座標系から見たポインティングの向きと、前記透過型ディスプレイを通して見える対象の対象空間面との交点を算出する制御部
を有することを特徴とする、請求項2または3記載の表示装置。
The detection means includes
A positioning device that measures the position of the transmissive display and outputs position information;
A three-dimensional measurement device that detects the user and outputs detection information;
The pointing direction seen from the display device measured based on the position information and the detection information is converted from the coordinate system of the display device to the reference coordinate system, and the pointing direction seen from the reference coordinate system; The display device according to claim 2, further comprising: a control unit that calculates an intersection with a target space surface of the target that can be seen through the transmissive display.
JP2012014225A 2012-01-26 2012-01-26 Display method and display device Expired - Fee Related JP5842634B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012014225A JP5842634B2 (en) 2012-01-26 2012-01-26 Display method and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012014225A JP5842634B2 (en) 2012-01-26 2012-01-26 Display method and display device

Publications (2)

Publication Number Publication Date
JP2013156670A true JP2013156670A (en) 2013-08-15
JP5842634B2 JP5842634B2 (en) 2016-01-13

Family

ID=49051824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012014225A Expired - Fee Related JP5842634B2 (en) 2012-01-26 2012-01-26 Display method and display device

Country Status (1)

Country Link
JP (1) JP5842634B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7386812B2 (en) 2018-05-24 2023-11-27 マイクロソフト テクノロジー ライセンシング,エルエルシー lighting estimation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242808A (en) * 1999-02-19 2000-09-08 Internatl Business Mach Corp <Ibm> Method and system for rendering virtual three- dimensional graphical display
JP2003264740A (en) * 2002-03-08 2003-09-19 Cad Center:Kk Observation scope
JP2005038008A (en) * 2003-07-15 2005-02-10 Canon Inc Image processing method, image processor
JP2008033531A (en) * 2006-07-27 2008-02-14 Canon Inc Method for processing information
JP2008293357A (en) * 2007-05-25 2008-12-04 Canon Inc Information processing method and information processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242808A (en) * 1999-02-19 2000-09-08 Internatl Business Mach Corp <Ibm> Method and system for rendering virtual three- dimensional graphical display
JP2003264740A (en) * 2002-03-08 2003-09-19 Cad Center:Kk Observation scope
JP2005038008A (en) * 2003-07-15 2005-02-10 Canon Inc Image processing method, image processor
JP2008033531A (en) * 2006-07-27 2008-02-14 Canon Inc Method for processing information
JP2008293357A (en) * 2007-05-25 2008-12-04 Canon Inc Information processing method and information processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7386812B2 (en) 2018-05-24 2023-11-27 マイクロソフト テクノロジー ライセンシング,エルエルシー lighting estimation

Also Published As

Publication number Publication date
JP5842634B2 (en) 2016-01-13

Similar Documents

Publication Publication Date Title
US11379173B2 (en) Method of maintaining accuracy in a 3D image formation system
US11854147B2 (en) Augmented reality guidance that generates guidance markers
US20130135295A1 (en) Method and system for a augmented reality
CN105339867A (en) Object display with visual verisimilitude
US11582409B2 (en) Visual-inertial tracking using rolling shutter cameras
WO2018131238A1 (en) Information processing device, information processing method, and program
US11720996B2 (en) Camera-based transparent display
US11741679B2 (en) Augmented reality environment enhancement
CN110622110A (en) Method and apparatus for providing immersive reality content
KR20160031183A (en) Apparatus for detecting user gaze point, and method thereof
US20240004197A1 (en) Dynamic sensor selection for visual inertial odometry systems
CN104345885A (en) Three-dimensional tracking state indicating method and display device
JP5842634B2 (en) Display method and display device
US20230122636A1 (en) Apparatus and method for localisation and mapping
TW202147173A (en) Superimpose virtual object method based on optical communitation device, electric apparatus, and computer readable storage medium
CN117716419A (en) Image display system and image display method
KR20200031259A (en) System for sharing of image data or video data for interaction contents and the method thereof
KR20200031255A (en) System for sharing of image data or video data for interaction contents and the method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151102

R150 Certificate of patent or registration of utility model

Ref document number: 5842634

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees