JP2012058353A - Image display device and control method thereof - Google Patents

Image display device and control method thereof Download PDF

Info

Publication number
JP2012058353A
JP2012058353A JP2010199409A JP2010199409A JP2012058353A JP 2012058353 A JP2012058353 A JP 2012058353A JP 2010199409 A JP2010199409 A JP 2010199409A JP 2010199409 A JP2010199409 A JP 2010199409A JP 2012058353 A JP2012058353 A JP 2012058353A
Authority
JP
Japan
Prior art keywords
image
observation object
observer
display
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010199409A
Other languages
Japanese (ja)
Inventor
Junji Kotani
淳司 小谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010199409A priority Critical patent/JP2012058353A/en
Publication of JP2012058353A publication Critical patent/JP2012058353A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique which reduces the possibility that an image is displayed in a position where the image and an observation object are viewed one over the other by an observer.SOLUTION: An image display device includes display control means for displaying an image on a display surface and acquisition means for acquiring position information showing a positional relation among the observation object, the display surface, and the observer of the observation object. The display control means displays the image on the outside of a prescribed region including an intersection between a line connecting the position of the observation object and the position of the observer and the display surface, on the basis of the position information.

Description

本発明は、画像表示装置、及びその制御方法に関する。   The present invention relates to an image display device and a control method thereof.

旧来より、製品等の展示物(観察対象物)を観察者に提示する方法として、ショーケースのような透明なケースや透明なスクリーンにより展示物と観察者を隔てて提示する方法が一般的に用いられている。また、近年、このような形態に加えて、透明なケースや透明なスクリーンに広告等の画像を表示し、宣伝効果を高めることも実施されている。図1(a)はこうした方法で展示物を提示する展示システムの例の斜視図である。   Traditionally, as a method of presenting exhibits (observation objects) such as products to the viewer, a method of presenting the exhibit and the viewer separately with a transparent case such as a showcase or a transparent screen is generally used. It is used. In recent years, in addition to such a form, an image such as an advertisement is displayed on a transparent case or a transparent screen to enhance the advertising effect. FIG. 1A is a perspective view of an example of an exhibition system that presents exhibits by such a method.

図1(a)において、100は、透明スクリーンである。101は、観察対象物であり、台座102に置かれ、透明スクリーン100越しに観察者に提示されている。103、104、105はそれぞれ観察者である。106は、プロジェクタであり、透明スクリーン100上に、投射画像107を表示している。ここで、例えば、投射画像107として、観察対象物101に関連する情報(価格など)を表示することで、観察者に対して、観察対象物101の宣伝効果を高めることができる。   In FIG. 1A, reference numeral 100 denotes a transparent screen. Reference numeral 101 denotes an observation object, which is placed on the pedestal 102 and presented to the observer through the transparent screen 100. Reference numerals 103, 104, and 105 denote observers. A projector 106 displays a projection image 107 on the transparent screen 100. Here, for example, by displaying information (such as a price) related to the observation object 101 as the projection image 107, the advertising effect of the observation object 101 can be enhanced for the observer.

特許文献1はこのような展示システムの一例を開示する。特許文献1には、ショーケースにおいて、展示物のみが存在しているかのように視認される透明状態と、模様及び/又は文字を含む情報を表示する情報表示状態とを切り替える技術が開示されている。   Patent Document 1 discloses an example of such an exhibition system. Patent Document 1 discloses a technique for switching between a transparent state that is visible as if only an exhibit is present and an information display state that displays information including patterns and / or characters in a showcase. Yes.

このような展示システムでの問題点として、ある視点から見ると、透明スクリーン100上の投射画像107と観察対象物101とが重なって見えてしまい、視認性が損なわれるということがある。視認性が損なわれる状況の例を図1(b)に示す。図1(b)は、展示システムを頭上から見た平面図である。例えば、投射画像107を、透明スクリーン100上の位置Aに表示したとする。この場合、観察者104及び観察者105は、観察対象物101と投射画像107の両方を重ならない状態で見ることができる。しかしながら、観察者103から観察対象物101を見ると、視線の途中に投射画像107が存在してしまい、これらが重なってしまう。   As a problem in such an exhibition system, when viewed from a certain viewpoint, the projected image 107 on the transparent screen 100 and the observation object 101 appear to overlap each other, and visibility is impaired. An example of a situation where visibility is impaired is shown in FIG. FIG.1 (b) is the top view which looked at the exhibition system from overhead. For example, assume that the projection image 107 is displayed at position A on the transparent screen 100. In this case, the observer 104 and the observer 105 can see both the observation object 101 and the projection image 107 without overlapping. However, when the observation object 101 is viewed from the observer 103, the projection image 107 exists in the middle of the line of sight, and these overlap.

画像と観察対象物の重なりを考慮する技術として、特許文献2が知られている。特許文献2によれば、チケットを透明ビュワー越しに観察する際に、チケットに添付されている無線タグの位置が検出され、チケットを透視する箇所が非表示領域に設定され、その非表示領域以外の表示領域に選択された画像が表示される。これにより、透明ビュワーの使用者は、チケットに重ならないように表示された画像とチケットとを同時に観賞することができる。   Patent Document 2 is known as a technique that considers an overlap between an image and an observation object. According to Patent Document 2, when observing a ticket through a transparent viewer, the position of the wireless tag attached to the ticket is detected, and a place where the ticket is seen through is set as a non-display area, and other than the non-display area The selected image is displayed in the display area. As a result, the user of the transparent viewer can simultaneously view the image and the ticket displayed so as not to overlap the ticket.

特開2007−061446号公報JP 2007-061446 A 特開2006−145922号公報JP 2006-145922 A

しかしながら、特許文献2によればチケットに最も近い箇所がチケットを透視する箇所として非表示領域に設定される。そのため、特許文献2の技術を図1(a)の展示システムに適用すると、観察者の位置に関わらず透明スクリーン100上の観察対象物101に最も近い箇所(図1(b)に示す位置C)が非表示領域に設定される。従って、観察者の位置によっては、観察対象物の観察の妨げとならない位置Cが非表示領域に設定されてしまう一方で、観察対象物と画像とが重なって見える位置Aなどに画像が表示されてしまう可能性がある。同様の問題は、スクリーンに対して観察対象物と観察者が同じ側に存在する展示システムにおいても発生し得る。   However, according to Patent Document 2, the portion closest to the ticket is set as a non-display area as a portion through which the ticket is seen. Therefore, when the technique of Patent Document 2 is applied to the display system of FIG. 1A, the position closest to the observation object 101 on the transparent screen 100 regardless of the position of the observer (position C shown in FIG. 1B). ) Is set in the non-display area. Therefore, depending on the position of the observer, the position C that does not interfere with the observation of the observation target is set as the non-display area, while the image is displayed at the position A where the observation target and the image appear to overlap. There is a possibility that. Similar problems may occur in an exhibition system in which the observation object and the viewer are on the same side of the screen.

本発明はこのような状況に鑑みてなされたものであり、観察者に対して画像と観察対象物とが重なって見える位置に画像が表示される可能性を低減する技術を提供することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to provide a technique for reducing the possibility that an image is displayed at a position where an image and an observation object appear to overlap with each other. And

上記課題を解決するために、第1の本発明は、表示面に画像を表示する表示制御手段と、観察対象物、前記表示面、及び前記観察対象物の観察者の位置関係を表す位置情報を取得する取得手段と、を備え、前記表示制御手段は、前記位置情報に基づき、前記観察対象物の位置と前記観察者の位置とを結ぶ直線と前記表示面との交点を含む所定領域の外に画像を表示することを特徴とする画像表示装置を提供する。   In order to solve the above-described problem, the first aspect of the present invention provides display control means for displaying an image on a display surface, and positional information representing a positional relationship between an observation object, the display surface, and an observer of the observation object. Acquisition means for acquiring, based on the position information, the display control means of a predetermined region including an intersection of a straight line connecting the position of the observation object and the position of the observer and the display surface An image display device characterized by displaying an image outside is provided.

なお、その他の本発明の特徴は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。   Other features of the present invention will become more apparent from the accompanying drawings and the following description of the preferred embodiments.

以上の構成により、本発明によれば、観察者に対して画像と観察対象物とが重なって見える位置に画像が表示される可能性を低減することが可能となる。   With the above configuration, according to the present invention, it is possible to reduce the possibility that an image is displayed at a position where the image and the observation object appear to overlap with each other.

(a)は、観察対象物と観察者とを隔てる透明スクリーンに画像を表示する展示システムを示す図であり、(b)は、図1(a)に示す展示システムの平面図である。(A) is a figure which shows the exhibition system which displays an image on the transparent screen which separates an observation target object and an observer, (b) is a top view of the exhibition system shown to Fig.1 (a). (a)は、第1の実施形態に係る展示システム10の構成を示すブロック図であり、(b)は、第1の実施形態における、画像の表示に適さない位置である交点Nを示す概念図である。(A) is a block diagram which shows the structure of the exhibition system 10 which concerns on 1st Embodiment, (b) is the concept which shows the intersection N which is a position which is not suitable for the display of an image in 1st Embodiment. FIG. 第1の実施形態に係る画像表示装置204の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the image display apparatus 204 which concerns on 1st Embodiment. (a)は、ステレオ撮像部309の平面図を概念的に示し、(b)は、左用撮像センサ400で得られる画像の例を示し、(c)は、右用撮像センサ401で得られる画像の例を示す。(A) conceptually shows a plan view of the stereo imaging unit 309, (b) shows an example of an image obtained by the left imaging sensor 400, and (c) shows an image obtained by the right imaging sensor 401. An example of 第1の実施形態に係る画像表示処理を示すフローチャートである。It is a flowchart which shows the image display process which concerns on 1st Embodiment. (a)〜(d)は、第1の実施形態に係る画像の表示形態の例を示す図である。(A)-(d) is a figure which shows the example of the display form of the image which concerns on 1st Embodiment. (a)は、第2の実施形態に係る展示システム20の構成を示すブロック図であり、(b)は、第2の実施形態における、画像の表示に適さない位置である交点Nを示す概念図である。(A) is a block diagram which shows the structure of the exhibition system 20 which concerns on 2nd Embodiment, (b) is the concept which shows the intersection N which is a position which is not suitable for the display of an image in 2nd Embodiment. FIG. 第2の実施形態に係る画像表示装置700の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the image display apparatus 700 which concerns on 2nd Embodiment. (a)は、第3の実施形態に係る展示システム30の構成を示すブロック図であり、(b)は、第3の実施形態における、画像の表示に適さない位置である交点Nを示す概念図である。(A) is a block diagram which shows the structure of the exhibition system 30 which concerns on 3rd Embodiment, (b) is the concept which shows the intersection N which is a position unsuitable for the display of an image in 3rd Embodiment. FIG.

以下、添付図面を参照して、本発明の実施形態を説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The technical scope of the present invention is determined by the claims, and is not limited by the following individual embodiments. In addition, not all combinations of features described in the embodiments are essential to the present invention.

[第1の実施形態]
図2(a)は、第1の実施形態に係る展示システム10の構成を示すブロック図である。展示システム10は、透明スクリーン100を有するショーケース200を備える。透明スクリーン100は、表示面の側(透明スクリーン100の右側)から反対側を透過的に視認可能なように構成される。従って、観察者はショーケース200の外側(透明スクリーン100の右側)から、展示対象である観察対象物101を透過的に観察できる。
[First Embodiment]
FIG. 2A is a block diagram illustrating a configuration of the exhibition system 10 according to the first embodiment. The exhibition system 10 includes a showcase 200 having a transparent screen 100. The transparent screen 100 is configured so that the opposite side can be seen transparently from the display surface side (the right side of the transparent screen 100). Accordingly, the observer can transparently observe the observation object 101 that is the display object from the outside of the showcase 200 (the right side of the transparent screen 100).

観察対象物101には、ステレオカメラ201の方向にマーカー202が付加されており、後述するパーソナルコンピュータ(PC)203はこのマーカー202を利用して観察対象物101を識別することができる。   A marker 202 is added to the observation object 101 in the direction of the stereo camera 201, and a personal computer (PC) 203 described later can identify the observation object 101 by using the marker 202.

展示システム10はまた、本発明の画像表示装置の一例である画像表示装置204を備える。画像表示装置204は、プロジェクタ106、ステレオカメラ201、及びPC203を備える。   The exhibition system 10 also includes an image display device 204 which is an example of the image display device of the present invention. The image display device 204 includes a projector 106, a stereo camera 201, and a PC 203.

プロジェクタ106は、PC203の制御に従って画像を投射することにより、透明スクリーン100(表示部)の表示面の任意の場所に画像を表示する。ステレオカメラ201は、透明スクリーン100の方向を向いており、観察対象物101、透明スクリーン100、及び、その外側を撮影可能である。PC203は、ステレオカメラ201及びプロジェクタ106に接続される。PC203は、画像表示装置204の制御及び計算を司っており、ステレオカメラ201で撮像された画像を分析したり、プロジェクタ106に対し表示すべき画像の位置や内容を指示したりする。   The projector 106 displays an image at an arbitrary place on the display surface of the transparent screen 100 (display unit) by projecting an image according to the control of the PC 203. The stereo camera 201 faces the transparent screen 100, and can photograph the observation object 101, the transparent screen 100, and the outside thereof. The PC 203 is connected to the stereo camera 201 and the projector 106. The PC 203 controls and calculates the image display device 204, analyzes the image captured by the stereo camera 201, and instructs the projector 106 about the position and content of the image to be displayed.

本実施形態では、PC203及びプロジェクタ106が協働して、透明スクリーン100に画像を表示する表示制御手段として機能する。しかしながら、例えば透明スクリーン100の代わりに透明の有機ELディスプレイを用いて、PC203が(プロジェクタ106を使用せずに)有機ELディスプレイに画像信号を直接入力してもよい。この場合、PC203が単独で表示制御手段として機能する。   In the present embodiment, the PC 203 and the projector 106 cooperate to function as display control means for displaying an image on the transparent screen 100. However, for example, using a transparent organic EL display instead of the transparent screen 100, the PC 203 may directly input an image signal to the organic EL display (without using the projector 106). In this case, the PC 203 functions alone as a display control unit.

また、本実施形態では、PC203は、ステレオカメラ201が撮像した画像を分析することにより、観察者103などの各被写体の位置(厳密には、ステレオカメラ201に対する相対位置)を算出する。従って、PC203及びステレオカメラ201が協働して、各被写体の位置を検出する位置検出手段として機能する。また、PC203はこうして検出された位置を取得する取得手段としても機能する。しかしながら、本実施形態において必要とされる「位置」に関する情報(位置情報)の形態はこれに限定されない。位置情報は、観察対象物101と画像とが重なって見えるか否かを判定する際に必要な情報である、観察対象物101、透明スクリーン100、及び観察者の位置関係を表す情報であればよい。また、画像表示装置204は最終的に位置情報を取得できれば十分であり、各被写体の位置検出を行うことは必須ではない(即ち、ステレオカメラ201は必須の構成要素ではない)。従って、例えば別のカメラにより得られた情報から被写体の位置を検出したり、被写体の対応する位置に配置された無線タグに対応する位置を検出するなどの方法で取得された位置情報をサーバに格納しておき、PC203がネットワーク経由でサーバから位置情報を取得してもよい。   In the present embodiment, the PC 203 calculates the position of each subject such as the observer 103 (strictly, the relative position with respect to the stereo camera 201) by analyzing the image captured by the stereo camera 201. Accordingly, the PC 203 and the stereo camera 201 cooperate to function as a position detection unit that detects the position of each subject. The PC 203 also functions as an acquisition unit that acquires the position thus detected. However, the form of information (position information) related to “position” required in the present embodiment is not limited to this. If the position information is information indicating the positional relationship between the observation object 101, the transparent screen 100, and the observer, which is information necessary for determining whether the observation object 101 and the image appear to overlap each other. Good. Further, it is sufficient that the image display device 204 can finally acquire position information, and it is not essential to detect the position of each subject (that is, the stereo camera 201 is not an essential component). Therefore, for example, the position information obtained by a method such as detecting the position of the subject from information obtained by another camera or detecting the position corresponding to the wireless tag arranged at the corresponding position of the subject is stored in the server. The location information may be stored and the PC 203 may acquire the location information from the server via the network.

このようにプロジェクタ106及びステレオカメラ201を必要としないように画像表示装置204を構成する場合、PC203単独で本発明の画像表示装置を実装することができる。また、PC203の機能を搭載したプロジェクタであっても、単独で本発明の画像処理装置を実装することができる。しかしながら、本実施形態では、プロジェクタ106及びステレオカメラ201を必要とする実装について説明する。   When the image display device 204 is configured so as not to require the projector 106 and the stereo camera 201 as described above, the image display device of the present invention can be implemented by the PC 203 alone. Further, even a projector equipped with the function of the PC 203 can independently mount the image processing apparatus of the present invention. However, in this embodiment, an implementation that requires the projector 106 and the stereo camera 201 will be described.

図3は、画像表示装置204の詳細な構成を示すブロック図である。PC203は、バス300、それに接続されたCPU301、不揮発性メモリ302、揮発性メモリ303、操作入力部304、映像出力部305、及び通信部306を備える。   FIG. 3 is a block diagram illustrating a detailed configuration of the image display device 204. The PC 203 includes a bus 300, a CPU 301 connected thereto, a nonvolatile memory 302, a volatile memory 303, an operation input unit 304, a video output unit 305, and a communication unit 306.

CPU301は、PC203全体(更には、画像表示装置204全体)を制御する。この制御については後述する。不揮発性メモリ302は、CPU301が実行するプログラムや、PC203からプロジェクタ106に提供される表示すべき画像データなどを格納する用途で用いられる。揮発性メモリ303は、CPU301がプログラムを実行する際のワークエリアとして用いられる。   The CPU 301 controls the entire PC 203 (further, the entire image display device 204). This control will be described later. The nonvolatile memory 302 is used for storing programs executed by the CPU 301 and image data to be displayed provided from the PC 203 to the projector 106. The volatile memory 303 is used as a work area when the CPU 301 executes a program.

操作入力部304は、不図示のキーボードやマウスを接続するためのインタフェースを含み、ユーザからの入力指示を受け付ける。操作入力部304は例えば、画像表示装置204のメンテナンスのための指示(電源起動やシャットダウン等)をユーザが入力するために用いられる。   The operation input unit 304 includes an interface for connecting a keyboard and a mouse (not shown) and receives an input instruction from the user. The operation input unit 304 is used, for example, for a user to input an instruction for maintenance of the image display device 204 (power activation, shutdown, etc.).

映像出力部305は、不図示のディスプレイに対して映像を出力する。映像出力部305は例えば、画像表示装置204のメンテナンスのための情報(運用ステータスや障害情報等)をユーザに提示するために用いられる。   The video output unit 305 outputs a video to a display (not shown). The video output unit 305 is used, for example, to present information (operation status, failure information, etc.) for maintenance of the image display device 204 to the user.

通信部306は、ステレオカメラ201及びプロジェクタ106と通信するために用いられる。通信部306は例えば、ステレオカメラ201に対しては撮像指示の送信やステレオ画像の受信を、プロジェクタ106に対しては画像の表示位置の指示や、表示すべき画像データの送信を行う。   The communication unit 306 is used to communicate with the stereo camera 201 and the projector 106. For example, the communication unit 306 transmits an imaging instruction and a stereo image to the stereo camera 201, and transmits an image display position instruction and image data to be displayed to the projector 106.

ステレオカメラ201は、通信部307、CPU308、不図示の揮発性メモリ、及びステレオ撮像部309を備える。通信部307は、PC203の通信部306と通信する。CPU308は、PC203からの指示に従い、不図示の揮発性メモリに展開された制御プログラムに基づいて、ステレオカメラ201全体を制御する。CPU308は、通信部307経由でPC203から撮像指示を受けると、後述するステレオ撮像部309にステレオ画像の撮像を指示する。その結果、CPU308は、ステレオ撮像部309からステレオ画像を得ると、通信部307経由でPC203にステレオ画像を送信する。   The stereo camera 201 includes a communication unit 307, a CPU 308, a volatile memory (not shown), and a stereo imaging unit 309. The communication unit 307 communicates with the communication unit 306 of the PC 203. The CPU 308 controls the entire stereo camera 201 based on a control program developed in a volatile memory (not shown) according to an instruction from the PC 203. When receiving an imaging instruction from the PC 203 via the communication unit 307, the CPU 308 instructs the stereo imaging unit 309, which will be described later, to capture a stereo image. As a result, when the CPU 308 obtains a stereo image from the stereo imaging unit 309, the CPU 308 transmits the stereo image to the PC 203 via the communication unit 307.

ステレオ撮像部309は、被写体のステレオ画像を撮像する。本実施形態では、ステレオ撮像部309で得られたステレオ画像をPC203が解析することにより、観察対象物101の位置や、透明スクリーン100の両端の位置や、観察者の位置が取得される(詳細は図4(a)〜(c)を参照して後述する)。また、本実施形態では、ステレオ撮像部309で得られたステレオ画像をPC203が解析する例について説明するが、同様の処理をステレオカメラ201のCPU308が解析しても良い。   The stereo imaging unit 309 captures a stereo image of the subject. In the present embodiment, the PC 203 analyzes the stereo image obtained by the stereo imaging unit 309, thereby acquiring the position of the observation object 101, the positions of both ends of the transparent screen 100, and the position of the observer (details). Will be described later with reference to FIGS. In this embodiment, an example in which the PC 203 analyzes a stereo image obtained by the stereo imaging unit 309 is described. However, the CPU 308 of the stereo camera 201 may analyze the same processing.

プロジェクタ106は、通信部311、CPU312、不図示の揮発性メモリ、及び投影部313を備える。通信部311は、PC203の通信部306と通信する。CPU312は、PC203からの指示に従い、不図示の揮発性メモリに展開された制御プログラムに基づいて、プロジェクタ106全体を制御する。CPU312は、通信部311経由でPC203から表示すべき画像の位置の指示や、画像データを受信し、それらに従った画像を投影するように投影部313を制御する。   The projector 106 includes a communication unit 311, a CPU 312, a volatile memory (not shown), and a projection unit 313. The communication unit 311 communicates with the communication unit 306 of the PC 203. The CPU 312 controls the entire projector 106 based on a control program developed in a volatile memory (not shown) according to an instruction from the PC 203. The CPU 312 receives an instruction on the position of an image to be displayed and image data from the PC 203 via the communication unit 311, and controls the projection unit 313 to project an image according to them.

投影部313は、不図示の液晶パネル、液晶駆動回路、ランプ、及び光学系などから構成され、CPU312の制御により、指示された画像の光学像を透明スクリーン100に投影する。   The projection unit 313 includes a liquid crystal panel (not shown), a liquid crystal driving circuit, a lamp, an optical system, and the like, and projects an optical image of the designated image on the transparent screen 100 under the control of the CPU 312.

次に、図4(a)〜(c)を参照して、ステレオ撮像部309が撮像したステレオ画像に基づいて被写体の位置を取得する処理を説明する。図4(a)は、ステレオ撮像部309の平面図を概念的に示す。図4(a)は、ステレオ撮像部309を重力方向の上から見たものである。ステレオ撮像部309は、左用撮像センサ400及び右用撮像センサ401という2つの撮像センサを有する。左用撮像センサ400と右用撮像センサ401は、間隔Bだけ離れて左右に配置されている。図4(a)において、fは焦点距離を、C、Cはそれぞれ左右の焦点を示す。ここで、位置Oにある物体をステレオ撮像部309で撮像すると、左用撮像センサ400にはセンサ上のIの場所に、右用撮像センサ401にはセンサ上のIの場所に像が現れる。左用撮像センサ400、右用撮像センサ401でそれぞれ得られる画像の例を図4(b)及び(c)に示す。また、Iを仮想的に右用撮像センサ401に置いた場合の位置をI’とし、Iとの差を取ると、視差p=I’−Iが得られる。これらパラメータを用いると、C若しくはCからOまでの距離dについて、幾何学的な配置から以下の関係式が成り立つ。 Next, with reference to FIGS. 4A to 4C, processing for acquiring the position of the subject based on the stereo image captured by the stereo imaging unit 309 will be described. FIG. 4A conceptually shows a plan view of the stereo imaging unit 309. FIG. 4A shows the stereo imaging unit 309 as viewed from above in the direction of gravity. The stereo imaging unit 309 includes two imaging sensors, a left imaging sensor 400 and a right imaging sensor 401. The left imaging sensor 400 and the right imaging sensor 401 are arranged on the left and right sides with a distance B therebetween. In FIG. 4 (a), f is the focal length, C L, C R indicates the focus of the left and right. Here, when imaging an object at the position O at the stereo imaging unit 309, the location of I L on the sensor in for left image sensor 400, appears the image to the location of the I R on the sensor is on the right for the image sensor 401 . Examples of images obtained by the left imaging sensor 400 and the right imaging sensor 401 are shown in FIGS. 4B and 4C, respectively. Also, the position when placing the I L to virtually right imaging sensor 401 I L 'and, taking the difference between the I R, parallax p = I L' -I R is obtained. With these parameters, C for the distance d from R or C L to O, it holds the following equation from the geometrical arrangement.

d/B=(d−f)/(B−p) ・・・式(1)   d / B = (d−f) / (B−p) (1)

従って、距離dは、ステレオ撮像部309の設計時に定まる定数である焦点距離f及び距離Bと、変数である視差pとを用いて、次式により求められる。   Therefore, the distance d is obtained by the following equation using the focal length f and the distance B that are constants determined when the stereo imaging unit 309 is designed, and the parallax p that is a variable.

d=fB/p ・・・式(2)
従って、左用撮像センサ400及び右用撮像センサ401で得られる画像を解析し、物体Oのセンサ上の対応点I、Iを求めることで視差pを求め、式(2)に代入することにより、ステレオ撮像部309から物体Oまでの距離dを求めることができる。更に、I又はI、若しくはその両方を用いれば、ステレオ撮像部309の光軸に対する物体Oの角度が求められる。
d = fB / p (2)
Therefore, the parallax p is obtained by analyzing the images obtained by the left imaging sensor 400 and the right imaging sensor 401 and obtaining the corresponding points I L and I R on the sensor of the object O, and substituting them into the equation (2). Thus, the distance d from the stereo imaging unit 309 to the object O can be obtained. Furthermore, if I L or I R or both are used, the angle of the object O with respect to the optical axis of the stereo imaging unit 309 can be obtained.

このように、任意の物体Oに対して、左用撮像センサ400及び右用撮像センサ401で得られる画像を解析することで、ステレオ撮像部309からの距離と角度を求めることができ、ステレオ撮像部309に対する物体Oの相対位置を求めることができる。本実施形態では、PC203のCPU301が、ステレオ画像の解析を行って物体の相対位置を算出する。   Thus, by analyzing the image obtained by the left imaging sensor 400 and the right imaging sensor 401 for an arbitrary object O, the distance and angle from the stereo imaging unit 309 can be obtained, and the stereo imaging unit The relative position of the object O with respect to 309 can be obtained. In this embodiment, the CPU 301 of the PC 203 analyzes the stereo image and calculates the relative position of the object.

次に、図5を参照して、第1の実施形態に係る画像表示処理について説明する。画像表示装置204が起動すると、本フローチャートの処理が開始する。S501で、PC203のCPU301は、キャリブレーションが必要であるか否かを判定する。図2(b)を参照してキャリブレーションについて説明する。キャリブレーションとは、ステレオカメラ201の位置Cに対しての相対位置として、観察対象物101の位置OBJ、投射可能範囲の左端位置S、及び右端位置Sを求めることである。例えば、これらの位置が不明なとき(初めて画像表示装置204を起動するとき等)や、ユーザが明示的にキャリブレーションを指示したときに、キャリブレーションが必要であると判定される。また、たとえば、プロジェクタの台形補正やレンズシフトをさせるなどの投影位置に関する補正を行った場合にキャリブレーションが必要であると判定される。キャリブレーションが必要な場合、処理はS502に進み、不要な場合、処理はS505に進む。 Next, an image display process according to the first embodiment will be described with reference to FIG. When the image display device 204 is activated, the processing of this flowchart starts. In step S501, the CPU 301 of the PC 203 determines whether calibration is necessary. Calibration will be described with reference to FIG. The calibration relative position with respect to the position C of the stereo camera 201, the position OBJ observation object 101 is to determine the left end position S L, and the right end position S R of the projection range. For example, when these positions are unknown (for example, when the image display device 204 is activated for the first time) or when the user explicitly instructs calibration, it is determined that calibration is necessary. Further, for example, it is determined that calibration is necessary when correction relating to the projection position such as keystone correction of the projector or lens shift is performed. If calibration is necessary, the process proceeds to S502, and if not, the process proceeds to S505.

S502で、CPU301は、プロジェクタ106に対してマーカー投射指示を行う。マーカー投射とは、投影可能範囲の左端と右端に所定のパターン画像を投射するということである。マーカー投射指示を受信したプロジェクタ106のCPU312は、投影部313に、投影可能範囲の左端と右端に所定のパターン画像を投射する。   In step S <b> 502, the CPU 301 issues a marker projection instruction to the projector 106. Marker projection refers to projecting a predetermined pattern image on the left and right ends of the projectable range. Receiving the marker projection instruction, the CPU 312 of the projector 106 projects a predetermined pattern image on the left and right ends of the projectable range on the projection unit 313.

S503で、CPU301は、ステレオカメラ201に対して撮像指示を行う。撮像指示を受信したステレオカメラ201のCPU308は、ステレオ撮像部309に撮像を指示する。そして、CPU308は、得られたステレオ画像をPC203に転送する。ここで、ステレオ画像とは、上述したステレオ撮像部309内の撮像部それぞれにより得られた右画像、左画像の2つの画像からなる画像である。PC203のCPU301は、ステレオカメラ201から送信されたステレオ画像を取得する。このステレオ画像には観察対象物101に付加されたマーカー202、投影可能範囲の左端のパターン画像、及び投影可能範囲の右端のパターン画像が含まれる。   In step S <b> 503, the CPU 301 issues an imaging instruction to the stereo camera 201. The CPU 308 of the stereo camera 201 that has received the imaging instruction instructs the stereo imaging unit 309 to perform imaging. Then, the CPU 308 transfers the obtained stereo image to the PC 203. Here, the stereo image is an image composed of two images, a right image and a left image, obtained by each of the imaging units in the stereo imaging unit 309 described above. The CPU 301 of the PC 203 acquires a stereo image transmitted from the stereo camera 201. This stereo image includes a marker 202 added to the observation object 101, a pattern image at the left end of the projectable range, and a pattern image at the right end of the projectable range.

S504で、CPU301は、S503において得られたステレオ画像を用い、図4を参照して上述した方法により、観察対象物101の位置OBJ、投射可能範囲の左端位置S、及び右端位置Sを求め、不揮発性メモリ302に記憶する。 In S504, CPU 301 uses the stereo image obtained in S503, by the method described above with reference to FIG. 4, the position OBJ observation object 101, the left end position S L of the projection range, and the right end position S R It is obtained and stored in the nonvolatile memory 302.

S505で、CPU301は、ユーザにより、操作入力部304に接続された不図示のキーボードやマウス等を用いて終了指示が行われたか否かを判定する。終了指示が行われた場合、処理は終了する。そうでなければ、処理はS506に進む。   In step S <b> 505, the CPU 301 determines whether an end instruction has been given by the user using a keyboard, mouse, or the like (not shown) connected to the operation input unit 304. If an end instruction is given, the process ends. Otherwise, the process proceeds to S506.

S506で、CPU301は、ステレオカメラ201に対して撮像指示を行う。撮像指示を受信したステレオカメラ201のCPU308は、ステレオ撮像部309に撮像を指示する。そして、CPU308は、得られたステレオ画像をPC203に転送する。PC203のCPU301は、ステレオカメラ201から送信されたステレオ画像を取得する。この際、ステレオカメラ201から見て、透明スクリーン100上の投射画像と後述する観察者の顔とが重なってしまい、顔の認識率が低下してしまう可能性がある。このため、CPU301は、ステレオカメラ201に対する撮像指示と同期して、プロジェクタ106に対して画像投射の一時停止を指示し、撮像完了後に、プロジェクタ106に対して画像投射の再開を指示してもよい。   In step S <b> 506, the CPU 301 issues an imaging instruction to the stereo camera 201. The CPU 308 of the stereo camera 201 that has received the imaging instruction instructs the stereo imaging unit 309 to perform imaging. Then, the CPU 308 transfers the obtained stereo image to the PC 203. The CPU 301 of the PC 203 acquires a stereo image transmitted from the stereo camera 201. At this time, as viewed from the stereo camera 201, a projected image on the transparent screen 100 and an observer's face, which will be described later, may overlap, and the face recognition rate may decrease. Therefore, the CPU 301 may instruct the projector 106 to pause image projection in synchronization with the imaging instruction to the stereo camera 201, and may instruct the projector 106 to resume image projection after completion of imaging. .

S507で、CPU301は、ステレオカメラ201から得られたステレオ画像のそれぞれに人間の顔画像モデルと類似度の高い画像が含まれているかどうかを検出する。本実施形態では、人間の顔画像モデルと類似度の高い画像が含まれているか否かにもとづいて、顔検出を行う例を説明したが、顔検出技術はこのほかのどのような技術を用いても良い。そして、人間の顔画像モデルと類似度の高い画像が検出された場合には、検出された顔画像の特徴を示す属性情報と、ステレオ画像の2つの画像中のそれぞれにおける顔画像の検出位置とを揮発性メモリ303に記憶する。複数の顔画像が検出された場合には、その数だけ顔画像の属性情報及び各画像中の検出位置のセットが保存される。また、S507の処理の目的は観察者の位置を取得することなので、検出対象は顔画像に限定されず、例えば人間画像、目の配置画像、目鼻の配置画像、であってもよい。   In step S <b> 507, the CPU 301 detects whether each stereo image obtained from the stereo camera 201 includes an image having a high degree of similarity to the human face image model. In the present embodiment, an example in which face detection is performed based on whether or not an image having a high similarity to a human face image model is included has been described, but any other technique is used as the face detection technique. May be. When an image having a high similarity to the human face image model is detected, the attribute information indicating the characteristics of the detected face image, and the detection position of the face image in each of the two images of the stereo image, Is stored in the volatile memory 303. When a plurality of face images are detected, the same number of face image attribute information and sets of detection positions in each image are stored. Further, since the purpose of the processing of S507 is to acquire the position of the observer, the detection target is not limited to the face image, and may be, for example, a human image, an eye arrangement image, or an eye nose arrangement image.

S508で、CPU301は、S507において顔画像が1つ以上検出されたか否かを判定する。具体的には、ステレオ画像の2枚の画像(左画像と、右画像)で同じとみなせる特徴を示す属性情報を持った顔画像の数がカウントされる。顔が1つも検出されていないならば(この場合、ショーケース200の近傍に観察者がいない)、処理はS509に進む。顔が1つ以上検出されていれば、処理はS510に進む。   In step S508, the CPU 301 determines whether one or more face images have been detected in step S507. Specifically, the number of face images having attribute information indicating characteristics that can be regarded as the same in the two images (left image and right image) of the stereo image is counted. If no face is detected (in this case, there is no observer near the showcase 200), the process proceeds to S509. If one or more faces are detected, the process proceeds to S510.

S509で、CPU301は、画像の表示形態を決定する。この表示形態としては、例えば、画像の表示位置、表示サイズ、及び内容が含まれる。S509の処理が行われる場合、ショーケース200の近傍に観察者がいない状態である。そのため、CPU301は観察者の位置を考慮する必要がなく、表示形態として所定の表示形態を選択する。所定の表示形態としては、予め設定された固定値を用いてもよいし、ユーザから、操作入力部304に接続された不図示のキーボードやマウス等を用いて画像表示装置204の起動時に指示させるようにしてもよい。この場合の表示形態の例としては、表示位置はプロジェクタ106の投影範囲の中央、表示サイズはプロジェクタ106のたとえば、最大投影サイズ、画像の内容としてはたとえば、(遠くの観察者への広告効果の高い)コントラストの高い画像とすることが考えられる。この後、処理はS516に進み、S509で決定された表示形態にて画像が表示される。   In step S509, the CPU 301 determines an image display form. This display form includes, for example, the display position, display size, and content of the image. When the process of S509 is performed, there is no observer near the showcase 200. Therefore, the CPU 301 does not need to consider the position of the observer, and selects a predetermined display form as the display form. As the predetermined display form, a fixed value set in advance may be used, or a user instructs to start the image display device 204 using a keyboard or a mouse (not shown) connected to the operation input unit 304. You may do it. As an example of the display form in this case, the display position is the center of the projection range of the projector 106, the display size is, for example, the maximum projection size of the projector 106, and the content of the image is, for example, (advertising effect to a distant observer) It is conceivable that the image has a high contrast. Thereafter, the process proceeds to S516, and the image is displayed in the display form determined in S509.

一方、S508において顔が1つ以上検出されたと判定された場合、S510で、CPU301は、顔画像の検出された位置から、観察者の位置を計算する。計算方法は、図4を算出して前述の通りである。   On the other hand, if it is determined in S508 that one or more faces have been detected, in S510, the CPU 301 calculates the position of the observer from the detected position of the face image. The calculation method is as described above by calculating FIG.

S511で、CPU301は、S507において顔が1つのみ検出されたか否かを判定する。1つのみ検出された場合、処理はS512に進み、複数検出された場合、処理はS513に進む。   In step S511, the CPU 301 determines whether only one face has been detected in step S507. If only one is detected, the process proceeds to S512. If a plurality is detected, the process proceeds to S513.

S512で、CPU301は、1つだけ検出された顔画像を代表顔画像として、その位置を揮発性メモリ303に記憶する。この後、処理はS514に進む。すなわち、ステレオ画像の右画像、左画像のそれぞれに検出された顔画像が一つであるため、その顔画像を代表画像とするのである。   In step S <b> 512, the CPU 301 stores only one detected face image as a representative face image and stores the position in the volatile memory 303. Thereafter, the process proceeds to S514. That is, since there is one face image detected for each of the right image and the left image of the stereo image, that face image is used as the representative image.

一方、S513では、CPU301は、検出された複数の顔に対して、それぞれ観察対象物101の位置OBJとの距離を計算する。CPU301は、観察対象物101との距離が最も小さい観察者(観察対象物101に最も近い位置であると判定された観察者)に対応する顔画像を代表顔と判定し、その位置を揮発性メモリ303に記憶する。図2(b)を例にとると、観察者の顔画像に対応する位置OBS1と、別の観察者の顔画像に対応する位置OBS2とに対し、それぞれ観察対象物101の位置OBJとの距離がCPU301により計算される。この例であれば、位置OBS2の方が位置OBS1より位置OBJに近いため、位置OBS2が代表顔の位置であると判定される。この後、処理はS514に進む。   On the other hand, in S513, the CPU 301 calculates the distance from the position OBJ of the observation object 101 for each of the detected faces. The CPU 301 determines the face image corresponding to the observer with the shortest distance to the observation object 101 (the observer determined to be the position closest to the observation object 101) as the representative face, and sets the position as volatile. Store in the memory 303. Taking FIG. 2B as an example, the distance from the position OBJ of the observation object 101 to the position OBS1 corresponding to the face image of the observer and the position OBS2 corresponding to the face image of another observer, respectively. Is calculated by the CPU 301. In this example, since the position OBS2 is closer to the position OBJ than the position OBS1, it is determined that the position OBS2 is the representative face position. Thereafter, the process proceeds to S514.

なお、S513において、CPU301は代表顔を選択する代わりに、検出された複数の顔画像のうちの2以上又は全てについて、顔画像に対応する位置を揮発性メモリ303に記憶してもよい。この場合、後述するS514では、CPU301は各顔の位置について交点Nを算出する。そして、後述するS515で、CPU301は、各交点Nを避けるように表示形態を決定する。   In S513, the CPU 301 may store the positions corresponding to the face images in the volatile memory 303 for two or more of the detected face images instead of selecting the representative face. In this case, in S514, which will be described later, the CPU 301 calculates an intersection N for each face position. In step S515, which will be described later, the CPU 301 determines a display form so as to avoid each intersection N.

S514で、CPU301は、揮発性メモリ303に記憶された代表顔画像に対応する位置と、観察対象物101の位置とを結ぶ直線と、透明スクリーン100との交点Nを算出する。図2(b)の例では、算出される交点Nは、直線OBJ−OBS2と、直線S−Sとの交点である。顔画像が複数検出された場合でも代表顔画像が使用されるので、CPU301は、交点Nを算出するための直線を規定する観察者の位置として、代表顔画像に対応する位置を用いる。交点Nは、対象とする観察者から観察対象物101を見た場合に、その視線上にある透明スクリーン100上の点を表す。換言すれば、交点Nに何らかの画像を投影表示すると、対象とする観察者から見て観察対象物101と画像が重なってしまうことになる。従って、交点Nは画像の表示に適さない点である。 In step S <b> 514, the CPU 301 calculates an intersection N between the transparent screen 100 and a straight line connecting the position corresponding to the representative face image stored in the volatile memory 303 and the position of the observation object 101. In the example of FIG. 2 (b), the intersection N to be calculated, the linear OBJ-OBS2, an intersection of the straight line S L -S R. Since the representative face image is used even when a plurality of face images are detected, the CPU 301 uses the position corresponding to the representative face image as the position of the observer that defines a straight line for calculating the intersection N. The intersection point N represents a point on the transparent screen 100 that is on the line of sight when the observation target object 101 is viewed from a target observer. In other words, when an image is projected and displayed at the intersection N, the image is overlapped with the observation object 101 when viewed from the target observer. Therefore, the intersection N is not suitable for displaying an image.

S515で、CPU301は、交点Nの位置に基づいて画像の表示形態を決定する。前述の通り、表示形態には例えば、画像の表示位置、表示サイズ、及び内容が含まれる。S515においては、CPU301は、画像が交点Nを含む所定領域の外に表示されるように表示形態を決定する。所定領域の大きさは任意であるが、例えば観察対象物101が大きいほど所定領域も大きくすれば、画像と観察対象物101との重なりを回避できる可能性が高くなる。所定領域の大きさを決定する方法としては、操作入力部304を用いて事前にユーザに矩形領域の大きさを指定させる方法が挙げられる。また、マーカー202を、ステレオカメラ201から見た観察対象物101の左端と右端の2箇所に設置し、上述の方法で2つのマーカーに対応する交点をそれぞれ算出し、これら2つの交点の間の領域を所定領域としてもよい。すなわち、S511からS515では、ステレオ画像の右画像、左画像に、顔画像が存在するか否かを検出している。そして、その顔画像に対応する観察者の位置を図2に示す方法で検出する。そして、一つの例では、この顔画像に対応する観察者と、観察対象物101との間に、観察対象物101が見えにくくならないように有効な投影画像を表示させないようにする。また、別の例では、この顔画像に対応する観察者の位置のうち、最も観察対象物101の位置に近い位置にいる観察者と、観察対象物101との間に、観察対象物101が見えにくくならないように有効な投影画像を表示させないようにする。また、別の例では、複数の顔画像それぞれに対応するすべての観察者と観察対象物101との間に観察対象物101が見えにくくならないように有効な投影画像が表示されないようにするのである。   In step S515, the CPU 301 determines an image display form based on the position of the intersection N. As described above, the display form includes, for example, the display position, display size, and content of the image. In S515, the CPU 301 determines the display form so that the image is displayed outside the predetermined area including the intersection N. Although the size of the predetermined area is arbitrary, for example, if the predetermined area is made larger as the observation object 101 is larger, the possibility that the overlap between the image and the observation object 101 can be avoided increases. As a method of determining the size of the predetermined area, there is a method of allowing the user to specify the size of the rectangular area in advance using the operation input unit 304. In addition, the markers 202 are installed at two positions, the left end and the right end of the observation object 101 as viewed from the stereo camera 201, and the intersections corresponding to the two markers are calculated by the above-described method, and between the two intersections. The region may be a predetermined region. That is, in S511 to S515, it is detected whether a face image exists in the right image and the left image of the stereo image. Then, the position of the observer corresponding to the face image is detected by the method shown in FIG. In one example, an effective projection image is not displayed between the observer corresponding to the face image and the observation object 101 so that the observation object 101 is not easily seen. In another example, the observation object 101 is between the observation object 101 and the observer closest to the position of the observation object 101 among the observer positions corresponding to the face image. An effective projection image is not displayed so as not to be difficult to see. In another example, an effective projection image is prevented from being displayed so that the observation object 101 does not become difficult to see between all the observers corresponding to each of the plurality of face images and the observation object 101. .

場合によっては、CPU301は、画像が交点Nを含む所定領域の中に表示されるように表示形態を決定してもよいが、この場合、(例えば画像のコントラストを低下させることにより)所定領域の中に表示される画像の透過率を閾値以上にする。こうすれば、観察対象物101と画像が重なって見えても、観察対象物101の視認性の低下を抑制することができる。すなわち、代表顔画像に対応する観察者と、観察対象物101との間に表示される画像のコントラストを低下させることなどにより、観察対象物が見えにくくならないようにしても良い。   In some cases, the CPU 301 may determine the display form so that the image is displayed in a predetermined area including the intersection N. In this case, the CPU 301 determines the display area (for example, by reducing the contrast of the image). The transmittance of the image displayed inside is set to a threshold value or more. In this way, even when the observation object 101 and the image are seen to overlap each other, it is possible to suppress a decrease in the visibility of the observation object 101. That is, the observation object may not be made difficult to see by reducing the contrast of the image displayed between the observer corresponding to the representative face image and the observation object 101.

図6(a)〜(d)を参照して、表示形態の例を説明する。   With reference to FIGS. 6A to 6D, examples of display modes will be described.

図6(a)の例では、画像の標準の表示位置が位置600であるものとする。しかしながら、位置600に画像を表示してしまうと交点Nに重なってしまうため、CPU301は、位置601に表示位置を変更する。これにより、重なりを解消することができる。   In the example of FIG. 6A, it is assumed that the standard display position of the image is the position 600. However, if an image is displayed at the position 600, it overlaps the intersection N, so the CPU 301 changes the display position to the position 601. Thereby, an overlap can be eliminated.

図6(b)の例では、画像の標準の表示位置が位置602であるものとする。しかしながら、標準の表示サイズで位置602全体に画像を表示すると、画像が交点Nに重なってしまう。そこで、CPU301は、画像の表示サイズを縮小して画像603として表示する。これにより、重なりを解消することができる。   In the example of FIG. 6B, it is assumed that the standard display position of the image is the position 602. However, when an image is displayed on the entire position 602 with the standard display size, the image overlaps the intersection N. Therefore, the CPU 301 reduces the display size of the image and displays it as an image 603. Thereby, an overlap can be eliminated.

図6(c)の例では、画像の標準の表示位置が位置604であり、画像の標準の内容が図6(a)に示すものであるものとする。しかしながら、標準の内容の画像を位置604に表示すると、交点Nに重なってしまう。そこで、CPU301は、交点Nを避けるように画像を変形して位置604に表示する。これにより、重なりを解消することができる。   In the example of FIG. 6C, the standard display position of the image is the position 604, and the standard content of the image is as shown in FIG. However, when an image having a standard content is displayed at the position 604, the image overlaps the intersection N. Therefore, the CPU 301 deforms and displays the image at the position 604 so as to avoid the intersection N. Thereby, an overlap can be eliminated.

図6(d)の例では、CPU301は画像のコントラストを低下させ、画像605として表示する。これにより、画像は交点Nと重なっているが、観察対象物101の視認性の低下は抑制される。   In the example of FIG. 6D, the CPU 301 reduces the contrast of the image and displays it as an image 605. Thereby, although the image has overlapped with the intersection N, the fall of the visibility of the observation target object 101 is suppressed.

図5に戻り、S516で、CPU301は、S509又はS515で決定された表示形態に従い、プロジェクタ106に対して画像の投射指示を行う。プロジェクタ106はその投射指示に従い、画像を投射表示する。これにより、決定された表示形態での画像の表示が行われる。その後、処理はS505に戻り、終了指示が行われるまで同様の処理が繰り返される。   Returning to FIG. 5, in S516, the CPU 301 instructs the projector 106 to project an image in accordance with the display mode determined in S509 or S515. The projector 106 projects and displays an image according to the projection instruction. As a result, the image is displayed in the determined display form. Thereafter, the process returns to S505, and the same process is repeated until an end instruction is issued.

以上説明したように、本実施形態によれば、画像表示装置204は、観察対象物101の位置と観察者の位置とを結ぶ直線と透明スクリーン100との交点を含む所定領域の外に画像を表示する。これにより、観察対象物101と画像とが重なって見える可能性を低減することができる。或いは、画像表示装置204は、この所定領域の中に画像を表示する場合、表示される画像の透過率を閾値以上にする。これにより、観察対象物101と画像とが重なって見えても、観察対象物101の視認性の低下を抑制することができる。   As described above, according to the present embodiment, the image display device 204 displays an image outside a predetermined region including the intersection of the straight line connecting the position of the observation object 101 and the position of the observer and the transparent screen 100. indicate. Thereby, the possibility that the observation object 101 and the image appear to overlap each other can be reduced. Alternatively, when displaying an image in the predetermined area, the image display device 204 sets the transmittance of the displayed image to a threshold value or more. Thereby, even if the observation target object 101 and the image appear to overlap each other, it is possible to suppress a decrease in the visibility of the observation target object 101.

[第2の実施形態]
第2の実施形態では、被写体の位置検出に用いられるステレオ撮像部を観察対象物と同じ位置(近傍の位置)に設置する。これにより、観察対象物の位置を検出する必要が無くなり、観察対象物にマーカーを付加する必要もなくなる。
[Second Embodiment]
In the second embodiment, the stereo imaging unit used for detecting the position of the subject is installed at the same position (a nearby position) as the observation object. This eliminates the need to detect the position of the observation object and eliminates the need to add a marker to the observation object.

図7(a)は、第2の実施形態に係る展示システム20の構成を示すブロック図である。展示システム20は、第1の実施形態と同様、ショーケース200、透明スクリーン100、及び観察対象物101を備える。展示システム20はまた、画像表示装置700を備える。画像表示装置700は観察対象物101の近傍に設置されている。画像表示装置700は、例えば、観察対象物101が置かれている台座102(図1(a)参照)に内蔵されていてもよい。画像表示装置700は、第1の実施形態のステレオカメラ201と同様に透明スクリーン100の方向のステレオ画像を撮影する機能を持つ。また、画像表示装置700は、第1の実施形態のプロジェクタ106と同様に透明スクリーン100上に画像を投射表示する機能を持つ。   FIG. 7A is a block diagram illustrating a configuration of the exhibition system 20 according to the second embodiment. As in the first embodiment, the exhibition system 20 includes a showcase 200, a transparent screen 100, and an observation object 101. The exhibition system 20 also includes an image display device 700. The image display device 700 is installed in the vicinity of the observation object 101. For example, the image display device 700 may be built in the pedestal 102 (see FIG. 1A) on which the observation object 101 is placed. The image display device 700 has a function of capturing a stereo image in the direction of the transparent screen 100 as in the stereo camera 201 of the first embodiment. The image display device 700 has a function of projecting and displaying an image on the transparent screen 100 as in the projector 106 of the first embodiment.

画像表示装置700の内部構成を図8のブロック図を用いて説明する。図8において、図3と同一又は同様の構成要素には同一の符号を付し、説明を省略する。撮像制御部801は、CPU301からの指示に従い、ステレオ撮像部309によるステレオ画像の撮像を制御する。従って、撮像制御部801は、図3のCPU308と同様の機能を有する。投影制御部802は、CPU301からの指示に従い、画像を投影するように投影部313を制御する。従って、投影制御部802は、図3のCPU312と同様の機能を有する。   The internal configuration of the image display apparatus 700 will be described with reference to the block diagram of FIG. 8, the same or similar components as those in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted. The imaging control unit 801 controls the imaging of a stereo image by the stereo imaging unit 309 according to an instruction from the CPU 301. Therefore, the imaging control unit 801 has the same function as the CPU 308 in FIG. The projection control unit 802 controls the projection unit 313 to project an image in accordance with an instruction from the CPU 301. Therefore, the projection control unit 802 has the same function as the CPU 312 in FIG.

次に、図5を参照して、第2の実施形態に係る画像表示処理について説明する。ここでは、主として第1の実施形態との相違点について説明する。S503で、CPU301は、第1の実施形態と同様にステレオ画像を取得する。但し、このステレオ画像には、観察対象物101のマーカーは含まれない。S504で、CPU301は第1の実施形態と同様の処理を行うが、観察対象物の位置は算出されない。また、ここで算出される投射可能範囲の左端位置S及び右端位置Sはステレオ撮像部309に対する相対位置であるが、それは実質的には、観察対象物101に対する相対位置である。 Next, image display processing according to the second embodiment will be described with reference to FIG. Here, differences from the first embodiment will be mainly described. In step S503, the CPU 301 acquires a stereo image as in the first embodiment. However, this stereo image does not include the marker of the observation object 101. In S504, the CPU 301 performs the same process as in the first embodiment, but the position of the observation object is not calculated. Although here the left end position of the projection range calculated S L and the right end position S R is the relative position with respect to the stereo imaging unit 309, it is essentially a relative position with respect to the observation object 101.

S510で、CPU301は、第1の実施形態と同様に各顔画像に対応する位置を算出する。ここで算出される位置はステレオ撮像部309に対する相対位置であるが、それは実質的には、観察対象物101に対する相対位置である。   In S510, the CPU 301 calculates a position corresponding to each face image as in the first embodiment. The position calculated here is a relative position with respect to the stereo imaging unit 309, but is substantially a relative position with respect to the observation object 101.

S513で、CPU301は、各顔画像に対応する位置(ステレオ撮像部309に対する相対位置)を観察対象物101と各顔画像に対応する観察者との距離として扱い、代表顔画像を決定する。図7(b)を例にとると、位置OBS2の方が位置OBS1より位置OBJに近いため、位置OBS2の顔画像が代表顔画像と判定される。   In step S513, the CPU 301 treats the position corresponding to each face image (relative position with respect to the stereo imaging unit 309) as the distance between the observation object 101 and the observer corresponding to each face image, and determines a representative face image. Taking FIG. 7B as an example, since the position OBS2 is closer to the position OBJ than the position OBS1, the face image at the position OBS2 is determined as the representative face image.

S514で、CPU301は、第1の実施形態と同様に交点Nを算出する。観察対象物101の位置は算出されていないが、観察対象物101の位置はステレオ撮像部309の位置とほぼ同じであり、S504及びS510においてステレオ撮像部309に対する観察者や透明スクリーン100の相対位置が算出されている。従って、第1の実施形態と同様の計算により交点Nを求めることができる。   In S514, the CPU 301 calculates the intersection N as in the first embodiment. Although the position of the observation object 101 is not calculated, the position of the observation object 101 is substantially the same as the position of the stereo imaging unit 309, and the relative position of the observer and the transparent screen 100 with respect to the stereo imaging unit 309 in S504 and S510. Is calculated. Therefore, the intersection N can be obtained by the same calculation as in the first embodiment.

以上説明したように、本実施形態によれば、画像表示装置204(特に、ステレオ撮像部309)が観察対象物101とほぼ同じ位置に設置される。従って、観察対象物101にマーカーを付加する必要が無くなる。   As described above, according to the present embodiment, the image display device 204 (particularly, the stereo imaging unit 309) is installed at substantially the same position as the observation object 101. Therefore, it is not necessary to add a marker to the observation object 101.

[第3の実施形態]
第1の実施形態では、観察者が、透明スクリーン100を隔てて観察対象物101の反対側に位置した。しかしながら、透明スクリーン100の代わりに反射型スクリーンを用い、観察者が観察対象物101と同じ側から反射型スクリーンを見てもよい。
[Third Embodiment]
In the first embodiment, the observer is located on the opposite side of the observation object 101 with the transparent screen 100 interposed therebetween. However, a reflective screen may be used instead of the transparent screen 100 so that the observer can see the reflective screen from the same side as the observation object 101.

図9(a)は、第3の実施形態に係る展示システム30の構成を示すブロック図である。展示システム30では、透明スクリーン100の代わりに反射型スクリーン900が使用され、ショーケース200が存在しないこと以外は、第1の実施形態の展示システム10と同様である。   FIG. 9A is a block diagram illustrating a configuration of the exhibition system 30 according to the third embodiment. The display system 30 is the same as the display system 10 of the first embodiment except that a reflective screen 900 is used instead of the transparent screen 100 and the showcase 200 does not exist.

展示システム30においては、例えば図9(b)に示すように、交点Nが算出される。算出のための手順は、第1の実施形態と同様である(図5参照)。   In the exhibition system 30, for example, an intersection N is calculated as shown in FIG. The procedure for calculation is the same as in the first embodiment (see FIG. 5).

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (7)

表示面に画像を表示する表示制御手段と、
観察対象物、前記表示面、及び前記観察対象物の観察者の位置関係を表す位置情報を取得する取得手段と、
を備え、
前記表示制御手段は、前記位置情報に基づき、前記観察対象物の位置と前記観察者の位置とを結ぶ直線と前記表示面との交点を含む所定領域の外に画像を表示する
ことを特徴とする画像表示装置。
Display control means for displaying an image on the display surface;
An acquisition means for acquiring positional information representing the positional relationship of the observation object, the display surface, and the observer of the observation object;
With
The display control means displays an image outside a predetermined area including an intersection of a straight line connecting the position of the observation object and the position of the observer and the display surface based on the position information. An image display device.
前記表示面は、当該表示面の反対側を透過的に視認可能なように構成され、
前記観察対象物は、前記表示面の反対側に配置され、
前記表示制御手段は、前記所定領域の中に画像を表示する場合、当該所定領域の中に表示される画像の透過率を閾値以上にする
ことを特徴とする請求項1に記載の画像表示装置。
The display surface is configured to be transparently visible on the opposite side of the display surface,
The observation object is disposed on the opposite side of the display surface,
The image display apparatus according to claim 1, wherein, when displaying an image in the predetermined area, the display control unit sets the transmittance of the image displayed in the predetermined area to be equal to or greater than a threshold value. .
前記取得手段は、位置検出手段であって、当該位置検出手段に対する前記観察対象物、前記表示面、及び前記観察者の相対位置を検出する位置検出手段を含み、前記位置情報として前記観察対象物、前記表示面、及び前記観察者の当該検出された相対位置を取得する
ことを特徴とする請求項1又は2に記載の画像表示装置。
The acquisition means is position detection means, and includes position detection means for detecting the relative position of the observation object, the display surface, and the observer with respect to the position detection means, and the observation object is the position information. The image display device according to claim 1, wherein the detected relative position of the display surface and the observer is acquired.
前記取得手段は、前記観察対象物の位置に設置される位置検出手段であって、当該位置検出手段に対する前記表示面及び前記観察者の相対位置を検出する位置検出手段を含み、前記位置情報として前記表示面及び前記観察者の当該検出された相対位置を取得する
ことを特徴とする請求項1又は2に記載の画像表示装置。
The acquisition means is position detection means installed at the position of the observation object, and includes position detection means for detecting a relative position of the display surface and the observer with respect to the position detection means, and the position information The image display device according to claim 1, wherein the detected relative positions of the display surface and the observer are acquired.
複数の前記観察者が存在する場合、前記表示制御手段は、前記直線を規定する前記観察者の位置として、前記観察対象物に最も近い観察者の位置を用いる
ことを特徴とする請求項1乃至4のいずれか1項に記載の画像表示装置。
When there are a plurality of observers, the display control unit uses the position of the observer closest to the observation object as the position of the observer defining the straight line. 5. The image display device according to any one of 4.
画像表示装置の制御方法であって、
前記画像表示装置の表示制御手段が、表示面に画像を表示する表示制御工程と、
前記画像表示装置の取得手段が、観察対象物、前記表示面、及び前記観察対象物の観察者の位置関係を表す位置情報を取得する取得工程と、
を備え、
前記表示制御工程において前記表示制御手段は、前記位置情報に基づき、前記観察対象物の位置と前記観察者の位置とを結ぶ直線と前記表示面との交点を含む所定領域の外に画像を表示する
ことを特徴とする制御方法。
A control method for an image display device, comprising:
A display control step in which the display control means of the image display device displays an image on a display surface;
The acquisition unit of the image display device acquires an observation object, the display surface, and position information representing a positional relationship of an observer of the observation object; and
With
In the display control step, the display control means displays an image outside a predetermined area including an intersection of a straight line connecting the position of the observation object and the position of the observer and the display surface based on the position information. A control method characterized by:
コンピュータに請求項6に記載の制御方法の各工程を実行させるためのプログラム。   The program for making a computer perform each process of the control method of Claim 6.
JP2010199409A 2010-09-06 2010-09-06 Image display device and control method thereof Withdrawn JP2012058353A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010199409A JP2012058353A (en) 2010-09-06 2010-09-06 Image display device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010199409A JP2012058353A (en) 2010-09-06 2010-09-06 Image display device and control method thereof

Publications (1)

Publication Number Publication Date
JP2012058353A true JP2012058353A (en) 2012-03-22

Family

ID=46055549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010199409A Withdrawn JP2012058353A (en) 2010-09-06 2010-09-06 Image display device and control method thereof

Country Status (1)

Country Link
JP (1) JP2012058353A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017134170A (en) * 2016-01-26 2017-08-03 大日本印刷株式会社 Model and model projection system
US10297229B2 (en) 2014-12-25 2019-05-21 Sharp Kabushiki Kaisha Display device and control method therefor
CN110114815A (en) * 2016-12-22 2019-08-09 麦克赛尔株式会社 Projection-type image display device and image display method for the device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10297229B2 (en) 2014-12-25 2019-05-21 Sharp Kabushiki Kaisha Display device and control method therefor
JP2017134170A (en) * 2016-01-26 2017-08-03 大日本印刷株式会社 Model and model projection system
CN110114815A (en) * 2016-12-22 2019-08-09 麦克赛尔株式会社 Projection-type image display device and image display method for the device
JPWO2018116468A1 (en) * 2016-12-22 2019-10-24 マクセル株式会社 Projection-type image display device and image display method therefor
US10887564B2 (en) 2016-12-22 2021-01-05 Maxell, Ltd. Projection video display apparatus and video display method therefor
CN110114815B (en) * 2016-12-22 2022-09-06 麦克赛尔株式会社 Projection type image display device and image display method used for the same

Similar Documents

Publication Publication Date Title
US9560327B2 (en) Projection system and projection method
CA2913650C (en) Virtual object orientation and visualization
US9375639B2 (en) Image display system and head-mounted display device
KR102079097B1 (en) Device and method for implementing augmented reality using transparent display
US20190335115A1 (en) Display control device, head-mounted display, and control program
US20210124174A1 (en) Head mounted display, control method for head mounted display, information processor, display device, and program
KR102539427B1 (en) Image processing apparatus, image processing method, and storage medium
US10634918B2 (en) Internal edge verification
JP2015194473A (en) Information display device, information display method, and program
KR20150034558A (en) A head mounted display and the method of controlling the same
US10694115B2 (en) Method, apparatus, and terminal for presenting panoramic visual content
US20180054568A1 (en) Display control method and program for executing the display control method on computer
JP2014225727A (en) Display control device, display control method, and recording medium
CN111095348A (en) Transparent display based on camera
JP2015114798A (en) Information processor, information processing method, and program
JP6509101B2 (en) Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display
JP6020009B2 (en) Head mounted display, method and program for operating the same
JP2004205711A (en) Display device
JP2012058353A (en) Image display device and control method thereof
JP6686319B2 (en) Image projection device and image display system
US10403002B2 (en) Method and system for transforming between physical images and virtual images
KR20140003107A (en) Apparatus and method for providing augmented reality
JP5215211B2 (en) Related information display position specifying system and related information display position specifying program
TWI603225B (en) Viewing angle adjusting method and apparatus of liquid crystal display
CN105609088A (en) Display control method and electronic device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131203