JP2017152764A - Display device, image processing apparatus, and display method - Google Patents

Display device, image processing apparatus, and display method Download PDF

Info

Publication number
JP2017152764A
JP2017152764A JP2016030674A JP2016030674A JP2017152764A JP 2017152764 A JP2017152764 A JP 2017152764A JP 2016030674 A JP2016030674 A JP 2016030674A JP 2016030674 A JP2016030674 A JP 2016030674A JP 2017152764 A JP2017152764 A JP 2017152764A
Authority
JP
Japan
Prior art keywords
image
eye
unit
image data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016030674A
Other languages
Japanese (ja)
Inventor
鈴木 直樹
Naoki Suzuki
直樹 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016030674A priority Critical patent/JP2017152764A/en
Publication of JP2017152764A publication Critical patent/JP2017152764A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To execute processing for displaying a stereoscopic image while enlarging partially, efficiently without causing discomfort of the user.SOLUTION: A projector 100 includes a display unit 110 for displaying a left-eye image and a right-eye image constituting a 3D image, an indication body detector 130 and a drawing control unit 153 for accepting selection of a region for the 3D image displayed by the display unit 110, an image processing device 300 for extracting an image corresponding to a region related to selection, from the left-eye image and right-eye image, and superposing the extracted image, while enlarging, on a predetermined image, and a control unit 150 for controlling the display unit 110 to display the image superposed by the image processing device 300.SELECTED DRAWING: Figure 1

Description

本発明は、表示装置、画像処理装置、及び、表示方法に関する。   The present invention relates to a display device, an image processing device, and a display method.

従来、立体画像を表示する表示装置が知られている。立体視用の画像の一部を拡大すると、拡大部分の視差が拡大し、拡大後に正常な立体視ができなくなる可能性があることが知られている(例えば、特許文献1参照)。特許文献1に開示の立体映像処理装置は、表示映像内の一部の領域である第1の領域が指定された場合に、指定された第1の領域を含み、視差量が所定の範囲内となる領域を拡大表示領域として選択して拡大画像を表示する。第1の領域そのものを拡大表示領域とせず、視差量が所定の範囲内となる領域とすることで、立体視を正常に行うようにしている。   Conventionally, display devices that display stereoscopic images are known. It is known that when a part of an image for stereoscopic viewing is enlarged, the parallax of the enlarged portion is enlarged, and normal stereoscopic viewing may not be possible after the enlargement (see, for example, Patent Document 1). The stereoscopic video processing device disclosed in Patent Literature 1 includes a designated first area and a parallax amount within a predetermined range when a first area that is a partial area in a display video is designated. Is selected as an enlarged display area, and an enlarged image is displayed. The first region itself is not an enlarged display region, but is a region in which the amount of parallax is within a predetermined range, so that stereoscopic viewing is normally performed.

国際公開WO2013/042311号公報International Publication WO2013 / 042311

特許文献1に開示の立体映像処理装置は、指定された領域に基づき拡大表示領域を選択するために複雑な処理を必要とした。また、選択された拡大表示領域が、指定された第1の領域と乖離する可能性があり、ユーザーの違和感を招く可能性があった。
本発明は、上述した事情に鑑みてなされたものであり、立体画像を部分的に拡大して表示する処理を、効率よく、ユーザーの違和感を招かないように実行できるようにすることを目的とする。
The stereoscopic video processing apparatus disclosed in Patent Document 1 requires complicated processing to select an enlarged display area based on a designated area. In addition, the selected enlarged display area may deviate from the designated first area, which may cause the user to feel uncomfortable.
The present invention has been made in view of the above-described circumstances, and an object thereof is to enable the process of partially enlarging and displaying a stereoscopic image to be executed efficiently and without causing the user to feel uncomfortable. To do.

上記目的を達成するために、本発明の表示装置は、立体画像を構成する左目用画像及び右目用画像を表示する表示部と、前記表示部により表示される立体画像に対する領域の選択を受け付ける受け付け部と、前記左目用画像及び前記右目用画像から前記受け付け部で受け付けた選択に係る領域に対応する画像を抽出し、抽出した画像を拡大して、所定の画像に重畳する処理部と、前記処理部により重畳された画像を前記表示部に表示させる表示制御部と、を備えることを特徴とする。
本発明によれば、選択された領域に対応する画像を左目用画像及び右目用画像から抽出し、拡大し、所定の画像に重畳して表示する。これにより、立体画像を部分的に拡大して表示する処理を、効率よく、ユーザーの違和感を招かないように実行できる。
In order to achieve the above object, a display device according to the present invention receives a left-eye image and a right-eye image constituting a stereoscopic image, and accepts selection of a region for the stereoscopic image displayed by the display unit. A processing unit that extracts an image corresponding to a region related to the selection received by the receiving unit from the left-eye image and the right-eye image, enlarges the extracted image, and superimposes the image on a predetermined image; A display control unit that displays the image superimposed by the processing unit on the display unit.
According to the present invention, an image corresponding to the selected region is extracted from the left-eye image and the right-eye image, enlarged, and superimposed on a predetermined image for display. As a result, the process of partially enlarging and displaying the stereoscopic image can be executed efficiently and without causing the user to feel uncomfortable.

また、本発明は、上記表示装置において、前記処理部は、前記左目用画像及び前記右目用画像から抽出した画像を、前記所定の画像としての前記左目用画像に重畳することを特徴とする。
本発明によれば、選択された領域に対応する画像を、左目用画像に重畳して表示することができる。左目用画像及び右目用画像はいわゆる平面画像であるため、選択された領域を拡大する場合に正常な立体視ができなくなる懸念がない。このため、立体画像を部分的に拡大して表示する処理を、効率よく実行できる。
In the display device according to the present invention, the processing unit superimposes the image extracted from the left-eye image and the right-eye image on the left-eye image as the predetermined image.
According to the present invention, an image corresponding to a selected region can be displayed superimposed on the left-eye image. Since the left-eye image and the right-eye image are so-called planar images, there is no concern that normal stereoscopic viewing cannot be performed when the selected area is enlarged. For this reason, the process which expands and displays a stereo image partially can be performed efficiently.

また、本発明は、上記表示装置において、前記処理部は、前記左目用画像及び前記右目用画像から抽出した画像を、前記所定の画像としての前記右目用画像に重畳することを特徴とする。
本発明によれば、選択された領域に対応する画像を、右目用画像に重畳して表示することができる。左目用画像及び右目用画像はいわゆる平面画像であるため、選択された領域を拡大する場合に正常な立体視ができなくなる懸念がない。このため、立体画像を部分的に拡大して表示する処理を、効率よく実行できる。
In the display device according to the present invention, the processing unit superimposes an image extracted from the left-eye image and the right-eye image on the right-eye image as the predetermined image.
According to the present invention, an image corresponding to a selected region can be displayed superimposed on the right-eye image. Since the left-eye image and the right-eye image are so-called planar images, there is no concern that normal stereoscopic viewing cannot be performed when the selected area is enlarged. For this reason, the process which expands and displays a stereo image partially can be performed efficiently.

また、本発明は、上記表示装置において、前記処理部は、前記左目用画像から抽出した画像を、前記所定の画像としての前記左目用画像に重畳し、前記右目用画像から抽出した画像を、前記所定の画像としての前記右目用画像に重畳することを特徴とする。
本発明によれば、選択された領域に対応する画像を、左目用画像又は右目用画像のうち対応する画像に重畳するので、立体画像を部分的に拡大して表示する処理を、効率よく実行できる。
In the display device according to the present invention, the processing unit superimposes the image extracted from the left-eye image on the left-eye image as the predetermined image, and extracts the image extracted from the right-eye image. The image is superimposed on the right-eye image as the predetermined image.
According to the present invention, the image corresponding to the selected region is superimposed on the corresponding image of the left-eye image or the right-eye image, so that the process of partially enlarging and displaying the stereoscopic image is efficiently executed. it can.

また、本発明は、上記表示装置において、前記処理部は、前記左目用画像において前記受け付け部で受け付けた選択に係る領域を拡大した変換左目用画像、及び前記右目用画像から抽出した画像を前記所定の画像としての前記左目用画像に重畳した変換右目用画像を生成する、ことを特徴とする。
本発明によれば、立体画像を部分的に拡大して表示する処理を、効率よく実行できる。
Further, in the display device according to the present invention, the processing unit may include a converted left-eye image obtained by enlarging a selection area received by the receiving unit in the left-eye image, and an image extracted from the right-eye image. A converted right-eye image superimposed on the left-eye image as a predetermined image is generated.
According to the present invention, it is possible to efficiently execute a process of partially enlarging and displaying a stereoscopic image.

また、本発明は、上記表示装置において、前記処理部は、前記左目用画像及び前記右目用画像のそれぞれから抽出した画像の周囲を枠で囲んだ画像を前記所定の画像に重畳する、ことを特徴とする。
本発明によれば、選択された領域の画像を、拡大して枠で囲んだ状態で、見易く表示できる。
In the display device according to the aspect of the invention, the processing unit may superimpose an image surrounded by a frame around an image extracted from each of the left-eye image and the right-eye image on the predetermined image. Features.
According to the present invention, an image of a selected area can be displayed in an easy-to-see manner in an enlarged state surrounded by a frame.

また、本発明は、上記表示装置において、前記処理部は、前記左目用画像及び前記右目用画像のそれぞれから抽出した画像と前記所定の画像との境界をぼかすぼかし処理を行う、ことを特徴とする。
本発明によれば、拡大された画像と所定の画像とを重畳した場合の境界をぼかすことで、見易く表示できる。
Further, the present invention is characterized in that, in the display device, the processing unit performs a blurring process for blurring a boundary between an image extracted from each of the left-eye image and the right-eye image and the predetermined image. To do.
According to the present invention, it is possible to display easily by blurring the boundary when the enlarged image and the predetermined image are superimposed.

また、本発明は、上記表示装置において、前記受け付け部は、前記表示部が前記立体画像を表示する表示面に対する位置指示操作を検出して、前記立体画像に対する領域の選択を受け付ける、ことを特徴とする。
本発明によれば、位置指示操作に対応して、画像の領域を選択できる。
In the display device according to the present invention, the reception unit detects a position instruction operation on a display surface on which the display unit displays the stereoscopic image, and receives selection of an area for the stereoscopic image. And
According to the present invention, an image area can be selected in response to a position instruction operation.

本発明の画像処理装置は、表示部が表示する立体画像に対して領域の選択が行われた場合に、前記立体画像を構成する左目用画像及び右目用画像から、選択された領域に対応する画像を抽出して拡大する画像処理部と、前記画像処理部により拡大した画像を、所定の画像に重畳する画像重畳部と、を備え、前記画像重畳部で重畳した画像を、前記表示部が表示する画像として出力する、ことを特徴とする。
本発明によれば、選択された領域に対応する画像を左目用画像及び右目用画像から抽出し、拡大し、所定の画像に重畳し、この重畳した画像が表示される。このため、立体画像を部分的に拡大して表示する処理を、効率よく、ユーザーの違和感を招かないように実行できる。
The image processing apparatus according to the present invention corresponds to a region selected from a left-eye image and a right-eye image constituting the stereoscopic image when the region is selected for the stereoscopic image displayed by the display unit. An image processing unit that extracts and enlarges an image, and an image superimposing unit that superimposes the image enlarged by the image processing unit on a predetermined image, and the display unit superimposes the image superimposed on the image superimposing unit. It outputs as a picture to display.
According to the present invention, an image corresponding to the selected region is extracted from the left-eye image and the right-eye image, enlarged, superimposed on a predetermined image, and the superimposed image is displayed. For this reason, the process of partially enlarging and displaying the stereoscopic image can be executed efficiently and without causing the user to feel uncomfortable.

本発明の表示方法は、表示部が表示する立体画像に対する領域の選択を受け付けるステップと、前記立体画像を構成する左目用画像及び右目用画像から、前記受け付けるテップで受け付けた選択に係る領域に対応する画像を抽出するステップと、前記抽出するステップで抽出された画像を拡大して所定の画像に重畳するステップと、前記重畳するステップで重畳された画像を前記表示部に表示させるステップと、を有することを特徴とする。
本発明によれば、選択された領域に対応する画像を左目用画像及び右目用画像から抽出し、拡大し、所定の画像に重畳して表示する。これにより、立体画像を部分的に拡大して表示する処理を、効率よく、ユーザーの違和感を招かないような態様で実行できる。
The display method of the present invention corresponds to a step of receiving a selection of a region for a stereoscopic image displayed by the display unit, and a region related to the selection received in the received step from the left-eye image and the right-eye image constituting the stereoscopic image. Extracting the image to be performed, enlarging the image extracted in the extracting step and superimposing the image on a predetermined image, and displaying the image superimposed in the superimposing step on the display unit. It is characterized by having.
According to the present invention, an image corresponding to the selected region is extracted from the left-eye image and the right-eye image, enlarged, and superimposed on a predetermined image for display. Thereby, the process which expands and displays a three-dimensional image efficiently can be performed in the aspect which does not cause a user's uncomfortable feeling efficiently.

表示システムのシステム構成図。The system block diagram of a display system. スクリーンに表示された3D画像を示す図。The figure which shows 3D image displayed on the screen. 右目用FMに書き込まれた切出画像データを示す図。The figure which shows the cutout image data written in FM for right eyes. 左目用FMに書き込まれた左目用画像データを示す図。The figure which shows the image data for left eyes written in FM for left eyes. 左目用FMが記憶する左目用画像データの一部を切出画像データで書き換えた状態を示す図。The figure which shows the state which rewritten some image data for left eyes memorize | stored in FM for left eyes by cut-out image data. スクリーンに表示された重畳画像データを示す図。The figure which shows the superimposition image data displayed on the screen. プロジェクターの動作を示すフローチャート。The flowchart which shows operation | movement of a projector.

以下、図面を参照して本発明の実施形態について説明する。
図1は、表示システム1の構成を示す図である。
表示システム1は、一対の左目用画像と右目用画像とを交互に投射対象に投射するプロジェクター(表示装置)100と、プロジェクター100を見る観察者に装着されるメガネ型の立体視装置50とを備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of the display system 1.
The display system 1 includes a projector (display device) 100 that alternately projects a pair of left-eye images and right-eye images onto a projection target, and a glasses-type stereoscopic device 50 that is worn by an observer who views the projector 100. Prepare.

プロジェクター100が投射対象に交互に投射する立体画像は、視差のある一対の左目用画像のフレームと、右目用画像のフレームとで構成される。プロジェクター100は、左目用画像のフレームと右目用画像のフレームとを十分に速い速度で切り替えて、交互に投射対象に投射する時分割方式で立体画像を投射対象に投射する。プロジェクター100により投射対象に投射された画像(以下、投射画像という)を見る人(観察者)は、立体視装置50を装着して、投射画像を観察する。立体視装置50は、投射対象に投射される画像が立体画像として視認されるようにする装置である。本実施形態の立体視装置50は、左右の目に対応して設けられた一対のシャッターを、プロジェクター100から入力されるシャッター制御信号によって開閉制御するアクティブシャッター方式の装置とする。立体視装置50が備える左右のシャッターの動作により、立体視装置50を装着した観察者の左目には左目用画像だけが見え、右目には右目用画像だけが見える。   The stereoscopic image that the projector 100 projects alternately on the projection target is composed of a pair of parallax frames for the left eye and a frame for the right eye. The projector 100 switches the frame of the left-eye image and the frame of the right-eye image at a sufficiently high speed, and projects the stereoscopic image onto the projection target in a time division manner in which the image is alternately projected onto the projection target. A person (observer) who views an image (hereinafter referred to as a projected image) projected on a projection target by the projector 100 wears the stereoscopic device 50 and observes the projected image. The stereoscopic device 50 is a device that allows an image projected on a projection target to be visually recognized as a stereoscopic image. The stereoscopic device 50 according to the present embodiment is an active shutter type device that controls the opening and closing of a pair of shutters provided corresponding to the left and right eyes by a shutter control signal input from the projector 100. By the operation of the left and right shutters provided in the stereoscopic device 50, only the left-eye image can be seen by the left eye of the observer wearing the stereoscopic device 50, and only the right-eye image can be seen by the right eye.

プロジェクター100は、画像信号の供給元である画像供給装置200に接続される。プロジェクター100は、画像供給装置200から供給される画像信号から取り出した画像データ、又は後述する記憶部157に記憶された画像データに基づく画像をスクリーンSCに投射する。プロジェクター100の設置状態は、スクリーンSCの前方に床置きした床置き設置としてもよいし、又は天井から吊り下げた天吊り設置としてもよい。なお、床置き設置の場合には、床に設置した台の上にプロジェクター100を置く、台置き設置としてもよい。また、投射対象は、建物や物体など、一様に平らではない物体であってもよいし、スクリーンSCや、建物の壁面等の平らな投射面を有するものであってもよい。本実施形態では平面のスクリーンSC(表示面)に投射する場合を例示する。   The projector 100 is connected to an image supply apparatus 200 that is an image signal supply source. The projector 100 projects an image based on image data extracted from an image signal supplied from the image supply device 200 or image data stored in a storage unit 157 described later on the screen SC. The installation state of the projector 100 may be a floor-standing installation placed on the floor in front of the screen SC, or a ceiling-mounted installation suspended from the ceiling. In the case of floor-standing installation, the projector 100 may be placed on a base placed on the floor. The projection target may be an object that is not uniformly flat, such as a building or an object, or may have a flat projection surface such as a screen SC or a wall surface of a building. In this embodiment, the case where it projects on the plane screen SC (display surface) is illustrated.

画像供給装置200には、ビデオ再生装置、DVD(Digital Versatile Disk)再生装置、テレビチューナー装置、CATV(Cable television)のセットトップボックス、ビデオゲーム装置等の映像出力装置、パーソナルコンピューター等を用いることができる。   The image supply device 200 may be a video playback device, a DVD (Digital Versatile Disk) playback device, a TV tuner device, a CATV (Cable television) set top box, a video output device such as a video game device, a personal computer, or the like. it can.

プロジェクター100は、画像供給装置200に接続するインターフェースとして、画像インターフェース部(以下、インターフェースをI/Fと略記する)141を備える。
画像I/F部141は、ケーブルを接続するコネクター及びI/F回路(いずれも図示略)を備え、ケーブルを介して接続された画像供給装置200から供給される所定の伝送フォーマットの画像信号を入力する。入力される画像信号のフォーマットは、例えば、HDMI(登録商標)規格に準拠したサイドバイサイド(Side-by-Side Half)方式、トップアンドボトム(Top-and-Bottom)方式、フレームパッキング(Frame packing)方式などである。解像度は、例えば、720p,1080i,1080p等である。プロジェクター100は、勿論、他のフォーマットを処理し、表示することも可能である。
画像I/F部141は、入力された画像信号から画像データや、当該画像データのフォーマット情報、垂直同期信号、水平同期信号等の情報(以下、画像情報という)を取り出し、取り出した画像データと、画像情報とを画像分離部143に出力する。
The projector 100 includes an image interface unit (hereinafter, the interface is abbreviated as I / F) 141 as an interface connected to the image supply apparatus 200.
The image I / F unit 141 includes a connector for connecting a cable and an I / F circuit (both not shown), and receives an image signal of a predetermined transmission format supplied from the image supply device 200 connected via the cable. input. The format of the input image signal is, for example, a side-by-side (Side-by-Side Half) method, a top-and-bottom method, or a frame packing method that conforms to the HDMI (registered trademark) standard. Etc. The resolution is, for example, 720p, 1080i, 1080p, or the like. Of course, the projector 100 can also process and display other formats.
The image I / F unit 141 extracts image data and information (hereinafter referred to as image information) such as format information, vertical synchronization signal, and horizontal synchronization signal of the image data from the input image signal. The image information is output to the image separation unit 143.

プロジェクター100は、光学的な画像の形成を行い、スクリーンSCに画像を投射(表示)する表示部110を備える。表示部110は、光源としての光源部111、光変調装置112及び投射光学系113を備える。   The projector 100 includes a display unit 110 that forms an optical image and projects (displays) the image on the screen SC. The display unit 110 includes a light source unit 111 as a light source, a light modulation device 112, and a projection optical system 113.

光源部111は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)又はレーザー光源等の光源を備える。また、光源部111は、光源が発した光を光変調装置112に導くリフレクター及び補助リフレクターを備えていてもよい。さらに、光源部111は、投射光の光学特性を高めるためのレンズ群、偏光板、又は光源が発した光の光量を光変調装置112に至る経路上で低減させる調光素子等(いずれも図示略)を備えていてもよい。   The light source unit 111 includes a light source such as a xenon lamp, an ultra high pressure mercury lamp, an LED (Light Emitting Diode), or a laser light source. The light source unit 111 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light modulation device 112. Further, the light source unit 111 includes a lens group for increasing the optical characteristics of the projection light, a polarizing plate, a light control element that reduces the amount of light emitted from the light source on the path to the light modulation device 112 (both shown) Abbreviation) may be provided.

光源部111は、光源駆動部121により駆動される。光源駆動部121は、内部バス160に接続される。光源駆動部121は、制御部150の制御に従って、光源部111の光源を点灯及び消灯させる。   The light source unit 111 is driven by the light source driving unit 121. The light source driving unit 121 is connected to the internal bus 160. The light source drive unit 121 turns on and off the light source of the light source unit 111 under the control of the control unit 150.

光変調装置112は、例えばRGBの三原色に対応した3枚の液晶パネルを備える。光源部111が発する光はRGBの3色の色光に分離され、対応する液晶パネルに入射される。3枚の液晶パネルは、透過型の液晶パネルであり、透過する光を変調して画像光を生成する。各液晶パネルを通過して変調された画像光は、クロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系113に射出される。   The light modulation device 112 includes, for example, three liquid crystal panels corresponding to the three primary colors RGB. The light emitted from the light source unit 111 is separated into three color lights of RGB and is incident on the corresponding liquid crystal panel. The three liquid crystal panels are transmissive liquid crystal panels, and modulate the transmitted light to generate image light. The image light modulated by passing through each liquid crystal panel is combined by a combining optical system such as a cross dichroic prism and emitted to the projection optical system 113.

光変調装置112には、光変調装置112の液晶パネルを駆動する光変調装置駆動部122が接続される。光変調装置駆動部122は、内部バス160に接続される。
光変調装置駆動部122は、画像重畳部149から入力される画像データに基づいてR,G,Bの表示画像信号をそれぞれに生成する。光変調装置駆動部122は、生成したR,G,Bの表示画像信号に基づいて、光変調装置112の対応する液晶パネルを駆動し、各液晶パネルに画像を描画する。
The light modulation device 112 is connected to the light modulation device 112 for driving the liquid crystal panel of the light modulation device 112. The light modulator driving unit 122 is connected to the internal bus 160.
The light modulator driving unit 122 generates R, G, and B display image signals based on the image data input from the image superimposing unit 149, respectively. The light modulator driving unit 122 drives the corresponding liquid crystal panel of the light modulator 112 based on the generated R, G, and B display image signals, and draws an image on each liquid crystal panel.

投射光学系113は、光変調装置112により変調された画像光をスクリーンSC方向に投射して、スクリーンSC上に結像させるレンズ群を備える。また、投射光学系113は、スクリーンSCの投射画像の拡大・縮小及び焦点の調整を行うズーム機構、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。   The projection optical system 113 includes a lens group that projects the image light modulated by the light modulation device 112 toward the screen SC and forms an image on the screen SC. Further, the projection optical system 113 may include a zoom mechanism for enlarging / reducing the projected image of the screen SC and adjusting the focus, and a focus adjusting mechanism for adjusting the focus.

プロジェクター100は、無線通信部(送信部)125を備える。無線通信部125は、図示しないアンテナやRF(Radio Frequency)回路等を備え、制御部150の制御の下、外部の装置との間で無線通信を実行する。無線通信部125は、内部バス160を介して制御部150に接続される。無線通信部125の無線通信方式は、例えば無線LAN(Local Area Network)、Bluetooth(登録商標)、UWB(Ultra Wide Band)、赤外線通信等の近距離無線通信方式、又は携帯電話回線を利用した無線通信方式を採用できる。   The projector 100 includes a wireless communication unit (transmission unit) 125. The wireless communication unit 125 includes an antenna (not shown), an RF (Radio Frequency) circuit, and the like, and performs wireless communication with an external device under the control of the control unit 150. The wireless communication unit 125 is connected to the control unit 150 via the internal bus 160. The wireless communication method of the wireless communication unit 125 is, for example, a wireless LAN (Local Area Network), Bluetooth (registered trademark), UWB (Ultra Wide Band), near field communication methods such as infrared communication, or wireless using a cellular phone line. A communication method can be adopted.

プロジェクター100は、操作パネル126及び入力処理部127を備える。入力処理部127は、内部バス160に接続される。
ユーザーインターフェースとして機能する操作パネル126は、各種の操作キーや、液晶パネルにて構成された表示画面を備える。入力処理部127は、操作パネル126に表示された操作キーが操作されると、操作されたキーに対応したデータを制御部150に出力する。また、入力処理部127は、制御部150の制御に従って、操作パネル126に各種画面を表示させる。
また、操作パネル126には、操作パネル126への接触を検出するタッチセンサーが重ね合わされて一体形成される。入力処理部127は、ユーザーの指等が接触した操作パネル126の位置を入力位置として検出し、検出した入力位置に対応したデータを制御部150に出力する。
The projector 100 includes an operation panel 126 and an input processing unit 127. The input processing unit 127 is connected to the internal bus 160.
The operation panel 126 functioning as a user interface includes various operation keys and a display screen constituted by a liquid crystal panel. When the operation key displayed on the operation panel 126 is operated, the input processing unit 127 outputs data corresponding to the operated key to the control unit 150. Further, the input processing unit 127 displays various screens on the operation panel 126 under the control of the control unit 150.
The operation panel 126 is integrally formed with a touch sensor that detects contact with the operation panel 126. The input processing unit 127 detects the position of the operation panel 126 touched by the user's finger or the like as the input position, and outputs data corresponding to the detected input position to the control unit 150.

また、プロジェクター100は、ユーザーが使用するリモコン5から送信される赤外線信号を受光するリモコン受光部128を備える。リモコン受光部128は、入力処理部127に接続される。
リモコン受光部128は、リモコン5から送信される赤外線信号を受光する。入力処理部127は、リモコン受光部128が受光した赤外線信号をデコードして、リモコン5における操作内容を示すデータを生成し、制御部150に出力する。
入力処理部127は、操作パネル126及びリモコン5による操作を受け付けるので、本発明の「受け付け部」に相当する。この受け付け部には、操作パネル126及びリモコン5を含んでもよい。
The projector 100 also includes a remote control light receiving unit 128 that receives an infrared signal transmitted from the remote controller 5 used by the user. The remote control light receiving unit 128 is connected to the input processing unit 127.
The remote control light receiving unit 128 receives an infrared signal transmitted from the remote control 5. The input processing unit 127 decodes the infrared signal received by the remote control light receiving unit 128, generates data indicating the operation content in the remote control 5, and outputs the data to the control unit 150.
The input processing unit 127 receives operations by the operation panel 126 and the remote controller 5 and corresponds to the “accepting unit” of the present invention. The reception unit may include the operation panel 126 and the remote controller 5.

プロジェクター100は、スクリーンSCに投射された投射画像に対する指示体70の操作(位置指示操作)より指示される操作位置を検出する指示体検出部130を備える。指示体検出部130は、撮影部131と位置検出部132とを備える。
指示体70は、例えば、棒状の軸部を有するペン型のデバイスであり、プロジェクター100を操作するユーザーが手に持って使用する。本実施形態では、指示体70としてペン型のデバイスを使用する場合を例に挙げて説明するが、指示体70は、ペン型のデバイスに限定されない。指示体70には、例えば、指示棒(図示略)等の棒状の指示体であってもよいし、操作者の手や指を指示体として検出することもできる。
The projector 100 includes an indicator detection unit 130 that detects an operation position instructed by an operation (position instruction operation) of the indicator 70 with respect to the projection image projected on the screen SC. The indicator detection unit 130 includes an imaging unit 131 and a position detection unit 132.
The indicator 70 is, for example, a pen-type device having a rod-shaped shaft portion, and is used by a user operating the projector 100 by hand. In this embodiment, a case where a pen-type device is used as the indicator 70 will be described as an example. However, the indicator 70 is not limited to a pen-type device. The indicator 70 may be, for example, a rod-shaped indicator such as an indicator rod (not shown), or an operator's hand or finger can be detected as the indicator.

撮影部131は、スクリーンSCを撮影するデジタルカメラであり、撮影画像データを生成する。撮影部131の撮影範囲すなわち画角は、スクリーンSCの全体又はスクリーンSCを含む範囲であることが好ましい。
撮影部131は、可視光による撮影を行うものに限定されず、赤外光を撮影するカメラであってもよい。指示体70に、赤外線を発光する発光部を設けて、発光部の発光を撮影部131により撮影し、指示体70の操作位置を検出する構成であってもよい。
The imaging unit 131 is a digital camera that captures the screen SC and generates captured image data. The imaging range, that is, the angle of view of the imaging unit 131 is preferably a range including the entire screen SC or the screen SC.
The photographing unit 131 is not limited to the one that performs photographing with visible light, and may be a camera that photographs infrared light. The indicator 70 may be provided with a light emitting unit that emits infrared rays, and the light emission of the light emitting unit is photographed by the photographing unit 131 to detect the operation position of the indicator 70.

位置検出部132は、指示体70の操作により指示される操作位置を検出する。位置検出部132は、撮影部131の撮影画像データを解析して、撮影画像から指示体70の画像を検出する。撮影画像に指示体70の画像が含まれる場合、位置検出部132は、指示体70の先端の位置を検出して、検出した位置の座標を算出する。位置検出部132が算出する座標は、撮影画像データ上での指示体70の操作位置を示す座標である。位置検出部132は、検出した撮影画像データ上での操作位置を示す座標を制御部150に出力する。
指示体検出部130は、指示体70による操作を受け付けるので、本発明の「受け付け部」に相当する。また、後述する描画制御部153も「受け付け部」に相当する。
The position detection unit 132 detects the operation position indicated by the operation of the indicator 70. The position detection unit 132 analyzes the captured image data of the imaging unit 131 and detects the image of the indicator 70 from the captured image. When the photographed image includes the image of the indicator 70, the position detection unit 132 detects the position of the tip of the indicator 70 and calculates the coordinates of the detected position. The coordinates calculated by the position detection unit 132 are coordinates indicating the operation position of the indicator 70 on the captured image data. The position detection unit 132 outputs coordinates indicating the operation position on the detected captured image data to the control unit 150.
The indicator detection unit 130 receives an operation by the indicator 70, and thus corresponds to the “accepting unit” of the present invention. In addition, a drawing control unit 153 to be described later also corresponds to the “accepting unit”.

プロジェクター100は、シャッター制御部135を備える。シャッター制御部135は、後述する左目用画像と右目用画像との切り替わりのタイミングを示すタイミング信号を画像処理部145から入力する。シャッター制御部135は、タイミング信号に基づいて、立体視装置50に設けられた左右一対のシャッターを開閉させるシャッター制御信号を生成し、生成したシャッター制御信号を無線で立体視装置50に送信する。
立体視装置50は、シャッター制御信号を無線で受信する無線受信部(図史略)を備え、受信したシャッター制御信号に基づいて、左右の目に対応する一対のシャッターの開閉動作を交互に行う。
The projector 100 includes a shutter control unit 135. The shutter control unit 135 inputs from the image processing unit 145 a timing signal indicating the timing of switching between a left-eye image and a right-eye image, which will be described later. The shutter control unit 135 generates a shutter control signal for opening and closing a pair of left and right shutters provided in the stereoscopic device 50 based on the timing signal, and transmits the generated shutter control signal to the stereoscopic device 50 wirelessly.
The stereoscopic device 50 includes a wireless reception unit (not illustrated) that wirelessly receives a shutter control signal, and alternately opens and closes a pair of shutters corresponding to the left and right eyes based on the received shutter control signal. .

プロジェクター100は、画像処理系を備える。画像処理系は、プロジェクター100の全体を統括的に制御する制御部150を中心に構成される。画像処理系は、制御部150の他に、画像分離部143、画像処理部145、フレームメモリー147、画像重畳部149及び記憶部157を備える。フレームメモリー147は、左目用フレームメモリー(以下、左目用FMと表記する)1471と、右目用フレームメモリー(以下、右目用FMと表記する)1472とを備える。制御部150、画像分離部143、画像処理部145、画像重畳部149及び記憶部157は、内部バス160に接続される。
画像処理部145、左目用FM1471、右目用FM1472及び画像重畳部149は、画像処理装置300に相当する。画像処理装置300は、本発明の「処理部」及び「画像処理装置」に相当し、制御部150は表示制御部に相当する。
The projector 100 includes an image processing system. The image processing system is configured with a control unit 150 that controls the entire projector 100 as a whole. In addition to the control unit 150, the image processing system includes an image separation unit 143, an image processing unit 145, a frame memory 147, an image superimposing unit 149, and a storage unit 157. The frame memory 147 includes a left-eye frame memory (hereinafter referred to as “left-eye FM”) 1471 and a right-eye frame memory (hereinafter referred to as “right-eye FM”) 1472. The control unit 150, the image separation unit 143, the image processing unit 145, the image superimposing unit 149, and the storage unit 157 are connected to the internal bus 160.
The image processing unit 145, the left-eye FM 1471, the right-eye FM 1472, and the image superimposing unit 149 correspond to the image processing device 300. The image processing device 300 corresponds to the “processing unit” and “image processing device” of the present invention, and the control unit 150 corresponds to the display control unit.

画像分離部143には、画像I/F部141から画像データ及び画像情報が入力される。
画像分離部143は、入力された画像情報に基づいて、画像データが立体視用の3D画像データであるか否かを判定する。画像分離部143は、画像データが3D画像データである場合には、画像データの画像フォーマットを判定する。画像供給装置200から送信される画像信号には、様々な画像フォーマットが存在する。例えば、1フレーム期間内で左目用画像データの後に右目用画像データを送出するフレームパッキング方式や、1水平期間内で左目用画像データの1ラインの後に右目用画像データの1ラインを送出するサイドバイサイド方式等が存在する。さらに、各画像フォーマットの中でも、映像のサイズや走査方式(インターレース/プログレッシブ)等が種々存在する。
画像分離部143は、画像データが3D画像データである場合には、画像データに対しスケーリング処理やIP(Interlace/Progressive)変換処理等の処理を施す。画像分離部143は、画像データに変換処理を施して、1フレームサイズの左目用画像データと、1フレームサイズの右目用画像データとを生成する。画像分離部143は、生成した左目用画像データ及び右目用画像データと、画像情報とを画像処理部145に出力する。
Image data and image information are input from the image I / F unit 141 to the image separation unit 143.
The image separation unit 143 determines whether or not the image data is stereoscopic 3D image data based on the input image information. When the image data is 3D image data, the image separation unit 143 determines the image format of the image data. There are various image formats in the image signal transmitted from the image supply apparatus 200. For example, a frame packing method in which image data for right eye is transmitted after image data for left eye within one frame period, or side by side in which one line of image data for right eye is transmitted after one line of image data for left eye within one horizontal period. There are methods. Further, among each image format, there are various video sizes, scanning methods (interlace / progressive), and the like.
When the image data is 3D image data, the image separation unit 143 performs processing such as scaling processing and IP (Interlace / Progressive) conversion processing on the image data. The image separation unit 143 performs a conversion process on the image data to generate 1-frame size left-eye image data and 1-frame size right-eye image data. The image separation unit 143 outputs the generated left-eye image data and right-eye image data, and image information to the image processing unit 145.

画像処理部145は、画像分離部143から入力される左目用画像データを、左目用FM1471又は右目用FM1472に書き込み、右目用画像データを、右目用FM1472に書き込む。画像処理部145は、書き込んだ画像データに対して画像処理を実行する。画像処理部145は、処理後の画像データをフレームメモリー147から読み出して、画像重畳部149に出力する。
画像処理部145が実行する処理は、例えば、解像度変換処理、デジタルズーム処理、色調補正処理、輝度補正処理、台形歪み補正処理等である。画像処理部145は、制御部150により指定された処理を実行し、必要に応じて、制御部150から入力されるパラメーターを使用して処理を行う。また、上記の処理のうち複数の処理を組み合わせて実行することも勿論可能である。
The image processing unit 145 writes the left-eye image data input from the image separation unit 143 into the left-eye FM 1471 or the right-eye FM 1472, and writes the right-eye image data into the right-eye FM 1472. The image processing unit 145 performs image processing on the written image data. The image processing unit 145 reads out the processed image data from the frame memory 147 and outputs it to the image superimposing unit 149.
The processing executed by the image processing unit 145 is, for example, resolution conversion processing, digital zoom processing, color tone correction processing, luminance correction processing, and trapezoidal distortion correction processing. The image processing unit 145 performs processing specified by the control unit 150 and performs processing using parameters input from the control unit 150 as necessary. Of course, it is possible to execute a combination of a plurality of processes.

また、画像処理部145には、画像データの一部を拡大させる部分拡大の指示と、部分拡大させる範囲を指定する範囲指定情報と、部分拡大させる範囲の拡大率を指定する情報(以下、拡大率指定情報という)とが制御部150から入力される。画像処理部145は、これらの指示や情報が入力されると、左目用FM1471及び右目用FM1472のいずれか一方から、範囲指定情報により指定された範囲の画像データを切り出す。画像処理部145は、切り出した画像データを、拡大率指定情報により指定された拡大率で拡大させる。   The image processing unit 145 also includes a partial enlargement instruction for enlarging a part of the image data, range designation information for designating a range for partial enlargement, and information for designating an enlargement ratio of the range for partial enlargement (hereinafter, enlargement). Is input from the control unit 150. When these instructions and information are input, the image processing unit 145 cuts out image data in a range designated by the range designation information from either the left eye FM 1471 or the right eye FM 1472. The image processing unit 145 enlarges the cut-out image data at an enlargement rate designated by the enlargement rate designation information.

記憶部157は、フラッシュメモリー、EEPROM等の不揮発性のメモリーにより構成される。記憶部157は、制御部150が処理するデータや制御部150が実行する制御プログラムを不揮発的に記憶する。また、記憶部157は、画像処理部145が実行する各種処理の設定値や、制御部150が参照するテーブルを記憶する。さらに、記憶部157は、後述するキャリブレーション制御部152がキャリブレーションに使用するキャリブレーション画像を記憶する。
また、記憶部157に外部から供給される画像データを記憶させておくこともできる。記憶部157に記憶させた画像データの表示要求を操作パネル126又はリモコン5により受け付けると、制御部150は、記憶部157から表示要求のあった画像データを読み出し、画像処理部145に出力する。
The storage unit 157 includes a nonvolatile memory such as a flash memory or an EEPROM. The storage unit 157 stores data processed by the control unit 150 and a control program executed by the control unit 150 in a nonvolatile manner. In addition, the storage unit 157 stores setting values for various processes executed by the image processing unit 145 and a table referred to by the control unit 150. Furthermore, the storage unit 157 stores a calibration image used by the calibration control unit 152 (to be described later) for calibration.
In addition, image data supplied from the outside can be stored in the storage unit 157. When the display request for the image data stored in the storage unit 157 is received by the operation panel 126 or the remote controller 5, the control unit 150 reads out the image data requested for display from the storage unit 157 and outputs it to the image processing unit 145.

制御部150は、ハードウェアとしてCPU、ROM及びRAM(いずれも図示略)を備える。ROMは、フラッシュROM等の不揮発性の記憶装置であり、OS(Operating System)等の制御プログラム及びデータを格納する。RAMは、CPUのワークエリアを構成する。CPUは、ROMや記憶部157から読み出した制御プログラムをRAMに展開し、展開した制御プログラムを実行してプロジェクター100の各部を制御する。   The control unit 150 includes a CPU, a ROM, and a RAM (all not shown) as hardware. The ROM is a non-volatile storage device such as a flash ROM, and stores a control program such as an OS (Operating System) and data. The RAM constitutes a work area of the CPU. The CPU expands the control program read from the ROM and the storage unit 157 in the RAM, and executes the expanded control program to control each unit of the projector 100.

また、制御部150は、機能ブロックとして、投射制御部151、キャリブレーション制御部152、描画制御部153、拡大制御部154を備える。これらの機能ブロックは、ROMや記憶部157が記憶する制御プログラムをCPUが実行することで実現される。   The control unit 150 includes a projection control unit 151, a calibration control unit 152, a drawing control unit 153, and an enlargement control unit 154 as functional blocks. These functional blocks are realized by the CPU executing a control program stored in the ROM or the storage unit 157.

投射制御部151は、プロジェクター100の各部を制御して、スクリーンSCに画像を投射させる。例えば、投射制御部151は、画像処理部145を制御して、左目用画像データ及び右目用画像データに対する画像処理を実行させる。この際、投射制御部151は、画像処理部145が実行する画像処理に必要なパラメーターを記憶部157から読み出して画像処理部145に渡してもよい。   The projection control unit 151 controls each unit of the projector 100 to project an image on the screen SC. For example, the projection control unit 151 controls the image processing unit 145 to execute image processing on the left-eye image data and the right-eye image data. At this time, the projection control unit 151 may read parameters necessary for image processing executed by the image processing unit 145 from the storage unit 157 and pass them to the image processing unit 145.

キャリブレーション制御部152は、スクリーンSCに投射された投射画像に対する指示体70の指示位置を特定するキャリブレーションを実行する。キャリブレーションとは、例えば、フレームメモリー147に書き込まれた画像データにおける位置と、撮影部131により撮影された撮影画像データ上の位置とを対応付ける処理である。
キャリブレーション制御部152は、例えば、予め設定されたマークが所定間隔で形成されたキャリブレーション画像データを記憶部157から読み出し、スクリーンSCにキャリブレーション画像を投射させる。キャリブレーション制御部152は、指示体検出部130を制御して撮影部131に撮影を実行させる。キャリブレーション制御部152は、撮影部131により撮影された撮影画像データを指示体検出部130から取得する。キャリブレーション制御部152は、取得した撮影画像データからマークを検出し、各マークの重心位置を各マークの座標値として取得する。キャリブレーション制御部152は、撮影画像データから検出されたマークと、フレームメモリー147に書き込まれたキャリブレーション画像のマークとの対応付けを行う。キャリブレーション制御部152は、この対応付けにより、フレームメモリー147に書き込まれた画像データにおける位置と、撮影部131が撮影する撮影画像データ上の位置とを対応付けるキャリブレーションデータを生成する。
The calibration control unit 152 executes calibration for specifying the indication position of the indicator 70 with respect to the projection image projected on the screen SC. For example, the calibration is a process of associating a position in the image data written in the frame memory 147 with a position on the photographed image data photographed by the photographing unit 131.
For example, the calibration control unit 152 reads calibration image data in which preset marks are formed at predetermined intervals from the storage unit 157 and causes the calibration image to be projected on the screen SC. The calibration control unit 152 controls the pointer detection unit 130 to cause the photographing unit 131 to perform photographing. The calibration control unit 152 acquires captured image data captured by the capturing unit 131 from the indicator detection unit 130. The calibration control unit 152 detects a mark from the acquired captured image data, and acquires the gravity center position of each mark as the coordinate value of each mark. The calibration control unit 152 associates the mark detected from the captured image data with the mark of the calibration image written in the frame memory 147. Based on this association, the calibration control unit 152 generates calibration data that associates the position in the image data written in the frame memory 147 with the position on the captured image data captured by the capturing unit 131.

描画制御部153は、撮影画像データ上での操作位置を示す座標を指示体検出部130から入力する。描画制御部153は、キャリブレーションデータを用いて、撮影画像データ上での操作位置を示す座標を、フレームメモリー147における座標に変換する。
描画制御部153は、変換したフレームメモリー147における座標に基づいて、指示体70により指定された位置を特定し、特定した位置に、文字や図形、記号等を描画するように画像処理部145に指示する。また、描画制御部153は、変換したフレームメモリー147における座標の履歴を作成する。描画制御部153は、作成した座標の履歴に基づいて、指示体70により指定された領域を検出し、検出した領域を示す範囲指定情報を生成する。描画制御部153が検出する領域は、ユーザーが指示体70を用いて指定したスクリーンSCの領域に対応するフレームメモリー147の領域である。より具体的には、指示体70により指定されたスクリーンSCの領域に表示される画像が書き込まれたフレームメモリー147の領域である。
描画制御部153は、生成した範囲指定情報を拡大制御部154に出力する。
The drawing control unit 153 inputs coordinates indicating the operation position on the captured image data from the indicator detection unit 130. The drawing control unit 153 converts the coordinates indicating the operation position on the captured image data into coordinates in the frame memory 147 using the calibration data.
The drawing control unit 153 identifies the position specified by the indicator 70 based on the converted coordinates in the frame memory 147, and causes the image processing unit 145 to draw characters, figures, symbols, and the like at the specified position. Instruct. Also, the drawing control unit 153 creates a history of coordinates in the converted frame memory 147. The drawing control unit 153 detects the area designated by the indicator 70 based on the created coordinate history, and generates range designation information indicating the detected area. The area detected by the drawing control unit 153 is an area of the frame memory 147 corresponding to the area of the screen SC designated by the user using the indicator 70. More specifically, this is an area of the frame memory 147 in which an image to be displayed in the area of the screen SC designated by the indicator 70 is written.
The drawing control unit 153 outputs the generated range designation information to the enlargement control unit 154.

図2は、スクリーンに表示された3D画像を示す図である。
ユーザーは、指示体70を使用して、3D画像が投射されたスクリーンSC上の範囲を指定する。図2には、指示体70により指定されたスクリーンSC上の範囲を破線で囲まれた範囲Aで示す。
プロジェクター100は、撮影部131によりスクリーンSCを撮影して撮影画像データを生成する。位置検出部132及び制御部150(描画制御部153)は、撮影画像データに基づき、指定された範囲Aに対応する左目用FM1471及び右目用FM1472の範囲を検出する。
FIG. 2 is a diagram illustrating a 3D image displayed on the screen.
The user uses the indicator 70 to designate a range on the screen SC on which the 3D image is projected. In FIG. 2, a range on the screen SC designated by the indicator 70 is indicated by a range A surrounded by a broken line.
The projector 100 captures the screen SC by the capturing unit 131 and generates captured image data. The position detection unit 132 and the control unit 150 (drawing control unit 153) detect the range of the left-eye FM 1471 and the right-eye FM 1472 corresponding to the specified range A based on the captured image data.

拡大制御部154には、入力処理部127から部分拡大を指示する操作信号が入力される。ユーザーにより、操作パネル126又はリモコン5が操作されると、入力処理部127は、受け付けた操作に対応した操作信号を制御部150に出力する。
拡大制御部154は、部分拡大を指示する操作信号が入力されると、ユーザーが指示体70を操作して指定する操作位置を描画制御部153に検出させる。部分拡大の指示とは、スクリーンSCに投射された画像の一部を選択して、選択した画像を拡大させる指示である。拡大制御部154は、描画制御部153から範囲指定情報が入力されると、入力された範囲指定情報に、部分拡大の指示と、拡大率指定情報とを付加して画像処理部145に出力する。
また、拡大制御部154は、部分拡大の指示を受け付けると、画像重畳部149に、範囲指定情報と、画像データの重畳を指示する重畳指示とを出力する。
The enlargement control unit 154 receives an operation signal instructing partial enlargement from the input processing unit 127. When the operation panel 126 or the remote controller 5 is operated by the user, the input processing unit 127 outputs an operation signal corresponding to the received operation to the control unit 150.
When an operation signal instructing partial enlargement is input, the enlargement control unit 154 causes the drawing control unit 153 to detect an operation position designated by the user operating the indicator 70. The partial enlargement instruction is an instruction to select a part of the image projected on the screen SC and enlarge the selected image. When the range designation information is input from the drawing control unit 153, the enlargement control unit 154 adds a partial enlargement instruction and enlargement rate designation information to the input range designation information and outputs the result to the image processing unit 145. .
In addition, when the enlargement control unit 154 receives a partial enlargement instruction, the enlargement control unit 154 outputs range designation information and a superimposition instruction that instructs superimposition of image data to the image superimposing unit 149.

画像処理部145は、画像分離部143から入力される左目用画像データを左目用FM1471に書き込み、左目用画像データ又は右目用画像データを右目用FM1472に書き込む。
画像処理部145は、拡大制御部154から範囲指定情報と、部分拡大の指示と、拡大率指定情報とが入力されると、処理対象として設定された右目用FM1472に書き込まれた画像データから、範囲指定情報により指定された範囲の画像データを切り出す。切り出された画像データを、以下では切出画像データという。さらに、画像処理部145は、切出画像データを、拡大率指定情報により指定された拡大率で拡大させる。
そして、画像処理部145は、右目用FM1472から拡大された切出画像データを読み出して画像重畳部149に出力する。
The image processing unit 145 writes the left-eye image data input from the image separation unit 143 into the left-eye FM 1471, and writes the left-eye image data or the right-eye image data into the right-eye FM 1472.
When the range designation information, the partial enlargement instruction, and the enlargement ratio designation information are input from the enlargement control unit 154, the image processing unit 145 determines from the image data written in the right eye FM 1472 set as the processing target. Cut out the image data in the range specified by the range specification information. The cut image data is hereinafter referred to as cut image data. Further, the image processing unit 145 enlarges the cut-out image data at an enlargement rate designated by the enlargement rate designation information.
Then, the image processing unit 145 reads out the extracted image data from the right-eye FM 1472 and outputs it to the image superimposing unit 149.

なお、この実施形態では、予め右目用FM1472を処理対象として設定して処理を行う場合を説明するが、左目用FM1471を処理対象として設定して処理を行うこともできる。また、拡大制御部154が、左目用FM1471又は右目用FM1472を選択し、選択した左目用FM1471又は右目用FM1472を画像処理部145に通知してもよい。   In this embodiment, a case is described in which processing is performed by setting the right-eye FM 1472 as a processing target in advance. However, processing may be performed by setting the left-eye FM 1471 as a processing target. Further, the enlargement control unit 154 may select the left-eye FM 1471 or the right-eye FM 1472, and notify the image processing unit 145 of the selected left-eye FM 1471 or right-eye FM 1472.

また、画像処理部145は、前回の処理で、右目用FM1472に画像データとして右目用画像データを書き込んだ場合、今回の処理では、画像分離部143から入力される左目用画像データを左目用FM1471及び右目用FM1472に書き込む。画像処理部145は、画像分離部143から入力される右目用画像データは破棄する。
そして、画像処理部145は、右目用FM1472から、範囲指定情報により指定された範囲の左目用画像データを切り出して切出画像データを生成する。さらに、画像処理部145は、生成した切出画像データを、拡大率指定情報に指定された拡大率で拡大する。
Further, when the right-eye image data is written as image data in the right-eye FM 1472 in the previous process, the image processing unit 145 converts the left-eye image data input from the image separation unit 143 into the left-eye FM 1471 in the current process. And write to the right-eye FM 1472. The image processing unit 145 discards the right-eye image data input from the image separation unit 143.
Then, the image processing unit 145 cuts out the left-eye image data in the range designated by the range designation information from the right-eye FM 1472 and generates cut-out image data. Further, the image processing unit 145 enlarges the generated cut-out image data at the enlargement rate designated in the enlargement rate designation information.

また、画像処理部145は、前回の処理で、左目用画像データを右目用FM1472に書き込んだ場合、今回の処理では、画像分離部143から入力される左目用画像データを左目用FM1471に書き込み、右目用画像データを右目用FM1472に書き込む。
そして、画像処理部145は、同様に、右目用FM1472から、範囲指定情報により指定された範囲の右目用画像データを切り出して切出画像データを生成する。さらに、画像処理部145は、生成した切出画像データを、拡大率指定情報により指定された拡大率で拡大する。
図3は、右目用FM1472に書き込まれた切出画像データを示す図である。より詳細には、右目用FM1472に書き込まれた画像データ(右目用画像データ又は左目用画像データ)から、範囲指定情報により指定された範囲の画像データを切り出し、切り出した切出画像データを拡大率指定情報により指定された拡大率で拡大した切出画像データを示す。
なお、図3に示す破線は、切出画像データである「EF」の範囲を示す破線である。
Further, when the image processing unit 145 writes the left-eye image data in the right-eye FM 1472 in the previous processing, in the current processing, the image processing unit 145 writes the left-eye image data input from the image separation unit 143 in the left-eye FM 1471, The right-eye image data is written into the right-eye FM 1472.
Similarly, the image processing unit 145 cuts out the right-eye image data in the range specified by the range specification information from the right-eye FM 1472 and generates cut-out image data. Further, the image processing unit 145 enlarges the generated cut-out image data at an enlargement rate designated by the enlargement rate designation information.
FIG. 3 is a diagram illustrating the cut-out image data written in the right-eye FM 1472. More specifically, from the image data (right-eye image data or left-eye image data) written in the right-eye FM 1472, image data in the range specified by the range specification information is cut out, and the cut-out cut-out image data is expanded. The cut-out image data enlarged by the enlargement ratio designated by the designation information is shown.
The broken line shown in FIG. 3 is a broken line indicating the range of “EF” that is the cut-out image data.

また、画像処理部145は、例えば画像情報に含まれる垂直同期信号等の信号に従って、表示部110が表示する画像の切り替わりを示すタイミング信号を生成する。画像処理部145は、生成したタイミング信号をシャッター制御部135に出力する。
立体画像を表示する場合、1枚の立体画像を構成する一対の左目用画像及び右目用画像を交互にスクリーンSCに投射する。1枚の立体画像を構成する一対の左目用画像及び右目用画像の表示に要する期間を1フレーム期間という。1フレーム期間は、左目用画像が表示されるサブフレーム期間と、右目用画像が表示されるサブフレーム期間との合計2つのサブフレーム期間によって構成される。画像処理部145は、サブフレーム期間が切り替わるタイミングに同期したタイミング信号を生成してシャッター制御部135に出力する。
Further, the image processing unit 145 generates a timing signal indicating switching of images displayed on the display unit 110 according to a signal such as a vertical synchronization signal included in the image information. The image processing unit 145 outputs the generated timing signal to the shutter control unit 135.
When displaying a stereoscopic image, a pair of left-eye images and right-eye images constituting one stereoscopic image are alternately projected on the screen SC. A period required to display a pair of left-eye images and right-eye images constituting one stereoscopic image is referred to as one frame period. One frame period is composed of a total of two subframe periods, a subframe period in which the left-eye image is displayed and a subframe period in which the right-eye image is displayed. The image processing unit 145 generates a timing signal synchronized with the timing at which the subframe period is switched and outputs the timing signal to the shutter control unit 135.

画像処理部145は、プロジェクター100に入力される画像データが3D画像データである場合、垂直同期信号等の信号に従って左目用FM1471及び右目用FM1472から交互に画像データを読み出し、画像重畳部149に送る。また、画像処理部145は、画像データが3D画像データである場合、左目用FM1471に書き込まれた画像データの読み出しは行わず、右目用FM1472に書き込まれた切出画像データを読み出し、画像重畳部149に送る構成であってもよい。以下では、後者の場合、すなわち、右目用FM1472から画像データを読み出し画像重畳部149に送る場合を例に説明する。   When the image data input to the projector 100 is 3D image data, the image processing unit 145 alternately reads the image data from the left-eye FM 1471 and the right-eye FM 1472 according to a signal such as a vertical synchronization signal and sends the image data to the image superimposing unit 149. . Further, when the image data is 3D image data, the image processing unit 145 does not read out the image data written in the left-eye FM 1471, but reads out the cut-out image data written in the right-eye FM 1472, and the image superimposing unit 149 may be sent. Hereinafter, the latter case, that is, a case where image data is read from the right-eye FM 1472 and sent to the image superimposing unit 149 will be described as an example.

図4は、左目用FM1471に書き込まれた左目用画像データを示す図である。特に、図4は、画像重畳部149により切出画像データが重畳される前の左目用FM1471の状態を示す。
画像重畳部149は、拡大制御部154から重畳指示が入力されると、画像処理部145から入力される画像データである切出画像データを、左目用FM1471に書き込む。
左目用FM1471には、左目用画像データがすでに書き込まれている。画像重畳部149は、左目用FM1471の一部の領域を、画像処理部145から入力される切出画像データで書き換える。切出画像データにより書き換えられる左目用FM1471の一部の領域は、切出画像データが書き込まれた右目用FM1472の領域に対応する左目用FM1471の領域である。なお、左目用画像データが本発明の「所定の画像」に相当する。
また、画像重畳部149は、左目用画像データから切り出された切出画像データと、右目用画像データから切り出された切出画像データとで、左目用FM1471の書き込み位置を変更してもよい。例えば、画像重畳部149は、3D画像データの視差量に基づき、左目用画像データから切り出した切出画像データを書き込む左目用FM1471の書き込み位置と、右目用画像データから切り出した切出画像データを書き込む左目用FM1471の書き込み位置とを変更してもよい。
FIG. 4 is a diagram illustrating the left-eye image data written in the left-eye FM 1471. In particular, FIG. 4 shows a state of the left-eye FM 1471 before the cut-out image data is superimposed by the image superimposing unit 149.
When the superimposition instruction is input from the enlargement control unit 154, the image superimposing unit 149 writes the cut image data, which is the image data input from the image processing unit 145, into the left-eye FM 1471.
Left-eye image data is already written in the left-eye FM 1471. The image superimposing unit 149 rewrites a partial area of the left-eye FM 1471 with the cut-out image data input from the image processing unit 145. The partial region of the left-eye FM 1471 that is rewritten by the cut-out image data is a region of the left-eye FM 1471 corresponding to the region of the right-eye FM 1472 in which the cut-out image data is written. The left-eye image data corresponds to the “predetermined image” of the present invention.
The image superimposing unit 149 may change the writing position of the left-eye FM 1471 between the cut-out image data cut out from the left-eye image data and the cut-out image data cut out from the right-eye image data. For example, based on the parallax amount of the 3D image data, the image superimposing unit 149 stores the writing position of the left-eye FM 1471 for writing the cut-out image data cut out from the left-eye image data and the cut-out image data cut out from the right-eye image data. The writing position of the left-eye FM 1471 for writing may be changed.

また、画像重畳部149は、左目用FM1471に書き込んだ切出画像データの周囲に黒枠を表す枠画像60を付加して、重畳画像データ(変換左目用画像、変換右目用画像)を生成する。
図5は、左目用FM1471に書き込まれた左目用画像データの一部を、切出画像データにより書き換え、書き換えた切出画像データの周囲に黒枠を表す枠画像60を付加した状態を示す。
Also, the image superimposing unit 149 adds a frame image 60 representing a black frame around the cut-out image data written in the left-eye FM 1471 to generate superimposed image data (converted left-eye image, converted right-eye image).
FIG. 5 shows a state in which part of the left-eye image data written in the left-eye FM 1471 is rewritten with the cut-out image data, and a frame image 60 representing a black frame is added around the rewritten cut-out image data.

また、画像重畳部149は、切出画像の周囲に枠画像60を付加する代わりに、切出画像の周辺部に対してシャープネス調整を行い、重畳する切出画像データと、左目用画像データとの境界をぼかすぼかし処理を行ってもよい。ぼかし処理は、切出画像データと、左目用画像データとの境界における色の変化を緩和する画像処理であり、いわゆるアンチエイリアシング処理に相当する。   Further, the image superimposing unit 149 performs sharpness adjustment on the peripheral part of the cutout image instead of adding the frame image 60 around the cutout image, and the cutout image data to be superimposed, the left-eye image data, You may perform the blurring process which blurs the boundary. The blurring process is an image process that alleviates a change in color at the boundary between the cut-out image data and the left-eye image data, and corresponds to a so-called anti-aliasing process.

図6は、表示部110によりスクリーンSCに投射された重畳画像データを示す図である。
切出画像データの生成に使用した画像データと、切出画像データが重畳される画像データとが異なる場合、重畳画像データにおいて画像が連続する場合がある。例えば、切出画像データを右目用画像データから切り出し、切り出した切出画像データを左目用画像データに重畳させる場合、左目用画像データと右目用画像データには視差があるため、同一の画像がずれた位置に表示され、重畳画像データにおいて同一の画像が連続して表示される場合がある。このような画像がスクリーンSCに投射されると、ユーザーにとっては見にくい画像となる。また、切出画像データを拡大した場合、視差も拡大され、ユーザーにとってはさらに見にくい画像となる場合がある。
このため、本実施形態では、図4に示すように、切出画像データの周囲を枠画像60で囲み、同一の画像が連続する部分が枠画像60で隠れるようにすることで、部分的に拡大された画像が見やすくなるようにすることができる。
FIG. 6 is a diagram showing superimposed image data projected on the screen SC by the display unit 110.
When the image data used for generating the cut-out image data is different from the image data on which the cut-out image data is superimposed, the images may be continuous in the superimposed image data. For example, when the cut-out image data is cut out from the right-eye image data, and the cut-out cut-out image data is superimposed on the left-eye image data, the left-eye image data and the right-eye image data have parallax, so the same image There are cases in which the same image is displayed continuously in the superimposed image data. When such an image is projected onto the screen SC, the image becomes difficult for the user to see. In addition, when the cut-out image data is enlarged, the parallax is also enlarged, and the image may be more difficult for the user to see.
For this reason, in the present embodiment, as shown in FIG. 4, the periphery of the cut image data is surrounded by a frame image 60, and a portion where the same image continues is hidden by the frame image 60. It is possible to make the enlarged image easy to see.

図7は、プロジェクター100の動作を示すフローチャートである。
画像供給装置200が画像信号の供給を開始すると、プロジェクター100は、供給される画像信号を画像I/F部141により入力する。画像I/F部141は、入力された画像信号から画像データ及び画像情報を取り出す。画像I/F部141は、取り出した画像データ及び画像情報を画像分離部143に出力する。
FIG. 7 is a flowchart showing the operation of the projector 100.
When the image supply apparatus 200 starts supplying an image signal, the projector 100 inputs the supplied image signal through the image I / F unit 141. The image I / F unit 141 extracts image data and image information from the input image signal. The image I / F unit 141 outputs the extracted image data and image information to the image separation unit 143.

画像分離部143は、画像データ及び画像情報が入力されると、入力された画像情報に基づいて、画像データが3D画像データであるか否かを判定する(ステップS1)。入力された画像データが3D画像データではない場合(ステップS1/NO)、画像分離部143は、入力された画像データをそのまま画像処理部145に出力する。この後、画像処理部145が、入力された画像データを画像処理し、処理された画像データに基づく画像が表示部110によりスクリーンSCに投射される(ステップS2)。   When image data and image information are input, the image separation unit 143 determines whether the image data is 3D image data based on the input image information (step S1). When the input image data is not 3D image data (step S1 / NO), the image separation unit 143 outputs the input image data to the image processing unit 145 as it is. Thereafter, the image processing unit 145 performs image processing on the input image data, and an image based on the processed image data is projected on the screen SC by the display unit 110 (step S2).

また、画像分離部143は、入力された画像データが3D画像データであると判定した場合(ステップS1/YES)、画像情報に基づいて3D画像データを変換処理し、1フレームサイズの左目用画像データ及び右目用画像データを生成する(ステップS3)。画像分離部143は、生成した左目用画像データ及び右目用画像データを画像処理部145に出力する。   When the image separation unit 143 determines that the input image data is 3D image data (step S1 / YES), the image separation unit 143 converts the 3D image data based on the image information, and performs the left-eye image of one frame size. Data and right-eye image data are generated (step S3). The image separation unit 143 outputs the generated left-eye image data and right-eye image data to the image processing unit 145.

画像処理部145は、入力される左目用画像データを左目用FM1471に書き込み、右目用画像データを右目用FM1472に書き込む。
画像処理部145は、左目用画像データ及び右目用画像データのそれぞれに対して、所定の画像処理を施して、交互に画像重畳部149に出力する。画像重畳部149は、制御部150から部分拡大の指示が入力されていない場合、画像処理部145から入力される左目用画像データ及び右目用画像データをそのまま表示部110に出力し、表示部110によりスクリーンSCに投射する(ステップS4)。
The image processing unit 145 writes the input left-eye image data into the left-eye FM 1471 and writes the right-eye image data into the right-eye FM 1472.
The image processing unit 145 performs predetermined image processing on each of the left-eye image data and the right-eye image data, and outputs the image data to the image superimposing unit 149 alternately. When the partial enlargement instruction is not input from the control unit 150, the image superimposing unit 149 outputs the left-eye image data and the right-eye image data input from the image processing unit 145 to the display unit 110 as they are, and the display unit 110 Is projected onto the screen SC (step S4).

制御部150は、3D画像データに基づく画像がスクリーンSCに投射されると、画像の一部を拡大させる部分拡大の指示を操作パネル126又はリモコン5により受け付けたか否かを判定する(ステップS5)。部分拡大の指示を受け付けていない場合(ステップS5/NO)、プロジェクター100は、ステップS3の処理に戻る。すなわち、プロジェクター100は、3D画像データに基づいて左目用画像データ及び右目用画像データを生成し、スクリーンSCに投射する処理を、画像信号の供給が停止されるまで継続する。   When the image based on the 3D image data is projected onto the screen SC, the control unit 150 determines whether or not an instruction for partial enlargement for enlarging a part of the image is received by the operation panel 126 or the remote controller 5 (step S5). . When the instruction for partial enlargement is not received (step S5 / NO), the projector 100 returns to the process of step S3. That is, the projector 100 generates the left-eye image data and the right-eye image data based on the 3D image data, and continues the process of projecting on the screen SC until the supply of the image signal is stopped.

また、部分拡大の指示が入力された場合(ステップS5/YES)、拡大制御部154は、指示体70による操作位置の検出を指示体検出部130に実行させる。
指示体検出部130は、撮影部131により生成される撮影画像データに基づいて、指示体70の操作位置の座標を検出する。指示体検出部130は、検出した操作位置の座標を制御部150に出力する。描画制御部153は、指示体検出部130により検出される操作位置の座標に基づいて、ユーザーが指示体70を操作して指定した範囲Aを示す範囲指定情報を生成し、拡大制御部154に出力する。
When an instruction for partial enlargement is input (step S5 / YES), the enlargement control unit 154 causes the indicator detection unit 130 to detect the operation position by the indicator 70.
The indicator detection unit 130 detects the coordinates of the operation position of the indicator 70 based on the captured image data generated by the imaging unit 131. The indicator detection unit 130 outputs the detected coordinates of the operation position to the control unit 150. The drawing control unit 153 generates range designation information indicating the range A designated by the user by operating the indicator 70 based on the coordinates of the operation position detected by the indicator detection unit 130, and sends the range designation information to the enlargement control unit 154. Output.

拡大制御部154は、描画制御部153から範囲指定情報が入力されたか否かを判定する(ステップS6)。範囲指定情報の入力がない場合(ステップS6/NO)、拡大制御部154は、範囲指定情報が入力されるまで待機する。また、範囲指定情報が入力されると(ステップS6/YES)、拡大制御部154は、描画制御部153から入力される範囲指定情報に、拡大率指定情報と、部分拡大の指示とを付加して画像処理部145に出力する。
画像処理部145は、入力された範囲指定情報に基づいて、右目用FM1472に書き込まれた左目用画像データ又は右目用画像データの所定領域を切り出して切出画像データを生成し(ステップS7)する。また、画像処理部145は、生成した切出画像データを拡大率指定情報により指定された拡大率で拡大する(ステップS8)。この拡大率は、ユーザーが部分拡大の指示を入力する際に、指定するものであってもよいし、事前に設定されるものであってもよい。また、拡大制御部154が、切出画像データのサイズに応じて拡大率を変更してもよい。
The enlargement control unit 154 determines whether or not range designation information is input from the drawing control unit 153 (step S6). If no range designation information is input (step S6 / NO), the expansion control unit 154 waits until range designation information is input. When the range designation information is input (step S6 / YES), the enlargement control unit 154 adds the enlargement ratio designation information and the partial enlargement instruction to the range designation information input from the drawing control unit 153. Output to the image processing unit 145.
The image processing unit 145 generates cut-out image data by cutting out a predetermined area of the left-eye image data or right-eye image data written in the right-eye FM 1472 based on the input range specifying information (step S7). . Further, the image processing unit 145 enlarges the generated cut-out image data at the enlargement rate designated by the enlargement rate designation information (step S8). This enlargement ratio may be specified when the user inputs a partial enlargement instruction, or may be set in advance. Further, the enlargement control unit 154 may change the enlargement ratio according to the size of the cut-out image data.

画像処理部145は、右目用FM1472から切出画像データを読み出して画像重畳部149に出力する。   The image processing unit 145 reads out the cut image data from the right eye FM 1472 and outputs it to the image superimposing unit 149.

画像重畳部149は、拡大制御部154から重畳指示が入力され、画像処理部145から切出画像データが入力されると、左目用FM1471に書き込まれた左目用画像データに、切出画像データを重畳する(ステップS9)。具体的には、画像重畳部149は、切出画像データが書き込まれた右目用FM1472の領域に対応する左目用FM1471の領域に書き込まれた左目用画像データを、切出画像データに書き換える。さらに、画像重畳部149は、書き換えた切出画像データの周囲に黒枠を表す枠画像60を付加して重畳画像データを生成する(ステップS10)。   When the superimposition instruction is input from the enlargement control unit 154 and the cut-out image data is input from the image processing unit 145, the image superimposing unit 149 converts the cut-out image data into the left-eye image data written in the left-eye FM 1471. Superimpose (step S9). Specifically, the image superimposing unit 149 rewrites the left-eye image data written in the area of the left-eye FM 1471 corresponding to the area of the right-eye FM 1472 in which the cut-out image data is written into the cut-out image data. Furthermore, the image superimposing unit 149 adds the frame image 60 representing a black frame around the rewritten extracted image data to generate superimposed image data (step S10).

画像重畳部149は、生成した重畳画像データを表示部110に出力する。表示部110は、光変調装置駆動部122により重畳画像データに基づくR,G,Bの表示画像信号を生成する。表示部110は、生成した表示画像信号に基づいて光変調装置112の対応する液晶パネルを駆動し、各液晶パネルに画像光を描画する。各液晶パネルに描画された画像光は、投射光学系113によりスクリーンSCに投射される(ステップS11)。   The image superimposing unit 149 outputs the generated superimposed image data to the display unit 110. The display unit 110 generates R, G, and B display image signals based on the superimposed image data by the light modulation device driving unit 122. The display unit 110 drives the corresponding liquid crystal panel of the light modulation device 112 based on the generated display image signal, and draws image light on each liquid crystal panel. The image light drawn on each liquid crystal panel is projected onto the screen SC by the projection optical system 113 (step S11).

上述した処理フローでは、拡大した切出画像データを所定の画像としての左目用画像データに重畳する場合を例に挙げて説明したが、所定の画像としての右目用画像データに切出画像データを重畳してもよい。
また、切出画像データに対応した画像データを選択して、選択した画像データに切出画像データを重畳してもよい。すなわち、切出画像データが左目用画像データから切り出した画像データである場合、切出画像データを左目用画像データに重畳し、切出画像データが右目用画像データから切り出した画像データである場合、切出画像データを右目用画像データに重畳してもよい。
In the processing flow described above, the case where the enlarged cut-out image data is superimposed on the left-eye image data as a predetermined image has been described as an example. However, the cut-out image data is added to the right-eye image data as the predetermined image. You may superimpose.
Alternatively, image data corresponding to the cut image data may be selected, and the cut image data may be superimposed on the selected image data. That is, when the cut-out image data is image data cut out from the left-eye image data, the cut-out image data is superimposed on the left-eye image data, and the cut-out image data is image data cut out from the right-eye image data The cut-out image data may be superimposed on the right-eye image data.

以上説明したように本発明の表示装置及び表示方法の実施形態は、表示部110、受け付け部としての入力処理部127、指示体検出部130及び描画制御部153と、画像処理部145と、画像重畳部149とを備える。
表示部110は、3D画像を構成する左目用画像及び右目用画像を表示する。
受け付け部としての指示体検出部130及び描画制御部153は、表示部110により表示される3D画像に対する領域の選択を受け付ける。
画像処理装置300が備える画像処理部145は、左目用画像及び右目用画像から、受け付けた選択に係る領域、すなわち選択された領域に対応する画像を切り出し、切り出した切出画像を拡大する。画像重畳部149は、切り出された切出画像を、所定の画像に重畳して表示部110に立体表示させる。
従って、選択された領域を抽出して拡大した立体画像を簡易な処理により表示することができる。そして、立体画像を部分的に拡大して表示する処理を、効率よく、ユーザーの違和感を招かないように実行できる。
As described above, the display device and the display method according to the embodiment of the present invention include the display unit 110, the input processing unit 127 as a receiving unit, the indicator detection unit 130, the drawing control unit 153, the image processing unit 145, and the image. And a superimposing unit 149.
The display unit 110 displays a left-eye image and a right-eye image that form a 3D image.
The indicator detection unit 130 and the drawing control unit 153 as receiving units receive selection of a region for the 3D image displayed by the display unit 110.
The image processing unit 145 included in the image processing apparatus 300 cuts out an area related to the selected selection from the left-eye image and the right-eye image, that is, an image corresponding to the selected area, and enlarges the cut-out cut image. The image superimposing unit 149 superimposes the cut out clipped image on a predetermined image and causes the display unit 110 to perform a three-dimensional display.
Therefore, it is possible to display a stereoscopic image obtained by extracting and enlarging the selected region by a simple process. And the process which expands and displays a stereo image partially can be performed efficiently, without causing a user's uncomfortable feeling.

また、画像重畳部149は、画像処理部145により切り出された切出画像を、所定の画像としての左目用画像に重畳する。また、画像重畳部149は、画像処理部145により切り出された切出画像を、所定の画像としての右目用画像に重畳してもよい。左目用画像及び右目用画像はいわゆる平面画像であるため、選択された領域を拡大する場合に正常な立体視ができなくなる懸念がない。このため、立体画像を部分的に拡大して表示する処理を、効率よく実行できる。   Further, the image superimposing unit 149 superimposes the cut image cut out by the image processing unit 145 on the left-eye image as a predetermined image. Further, the image superimposing unit 149 may superimpose the clipped image clipped by the image processing unit 145 on the right eye image as a predetermined image. Since the left-eye image and the right-eye image are so-called planar images, there is no concern that normal stereoscopic viewing cannot be performed when the selected area is enlarged. For this reason, the process which expands and displays a stereo image partially can be performed efficiently.

また、画像重畳部149は、左目用画像において選択された領域を拡大した変換左目用画像、及び右目用画像から抽出した画像を所定の画像としての左目用画像に重畳した変換右目用画像を生成する、このため、立体画像を部分的に拡大して表示する処理を、効率よく実行できる。   Further, the image superimposing unit 149 generates a converted left-eye image obtained by enlarging a selected area in the left-eye image, and a converted right-eye image in which an image extracted from the right-eye image is superimposed on a left-eye image as a predetermined image. Therefore, it is possible to efficiently execute the process of partially enlarging and displaying the stereoscopic image.

また、画像重畳部149は、画像処理部145が切り出した画像の周囲を枠で囲んだ画像を、切出画像に重畳する。従って、画像処理部145により切り出された画像を拡大して枠で囲んだ状態で、見易く表示することができる。   Further, the image superimposing unit 149 superimposes an image surrounded by a frame around the image cut out by the image processing unit 145 on the cut-out image. Therefore, the image cut out by the image processing unit 145 can be displayed in an easy-to-view manner in an enlarged state surrounded by a frame.

また、画像重畳部149は、画像処理部145が切り出した切出画像と、所定の画像との境界をぼかすぼかし処理を行う。従って、画像処理部145により切り出された画像を見易く表示することができる。   In addition, the image superimposing unit 149 performs a blurring process for blurring the boundary between the cut image cut out by the image processing unit 145 and a predetermined image. Therefore, it is possible to display the image cut out by the image processing unit 145 in an easy-to-view manner.

また、指示体検出部130は、指示体70の操作を検出して、3D画像に対する領域の選択を描画制御部153で検出する。従って、指示体70の操作により、立体表示させる画像の領域を選択することができる。   In addition, the indicator detection unit 130 detects an operation of the indicator 70, and the drawing control unit 153 detects selection of a region for the 3D image. Accordingly, the region of the image to be stereoscopically displayed can be selected by operating the indicator 70.

なお、上述した実施形態は、本発明の好適な実施形態を示すものであり、本発明を限定するものではなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。
例えば、上述した実施形態では、指示体70としてペン型のデバイスを例に説明したが、指示体70は、例えば、ユーザーの手指であってもよい。指示体70として操作者の手指を用いる場合、例えば、スクリーンSCの上部にプロジェクター100を設置し、プロジェクター100に、赤外光を照射するユニットを接続する。このユニットにより、スクリーンSCの上部から、スクリーンSCに略平行かつ近距離で指示体70の検出用の赤外光を照射する。ユーザーが手指で、スクリーンSC上に投射された投射画像に触れる(指示する)と、手指に当たった赤外光が反射する。この反射光をプロジェクター100に搭載された撮影装置で撮影し、ユーザーによる指示位置を検出する。
The above-described embodiment shows a preferred embodiment of the present invention, does not limit the present invention, and various modifications can be made without departing from the gist of the present invention.
For example, in the above-described embodiment, a pen-type device has been described as an example of the indicator 70. However, the indicator 70 may be a user's finger, for example. When the operator's fingers are used as the indicator 70, for example, the projector 100 is installed on the upper portion of the screen SC, and a unit that irradiates infrared light is connected to the projector 100. By this unit, infrared light for detecting the indicator 70 is irradiated from the upper part of the screen SC at a substantially parallel distance and a short distance. When the user touches (instructs) the projected image projected on the screen SC with a finger, infrared light hitting the finger is reflected. The reflected light is photographed by a photographing device mounted on the projector 100, and the position indicated by the user is detected.

また、上述した実施形態では、プロジェクター100に、指示体検出部130を設け、指示体70を用いる操作により部分拡大させたい範囲を指定する方法を説明したが、指示体検出部130はプロジェクター100の必須の構成ではない。例えば、操作パネル126やリモコン5の操作により、部分拡大させる範囲を指定してもよい。
例えば、部分拡大の指示を受け付けると、制御部150は、操作パネル126に、部分拡大させたい範囲を指定可能なカーソルを表示させる。操作パネル126の全面を、表示部110が投射画像を投射する投射領域として、投射画像における部分拡大させたい範囲を、カーソルの位置、大きさにより指定する。カーソルは、例えば矩形であって、操作パネル126の操作や、タッチ操作によりサイズや形状を変更することができる。ユーザーは、部分拡大させたい範囲にカーソルを移動させ、操作パネル126に設けられた決定ボタンを押下する。決定ボタンが押下された時点でのカーソルの操作パネル126上での位置が、部分拡大させる範囲として選択される。
Further, in the embodiment described above, the projector 100 is provided with the indicator detection unit 130 and the method of specifying the range to be partially enlarged by the operation using the indicator 70 has been described. Not a required configuration. For example, the range to be partially enlarged may be designated by operating the operation panel 126 or the remote controller 5.
For example, when an instruction for partial enlargement is received, the control unit 150 causes the operation panel 126 to display a cursor that can designate a range to be partially enlarged. The entire area of the operation panel 126 is designated as a projection area on which the display unit 110 projects a projection image, and a range to be partially enlarged in the projection image is designated by the position and size of the cursor. The cursor is, for example, a rectangle, and can be changed in size and shape by operation of the operation panel 126 or touch operation. The user moves the cursor to a range where partial enlargement is desired, and presses a determination button provided on the operation panel 126. The position of the cursor on the operation panel 126 at the time when the determination button is pressed is selected as a range for partial enlargement.

また、本実施形態のプロジェクター100は、ユーザーに立体画像を視認させるために立体視装置50を備える構成を例示したが、本発明はこれに限定されず、ユーザーが立体画像(3D画像)を視認可能な表示を行う表示装置であれば良い。例えば、異なる偏光を施した左目用画像及び右目用画像を同時にスクリーンSC上に表示する構成であってもよい。この場合、立体視装置50に代えて、異なる偏光を施した左目用画像及び右目用画像を選択的に透過する透過部を備えるパッシブ方式の表示用のメガネを、立体視装置として備える構成であってもよい。
また、専用の立体視装置50を用いずに、スクリーンSCの前面に左右の画像を振り分けるためのパララックスバリアや、レンティキュラーレンズを設けて、適視位置において裸眼で3D画像を鑑賞可能とした表示装置であっても良い。
Moreover, although the projector 100 of this embodiment illustrated the structure provided with the stereoscopic device 50 in order to make a user visually recognize a stereoscopic image, this invention is not limited to this, A user visually recognizes a stereoscopic image (3D image). Any display device that performs possible display may be used. For example, the left-eye image and the right-eye image with different polarizations may be displayed on the screen SC at the same time. In this case, instead of the stereoscopic device 50, the display device includes passive display glasses including a transmission unit that selectively transmits the left-eye image and the right-eye image with different polarizations. May be.
In addition, a parallax barrier for allocating left and right images and a lenticular lens are provided on the front surface of the screen SC without using the dedicated stereoscopic device 50 so that a 3D image can be viewed with the naked eye at an appropriate viewing position. It may be a display device.

また、上述した実施形態では、画像処理部145は、画像分離部143から入力される1フレームの左目用画像データと、1フレームの右目用画像データとを対象に処理を行っていたが、これらの画像データは同期していなくてもよい。
例えば、画像処理部145は、左目用FM1471に左目用画像データを書き込み、画像重畳部149に出力する場合に、所定期間、左目用FM1471の書き換えは行わず、同一の左目用画像データを画像重畳部149に出力してもよい。
In the above-described embodiment, the image processing unit 145 performs processing on one frame of left-eye image data and one frame of right-eye image data input from the image separation unit 143. The image data may not be synchronized.
For example, when the image processing unit 145 writes the left-eye image data in the left-eye FM 1471 and outputs the left-eye image data to the image superimposing unit 149, the left-eye FM 1471 is not rewritten for a predetermined period, and the same left-eye image data is superimposed. You may output to the part 149.

また、画像処理部145は、画像データのフレームレートとは異なるフレームレートで光変調装置112に描画するため、フレームレート変換処理を実行してもよい。フレームレート変換処理では、例えば、60Hzの画像データに対し、120Hz(倍速駆動)や240Hz(4倍速駆動)への変換を行う。このフレームレート変換処理でフレームレートを高速化することにより、光変調装置112の液晶パネルにおける描画フレーム数を高め、画像の残像感の軽減を図ることができる。
また、画像処理部145は、フレームレート変換処理を行った場合、変換したフレームレートに対応したタイミング信号を生成してシャッター制御部135に出力する。
Further, the image processing unit 145 may perform a frame rate conversion process in order to render the light modulation device 112 at a frame rate different from the frame rate of the image data. In the frame rate conversion process, for example, image data of 60 Hz is converted to 120 Hz (double speed driving) or 240 Hz (four times speed driving). By increasing the frame rate by this frame rate conversion process, it is possible to increase the number of drawing frames on the liquid crystal panel of the light modulation device 112 and reduce the afterimage feeling of the image.
When the frame rate conversion process is performed, the image processing unit 145 generates a timing signal corresponding to the converted frame rate and outputs the timing signal to the shutter control unit 135.

また、本発明の表示装置は、透過型液晶パネルを用いた液晶プロジェクターとして説明したが、反射型の液晶パネルやデジタルミラーデバイスを用いたプロジェクターであってもよい。また、スクリーンSCに画像を投射するプロジェクターに限定されず、液晶表示パネルに画像を表示する液晶モニター又は液晶テレビ、或いは、PDP(プラズマディスプレイパネル)に画像を表示するモニター装置又はテレビ受像機、OLED(Organic light-emitting diode)、OEL(Organic Electro-Luminescence)等と呼ばれる有機EL表示パネルに画像を表示するモニター装置又はテレビ受像機等の自発光型の表示装置など、各種の表示装置も本発明の表示装置に含まれる。   The display device of the present invention has been described as a liquid crystal projector using a transmissive liquid crystal panel, but may be a projector using a reflective liquid crystal panel or a digital mirror device. Further, the projector is not limited to a projector that projects an image on the screen SC, but a liquid crystal monitor or liquid crystal television that displays an image on a liquid crystal display panel, or a monitor device or television receiver that displays an image on a plasma display panel (PDP), OLED Various display devices such as a monitor device that displays an image on an organic EL display panel called (Organic light-emitting diode), OEL (Organic Electro-Luminescence), or a self-luminous display device such as a television receiver are also included in the present invention. It is included in the display device.

また、図1に示すプロジェクター100の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。その他、表示システム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。   Each functional unit of the projector 100 illustrated in FIG. 1 indicates a functional configuration realized by cooperation of hardware and software, and a specific mounting form is not particularly limited. Therefore, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to realize a function of a plurality of function units by one processor executing a program. In addition, in the above embodiment, a part of the function realized by software may be realized by hardware, or a part of the function realized by hardware may be realized by software. In addition, specific detailed configurations of other parts of the display system 1 can be arbitrarily changed without departing from the spirit of the present invention.

1…表示システム、5…リモコン、50…立体視装置、60…枠画像、70…指示体、100…プロジェクター、111…光源部、112…光変調装置、113…投射光学系、121…光源駆動部、122…光変調装置駆動部、125…無線通信部、126…操作パネル、127…入力処理部(受け付け部)、128…リモコン受光部、130…指示体検出部(受け付け部)、131…撮影部、132…位置検出部、135…シャッター制御部、141…画像I/F部、143…画像分離部、145…画像処理部、147…フレームメモリー、149…画像重畳部、150…制御部(表示制御部)、151…投射制御部、152…キャリブレーション制御部、153…描画制御部(受け付け部)、154…拡大制御部、157…記憶部、160…内部バス、200…画像供給装置、300…画像処理装置(処理部)、1471…左目用FM、1472…右目用FM、SC…スクリーン(表示面)。
DESCRIPTION OF SYMBOLS 1 ... Display system, 5 ... Remote control, 50 ... Stereoscopic device, 60 ... Frame image, 70 ... Indicator, 100 ... Projector, 111 ... Light source part, 112 ... Light modulation device, 113 ... Projection optical system, 121 ... Light source drive 122: Light modulation device driving unit, 125 ... Wireless communication unit, 126 ... Operation panel, 127 ... Input processing unit (accepting unit), 128 ... Remote control light receiving unit, 130 ... Indicator detecting unit (accepting unit), 131 ... Imaging unit, 132 ... position detection unit, 135 ... shutter control unit, 141 ... image I / F unit, 143 ... image separation unit, 145 ... image processing unit, 147 ... frame memory, 149 ... image superposition unit, 150 ... control unit (Display control unit), 151 ... projection control unit, 152 ... calibration control unit, 153 ... drawing control unit (accepting unit), 154 ... enlargement control unit, 157 ... storage unit, 16 ... internal bus, 200 ... image supply apparatus, 300 ... image processing apparatus (processor), 1471 ... FM for the left eye, 1472 ... FM for the right eye, SC ... screen (display surface).

Claims (10)

立体画像を構成する左目用画像及び右目用画像を表示する表示部と、
前記表示部により表示される立体画像に対する領域の選択を受け付ける受け付け部と、
前記左目用画像及び前記右目用画像から前記受け付け部で受け付けた選択に係る領域に対応する画像を抽出し、抽出した画像を拡大して、所定の画像に重畳する処理部と、
前記処理部により重畳された画像を前記表示部に表示させる表示制御部と、
を備えることを特徴とする表示装置。
A display unit for displaying a left-eye image and a right-eye image constituting a stereoscopic image;
A receiving unit that receives a selection of a region for a stereoscopic image displayed by the display unit;
A processing unit that extracts an image corresponding to a selection area received by the receiving unit from the left-eye image and the right-eye image, enlarges the extracted image, and superimposes the image on a predetermined image;
A display control unit that causes the display unit to display an image superimposed by the processing unit;
A display device comprising:
前記処理部は、前記左目用画像及び前記右目用画像から抽出した画像を、前記所定の画像としての前記左目用画像に重畳する、ことを特徴とする請求項1記載の表示装置。   The display device according to claim 1, wherein the processing unit superimposes an image extracted from the left-eye image and the right-eye image on the left-eye image as the predetermined image. 前記処理部は、前記左目用画像及び前記右目用画像から抽出した画像を、前記所定の画像としての前記右目用画像に重畳する、ことを特徴とする請求項1記載の表示装置。   The display device according to claim 1, wherein the processing unit superimposes an image extracted from the left-eye image and the right-eye image on the right-eye image as the predetermined image. 前記処理部は、前記左目用画像から抽出した画像を、前記所定の画像としての前記左目用画像に重畳し、前記右目用画像から抽出した画像を、前記所定の画像としての前記右目用画像に重畳する、ことを特徴とする請求項1記載の表示装置。   The processing unit superimposes the image extracted from the left-eye image on the left-eye image as the predetermined image, and converts the image extracted from the right-eye image into the right-eye image as the predetermined image. The display device according to claim 1, wherein the display device is superimposed. 前記処理部は、前記左目用画像において前記受け付け部で受け付けた選択に係る領域を拡大した変換左目用画像、及び前記右目用画像から抽出した画像を前記所定の画像としての前記左目用画像に重畳した変換右目用画像を生成する、ことを特徴とする請求項1記載の表示装置。   The processing unit superimposes the converted left-eye image obtained by enlarging the region related to the selection received by the receiving unit in the left-eye image and the image extracted from the right-eye image on the left-eye image as the predetermined image. The display device according to claim 1, wherein the converted right-eye image is generated. 前記処理部は、前記左目用画像及び前記右目用画像のそれぞれから抽出した画像の周囲を枠で囲んだ画像を前記所定の画像に重畳する、ことを特徴とする請求項1から5のいずれかに記載の表示装置。   6. The processing unit according to claim 1, wherein the processing unit superimposes an image surrounded by a frame around an image extracted from each of the left-eye image and the right-eye image on the predetermined image. The display device described in 1. 前記処理部は、前記左目用画像及び前記右目用画像のそれぞれから抽出した画像と前記所定の画像との境界をぼかすぼかし処理を行う、ことを特徴とする請求項1から5のいずれかに記載の表示装置。   The said process part performs the blurring process which blurs the boundary of the image extracted from each of the said image for left eyes, and the said image for right eyes, and the said predetermined | prescribed image, It is any one of Claim 1 to 5 characterized by the above-mentioned. Display device. 前記受け付け部は、前記表示部が前記立体画像を表示する表示面に対する位置指示操作を検出して、前記立体画像に対する領域の選択を受け付ける、ことを特徴とする請求項1から7のいずれかに記載の表示装置。   The said reception part detects the position instruction | indication operation with respect to the display surface on which the said display part displays the said stereo image, and receives selection of the area | region with respect to the said stereo image, The any one of Claim 1 to 7 characterized by the above-mentioned. The display device described. 表示部が表示する立体画像に対して領域の選択が行われた場合に、前記立体画像を構成する左目用画像及び右目用画像から、選択された領域に対応する画像を抽出して拡大する画像処理部と、
前記画像処理部により拡大した画像を、所定の画像に重畳する画像重畳部と、を備え、
前記画像重畳部で重畳した画像を、前記表示部が表示する画像として出力する、
ことを特徴とする画像処理装置。
When a region is selected for a stereoscopic image displayed on the display unit, an image corresponding to the selected region is extracted and enlarged from the left-eye image and the right-eye image constituting the stereoscopic image. A processing unit;
An image superimposing unit that superimposes the image enlarged by the image processing unit on a predetermined image,
Outputting an image superimposed by the image superimposing unit as an image displayed by the display unit;
An image processing apparatus.
表示部が表示する立体画像に対する領域の選択を受け付けるステップと、
前記立体画像を構成する左目用画像及び右目用画像から、前記受け付けるテップで受け付けた選択に係る領域に対応する画像を抽出するステップと、
前記抽出するステップで抽出された画像を拡大して所定の画像に重畳するステップと、
前記重畳するステップで重畳された画像を前記表示部に表示させるステップと、
を有することを特徴とする表示方法。
Receiving a selection of a region for a stereoscopic image displayed by the display unit;
Extracting an image corresponding to an area related to the selection received in the received step from the left-eye image and the right-eye image constituting the stereoscopic image;
Enlarging the image extracted in the extracting step and superimposing the image on a predetermined image;
Displaying the image superimposed in the superimposing step on the display unit;
A display method characterized by comprising:
JP2016030674A 2016-02-22 2016-02-22 Display device, image processing apparatus, and display method Pending JP2017152764A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016030674A JP2017152764A (en) 2016-02-22 2016-02-22 Display device, image processing apparatus, and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016030674A JP2017152764A (en) 2016-02-22 2016-02-22 Display device, image processing apparatus, and display method

Publications (1)

Publication Number Publication Date
JP2017152764A true JP2017152764A (en) 2017-08-31

Family

ID=59739204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016030674A Pending JP2017152764A (en) 2016-02-22 2016-02-22 Display device, image processing apparatus, and display method

Country Status (1)

Country Link
JP (1) JP2017152764A (en)

Similar Documents

Publication Publication Date Title
US8684531B2 (en) Stereoscopic display device projecting parallax image and adjusting amount of parallax
JP2012108479A (en) Projection type display device and control method thereof
US20130222410A1 (en) Image display apparatus
JP2012195728A (en) Display device, display system, and method for controlling display device
US20110248989A1 (en) 3d display apparatus, method for setting display mode, and 3d display system
JPWO2014155670A1 (en) Stereoscopic video processing apparatus, stereoscopic video processing method, and stereoscopic video processing program
JP2013197797A (en) Image display device and image display method
JP2013051629A (en) Stereoscopic image display device
JP2011010126A (en) Image processing apparatus, and image processing method
US20160034048A1 (en) Video display system, three-dimensional video pointing device and video display device
JP2016180942A (en) Display device, display system, control method for display device, and program
JP5618587B2 (en) Imaging device, image display device, and image display system
JP6069854B2 (en) Video display device and video display method
JP2016161611A (en) Display system and display control method
JP5786315B2 (en) Display device, display device control method, and program
US9131226B2 (en) Display device and control method for the display device
JP2017152764A (en) Display device, image processing apparatus, and display method
JP2015159460A (en) Projection system, projection device, photographing device, method for generating guide frame, and program
JP2012151641A (en) Stereoscopic image display device, control method of stereoscopic image display device, and stereoscopic image display system
JP5789960B2 (en) Display device, display device control method, and program
US11336877B2 (en) Projection-type display device and method for adjusting a projected image
EP2432235A2 (en) Display Apparatus and Method for Processing Image Thereof
JP7427739B2 (en) display device
KR20130079044A (en) Display apparatus and control method thereof
KR20110130708A (en) 3d glasses and 3d display apparatus

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180906