JP2012095240A - Video display device, video display system, and video display method - Google Patents

Video display device, video display system, and video display method Download PDF

Info

Publication number
JP2012095240A
JP2012095240A JP2010242824A JP2010242824A JP2012095240A JP 2012095240 A JP2012095240 A JP 2012095240A JP 2010242824 A JP2010242824 A JP 2010242824A JP 2010242824 A JP2010242824 A JP 2010242824A JP 2012095240 A JP2012095240 A JP 2012095240A
Authority
JP
Japan
Prior art keywords
mask
signal
code
image
image group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010242824A
Other languages
Japanese (ja)
Inventor
Hiroaki Iwahara
宏明 岩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010242824A priority Critical patent/JP2012095240A/en
Publication of JP2012095240A publication Critical patent/JP2012095240A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video display technique capable of improving sensory luminescence relating to a video display device.SOLUTION: The display device comprises: input means which inputs a first image group and a second image group which is an image group having a parallax from the first image group; signal transmission means which transmits a signal to a mask capable of shielding a video entering the right eye and the left when a user wears the mask, respectively in a partial mask form; code holding means which holds a code characteristic for the operation of the mask, the code being to be transmitted as the signal; and display means to display an image. The code is set to be transmitted with predetermined timing.

Description

本発明の実施形態は、立体視メガネ用の体感輝度・コントラスト調整機能を用いたマスクに関する。   Embodiments described herein relate generally to a mask using a function for adjusting luminance and contrast for stereoscopic glasses.

液晶パネルを用いたテレビジョン装置が急速に普及している。このようなテレビジョン装置について、近年特殊なメガネと、対応したテレビジョン装置を組み合わせることによって左右の視差を生み出し、3次元立体視を可能とするシステムが普及し始めている。   Television apparatuses using a liquid crystal panel are rapidly spreading. With regard to such a television device, in recent years, a system capable of producing right and left parallax by combining special glasses and a corresponding television device to enable three-dimensional stereoscopic viewing has begun to spread.

このような立体視テレビジョンシステムにおいて、最も代表的な手法として左目右目のそれぞれに専用の映像フレームを交互に表示することと、高速で切り換え可能な液晶シャッター搭載した、専用のメガネによる視界の遮断とを組み合わせて、左右それぞれに別々の映像を映りこませる手法が用いられる。   In such a stereoscopic television system, the most representative technique is to display dedicated video frames alternately on the left and right eyes, and to block the field of view with dedicated glasses equipped with a high-speed switchable liquid crystal shutter. Is used, and a method for projecting separate images to the left and right is used.

しかし、左右の液晶シャッターを高速で切り換えることによって映像輝度が低下してしまう。従来のテレビジョン装置では表示する映像の輝度を高く設定することによって画面輝度の向上を図ることが多いが、この方法ではダイナミックレンジが低下する、消費電力が上昇するといった問題が残る(例えば、特許文献1を参照。)。 However, the video brightness is lowered by switching the left and right liquid crystal shutters at high speed. In conventional television devices, the screen brightness is often improved by setting the brightness of the video to be displayed high, but this method still has problems such as a decrease in dynamic range and an increase in power consumption (for example, patents). See reference 1.)

他方において体感輝度を向上するとの要望があるが、かかる要望を実現するための手段は知られていない。   On the other hand, there is a demand for improving the sensation luminance, but no means for realizing such demand is known.

特開2010−117437号公報JP 2010-117437 A

本発明は、映像表示装置に関して体感輝度を向上させることができる映像表示技術を提供することを目的とする。   An object of this invention is to provide the video display technique which can improve a sensation brightness regarding a video display apparatus.

上記課題を解決するために、実施形態の映像表示装置によれば、第1の画像群および前記第1の画像群と視差を有する画像群である第2の画像群とを入力する入力手段と、ユーザが装着したときに右眼及び左眼に入射する映像をそれぞれ部分マスク形態で遮ることができるマスクに信号を送信する信号送信手段と、前記信号として送信する前記マスクの動作のために固有なコードを保持するコード保持手段と、画像を表示する表示手段と、を具備し、前記コードは既定のタイミングで送信されるように設定されている。   In order to solve the above-described problem, according to the video display device of the embodiment, the input unit that inputs the first image group and the second image group that is an image group having parallax with the first image group; Specific to the operation of the mask transmitting the signal and the signal transmitting means for transmitting the signal to a mask capable of blocking the images incident on the right eye and the left eye in a partial mask form when the user wears Code holding means for holding a correct code and display means for displaying an image, and the code is set to be transmitted at a predetermined timing.

本発明の一実施形態における立体映像表示システムの内部構成の一例を示すブロック図。The block diagram which shows an example of the internal structure of the three-dimensional video display system in one Embodiment of this invention. 同実施形態の内部構成の他例を示すブロック図。The block diagram which shows the other example of the internal structure of the embodiment. 同実施形態のマスク例を説明するために示す簡易構成図。The simple block diagram shown in order to demonstrate the example of a mask of the embodiment. 同実施形態のシャッターメガネのシャッターの開閉の模式図。The schematic diagram of opening and closing of the shutter of the shutter glasses of the embodiment. 同実施形態のマスクの効果例を説明するために示す説明図。Explanatory drawing shown in order to demonstrate the effect example of the mask of the embodiment. 同実施形態のコードの送信タイミングを示す説明図。Explanatory drawing which shows the transmission timing of the code | symbol of the embodiment. 実施形態のマスク83aの制御のフローチャート。The flowchart of control of the mask 83a of embodiment. 本発明の一実施形態における立体映像表示システムの概観の一例を示す図。1 is a diagram illustrating an example of an overview of a stereoscopic video display system according to an embodiment of the present invention. 本発明の一実施形態に係わるテレビ受信装置の構成を概略的に示すブロック図。1 is a block diagram schematically showing the configuration of a television receiver according to an embodiment of the present invention. 実施形態の補正量の通知イメージを示す構成図。The block diagram which shows the notification image of the correction amount of embodiment. 実施形態のテレビ側補正量決定フローチャート。10 is a flowchart for determining a correction amount on the television side according to the embodiment. 実施形態のメガネ側補正フローチャート。The eyeglass side correction flowchart of an embodiment. 実施形態のマスク範囲制御のフローチャート。The flowchart of the mask range control of embodiment.

以下、本発明による実施形態を図1乃至図13を参照して説明する。
図8は本実施形態における立体映像表示システム81の概観の一例を示す図である。図8には立体映像表示システム81、映像表示装置82、およびシャッターメガネ83が示されている。
Embodiments according to the present invention will be described below with reference to FIGS.
FIG. 8 is a diagram showing an example of an overview of the stereoscopic video display system 81 in the present embodiment. FIG. 8 shows a stereoscopic video display system 81, a video display device 82, and shutter glasses 83.

立体映像表示システム81は映像表示装置82及びシャッターメガネ83によって構成される。ユーザはシャッターメガネ83を装着して、映像表示装置82に表示されている映像を見ることにより、この映像を立体映像として認識することができる。   The stereoscopic video display system 81 includes a video display device 82 and shutter glasses 83. The user can recognize the video as a stereoscopic video by wearing the shutter glasses 83 and viewing the video displayed on the video display device 82.

人間は通常、物体を位置の異なる左目と右目とのそれぞれで見ており、この左目と右目とで見る像にはそれぞれ視差が存在する。この視差の存在する左目で見る像と右目で見る像とを脳内で合成することによって人間は見ている物体を立体として認識することができる。よって、視差を有する左目用の画像と右目用の画像とをそれぞれの目で見せることによって、ユーザに映像を立体として捉えさせることが可能となる。   Humans usually view an object with the left eye and the right eye, which are located at different positions, and there are parallaxes in the images seen with the left eye and the right eye. By synthesizing the image seen with the left eye and the image seen with the right eye in the brain where the parallax exists, a human can recognize the object being viewed as a solid. Therefore, by displaying the left-eye image and the right-eye image having parallax with each eye, it is possible to make the user perceive the video as a three-dimensional image.

映像表示装置82は例えばデジタルテレビであって、互いに視差を有する左目用画像と右目用画像を交互に表示することによって、シャッターメガネ83を装着したユーザに立体映像を表示することが可能である。また、映像表示装置82は受信する立体映像表示用の画像信号に基づいて新たな画像を生成する機能も有している。   The video display device 82 is, for example, a digital television, and can display a stereoscopic video to a user wearing the shutter glasses 83 by alternately displaying a left-eye image and a right-eye image having parallax with each other. The video display device 82 also has a function of generating a new image based on the received image signal for stereoscopic video display.

シャッターメガネ83は左目用レンズ84および右目用レンズ85を有している。この左目用レンズ84及び右目用レンズ85にはそれぞれ遮光可能なシャッターが設けられており、映像表示装置82から受信するシャッターの開閉信号に基づいてそれぞれのシャッターを異なるタイミングで開閉することにより、ユーザに立体映像を提供する。例えば、映像表示装置82に左目用画像が表示されているときには、シャッターメガネ83は映像表示装置82からの開閉信号に基づいて右目用レンズ85のシャッターを閉状態、左目用レンズ84を開状態として、ユーザの左目のみに左目用画像を見せる。また右目用画像が表示されているときには左目用レンズ84のシャッターを閉状態、右目用レンズ85を開状態として、ユーザの右目のみに右目用画像を見せる。こうすることによってユーザは見ている画像を立体として捉えることができる。なお詳しくはシャッターメガネ83には、後述のマスク83aが付帯している。   The shutter glasses 83 have a left-eye lens 84 and a right-eye lens 85. The left-eye lens 84 and the right-eye lens 85 are each provided with a light-shieldable shutter, and the user opens and closes the shutter at different timings based on the shutter opening / closing signals received from the video display device 82. 3D images are provided. For example, when a left-eye image is displayed on the video display device 82, the shutter glasses 83 closes the shutter of the right-eye lens 85 and opens the left-eye lens 84 based on an open / close signal from the video display device 82. The left eye image is shown only to the user's left eye. When the right-eye image is displayed, the shutter of the left-eye lens 84 is closed and the right-eye lens 85 is opened, so that the right-eye image is shown only to the user's right eye. By doing so, the user can grasp the image being viewed as a solid. In more detail, the shutter glasses 83 are accompanied by a mask 83a described later.

(放送受信装置の構成と動作)
まず、本発明の一実施形態であるテレビ受信装置を、図9を用いて説明する。
図9は、後に述べる図1と図2のシステムを適用する放送受信装置の一実施形態であるデジタル放送受信装置等のテレビ受信装置の構成の一例を示すブロック図である。
(Configuration and operation of broadcast receiver)
First, a television receiver according to an embodiment of the present invention will be described with reference to FIG.
FIG. 9 is a block diagram showing an example of the configuration of a television receiver such as a digital broadcast receiver which is an embodiment of a broadcast receiver to which the systems of FIGS. 1 and 2 described later are applied.

このテレビ受信装置は、地上アナログ放送波、並びにBS、CS及び地上デジタル放送波を受信可能であり、マイクロプロセッサ10、デジタル用チューナ11、アナログ用チューナ12、デジタル用復調器13、アナログ用復調器14及びTS復号器15を備えている。   This television receiver can receive terrestrial analog broadcast waves, BS, CS, and terrestrial digital broadcast waves, and includes a microprocessor 10, a digital tuner 11, an analog tuner 12, a digital demodulator 13, and an analog demodulator. 14 and TS decoder 15 are provided.

BS、CS及び地上デジタル放送波は、アンテナ1で受信され、この受信信号がデジタル用チューナ11に供給される。同様に、地上アナログ放送波は、アンテナ1で受信され、この受信信号がアナログ用チューナ12に供給される。デジタル用チューナ11及びアナログ用チューナ12は、フェーズロックドループ(PLL)方式を採用し、マイクロプロセッサ10の制御により中心周波数及び帯域幅等の受信パラメータを指定してそれぞれ所望の放送波を選局するために用いられる。   BS, CS, and terrestrial digital broadcast waves are received by the antenna 1, and this received signal is supplied to the digital tuner 11. Similarly, the terrestrial analog broadcast wave is received by the antenna 1, and this received signal is supplied to the analog tuner 12. The digital tuner 11 and the analog tuner 12 employ a phase-locked loop (PLL) system, and select desired broadcast waves by designating reception parameters such as a center frequency and a bandwidth under the control of the microprocessor 10. Used for.

デジタル用チューナ11で選局した放送波の受信信号は、例えば日本の地上デジタル放送の場合にOFDM(orthogonal frequency division multiplexing)方式のデジタル用復調器13及びTS復号器15に順次供給され、これらでデジタル映像信号及び音声信号に復調及び復号される。アナログ用チューナ12で選局された受信信号は、アナログ用復調器14に供給され、ここでアナログ映像信号及び音声信号に復調される。   For example, in the case of Japanese terrestrial digital broadcasting, the received signal of the broadcast wave selected by the digital tuner 11 is sequentially supplied to an OFDM (orthogonal frequency division multiplexing) digital demodulator 13 and a TS decoder 15. Demodulated and decoded into digital video and audio signals. The received signal selected by the analog tuner 12 is supplied to an analog demodulator 14 where it is demodulated into an analog video signal and an audio signal.

このテレビ受信装置は、更に、信号処理部16、グラフィック処理部17、OSD(on screen display)信号生成部18、映像処理部19、ディスプレイ20、音声処理部21、スピーカー22、操作パネル23、赤外線送信部24、赤外線受光部25、フラッシュメモリ26、USB(Universal Serial Bus)コネクタ27、カードコネクタ28、及びネットワーク通信回路29を備える。信号処理部16は、TS復号器15からのデジタル映像信号及び音声信号に対して選択的に所定のデジタル信号処理を施し、それぞれグラフィック処理部17及び音声処理部21に出力する。また、信号処理部16は、アナログ用復調器14からのアナログ映像信号及び音声信号を選択的にデジタル化し、このデジタル化された映像信号及び音声信号に対して所定のデジタル信号処理を施し、それぞれグラフィック処理部17及び音声処理部21に出力する。   The television receiver further includes a signal processing unit 16, a graphic processing unit 17, an OSD (on screen display) signal generation unit 18, a video processing unit 19, a display 20, an audio processing unit 21, a speaker 22, an operation panel 23, an infrared ray. A transmission unit 24, an infrared light receiving unit 25, a flash memory 26, a USB (Universal Serial Bus) connector 27, a card connector 28, and a network communication circuit 29 are provided. The signal processing unit 16 selectively performs predetermined digital signal processing on the digital video signal and the audio signal from the TS decoder 15 and outputs them to the graphic processing unit 17 and the audio processing unit 21, respectively. The signal processing unit 16 selectively digitizes the analog video signal and the audio signal from the analog demodulator 14, performs predetermined digital signal processing on the digitized video signal and audio signal, The data is output to the graphic processing unit 17 and the audio processing unit 21.

グラフィック処理部17は、信号処理部16から出力されたデジタル映像信号にOSD信号生成部18で生成されたOSD信号を選択的に重畳して出力する。映像処理部19は、グラフィック処理部17から出力されたデジタル映像信号に対してディスプレイ20に適合させる例えばサイズ調整等の変換を行う。ディスプレイ20は、映像処理部19から出力された映像信号に対応する映像を表示する。音声処理部21は、信号処理部16から出力されたデジタル音声信号をスピーカー22に適合させる音量調整等の変換を行う。スピーカー22は、音声処理部21から出力された音声信号に対応する音声を再生する。   The graphic processing unit 17 selectively superimposes the OSD signal generated by the OSD signal generation unit 18 on the digital video signal output from the signal processing unit 16 and outputs it. The video processing unit 19 performs conversion such as size adjustment for adapting to the display 20 with respect to the digital video signal output from the graphic processing unit 17. The display 20 displays a video corresponding to the video signal output from the video processing unit 19. The audio processing unit 21 performs conversion such as volume adjustment for adapting the digital audio signal output from the signal processing unit 16 to the speaker 22. The speaker 22 reproduces sound corresponding to the sound signal output from the sound processing unit 21.

マイクロプロセッサ10は、操作パネル23からの操作情報、または図示せぬリモコンから送出され受信された操作情報を受けて、その操作内容が反映されるように各コンポーネントを制御する。ここで、操作パネル或いはキーボード23及びリモコン25は、ユーザーインタフェースとして機能する操作モジュールに相当している。図9に示すように、マイクロプロセッサ10は、様々な処理及び制御を行うCPU(central processing unit)31、このCPU31の制御プログラム及び様々な初期データを保持するROM(read only memory)32、CPU31の入出力情報を一時的に格納する作業エリアを提供するRAM(random access memory)33、ICバス等を介して各コンポーネントに対する設定情報及び制御情報を入出力するインタフェース34、及び放送波やネットワーク経由で取得される時刻情報及び日付情報に従って補正される時計回路35を含んでいる。 The microprocessor 10 receives the operation information from the operation panel 23 or the operation information transmitted and received from a remote controller (not shown), and controls each component so that the operation content is reflected. Here, the operation panel or keyboard 23 and the remote controller 25 correspond to an operation module that functions as a user interface. As shown in FIG. 9, the microprocessor 10 includes a central processing unit (CPU) 31 that performs various processes and controls, a ROM (read only memory) 32 that holds a control program for the CPU 31 and various initial data, A random access memory (RAM) 33 that provides a work area for temporarily storing input / output information, an interface 34 that inputs / outputs setting information and control information for each component via an I 2 C bus, etc., and broadcast waves and networks A clock circuit 35 is included that is corrected according to the time information and date information acquired via the route.

USBコネクタ27は、様々なUSB機器を接続するために設けられている。カードコネクタ28は、様々なメディアカードを接続するために設けられている。また、ネットワーク通信回路29は、インターネットに直接あるいはLAN(local area network)経由で接続されている。時刻情報を放送波から取得する場合は、アンテナ1で受信した信号から、また時刻情報等基礎データをネットワークから取得する場合は、ネットワーク通信回路29から、それぞれマイクロプロセッサ10に取り込まれる。   The USB connector 27 is provided for connecting various USB devices. The card connector 28 is provided for connecting various media cards. The network communication circuit 29 is connected to the Internet directly or via a LAN (local area network). When the time information is acquired from the broadcast wave, the signal is received by the antenna 1, and when the basic data such as time information is acquired from the network, the time information is acquired by the microprocessor 10 from the network communication circuit 29.

またUSBコネクタ27やカードコネクタ28は、外部からUSB機器(メモリ等)やメディアカードを接続して動画、写真、音楽データを読み出すことができる。
マイクロプロセッサ10は、USBコネクタ27に接続されるUSBメモリやカードコネクタ28に接続されるメディアカードにファイルとして保持される映像を取り込み、信号処理部16、グラフィック処理部17、及び映像処理部19での処理を経て各映像をディスプレイ20に表示させる制御を行えるように構成されている。
The USB connector 27 and the card connector 28 can read a moving image, a photograph, and music data by connecting a USB device (memory or the like) or a media card from the outside.
The microprocessor 10 captures a video held as a file in a USB memory connected to the USB connector 27 or a media card connected to the card connector 28, and the signal processing unit 16, the graphic processing unit 17, and the video processing unit 19 Through this process, control is performed to display each image on the display 20.

なお次の図1に関し、ハードディスクHに相当する部分は記載を省略しているが、上記USB機器として備えられていて記憶媒体を構成していてもよい。また視聴中の映像または音声はこれらに記録されたコンテンツを再生しているものであってもよい。   In addition, regarding the following FIG. 1, although the description corresponding to the hard disk H is omitted, it may be provided as the USB device and constitute a storage medium. Also, the video or audio being viewed may be reproduced from the content recorded therein.

またコード保持部5、表示制御部2は、例えばマイクロプロセッサ10のCPU31、ROM32及びRAM33、映像処理部19を中心に構成すればよい。
(実施例)
図1は本実施形態における立体映像表示システム81の内部機能構成の一例を示すブロック図である。
図1に示されるように、立体視TV・映像表示装置12はチューナ11、コード保持部5、表示制御部2、L/R開閉信号発光部4(赤外線送信部24に相当)、及び表示部3(ディスプレイ20に相当)を有しており、例えば送信された放送信号を受信し、ユーザに立体映像を提供することができる。
The code holding unit 5 and the display control unit 2 may be configured around the CPU 31 of the microprocessor 10, the ROM 32 and the RAM 33, and the video processing unit 19, for example.
(Example)
FIG. 1 is a block diagram showing an example of the internal functional configuration of the stereoscopic video display system 81 in the present embodiment.
As shown in FIG. 1, a stereoscopic TV / video display device 12 includes a tuner 11, a cord holding unit 5, a display control unit 2, an L / R open / close signal light emitting unit 4 (corresponding to the infrared transmission unit 24), and a display unit. 3 (corresponding to the display 20), for example, can receive a transmitted broadcast signal and provide a stereoscopic video to the user.

チューナ11は、アンテナによって受信した放送信号をデコード処理し、映像表示装置82内にデコードされた信号を入力する入力手段としての機能を有している。
表示制御部2はこのデコードされた信号を復調・ディジタル化して得られた画像データを表示部3に表示させる機能を有している。このとき、表示制御部2は画像データ中のそれぞれの画像の表示時間の制御を行う。一つの画像を表示する時間は、左目用および右目用それぞれの画像の撮像を行った周期の半分の時間とすることが好適である。例えば、左目用撮像および右目用撮像がそれぞれ60分の1秒周期で連続して撮像していとすると、映像表示装置12は120分の1秒毎に表示している画像を切り替えることとなる。また、表示制御部2はこの画像の切り替えに同期してシャッターメガネ83がシャッターを開閉するように、シャッターメガネ83の開閉に関する信号を発光タイミングとしてL/R開閉信号発光部4に対して送信する。
The tuner 11 has a function as input means for decoding the broadcast signal received by the antenna and inputting the decoded signal into the video display device 82.
The display control unit 2 has a function of causing the display unit 3 to display image data obtained by demodulating and digitizing the decoded signal. At this time, the display control unit 2 controls the display time of each image in the image data. It is preferable that the time for displaying one image is a half of the cycle in which the left eye image and the right eye image are taken. For example, if the left-eye imaging and the right-eye imaging are each continuously captured at a 1/60 second period, the video display device 12 switches the displayed image every 1/120 second. Further, the display control unit 2 transmits a signal related to the opening / closing of the shutter glasses 83 to the L / R opening / closing signal light emitting unit 4 as the light emission timing so that the shutter glasses 83 open / close the shutter in synchronization with the switching of the images. .

L/R開閉信号発光部4は上記のシャッターメガネ83の開閉に関する信号を表示制御部2より受信すると、シャッターメガネ83に対して赤外線によってシャッターへの開閉を指示する開閉信号を(コード保持部5に保持されているコードを)送信する信号送信手段としての機能を有している。本実施形態では赤外線によって開閉信号を送信すると例示するが、これに限定されず、開閉信号を送信できるのであれば他の無線による送信方式であってもよい。また、映像表示装置82とシャッターメガネ83が信号の送受信可能な有線ケーブルによって接続されていてもよい。   When the L / R opening / closing signal light emitting unit 4 receives the signal related to opening / closing of the shutter glasses 83 from the display control unit 2, the L / R opening / closing signal light emitting unit 4 outputs an opening / closing signal for instructing the shutter glasses 83 to open / close the shutter by infrared rays (code holding unit 5). It has a function as a signal transmission means for transmitting a code held in the. In the present embodiment, it is exemplified that the open / close signal is transmitted by infrared rays. However, the present invention is not limited to this, and other wireless transmission methods may be used as long as the open / close signal can be transmitted. Further, the video display device 82 and the shutter glasses 83 may be connected by a wired cable capable of transmitting and receiving signals.

図1にあるようにシャッターメガネ83は次の構成となる。受光部6はTV側からの赤外線発光信号を受信し、電気信号に変換する。デコード部7はコード保持部8のコードデータと受光部6からの電気信号を比較し、一致信号を生成する。シャッター制御部9はデコード部7からの一致信号のタイミングをもとにメガネの左/右シャッターの開閉を制御する。   As shown in FIG. 1, the shutter glasses 83 have the following configuration. The light receiving unit 6 receives an infrared light emission signal from the TV side and converts it into an electrical signal. The decoding unit 7 compares the code data of the code holding unit 8 with the electrical signal from the light receiving unit 6 and generates a coincidence signal. The shutter control unit 9 controls the opening / closing of the left / right shutter of the glasses based on the timing of the coincidence signal from the decoding unit 7.

シャッターメガネ83はL/R開閉信号発光部4より受信する開閉信号に基づいてシャッターの開閉を行う。
表示部3に表示される表示の切り替えおよびシャッターメガネ83の左右レンズそれぞれのシャッターの開閉の周期に関して以下で説明する。
シャッターメガネを用いた立体視テレビシステムの従来よりの例としては上記説明と重複する部分もあるが、TV側から赤外光等を送信し、メガネのシャッター開閉のタイミングを制御する方式がある。図4はシャッターメガネのシャッターの開閉を模式的に表した図である。例えば120fpsで表示するTVの場合は約8.3mS毎に左目用の画像と右目用の画像を交互に表示し、Tfrm(16.6mS=8.3+8.3)毎、左目用画像表示開始時に同期パルスを赤外線を用いてシャッターメガネに送る。シャッターメガネではこの同期パルスからLopen/Ropen信号を生成する。Lopen信号が”1”で右目のシャッターが開放し、”0”で閉じる。Ropen信号が”1”で左目のシャッターが開放し、”0”で閉じる。この様にtv側の右/左目用画像の表示とシャッターメガネのシャッター開閉タイミングを合わせることで立体視を実現する。
The shutter glasses 83 open and close the shutter based on the open / close signal received from the L / R open / close signal light emitting unit 4.
The switching of the display displayed on the display unit 3 and the shutter opening / closing cycle of the left and right lenses of the shutter glasses 83 will be described below.
As a conventional example of a stereoscopic television system using shutter glasses, there is a portion that overlaps with the above description, but there is a method in which infrared light or the like is transmitted from the TV side and the shutter opening / closing timing of the glasses is controlled. FIG. 4 is a diagram schematically showing opening and closing of the shutter of the shutter glasses. For example, in the case of a TV that displays at 120 fps, the image for the left eye and the image for the right eye are displayed alternately every approximately 8.3 mS, and the sync pulse is infrared at the start of the image display for the left eye every Tfrm (16.6 mS = 8.3 + 8.3). Use to send to shutter glasses. The shutter glasses generate a Lopen / Ropen signal from this synchronization pulse. When the Lopen signal is “1”, the right-eye shutter is opened and closed with “0”. When the Ropen signal is “1”, the left-eye shutter is opened and closed with “0”. In this way, stereoscopic display is realized by matching the right / left eye image display on the tv side and the shutter opening / closing timing of the shutter glasses.

図2は本実施形態における立体映像表示システム81の内部機能構成の他例(マスク83a)を示すブロック図である。図1と共通の部分は説明を省略する。
図2に示されるように、立体視TV・映像表示装置12はチューナ11、コード保持部5a、表示制御部2、マスク信号発光部4a(赤外線送信部24に相当)、及び表示部3(ディスプレイ20に相当)を有している。
FIG. 2 is a block diagram showing another example (mask 83a) of the internal functional configuration of the stereoscopic video display system 81 in the present embodiment. Description of parts common to FIG. 1 is omitted.
As shown in FIG. 2, the stereoscopic TV / video display device 12 includes a tuner 11, a cord holding unit 5 a, a display control unit 2, a mask signal light emitting unit 4 a (corresponding to the infrared transmission unit 24), and a display unit 3 (display). 20).

チューナ11は、アンテナによって受信した放送信号をデコード処理し、映像表示装置82内にデコードされた信号を入力する入力手段としての機能を有している。
表示制御部2はこのデコードされた信号を復調・ディジタル化して得られた画像データを表示部3に表示させる機能を有している。このとき、表示制御部2は画像データ中のそれぞれの画像の表示時間の制御を行う。
The tuner 11 has a function as input means for decoding the broadcast signal received by the antenna and inputting the decoded signal into the video display device 82.
The display control unit 2 has a function of causing the display unit 3 to display image data obtained by demodulating and digitizing the decoded signal. At this time, the display control unit 2 controls the display time of each image in the image data.

また、表示制御部2はこの画像の切り替えに同期したシャッターメガネ83aの開閉に関する信号の発光タイミングで、マスク83a用信号としてマスク信号発光部4aに対してマスク情報を送信する。 The display control unit 2 transmits mask information to the mask signal light emitting unit 4a as a signal for the mask 83a at a light emission timing of a signal related to opening / closing of the shutter glasses 83a synchronized with the switching of the image.

マスク信号発光部4aはこのマスク情報の信号を表示制御部2より受信すると、マスク83aに対して赤外線によってマスクを指示する信号を(コード保持部5aに保持されているコードを)送信する信号送信手段としての機能を有している。本実施形態では赤外線によって信号を送信すると例示するが、これに限定されず、信号を送信できるのであれば他の無線による送信方式であってもよい。また、映像表示装置82とマスク83aが信号の送受信可能な有線ケーブルによって接続されていてもよい。   When the mask signal light emitting unit 4a receives the mask information signal from the display control unit 2, the mask signal light emitting unit 4a transmits a signal (a code held in the code holding unit 5a) to instruct the mask 83a with an infrared ray. It has a function as a means. In this embodiment, it is exemplified that signals are transmitted by infrared rays. However, the present invention is not limited to this, and other wireless transmission methods may be used as long as signals can be transmitted. Further, the video display device 82 and the mask 83a may be connected by a wired cable capable of transmitting and receiving signals.

図2にあるようにマスク83aは次の構成となる。受光部6はTV側からの赤外線発光信号を受信し、電気信号に変換する。デコード部7はコード保持部8aのコードデータと受光部6からの電気信号を比較し、一致信号を生成する。マスク制御部9aはデコード部7からの一致信号のタイミングをもとにマスクを制御する。   As shown in FIG. 2, the mask 83a has the following configuration. The light receiving unit 6 receives an infrared light emission signal from the TV side and converts it into an electrical signal. The decoding unit 7 compares the code data of the code holding unit 8a with the electrical signal from the light receiving unit 6, and generates a coincidence signal. The mask control unit 9a controls the mask based on the timing of the coincidence signal from the decoding unit 7.

このマスク83aの使用形態を模式的に表したのが図3である。図3では既存の3Dメガネにマスク機能を持たせる方法を示している。シャッターメガネ83(シャッターS)とは別に用意したマスク用の層(マスク83a、マスクM)を別途取り付けるだけで、既存のメガネの機能をそのままに本実施形態の機能を利用することが出来る。   FIG. 3 schematically shows how the mask 83a is used. FIG. 3 shows a method for providing a mask function to existing 3D glasses. The function of the present embodiment can be used without changing the function of the existing glasses by simply attaching a mask layer (mask 83a, mask M) prepared separately from the shutter glasses 83 (shutter S).

図6は、実施形態のコードの送信タイミングを示す説明図である。図6のようにコードをTfrm毎に送る。メガネ側はコードを受信したタイミングで左シャッターを開放し、所定のタイミングで左/右のシャッターを開閉する。   FIG. 6 is an explanatory diagram illustrating code transmission timing according to the embodiment. The code is sent every Tfrm as shown in FIG. The glasses side opens the left shutter at the timing of receiving the code, and opens / closes the left / right shutter at the predetermined timing.

シャッター制御部9の処理のフローは次のようである。
ST1: カウンタi、左シャッター開放信号Lopen、右シャッター開放信号Ropenを0で初期化する。前述のとおり、Lopen信号が”1”で右目のシャッターが開放し、”0”で閉じる。Ropen信号が”1”で左目のシャッターが開放し、”0”で閉じる。
The processing flow of the shutter control unit 9 is as follows.
ST1: The counter i, the left shutter release signal Lopen, and the right shutter release signal Ropen are initialized to 0. As described above, when the Lopen signal is “1”, the right-eye shutter is opened and closed with “0”. When the Ropen signal is “1”, the left-eye shutter is opened and closed with “0”.

ST2: デコード部での比較の結果、自コードと一致した場合には(ST3)へ、それ以外は(ST4)の処理に移る。
ST3: カウンタiを0で初期化し、Lopen=1,Ropen=0を代入する。(この時点で左シャッター開放・右シャッター閉鎖状態になる)
ST4: カウンタiを1インクリメントする(インクリメントの単位は時間などと対応付けてもよい)。
ST5: カウンタiをTfrm/2と比較し一致しまたは超えていれば(ST6)へ、それ以外は(ST7)の処理へ進む。
ST6: Lopen=0,Ropen=1を代入する(この時点で左シャッター閉鎖・右シャッター開放状態になる)
ST7: カウンタiをTfrmと比較し一致しまたは超えていれば(ST8)へ、それ以外は(ST2)の処理に戻る。
ST8: カウンタiを0で初期化し、Lopen=1,Ropen=0を代入し(この時点で左シャッター開放・右シャッター閉鎖状態になる)、(ST2)の処理に戻る。
ST2: As a result of comparison in the decoding unit, if the code matches the code, the process proceeds to (ST3), otherwise the process proceeds to (ST4).
ST3: The counter i is initialized with 0, and Lopen = 1 and Ropen = 0 are substituted. (At this point, the left shutter is open and the right shutter is closed)
ST4: The counter i is incremented by 1 (the increment unit may be associated with time or the like).
ST5: The counter i is compared with Tfrm / 2 and if it matches or exceeds (ST6), the process proceeds to (ST7), otherwise.
ST6: Substitute Lopen = 0, Ropen = 1 (At this point, the left shutter is closed and the right shutter is open)
ST7: The counter i is compared with Tfrm, and if it matches or exceeds (ST8), the process returns to (ST2) otherwise.
ST8: The counter i is initialized with 0, Lopen = 1 and Ropen = 0 are substituted (the left shutter is opened and the right shutter is closed at this point), and the process returns to (ST2).

赤外線リモコン等における2値のパルス波形である信号波形のフォーマットがある。例えば電圧レベルの時間の遷移を用いている。リーダコード(H区間が4.5msec L区間が4.5msec)に続きカスタムコード及びデータコード等がある構成となっている。   There is a signal waveform format which is a binary pulse waveform in an infrared remote controller or the like. For example, time transition of voltage level is used. Following the leader code (H section is 4.5 msec, L section is 4.5 msec), there are custom codes, data codes, and the like.

図7は、マスク83aの図示せぬマイコンによる制御のフローチャートである。マイコンは自走状態では、スリープモードからタイマーによってコード到着待ちのウェイトモードに入る。映像表示装置82から受信する信号が後述のように適正な信号であると判断したときに制御を行う。   FIG. 7 is a flowchart of control by the microcomputer (not shown) of the mask 83a. In the self-running state, the microcomputer enters the wait mode waiting for the code arrival by the timer from the sleep mode. Control is performed when it is determined that the signal received from the video display device 82 is an appropriate signal as will be described later.

マスク83aにおいて、タイマーによってマイコンはコード到着待ちのウェイトモードに入り(ステップS701)、マスク信号発光部4aから前述の赤外線信号を受光部6で受光し(ステップS702)、マイコンがリーダコードの立ち上がりエッジを検出することにより(ステップS703のYes)、リーダコードを計測する通常モードになる(ステップS704)。受光信号のリーダコードのH区間及びL区間を計測し(ステップS705)、リーダコードが適正(H区間が4.5msec L区間が4.5msec)である場合は(ステップS706のYes)マイコンはリモコン信号を受信したものと判別する。この判別に引き続きカスタムコード及びデータコードをデコードするが(ステップS707)、デコードできなかった場合は(ステップS706のNo)、再びマイコンをスリープモードにして終了する。なお上記ステップS703でNoと判定された場合も再びマイコンをスリープモードにして終了する。   In the mask 83a, the microcomputer enters the wait mode for waiting for the arrival of the code by the timer (step S701), the infrared signal is received by the light receiving unit 6 from the mask signal light emitting unit 4a (step S702), and the microcomputer receives the rising edge of the reader code. Is detected (Yes in step S703), the normal mode for measuring the reader code is entered (step S704). The H section and L section of the reader code of the received light signal are measured (step S705), and if the reader code is appropriate (H section is 4.5 msec and L section is 4.5 msec) (Yes in step S706), the microcomputer sends a remote control signal. Judged as received. Subsequent to this determination, the custom code and the data code are decoded (step S707). If the code cannot be decoded (No in step S706), the microcomputer is again set to the sleep mode and the process is terminated. In addition, also when it determines with No by said step S703, a microcomputer is again set to sleep mode and it complete | finishes.

なお、ステップS706ではリーダコードの立ち上がりエッジを検出してからクロックが安定動作するまでの時間は通常1msec程度であるため、リーダコードのH区間を計測するに当たっては、予めこの1msecを考慮して計測を行う。   In step S706, the time from when the leading edge of the leader code is detected until the clock operates stably is usually about 1 msec. Therefore, when measuring the H section of the leader code, this 1 msec is measured in advance. I do.

次にステップS707でデコードした結果そのデータが適正なコードと判断したとき(ステップS708のYes)、マイコンはマスク制御するが、リモコンコードでない場合は(ステップS708のNo)、再びマイコンをスリープモードにして終了する。   Next, when it is determined in step S707 that the data is an appropriate code (Yes in step S708), the microcomputer performs mask control, but if it is not a remote control code (No in step S708), the microcomputer is again set to the sleep mode. To finish.

本実施形態では画面の輝度を操作することなく、体感される輝度を向上させる。図5は、実施形態のマスクの効果例を説明するために示す説明図である。(a)はメガネ無しの場合であり、(b)〜(f)に通常の3Dメガネを付けた場合と、マスクつきのメガネによる視界イメージを示してある。テレビの距離、位置によってマスク範囲をメガネが自動で切り替える、または手動で切り替えることによって効果範囲が調節される。またマスク方法も透明/黒の2値で行う方法とグラデーションをかける方法が構成でき、グラデーションをかける場合にはその濃さも調節できる。 In the present embodiment, the brightness experienced is improved without manipulating the screen brightness. FIG. 5 is an explanatory diagram for explaining an effect example of the mask of the embodiment. (A) is a case without glasses, and (b) to (f) show a case where normal 3D glasses are attached and a view image by glasses with a mask. The range of effect is adjusted by automatically switching the mask range according to the distance and position of the television, or by manually switching the mask range. In addition, the masking method can be composed of a transparent / black binary method and a gradation method, and the gradation can be adjusted when gradation is applied.

図10は、実施形態の補正量の通知イメージを示す構成図である。図10はテレビ側で検出した視聴環境の明るさを通信することでマスク範囲を調整する方法を示している。即ち、映像表示装置82からマスクMへ明るさ情報を表現するコードを送信する。立体映像を見ないユーザではシャッターSがなくマスクMのみの使用形態も有り得る。   FIG. 10 is a configuration diagram illustrating a correction amount notification image according to the embodiment. FIG. 10 shows a method of adjusting the mask range by communicating the brightness of the viewing environment detected on the television side. That is, a code representing brightness information is transmitted from the video display device 82 to the mask M. A user who does not view a stereoscopic image may use only the mask M without the shutter S.

図11は、実施形態のマイクロプロセッサ10を主体とするテレビ側補正量決定フローチャートである。次のほかにも、図11ではテレビ側で検出したメガネまでの距離、現在時刻などを通信することでマスク量を調節する機能を備えることが出来ることが示されている。   FIG. 11 is a flowchart for determining a correction amount on the television side mainly including the microprocessor 10 according to the embodiment. In addition to the following, FIG. 11 shows that a function for adjusting the mask amount can be provided by communicating the distance to the glasses detected on the television side, the current time, and the like.

ステップS11:マイクロプロセッサ10は動作開始後、メガネ(マスク83a)との距離を検出する。
ステップS12:明るさを検出する。
ステップS13:マスクが必要か判定する。マスクをする設定になってないか、または暗い場合は不要である。
ステップS14:前ステップでマスクが必要と判定された場合には、シネマモードか判定する。
ステップS15:前ステップでシネマモードと判定された場合には、映像をより暗く見せたいためにマスク量を明るめに設定する。放送等サイドバイサイドの映像に対しフレームパケットの映像では倍の情報があることも含んでいる。
Step S11: After starting the operation, the microprocessor 10 detects the distance from the glasses (mask 83a).
Step S12: Brightness is detected.
Step S13: It is determined whether a mask is necessary. If it is not set to mask or dark, it is not necessary.
Step S14: If it is determined in the previous step that a mask is necessary, it is determined whether the mode is a cinema mode.
Step S15: If the cinema mode is determined in the previous step, the mask amount is set brighter in order to make the video appear darker. This includes that there is double information in the frame packet video for side-by-side video such as broadcasting.

ステップS16:ステップS14でシネマモードでないと判定された場合には、マスク量を暗めに設定する。
ステップS17:ステップS13でマスクが必要でないと判定された場合には、マスクを無しに設定する。
ステップS18:(出力)ステップS15からステップS17のいずれかの設定を表示制御部2へ出力する。
ステップS19:表示制御部2はマスク信号発光部4aを介してマスク量をメガネ(マスク83a)に通知し、ステップS11に戻る。
図12は、実施形態のマスク制御部9aを主体とするメガネ側補正フローチャートである。
ステップS21:デコード部7は所定のタイミングでテレビからの情報を受信する。
ステップS22:デコード部7がテレビからの情報を受信できたか、マスク制御部9aは判定する。
ステップS23:ステップS21でテレビからの情報を受信できなかった場合は、マスク制御部9aはマスク解除を設定する。テレビから目をそむけている場合などが該当する。
Step S16: If it is determined in step S14 that the cinema mode is not set, the mask amount is set to be dark.
Step S17: If it is determined in step S13 that a mask is not necessary, the mask is set to no.
Step S18: (Output) One of the settings from Step S15 to Step S17 is output to the display control unit 2.
Step S19: The display control unit 2 notifies the glasses (mask 83a) of the mask amount via the mask signal light emitting unit 4a, and returns to step S11.
FIG. 12 is a glasses side correction flowchart mainly including the mask control unit 9a of the embodiment.
Step S21: The decoding unit 7 receives information from the television at a predetermined timing.
Step S22: The mask control unit 9a determines whether the decoding unit 7 has received information from the television.
Step S23: If the information from the television cannot be received in step S21, the mask control unit 9a sets the mask release. This is the case when looking away from the TV.

ステップS24:ステップS21でテレビからの情報を受信できた場合は、マスク制御部9aはマスク範囲を決定する。
ステップS25:マスク制御部9aはマスク量を決定する。
ステップS26:マスク制御部9aはマスク適用を設定する。
ステップS27:(出力)マスク制御部9aはステップS23かステップS26のいずれかの設定をマスクとして出力し、ステップS21に戻る。
図13は、実施形態のマスク制御部9aを主体とするマスク範囲制御のフローチャートである。
ステップS31:メガネの視界に映る画面範囲を計測する。
ステップS32:テレビが視界に入っているか判定する。
ステップS33:ステップS32でテレビが視界に入っていると判定された場合は、テレビの例えば左上・右下位置に応じて矩形にマスクを切り抜く。
ステップS34:ステップS32でテレビが視界に入っていると判定されなかった場合は、マスクを解除する。
ステップS35:(出力)ステップS33かステップS34のいずれかの設定をマスクとして出力し、ステップS31に戻る。
図13の例ではテレビからの信号をタイミングに用いずに自走処理を行ってもよい。グラスレス3D(俗称裸眼3D)でも使用できる。
以上のように、本実施形態によれば、対となる立体視TVとマスクとで赤外線で送信するコードを共有する。
本実施例では赤外線信号を用いているが、これを電波・超音波等の無線信号と置き換えても一般性を失わないことは明らかである。またシャッターメガネでなく例えば偏光メガネとマスクを共用してもよい。
Step S24: If the information from the television can be received in step S21, the mask control unit 9a determines the mask range.
Step S25: The mask controller 9a determines the mask amount.
Step S26: The mask controller 9a sets mask application.
Step S27: (Output) The mask controller 9a outputs the setting of either step S23 or step S26 as a mask, and returns to step S21.
FIG. 13 is a flowchart of mask range control mainly including the mask control unit 9a of the embodiment.
Step S31: A screen range reflected in the field of view of the glasses is measured.
Step S32: It is determined whether the television is in view.
Step S33: When it is determined in step S32 that the television is in the field of view, a rectangular mask is cut out according to, for example, the upper left and lower right positions of the television.
Step S34: If it is not determined in step S32 that the television is in view, the mask is released.
Step S35: (Output) The setting in either step S33 or step S34 is output as a mask, and the process returns to step S31.
In the example of FIG. 13, the self-running process may be performed without using the signal from the television for the timing. Glassless 3D (popular name naked eye 3D) can also be used.
As described above, according to the present embodiment, a pair of stereoscopic TV and a mask share a code transmitted by infrared rays.
In this embodiment, an infrared signal is used, but it is clear that generality is not lost even if it is replaced with a radio signal such as a radio wave or an ultrasonic wave. Further, instead of the shutter glasses, for example, polarized glasses and a mask may be shared.

従来の3Dメガネ着用に伴う映像の暗さを改善することが出来、メガネによる映像補正が可能となり以下のような特徴がある。
(1)3D立体視メガネにマスク機能を持たせる(グラデーション/2値)
(2)モニターが見える部分以外をメガネ側でマスクする
(3)テレビ側で検出した部屋の明るさ情報をテレビ-メガネ間の同期信号に重畳し、
マスク量を自動調節する
(4)立体視メガネの視界中にテレビが映る位置を検出して自動調節する。
(5)(4)において必要ならば、立体視メガネとテレビの位置関係を検出する。
(6)補正が必要なければ通常の3Dメガネとして運用する
(7)距離が分かれば音量操作も可能となる(オプション機能)
(実施形態の効果)
本実施形態では画面の輝度を操作することなく、体感される輝度を向上させる。メガネを通した視界のうち、映像が映りこむ範囲以外をシャッターとは別に用意した液晶マスクによって暗くなるようにする。こうすることで背景に対するテレビジョン装置の輝度は相対的に高くなるため、輝度が向上したように感じることが出来る。
It is possible to improve the darkness of the image associated with wearing the conventional 3D glasses, and it is possible to correct the image using glasses, and has the following characteristics.
(1) Give 3D stereoscopic glasses a mask function (gradation / 2 values)
(2) Mask the area other than the part where the monitor is visible on the glasses side. (3) Superimpose the brightness information of the room detected on the TV side on the sync signal between the TV and glasses.
Adjust the mask amount automatically (4) Detect and automatically adjust the position of the television image in the field of view of the stereoscopic glasses.
(5) If necessary in (4), the positional relationship between the stereoscopic glasses and the television is detected.
(6) If correction is not required, operate as normal 3D glasses (7) If the distance is known, volume control is possible (optional function)
(Effect of embodiment)
In the present embodiment, the brightness experienced is improved without manipulating the screen brightness. In the field of view through the glasses, the area other than the area where the image is reflected is darkened by the liquid crystal mask prepared separately from the shutter. By doing so, the luminance of the television apparatus with respect to the background becomes relatively high, so that it can be felt that the luminance is improved.

また、テレビジョン装置との距離や、テレビジョン装置から送られてくる部屋の明るさ、メガネとの距離によりマスク範囲やマスク量をある程度自動で調節することによって、効果を高めることが出来る。特にマスク範囲についてはメガネの視界中のどこにテレビがあるかによっては固定的に設定しても良いし、メガネに小型のカメラを取り付けテレビの四隅を検出する方法も使うことが出来る。また、テレビ側でユーザの位置を検出しメガネ側に通信することでマスク範囲を絞り込むことも可能である。ユーザの位置の検出は、体や顔、メガネやマスクなどを対象に行うことができる。 Further, the effect can be enhanced by automatically adjusting the mask range and mask amount to some extent according to the distance from the television apparatus, the brightness of the room sent from the television apparatus, and the distance from the glasses. In particular, the mask range may be fixed depending on where the television is in the field of view of the glasses, or a method of detecting the four corners of the television by attaching a small camera to the glasses can be used. It is also possible to narrow the mask range by detecting the user's position on the television side and communicating with the glasses side. The user's position can be detected on the body, face, glasses, mask, and the like.

なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しない範囲で種々変形して実施することができる。マスクとメガネを一体に構成してもよい。また例えばマスクをメガネのオプションの形態とし、例えばメガネからデコード部7の出力を端子に出し、この出力をマスクは入力するようにしてマスクの構成を簡単にしてもよい。   In addition, this invention is not limited to the said embodiment, In the range which does not deviate from the summary, it can implement in various modifications. You may comprise a mask and glasses integrally. Further, for example, the mask may be an optional form of glasses, and for example, the output of the decoding unit 7 may be output from the glasses to a terminal, and the output may be input to the mask to simplify the mask configuration.

また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係わる構成要素を適宜組み合わせても良いものである。   Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements according to different embodiments may be appropriately combined.

1…チューナ、2…表示制御部、3…表示部、4…L/R開閉信号発光部、4a…マスク信号発光部、5…コード保持部、5a…コード保持部、6…受光部、7…デコード部、8…コード保持部、8a…コード保持部、9…シャッター制御部、9a…マスク制御部、10…マイクロプロセッサ、16…信号処理部、17…グラフィック処理部、18…OSD信号生成部、19…映像処理部、20…ディスプレイ、23…操作パネル、24…赤外線送信部、25…赤外線受光部、26…フラッシュメモリ、27…USBコネクタ、28…カードコネクタ、29…ネットワーク通信回路、81…立体映像表示システム、82…映像表示装置、83…シャッターメガネ、84…左目用レンズ、85…右目用レンズ。   DESCRIPTION OF SYMBOLS 1 ... Tuner, 2 ... Display control part, 3 ... Display part, 4 ... L / R opening / closing signal light emission part, 4a ... Mask signal light emission part, 5 ... Code holding part, 5a ... Code holding part, 6 ... Light receiving part, 7 DESCRIPTION OF SYMBOLS ... Decoding part, 8 ... Code holding part, 8a ... Code holding part, 9 ... Shutter control part, 9a ... Mask control part, 10 ... Microprocessor, 16 ... Signal processing part, 17 ... Graphic processing part, 18 ... OSD signal generation , 19 ... Video processing unit, 20 ... Display, 23 ... Operation panel, 24 ... Infrared transmitter, 25 ... Infrared light receiver, 26 ... Flash memory, 27 ... USB connector, 28 ... Card connector, 29 ... Network communication circuit, 81 ... stereoscopic image display system, 82 ... video display device, 83 ... shutter glasses, 84 ... left eye lens, 85 ... right eye lens.

Claims (5)

第1の画像群および前記第1の画像群と視差を有する画像群である第2の画像群とを入力する入力手段と、
ユーザが装着したときに右眼及び左眼に入射する映像をそれぞれ部分マスク形態で遮ることができるマスクに信号を送信する信号送信手段と、
前記信号として送信する前記マスクの動作のために固有なコードを保持するコード保持手段と、
画像を表示する表示手段と、を具備し、
前記コードは既定のタイミングで送信されるように設定されている映像表示装置。
Input means for inputting a first image group and a second image group which is an image group having parallax with the first image group;
A signal transmission means for transmitting a signal to a mask capable of blocking the images incident on the right eye and the left eye when worn by the user in a partial mask form,
Code holding means for holding a unique code for the operation of the mask to be transmitted as the signal;
Display means for displaying an image,
A video display device configured to transmit the code at a predetermined timing.
前記部分マスク形態は、グラデーションを用いて設定される請求項1に記載の映像表示装置。   The video display device according to claim 1, wherein the partial mask form is set using gradation. 前記部分マスク形態は、明るさ情報を用いて設定される請求項1に記載の映像表示装置。   The video display device according to claim 1, wherein the partial mask form is set using brightness information. 第1の画像群および前記第1の画像群と視差を有する画像群である第2の画像群とを入力する入力手段と、
ユーザが装着したときに右眼及び左眼に入射する映像をそれぞれ部分マスク形態で遮ることができるマスクに信号を送信する信号送信手段と、
このマスクにと、
前記信号として送信する前記マスクの動作のために固有なコードを保持するコード保持手段と、
画像を表示する表示手段と、を具備し、
前記コードは非定期的なタイミングで送信されるように制御する映像表示システム。
Input means for inputting a first image group and a second image group which is an image group having parallax with the first image group;
A signal transmission means for transmitting a signal to a mask capable of blocking the images incident on the right eye and the left eye when worn by the user in a partial mask form,
With this mask,
Code holding means for holding a unique code for the operation of the mask to be transmitted as the signal;
Display means for displaying an image,
An image display system for controlling the code to be transmitted at irregular intervals.
第1の画像群および前記第1の画像群と視差を有する画像群である第2の画像群とを入力し、これらの画像を表示し、
ユーザが装着したときに右眼及び左眼に入射する映像をそれぞれ部分マスク形態で遮ることができるマスクにこのマスクの動作のために固有なコードを既定のタイミングで送信する映像表示方法。
Input a first image group and a second image group that is an image group having parallax with the first image group, and display these images;
A video display method for transmitting a code specific to the operation of a mask to a mask capable of blocking a video image incident on the right eye and the left eye when the user wears them in a partial mask form at a predetermined timing.
JP2010242824A 2010-10-28 2010-10-28 Video display device, video display system, and video display method Pending JP2012095240A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010242824A JP2012095240A (en) 2010-10-28 2010-10-28 Video display device, video display system, and video display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010242824A JP2012095240A (en) 2010-10-28 2010-10-28 Video display device, video display system, and video display method

Publications (1)

Publication Number Publication Date
JP2012095240A true JP2012095240A (en) 2012-05-17

Family

ID=46388073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010242824A Pending JP2012095240A (en) 2010-10-28 2010-10-28 Video display device, video display system, and video display method

Country Status (1)

Country Link
JP (1) JP2012095240A (en)

Similar Documents

Publication Publication Date Title
JP4937369B2 (en) Electronic device, video output system, and video output method
US9414041B2 (en) Method for changing play mode, method for changing display mode, and display apparatus and 3D image providing system using the same
JP2011193460A (en) Method for adjusting 3d-image quality, 3d-display apparatus, 3d-glasses, and system for providing 3d-image
US20100194857A1 (en) Method of stereoscopic 3d viewing using wireless or multiple protocol capable shutter glasses
US20120004919A1 (en) Three-dimensional glasses with bluetooth audio decode
JP5448594B2 (en) Stereoscopic image display control device and control method of stereoscopic video display control device
CN112689992B (en) Method and apparatus for synchronizing digital camera with alternate image content shown on physical display
EP2611162B1 (en) Apparatus and method for displaying
KR20130046336A (en) Multi-view device of display apparatus and contol method thereof, and display system
JP2011139456A (en) 3d glass driving method, and 3d glass and 3d display device using the same
JP2011211660A (en) Image display apparatus, image display system, and display method
US20110001805A1 (en) System and method of transmitting and decoding stereoscopic sequence information
KR20120132240A (en) Display method and dual view driving method for providing plural images to plural users and display apparatus and dual view glass applying the method
KR101994322B1 (en) Disparity setting method and corresponding device
WO2010091113A2 (en) Method of stereoscopic 3d image capture and viewing
US20110292192A1 (en) Stereoscopic display device, display control circuit, and display method
JPWO2011108287A1 (en) LIGHTING CONTROL DEVICE, LIGHTING DEVICE AND LIGHTING SYSTEM USING LIGHTING CONTROL DEVICE, DISPLAY DEVICE AND GLASSES DEVICE USED WITH LIGHTING CONTROL DEVICE
US20120098831A1 (en) 3d display apparatus and method for processing 3d image
KR101768538B1 (en) Method for adjusting 3-Dimension image quality, 3D display apparatus, 3D glasses and System for providing 3D image
JP2012095240A (en) Video display device, video display system, and video display method
JP2013013089A (en) Three-dimensional display device and three-dimensional display method applied to the same
JP2012047829A (en) Stereoscopic image display device and eyeglasses for stereoscopic image
KR101558262B1 (en) System for viewing digital broadcasting program of multi-angle stereoscopic image based on speech recognition
JP2013048358A (en) Viewing system and control method of the same
KR20120015831A (en) 3-dimension glasses, method for driving 3-dimension glass and system for providing 3d image