JP2011134295A - 立体映像表示装置およびカーソル表示方法、プログラム、記憶媒体 - Google Patents

立体映像表示装置およびカーソル表示方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP2011134295A
JP2011134295A JP2010187646A JP2010187646A JP2011134295A JP 2011134295 A JP2011134295 A JP 2011134295A JP 2010187646 A JP2010187646 A JP 2010187646A JP 2010187646 A JP2010187646 A JP 2010187646A JP 2011134295 A JP2011134295 A JP 2011134295A
Authority
JP
Japan
Prior art keywords
cursor
image
cursor image
parallax amount
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010187646A
Other languages
English (en)
Other versions
JP4876182B2 (ja
Inventor
Teruki Yoshikawa
輝樹 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010187646A priority Critical patent/JP4876182B2/ja
Priority to US12/945,352 priority patent/US8823781B2/en
Publication of JP2011134295A publication Critical patent/JP2011134295A/ja
Application granted granted Critical
Publication of JP4876182B2 publication Critical patent/JP4876182B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Abstract

【課題】立体映像上で視差を有するカーソルを操作可能な立体映像表示装置においてカーソルを移動させた場合にユーザがカーソルを見失うことを極力防ぐ。
【解決手段】視差を有する画像の組からなる立体映像と、ユーザの操作入力に応じて移動するカーソル画像を立体視可能なように生成し、立体映像に合成して表示させることが可能な立体映像表示装置は、カーソル画像が立体映像に合成されて表示されている位置における立体映像の視差量を取得するとともに、カーソル画像の移動速度を算出する。そして、算出された移動速度に基づいてカーソル画像が移動中か否かを判定し、移動中と判定された場合には、カーソル画像の視差量を一定の所定値としてカーソル画像を生成する。またカーソル画像が移動中でないと判定された場合は、カーソル画像の視差量を、上記取得された立体映像の視差量としてカーソル画像を生成する。
【選択図】 図6

Description

本発明は、立体映像表示装置およびカーソル表示方法に関する。
近年、デジタル技術の進歩に伴い、3次元映像製作環境が整備され、3次元(以下、3D)放送が開始されている。3D放送を受信し表示する立体映像表示装置では、表示パネル上に偏向特性を有するフィルムを貼り、左目用、右目用映像をインターレース表示する。観察者は、偏向メガネを通して、左目用表示ラインを左目により、右目用表示ラインを右目により観察することで、立体的に映像を観察することができる。また、左目用、右目用の映像を交互に表示し、液晶シャッターを有するメガネを使用して左目用、右目用の映像をそれぞれ観察者の左目、右目のみに入るように制御することにより、観察者によって立体的に見えるよう構成された立体表示装置も存在する。
一方、高度衛星デジタル放送規格において、従来の十字キーを用いた押しボタン型のリモコンキーによる操作以外に、例えばマウスのような入力デバイスを用いて、カーソル操作する方法が検討されている。この場合、ユーザは、カーソル操作により映像中のオブジェクトを指し示すことが可能である。しかし、3D放送のような立体映像に対しては、2次元平面のカーソル画像を単に重畳表示しただけでは、カーソルがどのオブジェクトを指し示しているのか分かり難いという課題がある。
特許文献1には、立体映像上でカーソル表示する際に、映像と同じ視差量をカーソルに付加することにより、立体映像上においても、どのオブジェクトを指し示しているのか分かりやすくする技術が記載されている。また、特許文献2では、立体表示されるオブジェクトとカーソルの重なりを判断し、重なりがある場合には、カーソルが前記オブジェクト以上に手前側に立体視されるように表示することが記載されている。特許文献2も、カーソルがどのオブジェクトを指し示しているのか分かりやすく表示することを課題としたものである。
特開2001−326947号公報 特開2004−354540号公報
しかしながら、上記特許文献1、2に記載の技術は、常にカーソル位置にある立体映像の視差量をカーソル画像に適用しているため、カーソルの移動中にカーソルがユーザの意図しない動きをしてしまうことがあった。図11は、従来技術における、カーソルの移動時の軌跡を説明する図である。ユーザは、視差量0(Z=0)のクロスポイント面1301に対して手前方向に飛び出した面1302と、奥行き方向に引っ込んだ面1303を認識できる。この状態で、ユーザがマウスを操作してカーソルを球オブジェクト1304から球オブジェクト1305へ移動させようとすると、移動軌跡1306に示すように、マウスの横スライド操作に対して、カーソルは奥行き方向であるZ軸に対しても移動する。カーソル位置にある立体映像の視差量をカーソル画像に適用しているためである。その結果、ユーザにとっては操作意図に反した表示となり、カーソルを見失ってしまうという課題があった。
本発明は、上述した課題に鑑みてなされたものであり、立体映像上で視差を有するカーソルを操作可能な立体映像表示装置においてカーソルを移動させた場合に、ユーザがカーソルを見失うことを極力防ぐことを目的とする。
上記の目的を達成するための本発明の一態様による立体映像表示装置は以下の構成を有する。すなわち、視差を有する画像の組からなる立体映像に、ユーザの操作入力に応じて移動するカーソル画像を合成して表示させることが可能な立体映像表示装置であって、前記カーソル画像を生成する生成手段と、前記生成手段により生成された前記カーソル画像が合成されて表示される位置における立体映像の視差量を取得する取得手段と、前記カーソル画像が合成されて表示される位置における前記カーソル画像の移動速度を検出する検出手段と、前記検出手段により検出された前記カーソル画像の移動速度に基づいて、前記カーソル画像が移動しているか否かを判定する判定手段と、を有し、前記判定手段により前記カーソル画像が移動していると判定された場合、前記生成手段は前記カーソル画像の視差量を一定の所定値として前記カーソル画像を生成し、前記判定手段により前記カーソル画像が移動していないと判定された場合、前記生成手段は前記カーソル画像の視差量を、前記取得手段により取得された立体映像の視差量に基づいた視差量とすることを特徴とする。
本発明によれば、立体映像上で視差を有するカーソルを操作可能な立体映像表示装置においてカーソルを移動させた場合に、ユーザがカーソルを見失うことを極力防ぐことができる。
実施形態による立体映像観察システムの構成を示す図。 実施形態に係る放送受信装置の構成例を示すブロック図。 第1実施形態に係るデータフローを説明する図。 実施形態に係るカーソル画像の生成処理を説明するフローチャート。 カーソル視差量決定動作を説明する図。 第1実施形態に係るカーソル移動軌跡を示す図。 第2実施形態に係るデータフローを説明する図。 ユーザが観察する立体映像を真上から見た場合の模式図。 第2実施形態に係るカーソル移動軌跡を示した図。 カーソルの向きを切替えた際の表示例を説明した図。 従来技術における、カーソルの移動時軌跡を説明する図。
以下、図面を参照して、本発明を実施するための形態を例示的に詳しく説明する。ただし、実施形態に記載されている構成部品の機能、相対配置などは特定的な記載がない限り、本発明の範囲をそれらのみに限定する趣旨のものではない。また、以下の説明で一度説明した構成や部品についての機能、形状などは特に改めて記載しない限り初めの説明と同様のものとする。
[第1実施形態]
図1は、本発明を適用可能な立体映像観察システムの構成を示す概略図である。放送受信装置100、表示パネル101及びマウス102を含んで構成される立体映像表示装置と、立体観察用の専用メガネ103とにより本実施形態の立体映像観察システムが構成される。なお、マウス102は、操作入力部としてポインティングデバイスを適用した場合の一例である。立体映像表示におけるカーソルの操作が可能な操作入力部はこのような例示に限られるものではなく、トラックボール、座標入力装置、十字キーなど種々の構成を採用することができる。
放送受信装置100は、本実施形態による立体映像観察システムにおける放送受信機能を司る装置である。放送受信装置100には、例えば、USB規格に準拠した接続線を介してマウス102が接続される。表示パネル101は放送受信装置100から出力される映像を受信して表示するものである。表示パネルは液晶方式、プラズマ方式などの方式によらず、適用することが可能である。なお、表示パネル101上には偏光フィルタ(不図示)が貼り付けられており、視差のある映像がそれぞれ異なる振動方向の光で表示される。表示パネル101上に表示された映像をそれぞれ異なる方向の偏光フィルタを有する専用メガネ103を介して観察することで、ユーザは表示パネル101上の映像を3D映像として認識することができる。
図2は、第1実施形態に係る放送受信装置100の概略構成を示すブロック図である。なお、カーソル画像切替部701は第2実施形態で用いられる構成であり、第1実施形態では省略可能である。
図2において、CPU201はROM202に格納されたプログラムに従って放送受信装置の制御を司る。RAM203は揮発性メモリであり、CPU201のワークメモリとして使用されると同時に、各種データの一時記憶エリアとしても使用される。チューナ部204はアンテナ205から受信した放送波を復調し、ビデオ・オーディオのベースバンドデータを出力する。デマルチプレクサ部206はチューナ部204から受信したデータのフレーム分解を行い、ビデオデータ、オーディオデータ、及び番組情報データを分離する。デマルチプレクサ部206で分離されたビデオデータおよびオーディオデータは、デコーダ部207に入力される。
デコーダ部207は、MPEG2符号化されたビデオデータを復号化処理し、映像コンポーネント種別が3D映像の場合は3D映像生成部210へ、2D映像の場合は映像処理部212へビデオデータを出力する。映像コンポーネント種別については後述する。また、デコーダ部207は、MPEG2−AAC符号化されたオーディオデータを復号化処理してリニアPCM形式に変換し音声処理部208に出力する。
デマルチプレクサ部206で分離された番組情報データは、映像判定部209に入力される。番組情報データは、(社)電波産業会(ARIB)における標準規格「デジタル放送に使用する番組配列情報」等で規定されるデータ構造で伝送される。このデータ構造には、主な構成データとして、SDT(Service Description Table)やEIT(Event Information Table)が含まれる。ここで、SDTは編成チャンネルに関する情報を伝送するためのテーブルであり、EITは番組の名称や放送時間、伝送されるコンポーネント種別など、番組に関する情報を伝送するためのテーブルである。本実施形態においては、これらのテーブルのうち、EITに挿入されるコンポーネント種別(component_type)を用いてビデオデータのフォーマットを取得する。また、本実施形態では、現在規格化されている映像コンポーネント種別にフォーマット情報として3D映像を追加定義する。
映像判定部209は、復号処理中のビデオデータのフォーマットが2D映像であるか3D映像であるかを前述のコンポーネント情報に基づいて判定し、その結果を3D映像生成部へ通知する。3D映像生成部210は、映像判定部209から映像フォーマットの通知を受信し、それが3D映像である場合には立体視可能にするべく、左目用、右目用の視差画像をオーバーラップさせる立体視化処理を施す。例えば、表示パネルの奇数ラインが左目用映像、偶数ラインが右目用映像となるフレーム画像を生成する。そして、生成したフレーム画像を映像処理部212へ入力する。
視差測定部211は、3D映像である場合に、カーソル情報取得部213から取得したカーソル位置に対応する映像の視差量を左目用、右目用の視差画像から測定し、カーソル画像生成部214へ通知する。カーソル画像生成部214は、カーソル情報取得部213から取得したカーソルの移動状態と、視差測定部211から通知された視差に基づきカーソル画像を生成し、映像処理部212へ入力する。映像処理部212は、映像信号に対してγ処理、スケーリング処理等の高画質化処理を施す。そして、映像処理部212は、生成したカーソル画像をカーソル情報取得部213から取得した位置に重畳して合成した後、例えばLVDS信号等、表示パネルに合わせた映像データに変換して出力する。
音声処理部208は、D/A変換処理を施し、音声出力部215に出力する。リモコン216は、ユーザ操作に応じて制御信号を赤外線信号として送信する。マウス102は、ユーザ操作に応じて制御信号、および、割り込み信号を、接続線を介して外部インタフェース部218へ送信する。CPU201は、リモコン受光部217で受光された赤外線信号や、外部インタフェース部218から入力された割り込み信号から、放送受信装置100を制御するための各種コマンドや制御信号を生成し、出力する。なお、上述した各部についてその一部もしくは全てをCPU201がプログラムを実行することにより実現するようにしてよい。
図3の(a)は、視差測定部211、カーソル情報取得部213、カーソル画像生成部214のデータフローを説明する図である。前述の3D映像生成部210は、3D映像を構成する左目用の視差画像(L画像)を測定ブロック設定部301、右目用画像(R画像)を探索範囲設定部302にそれぞれ入力する。もちろん、L画像を探索範囲設定部302に入力し、R画像を測定ブロック設定部301に入力するようにしても良い。
測定ブロック設定部301では、図3の(b)に示すように、カーソル情報取得部213により取得した現在のカーソル位置350に基づいて左目用の視差画像上に所定数の測定ブロック351を設定し、該測定ブロックの画像データを基準データとして出力する。本実施形態では、例えば、カーソル位置350を中心とした1つの測定ブロック351(M×N画素(M=N=4))を設定するものとする。
探索範囲設定部302は、右目用画像上に測定ブロック351と同じ座標(x,y)を中心とする探索範囲352と、その探索範囲352内で測定ブロック351と同じ大きさの参照ブロック353を設定する。そして、探索範囲設定部302は、参照ブロック353の画像データを参照データとして出力する。本実施形態では、例えば、測定ブロック351に対し、上下左右の一方向にn画素(上下方向の場合は1≦n<M、左右方向の場合は1≦n<N(本実施形態では1≦n<4))シフトしたブロックを参照ブロック353とする。従って、探索範囲352の大きさは、(3M−2)画素×(3N−2)画素となる。また、参照ブロック353は、1つの測定ブロック351に対して複数個設定されることになる。
視差量算出部303は、入力された基準データと参照データに対してマッチング演算処理を行い、基準データに対する視差量(Δx,Δy)を算出する。すなわち、視差量算出部303は、探索範囲352内で測定ブロック351とマッチング度の最も高い参照ブロック353を検出し、測定ブロック351と検出された参照ブロック353の位置関係によりカーソル位置350における映像の視差量を得る。カーソル画像生成部214は、カーソル情報取得部213により取得したカーソルの移動状態、視差測定部211により取得した視差量、および後述するプログラム処理の結果に基づき、視差量を有するカーソル画像を生成して出力する。
図4は、上述した本実施形態におけるカーソル画像生成の動作を説明するフローチャートである。CPU201は、ユーザのマウス102に対する操作による割り込み信号発生時、および、予め定めてある任意のポーリング周期で図4のフローチャートに示す処理を実行する。本実施形態では、例えば、50msec周期のポーリング処理を実行する。なお、ユーザがマウス102を操作してカーソル移動した場合、外部インタフェース部218が割り込み要求をCPU201へ通知する。CPU201は、割り込み要求を受け付けたとき、または、各ポーリング周期において、カーソルイベント処理用のプログラムをROM202から読み出し実行する。カーソルイベント処理用のプログラム(以下、ユーザプログラム)が実行されると、CPU201は、視差測定部211、カーソル情報取得部213、カーソル画像生成部214によりカーソル表示を制御する。
まず、カーソル情報取得部213は、現在のカーソル位置(x,y)を取得する(ステップS401)。なお、高度衛星デジタル放送規格におけるARIB−Jアプリケーションでは、ユーザプログラムは、HID(HumanInterface Device)Listenerインタフェースをインプリメントすることで、HIDEventクラスを用いてカーソルイベントの詳細情報を取得することができる。ユーザプログラムは、HIDEventクラスのメソッドであるgetData()を利用してマウスから受信したデータを取得し、カーソル画像が合成される現在のカーソル位置を求める。なお、カーソル情報取得部213は、取得したカーソル位置(x,y)を視差測定部211とカーソル画像生成部214に通知する。
次に、カーソル情報取得部213は、取得したカーソル位置から、カーソル画像が合成されるカーソル位置でのカーソル移動速度を求める(ステップS402)。ここで、カーソル画像が合成されるカーソル位置でのカーソル移動速度とは、前回の割り込み、もしくはポーリングで取得したカーソル位置とカーソル画像が合成される現在のカーソル位置、および、カーソル位置取得時の時間差分を用いて算出されるとする。そして、カーソル移動速度が、ユーザプログラム内で予め定めている閾値以上になると、カーソル情報取得部213はカーソル移動中であると判断し、「カーソル移動」イベントを発生する(ステップS403(YES),S404)。他方、カーソル速度が、予め定めている閾値未満になると、カーソル情報取得部213はカーソル停止中もしくは停止状態に近いと判断し、「カーソル停止」イベントを発生する(S403(NO),ステップS405)。なお、上記の閾値を0とすると、上記イベントは、単純なカーソル移動開始、停止に対応することになる。
カーソル画像生成部214は、前述のイベントを受信すると、図5に示す状態遷移表に基づいて、カーソルに適用する視差量を決定し(ステップS406)、プログラムの内部状態を変更する(ステップS407)。そして、カーソル画像生成部214は、前述の決定結果に従ってカーソル画像を生成する(ステップS408)。即ち、カーソル画像生成部214は、カーソル表示の視差量を変更すると決定された場合には視差測定部211により測定された当該カーソル位置(x,y)における映像の視差量に追従するようにカーソル表示の視差量を変更する。他方、カーソル表示の視差量を変更しないように決定された場合には、カーソル表示の視差量を変更せず、それまでの視差量を用いてカーソル表示を行う。なお、カーソル画像生成部214が生成するカーソルの表示位置はカーソル情報取得部213から受信した現在のカーソル位置(x,y)である。
図5は、図4のステップS406における、カーソル視差量決定動作を説明する図である。ユーザプログラムは、カーソルの視差量に対する処理動作を、図5の状態遷移表により定義している。縦軸はカーソルの現在の状態を示し、横軸はユーザプログラム内部で発生したイベントを示す。交差する箇所の各マスは、各状態において、前述のイベントが発生した場合の処理動作と遷移先を示している。
まずは図5(a)の場合について説明する。図5(a)において、ユーザプログラムの現在の内部状態を「停止」とする。このとき、「カーソル移動」イベントが発生すると、ユーザプログラムは「カーソル移動」イベントが発生したカーソル速度を算出した時の映像視差量に基づきカーソル視差量を更新する。本動作により、ユーザプログラムは、後述するカーソル移動処理直前のカーソル視差量の最終更新を行う。そして、ユーザプログラムの内部状態を「移動」に変更する(図5(a)の動作501)。
ユーザプログラムの現在の内部状態が「移動」において、「カーソル移動」イベントが発生すると、ユーザプログラムはカーソル視差量を更新しない(動作502)。つまり、動作501において、「カーソル移動」イベントが発生するカーソル速度を算出した時の映像視差量に基づきカーソル視差量を更新するので、カーソル移動中のカーソルの視差量は、「カーソル移動」イベントが発生した時に更新した視差量が保持される。動作502では、ユーザプログラムの内部状態は「移動」のままとなる。また、ユーザプログラムの現在の内部状態が「移動」において、「カーソル停止」イベントが発生すると、ユーザプログラムは現在の映像視差量を最終的なカーソル視差量として、段階的に視差量を更新する。そして、ユーザプログラムの内部状態は「停止中」に変更される(動作505)。
ユーザプログラムの現在の内部状態が「停止中」において、「カーソル停止」イベントが発生すると、ユーザプログラムは、動作505と同様にして段階的にカーソル視差量を更新する(動作506)。そして、前述の通りカーソル視差量を段階的に更新している間は内部状態を「停止中」のまま継続し、前述の最終的なカーソル視差量と段階的に更新した結果の視差量が一致すると、ユーザプログラムの内部状態を「停止」に変更する(動作506)。本処理により、カーソル停止後、急にカーソルが飛び出したり、奥行き方向へ移動したりすることによって、ユーザがカーソルを見失う問題を防ぐ効果がある。
ユーザプログラムの現在の内部状態が「停止中」において、「カーソル移動」イベントが発生すると、ユーザプログラムは段階的な視差量更新をやめる。そして、内部状態を「移動」に変更する(動作503)。また、ユーザプログラムの現在の内部状態が「停止」において、「カーソル停止」イベントが発生すると、ユーザプログラムは現在の映像視差量に基づきカーソル視差量を更新する。即ち、カーソル停止状態において、カーソル画像は常に映像視差量と同じ視差量で表示される。ユーザプログラムの内部状態は「停止」のままとする(動作504)。
なお、上記説明ではユーザプログラムの内部状態が「停止」において、「カーソル移動」イベントが発生すると、「カーソル移動」イベントが発生した時の映像視差量に基づきカーソル視差量を更新するとした。これは、「カーソル移動」イベントが発生した時においてカーソルの表示の視差量を更新し、カーソル移動中はその更新後の視差量が維持されることを意味する。ここで図5(b)に示すように、図5(a)の動作501に変えて動作511の処理を行ってもよい。図5(b)の動作511では、ユーザプログラムの内部状態が「停止」のときに「カーソル移動」イベントが発生した場合、カーソルの視差量は、「カーソル移動」イベントが発生する直前に発生した「カーソル停止」イベントの時に更新したカーソル視差量のまま更新しない。現在のカーソル位置と前回のカーソル位置との差分によりカーソル速度が算出されるため、「カーソル移動」イベントが発生する直前に発生した「カーソル停止」イベントの時にカーソルの移動が開始されているとみなすことができる。つまり、図5(b)の場合、カーソルが移動を開始した時の視差量のままカーソルを表示することになる。図5(b)の動作511では図5(a)の動作501と同様に、ユーザプログラムの内部状態を「移動」に変更する。図5(b)の動作502乃至動作506は、図5(a)の動作502乃至動作506と同様である。このように、図5(a)及び図5(b)のいずれも、カーソル移動中においては、カーソル表示の視差量は変化しない。なお、図5(a)の動作501において、「カーソル移動」イベントの発生時にカーソル表示の視差量を0(ゼロ)に更新し、カーソル移動中はこれを維持するようにしても良い。重要なことは、カーソル移動中の視差量の変更を禁止し、一定の所定値に固定することであり、これにより本実施形態の効果(カーソルの移動中にカーソルを見失うことを低減すること)が得られる。
図6は、第1実施形態によるカーソル移動時のカーソル移動軌跡を示した図である。ユーザがマウス102を横方向にスライド操作した場合には、スライド開始時の視差量にカーソル600の表示の視差量が固定され、カーソル600は横方向に移動する。従って、カーソル600は移動軌跡601上を移動するようになる。ユーザが操作を停止すると、カーソル位置の映像オブジェクト(図6の例では球オブジェクト1305)の視差量で重畳表示されていることが確認できる。
以上の構成によれば、立体映像上におけるカーソル表示において、カーソルが所定の速度以上で移動している間はカーソルの表示に適用される視差量が固定される。また、カーソルの移動速度が所定の速度未満ではカーソル位置にある立体映像の視差量に追従するようにカーソル表示に視差量が適用される。その結果、カーソル移動中は、視差量が変化しないので、ユーザのスライド操作に応じたカーソル移動動作となり、カーソルを見失う問題を防ぐ効果がある。さらに、カーソル移動停止後、カーソルに適用する視差量を段階的に更新するので、カーソルの視差が急に変化することによってカーソルを見失う問題を極力防ぐ効果がある。また、カーソル停止もしくは選択時には映像オブジェクトと同じ視差をカーソルに付加するようにしたので、従来通り、カーソルがどのオブジェクトを指し示しているのか分かりやすく表示できる。
[第2実施形態]
次に、本発明の第2実施形態における処理について説明する。第2実施形態における立体映像観察システムの全体の構成は第1実施形態(図1、図2)と同様である。なお、第2実施形態の説明において、上述した第1実施形態と共通する部分については、適宜、説明を省略する。
第2実施形態では、第1実施形態の構成(図3)にカーソル画像切替部701が加わる(図7)。また、第2実施系のカーソル情報取得部213は、現在のカーソル位置を取得する処理に加え、カーソルの移動方向、および、移動速度から次の割り込みタイミングでのカーソルの移動先位置(以下、次のカーソル位置と記載する)を予測する機能を備える。更に、第2実施形態の視差測定部211は、現在のカーソル位置と、次のカーソル位置それぞれについて、該カーソル位置に対応する映像の視差量を測定する。カーソル画像切替部701は、カーソルの移動開始位置における映像の視差量と、次のカーソル位置における映像の視差量とから位置関係を比較、判断し、表示すべきカーソル画像を選択して、カーソル画像生成部214に設定する。
次に、図7および図8を用いて第2実施形態によるカーソル画像生成処理について説明する。図7は、第2実施形態におけるカーソル画像生成処理に係り、視差測定部211、カーソル情報取得部213、カーソル画像生成部214、カーソル画像切替部701の間のデータフローを説明する図である。また、図8は、ユーザが観察する立体映像を真上から見た場合のイメージを模式的に示した図である。
3D映像生成部210は、3D映像を構成する左目用の視差画像(L画像)を視差測定部211の測定ブロック設定部301に、右目用の画像(R画像)を探索範囲設定部302にそれぞれ入力する。もちろん、L画像を探索範囲設定部302に入力し、R画像を測定ブロック設定部301に入力するようにしても良い。カーソル情報取得部213は、現在のカーソル位置と次のカーソル位置を測定ブロック設定部301、および、探索範囲設定部302に通知する。
以下、カーソル位置の予測について、単純化したモデルについて図8を参照して概略の説明を行う。例えば、カーソルの移動開始位置を(x0,y0)として(図8の位置901)、最初の割り込みから次の割り込みまでの時間の間に(x1,y1)までカーソルを移動させたとする(図8の位置902)。この場合、現在のカーソル位置(x1,y1)に対し、次の割り込み時点でのカーソル位置(x2,y2)は、(x0,y0)から(x1,y1)から求められる座標平面上でのベクトル方向に、当該座標間の距離だけ進んだ位置であると予測する(図8の位置903)。より一般化して言えば、たとえば、(x1-x0,y1-y0)の方向へ、現在の位置(x1,y1)から√((x1-x0)2+(y1-y0)2)の距離だけ離れた位置を予測位置(x2,y2)とする。なお、カーソル位置の予測方法はこれに限られるものではない。
なお、カーソルが(x2,y2)まで進むと、次のカーソル位置は前回のカーソル位置(x1,y1)と現在のカーソル位置(x2,y2)とから同様にして予測する。ユーザがカーソル操作をやめて座標(x1,y1)で移動を停止した場合、次のカーソル移動開始位置(x0,y0)は(x1,y1)となる。
カーソル情報取得部213は、カーソル移動開始位置としての第1のカーソル位置(x0,y0)と、予測したカーソル位置としての第2のカーソル位置(x2,y2)を測定ブロック設定部301、および、探索範囲設定部302に入力する。
測定ブロック設定部301は、カーソル情報取得部213より通知された第1のカーソル位置(x0,y0)および第2のカーソル位置(x2,y2)に基づいて、左目用の視差画像上に所定数(1または複数)の測定ブロックと予測測定ブロックを設定する。そして、測定ブロック設定部301は、設定した測定ブロックおよび予測測定ブロック内のそれぞれの映像データを基準データとして出力する。本実施形態では、例えば、測定ブロック、及び予測測定ブロックをM×N画素(M=N=4)とする。
探索範囲設定部302では、右目用画像上に測定ブロックと同じ座標(x0,y0)を中心とする探索範囲を設定して、その探索範囲内で測定ブロックと同じ大きさの参照ブロックを設定する。同様に、探索範囲設定部302は、予測測定ブロック(x2,y2)を中心とする探索範囲を設定して、その探索範囲内で予測参照ブロックを設定する。そして、参照ブロック、および、予測参照ブロック内のそれぞれの映像データを参照データとして出力する。なお、本実施形態では、例えば、前記測定ブロックに対し、上下左右の一方向にn画素(1≦n<4)シフトしたブロックを参照ブロック、および、予測参照ブロックとする。各ブロックの詳細は、図3の(b)で説明したとおりであり、ここでは詳細な説明を省略する。
視差量算出部303は、入力されたそれぞれの基準データと参照データに対してマッチング演算処理を行い、基準データに対する視差量(Δx0,Δy0)、及び予測ブロックの視差量(Δx2,Δy2)を算出する。図8の例では位置904の視差量が算出されることになる。カーソル画像切替部701は、カーソル移動開始位置の視差量と予測ブロックとの視差量の差を求める。そして、カーソル画像切替部701は、カーソル移動開始位置に対してカーソル移動先のオブジェクトが手前方向にあるか、もしくは、奥行き方向にあるかを判定する。
以上のように、本実施形態では、基準データに対する視差量(Δx0,Δy0)、および、予測ブロックの視差量(Δx2,Δy2)を比較し、予測されるカーソル位置が現在のカーソル位置から手前方向か奥行き方向か、もしくは一致するかを判定する。なお、基準データに対する視差量(Δx0,Δy0)は、カーソル移動中(カーソルが停止するまで)は変更されないので、繰り返し計算しないようにしてもよい。また、基準データに対する視差量(Δx0,Δy0)は、移動中に固定されているカーソル表示の視差量とほぼ一致するため、移動中のカーソルの視差量を上記(Δx0,Δy0)として用いても良い。なお、カーソルの表示の視差量を(Δx0,Δy0)として用いた場合、カーソルの「停止中」においてカーソルの視差量を段階的に変更する際、カーソルと映像の視差量が近づくにつれてカーソルの表示も段階的に変化するような表示を実現できる。
そして、カーソル画像切替部701は、予測されるカーソル位置が現在のカーソル位置より手前の場合は手前方向のカーソル画像、奥行き方向の場合は奥行き方向の画像、一致した場合には通常の指示形状としての横向きの画像をROM202から読み出す。続けてカーソル画像生成部214は、前述のROM202から読み出した画像に対して、第1実施形態と同様にしてカーソルの表示の視差量を決定し、カーソル画像を生成する。
なお、カーソル画像生成部214は、第1実施形態の状態遷移(図5)において、「停止中」状態にあるときにのみ、カーソル位置を予測するように処理することも可能である。この場合、ユーザのマウス操作によってカーソルが移動している最中は通常の指示形状としての横向きの画像を表示し、カーソル移動を停止すると、段階的に視差量を更新すると共に、常にオブジェクトを指し示すようなカーソル形状に変更して表示する動作となる。
図9は、第2実施形態によるカーソル移動軌跡の一例を示す図である。第1実施形態と同様に、ユーザがマウス102をスライド操作した場合には、スライド開始時の視差量に固定された状態でカーソルが横方向に移動する。そして、ユーザが操作を停止すると、カーソルの表示の視差量はカーソルの現在位置における映像の視差量に追従するように更新される。このとき、第2実施形態では、さらに、カーソル位置を予測し、現在のカーソル位置またはその直前のカーソル位置における映像の視差量と予測されたカーソル位置における映像の視差量に基づいてカーソルの表示形状を切替える。本実施形態では、例えば、カーソル画像の指し示す向きを切替えており、これにより、ユーザがマウス操作を停止した後のZ軸方向(奥行き方向)に対するカーソル移動方向を視認することができる(図9のカーソル1001)。
図10の(a)および(b)は、第2実施形態における、カーソルの表示形状の変更の一例を示す図であり、表示形状の変更の例としてカーソルの向きを切替えた際の表示例を説明した図である。視差量“0”のクロスポイント面を現在のカーソル位置とすると、奥行き方向および手前方向を示すカーソルの表示形状はそれぞれカーソル画像1101、カーソル画像1102のようになる。なお、カーソル画像1103は視差量の変化が所定値未満の場合の表示形状である。また、球オブジェクト1120はクロスポイント面よりも手前にあるオブジェクト、球オブジェクト1121はクロスポイント面よりも奥にあるオブジェクトである。図10の(b)に示すように、カーソル位置が位置1200→位置1201→位置1202→位置1203のように移動して、位置1203で停止した場合を考える。この場合、位置1200〜1203における各位置のカーソルの表示形状は、カーソル画像1103→カーソル画像1101→カーソル画像1102→カーソル画像1103のようになる。位置1203では、クロスポイント面よりも手前にある球オブジェクト1120の視差量にカーソルの表示の視差量が追従した結果、現在のカーソル表示の視差量と映像の視差量とが一致し、カーソル画像1103が選択されている。なお、図10の(a),(b)では3種類のカーソルの表示形状を示したが、より多くの表示形状を用意しておき、視差量の差の大きさに応じて更に細かくカーソル表示を切り替えるようにしても良い。
以上の構成によれば、立体映像上におけるカーソル表示において、カーソルが所定の速度以上で移動している間は、カーソルに適用する視差量が固定される。また、所定の速度未満ではカーソル位置にある立体映像の視差量に追従するようにカーソルの表示の視差量が変更される。そして、これに加えて、カーソルの、奥行き方向を加味した進行方向を視認できるように、予測されたカーソル位置の映像の視差量に基づいてカーソル画像が切替えて表示される。その結果、第1実施形態に加え、ユーザがカーソル移動を停止した場合の、Z軸へのカーソル移動方向が予測しやすくなり、更にカーソルを見失う問題を防ぐ効果を得られる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (9)

  1. 視差を有する画像の組からなる立体映像に、ユーザの操作入力に応じて移動するカーソル画像を合成して表示させることが可能な立体映像表示装置であって、
    前記カーソル画像を生成する生成手段と、
    前記生成手段により生成された前記カーソル画像が合成されて表示される位置における立体映像の視差量を取得する取得手段と、
    前記カーソル画像が合成されて表示される位置における前記カーソル画像の移動速度を検出する検出手段と、
    前記検出手段により検出された前記カーソル画像の移動速度に基づいて、前記カーソル画像が移動しているか否かを判定する判定手段と、を有し、
    前記判定手段により前記カーソル画像が移動していると判定された場合、前記生成手段は前記カーソル画像の視差量を一定の所定値として前記カーソル画像を生成し、前記判定手段により前記カーソル画像が移動していないと判定された場合、前記生成手段は前記カーソル画像の視差量を、前記取得手段により取得された立体映像の視差量に基づいた視差量とすることを特徴とする立体映像表示装置。
  2. 前記判定手段により前記カーソル画像が移動していると判定された場合、前記生成手段は前記一定の所定値を前記取得手段により取得された前記立体映像の視差量に基づいて決定することを特徴とする請求項1に記載の立体映像表示装置。
  3. 前記判定手段により前記カーソル画像が移動していると判定された場合、前記生成手段は前記カーソル画像の視差量をゼロとすることを特徴とする請求項1に記載の立体映像表示装置。
  4. 前記判定手段により前記カーソル画像が移動していないと判定された後に前記カーソル画像が移動していると判定された場合、前記生成手段は、前記判定手段により前記カーソル画像が移動していないと判定されていたときに生成されたカーソル画像の視差量を前記一定の所定値として用いて、移動中の前記カーソル画像を生成することを特徴とする請求項1に記載の立体映像表示装置。
  5. 前記検出手段は、前記カーソル画像の移動速度と移動方向とを検出し、
    前記立体映像表示装置は前記検出手段により検出された前記カーソル画像の移動速度と移動方向とに基づいて前記カーソル画像の移動先位置を予測する予測手段を更に有し、
    前記取得手段は、前記予測手段で予測された前記カーソル画像の移動先位置の立体映像の視差量を取得し、
    前記生成手段は、前記カーソル画像が合成される前記立体映像の視差量と前記予測された移動先位置の前記立体映像の視差量との差に基づいて前記カーソル画像の形状を変更することを特徴とする請求項1乃至4のいずれか1項に記載の立体映像表示装置。
  6. 前記カーソル画像が特定の方向を指し示す形状を有し、前記生成手段は、前記カーソル画像が前記予測手段により予測された移動先位置の前記立体映像を指し示す形状の画像とすることを特徴とする請求項5に記載の立体映像表示装置。
  7. 視差を有する画像の組からなる立体映像に、ユーザの操作入力に応じて移動するカーソル画像を合成して表示させることが可能な立体映像表示装置によるカーソル表示方法であって、
    生成手段が、前記カーソル画像を生成する生成工程と、
    取得手段が、前記生成手段により生成された前記カーソル画像が合成されて表示される位置における立体映像の視差量を取得する取得工程と、
    検出手段が、前記カーソル画像が合成されて表示される位置における前記カーソル画像の移動速度を検出する検出工程と、
    判定手段が、前記検出工程で検出された前記カーソル画像の移動速度に基づいて、前記カーソル画像が移動しているか否かを判定する判定工程と、を有し、
    前記判定工程で前記カーソル画像が移動していると判定された場合、前記生成工程では前記カーソル画像の視差量を一定の所定値として前記カーソル画像を生成し、前記判定工程で前記カーソル画像が移動していないと判定された場合、前記生成工程では前記カーソル画像の視差量を、前記取得手段により取得された立体映像の視差量に基づいた視差量とすることを特徴とするカーソル表示方法。
  8. 請求項7に記載されたカーソル表示方法の各工程をコンピュータに実行させるプログラム。
  9. 請求項7に記載されたカーソル表示方法の各工程をコンピュータに実行させるプログラムを格納したコンピュータで読み取りが可能な記憶媒体。
JP2010187646A 2009-11-26 2010-08-24 立体映像表示装置およびカーソル表示方法、プログラム、記憶媒体 Expired - Fee Related JP4876182B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010187646A JP4876182B2 (ja) 2009-11-26 2010-08-24 立体映像表示装置およびカーソル表示方法、プログラム、記憶媒体
US12/945,352 US8823781B2 (en) 2009-11-26 2010-11-12 Stereoscopic image display apparatus and cursor display method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009269266 2009-11-26
JP2009269266 2009-11-26
JP2010187646A JP4876182B2 (ja) 2009-11-26 2010-08-24 立体映像表示装置およびカーソル表示方法、プログラム、記憶媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011260982A Division JP5451722B2 (ja) 2009-11-26 2011-11-29 立体映像処理装置およびカーソル制御方法、プログラム、記憶媒体

Publications (2)

Publication Number Publication Date
JP2011134295A true JP2011134295A (ja) 2011-07-07
JP4876182B2 JP4876182B2 (ja) 2012-02-15

Family

ID=44061801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010187646A Expired - Fee Related JP4876182B2 (ja) 2009-11-26 2010-08-24 立体映像表示装置およびカーソル表示方法、プログラム、記憶媒体

Country Status (2)

Country Link
US (1) US8823781B2 (ja)
JP (1) JP4876182B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015145933A1 (ja) * 2014-03-26 2015-10-01 パナソニックIpマネジメント株式会社 虚像表示装置、ヘッドアップディスプレイシステム及び乗物
JPWO2013168736A1 (ja) * 2012-05-09 2016-01-07 日本電気株式会社 立体画像表示装置、そのカーソル表示方法及びコンピュータプログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8943410B2 (en) 2006-12-22 2015-01-27 Apple Inc. Modified media presentation during scrubbing
US7992097B2 (en) 2006-12-22 2011-08-02 Apple Inc. Select drag and drop operations on video thumbnails across clip boundaries
US8020100B2 (en) 2006-12-22 2011-09-13 Apple Inc. Fast creation of video segments
JP4972716B2 (ja) * 2010-10-14 2012-07-11 パナソニック株式会社 ステレオ画像表示装置
JP5808146B2 (ja) * 2011-05-16 2015-11-10 株式会社東芝 画像処理システム、装置及び方法
JP2012257198A (ja) * 2011-05-17 2012-12-27 Canon Inc 立体画像符号化装置、その方法、および立体画像符号化装置を有する撮像装置
WO2012161054A1 (ja) * 2011-05-23 2012-11-29 株式会社東芝 医用画像診断装置、画像処理装置及び超音波診断装置
US9146656B1 (en) * 2011-06-27 2015-09-29 Google Inc. Notifications user interface
US9746989B2 (en) * 2011-10-13 2017-08-29 Toshiba Medical Systems Corporation Three-dimensional image processing apparatus
US20130155049A1 (en) * 2011-12-15 2013-06-20 Luugi Marsan Multiple hardware cursors per controller
US9075494B2 (en) * 2013-02-01 2015-07-07 Cyberlink Corp. Systems and methods for performing object selection
WO2014192829A1 (ja) * 2013-05-28 2014-12-04 株式会社東芝 医用画像処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10170227A (ja) * 1996-12-12 1998-06-26 Canon Inc 表示装置
JP2001326947A (ja) * 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
JP2004354540A (ja) * 2003-05-28 2004-12-16 Sanyo Electric Co Ltd 立体映像表示装置及びプログラム
WO2004114108A1 (ja) * 2003-06-20 2004-12-29 Seijiro Tomita 立体画像表示方法及び装置
JP2007317050A (ja) * 2006-05-29 2007-12-06 Nippon Telegr & Teleph Corp <Ntt> 3次元表示を用いたユーザインタフェースシステム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5590062A (en) * 1993-07-02 1996-12-31 Matsushita Electric Industrial Co., Ltd. Simulator for producing various living environments mainly for visual perception
US20070182730A1 (en) 2003-05-28 2007-08-09 Ken Mashitani Stereoscopic image display apparatus and program
JP2005136726A (ja) 2003-10-30 2005-05-26 Canon Inc 立体画像表示装置、立体画像表示システム、立体画像表示方法及びプログラム
JP4555722B2 (ja) * 2005-04-13 2010-10-06 株式会社 日立ディスプレイズ 立体映像生成装置
JP5109691B2 (ja) * 2008-01-31 2012-12-26 コニカミノルタホールディングス株式会社 解析装置
JP5186715B2 (ja) * 2010-06-14 2013-04-24 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法、および、表示制御システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10170227A (ja) * 1996-12-12 1998-06-26 Canon Inc 表示装置
JP2001326947A (ja) * 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
JP2004354540A (ja) * 2003-05-28 2004-12-16 Sanyo Electric Co Ltd 立体映像表示装置及びプログラム
WO2004114108A1 (ja) * 2003-06-20 2004-12-29 Seijiro Tomita 立体画像表示方法及び装置
JP2007317050A (ja) * 2006-05-29 2007-12-06 Nippon Telegr & Teleph Corp <Ntt> 3次元表示を用いたユーザインタフェースシステム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013168736A1 (ja) * 2012-05-09 2016-01-07 日本電気株式会社 立体画像表示装置、そのカーソル表示方法及びコンピュータプログラム
WO2015145933A1 (ja) * 2014-03-26 2015-10-01 パナソニックIpマネジメント株式会社 虚像表示装置、ヘッドアップディスプレイシステム及び乗物
JPWO2015145933A1 (ja) * 2014-03-26 2017-04-13 パナソニックIpマネジメント株式会社 虚像表示装置、ヘッドアップディスプレイシステム及び乗物

Also Published As

Publication number Publication date
US20110122234A1 (en) 2011-05-26
US8823781B2 (en) 2014-09-02
JP4876182B2 (ja) 2012-02-15

Similar Documents

Publication Publication Date Title
JP4876182B2 (ja) 立体映像表示装置およびカーソル表示方法、プログラム、記憶媒体
US8930838B2 (en) Display apparatus and display method thereof
KR101719980B1 (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
US10009603B2 (en) Method and system for adaptive viewport for a mobile device based on viewing angle
US10963151B2 (en) Image display apparatus
EP2544456B1 (en) Display control apparatus, display control method, and program
US20130009863A1 (en) Display control apparatus, display control method, and program
EP2408215A2 (en) Electronic apparatus and method for displaying graphical user interface as 3d image
US9558579B2 (en) Apparatus and method for synthesizing additional information while rendering object in 3D graphic-based terminal
US20140033253A1 (en) Image display device and method for operating same
JP2014500642A (ja) 立体映像表示装置およびそのディスプレイ方法
JP2011010126A (ja) 画像処理装置、画像処理方法
US20120050471A1 (en) Display apparatus and image generating method thereof
KR101228916B1 (ko) 멀티 비젼의 3차원 영상 표시 장치 및 방법
EP2672716A2 (en) Image display apparatus and method for operating the same
JP5451722B2 (ja) 立体映像処理装置およびカーソル制御方法、プログラム、記憶媒体
JP2014207492A (ja) 立体映像表示装置
EP2574068A2 (en) Image display apparatus and method for operating the same
US9547933B2 (en) Display apparatus and display method thereof
WO2012035927A1 (ja) 遠隔映像監視システム
KR101836846B1 (ko) 영상표시장치, 및 그 동작방법
EP4290943A2 (en) Communication device and image display apparatus including the same
US20160062479A1 (en) Image display apparatus and method for operating the same
KR101945811B1 (ko) 영상표시장치 및 그 동작방법
KR101825669B1 (ko) 영상표시장치 및 그 동작방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111031

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4876182

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees