JP4989788B2 - 立体画像表示制御装置およびその動作制御方法 - Google Patents

立体画像表示制御装置およびその動作制御方法 Download PDF

Info

Publication number
JP4989788B2
JP4989788B2 JP2011554288A JP2011554288A JP4989788B2 JP 4989788 B2 JP4989788 B2 JP 4989788B2 JP 2011554288 A JP2011554288 A JP 2011554288A JP 2011554288 A JP2011554288 A JP 2011554288A JP 4989788 B2 JP4989788 B2 JP 4989788B2
Authority
JP
Japan
Prior art keywords
stereoscopic image
cross point
image
stereoscopic
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011554288A
Other languages
English (en)
Other versions
JPWO2011158573A1 (ja
Inventor
大輔 楠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2011554288A priority Critical patent/JP4989788B2/ja
Application granted granted Critical
Publication of JP4989788B2 publication Critical patent/JP4989788B2/ja
Publication of JPWO2011158573A1 publication Critical patent/JPWO2011158573A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Description

この発明は,立体画像表示制御装置およびその動作制御方法に関する。
視差のある左目用画像(観賞者の左目で見る画像)と右目用画像(観賞者の右目で見る画像)とが表示画面に表示されることにより,画像が立体的に見える。立体画像の視差がありすぎると,ユーザが違和感を覚えてしまうことがある。このために,視差の離れた領域に対してぼかし処理を行うもの(特願平4−343685号公報),ユーザが注視している部分以外をぼかすもの(特願平9−43468号公報)などがある。
しかしながら,視差の離れた領域を単にぼかすのでは,立体画像として観賞できずに違和感を生じることがある。
この発明は,違和感の無い立体画像を表示することを目的とする。
この発明による立体画像表示制御装置は,記録媒体に記録されている立体画像を表す立体画像データを読み取る立体画像データ読み取り装置(立体画像データ読み取り手段),上記記録媒体に記録されており,かつ上記立体画像の視差が無くなるクロス・ポイントを表すクロス・ポイント情報を,上記記録媒体から読み取るクロス・ポイント情報読取装置(クロス・ポイント情報読み取り手段),上記立体画像データ読み取り装置によって読み取られた立体画像データによって表される立体画像のうち,上記クロス・ポイント情報読み取り装置によって読み取られたクロス・ポイント情報によって表されるクロス・ポイントよりも奥側に遠いほどぼかし量が多くなるように,上記立体画像のうち上記クロス・ポイントよりも奥側に遠い位置にある被写体を表す画像部分をぼかす第1のぼかし装置(第1のぼかし手段),および上記第1のぼかし装置によって上記遠い位置にある被写体を表す画像部分がぼかされた上記立体画像を表示するように表示装置を制御する表示制御装置(表示制御手段)を備えていることを特徴とする。
この発明は,上記立体画像表示制御装置に適した動作制御方法も提供している。すなわち,この方法は,立体画像データ読み取り装置が,記録媒体に記録されている立体画像を表す立体画像データを読み取り,クロス・ポイント情報読み取り装置が,上記記録媒体に記録されており,かつ上記立体画像の視差が無くなるクロス・ポイントを表すクロス・ポイント情報を,上記記録媒体から読み取り,ぼかし装置が,上記立体画像データ読み取り装置によって読み取られた立体画像データによって表される立体画像のうち,上記クロス・ポイント情報読み取り装置によって読み取られたクロス・ポイント情報によって表されるクロス・ポイントよりも奥側に遠いほどぼかし量が多くなるように,上記立体画像のうち上記クロス・ポイントよりも奥側に遠い位置にある被写体を表す画像部分をぼかし,表示制御装置が,上記第1のぼかし装置によって上記遠い位置にある被写体を表す画像部分がぼかされた上記立体画像を表示するように表示装置を制御するものである。
この発明によると,立体画像データおよびクロス・ポイント情報が記録媒体に記録されている。記録媒体から立体画像データとクロス・ポイント情報とが読み取られ,クロス・ポイント情報によって表されるクロス・ポイントよりも遠いほど,ぼかし量が多くなるように,立体画像のうちクロス・ポイントよりも奥側の遠い位置にある被写体を表す画像部分がぼかされる。そのようにぼかされた立体画像が表示される。クロス・ポイントよりも手前側の近い被写体を表す画像部分がぼかされると,立体画像として観賞できないことがあるが,この発明によると,クロス・ポイントよりも手前側の近い被写体を表す画像部分はぼかされないので,ぼかし処理をしても立体画像として観賞できる。さらに,クロス・ポイントよりも奥側に遠いほど視差の量は大きくなるが,クロス・ポイントよりも遠いほどぼかし量も多くなるので,視差による観賞者への悪影響を抑えることができるようになる。
上記第1のぼかし装置は,たとえば,上記表示装置の表示画面が大きいほどぼかし量が多くなるように,上記立体画像のうち上記クロス・ポイント検出装置によって検出されたクロス・ポイントよりも奥側に遠い位置にある被写体を表す画像部分をぼかすものである。
上記立体画像のうち上記クロス・ポイントよりも奥側に近い位置にある被写体を表す画像部分の視差がしきい値以上かどうかを判定する視差判定装置(視差判定手段),および上記視差判定装置によって,上記クロス・ポイントよりも奥側に近い位置にある被写体を表す画像部分の視差がしきい値以上と判定されたことに応じて,上記クロス・ポイントが,上記立体画像のうち上記クロス・ポイント情報読み取り装置によって読み取られたクロス・ポイント情報によって表される上記クロス・ポイントの位置よりも手前の被写体を表す画像部分に移動するように上記立体画像データを制御するクロス・ポイント制御装置(クロス・ポイント制御手段)をさらに備えてもよい。
上記立体画像は立体動画を構成する1フレームの画像であり,上記立体画像データ読み取り装置は多数フレームの立体画像を表す立体画像データを上記記録媒体から読み取るものであり,かつ上記立体画像のシーンが変わる上記立体画像のフレームを表すシーン・チェンジ情報が上記記録媒体に記録されており,上記記録媒体から上記シーン・チェンジ情報を読み取るシーン・チェンジ情報読み取り装置(シーン・チェンジ情報読み取り手段),ならびに上記シーン・チェンジ情報読み取り装置によって読み取られたシーン・チェンジ情報によって表される上記立体画像のフレームの前後の1または複数のフレームであるシーン・チェンジ・フレームの上記立体画像の全体をぼかす第2のぼかし装置(第2のぼかし手段)をさらに備えてもよい。この場合,上記表示制御装置は,上記シーン・チェンジ・フレームを除くフレームの上記立体画像についは上記第1のぼかし装置によってぼかされた立体画像を表示し,かつ上記シーン・チェンジ・フレームの上記立体画像については上記第1のぼかし装置および上記第2のぼかし装置によってぼかされた立体画像を表示するように表示装置を制御するものとなろう。
上記表示制御装置は,たとえば,上記立体画像のシーンが変わる上記立体画像の前までは,上記シーン・チェンジ・フレームの立体画像が大きいものから徐々に上記立体画像のシーンが変わる上記立体画像の前までは小さくなり,上記立体画像のシーンが変わる上記立体画像の後からは上記シーン・チェンジ・フレームの立体画像が小さいものから徐々に大きくなるような上記立体画像を表示するように表示装置を制御するものである。
上記立体画像データ読み取り装置によって読み取られた立体画像データによって表される立体画像のうち,上記クロス・ポイント情報読み取り装置によって読み取られたクロス・ポイント情報によって表されるクロス・ポイントよりも手前側に近いほどぼかし量が多くなるように,上記立体画像のうち上記クロス・ポイントよりも手前側に近い位置にある被写体を表す画像部分をぼかす第2のぼかし装置(第2のぼかし手段)をさらに備えてもよい。第2のぼかし装置は,第1のぼかし装置と同じものでもよいし,別のものでもよい。
第1図は立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
第2図はヘッダの内容を示している。
第3図は立体画像の一例である。
第4図は立体画像の一例である。
第5図は立体画像の一例である。
第6図は再生処理手順を示すフローチャートである。
第7図は立体画像の一例である。
第8図は立体画像の一例である。
第9図は再生処理手順を示すフローチャートである。
第10図はヘッダの内容を示している。
第11a図および第11b図は立体画像の一例である。
第12図は再生処理手順を示すフローチャートである。
第13図は立体画像の一例である。
第14図は再生処理手順を示すフローチャートである。
第15図はヘッダの内容を示している。
第16図はシーンが切り替わる様子を示している。
第17図はシーンが切り替わる様子を示している。
第18図はシーンが切り替わる時の立体画像の様子を示している。
第19図はシーンが切り替わる様子を示している。
第20図はシーンが切り替わる時の立体画像の大きさが変わる様子を示している。
第21図は再生処理手順を示すフローチャートである。
第1図は,立体動画撮像ディジタル・カメラの電気的構成を示すブロック図である。
立体動画撮像ディジタル・カメラの動作は,中央制御装置31によって統括される。また,立体動画撮像ディジタル・カメラには所定のデータを記憶するメモリ32および自動制御装置36も含まれている。
立体動画撮像ディジタル・カメラには,右目用の動画を撮像する第1の撮像装置10および左目用の動画を撮像する第2の撮像装置20が含まれている。
第1の撮像装置10には,CCD,C−MOSのような第1の撮像素子13が含まれている。第1の撮像素子13の前方には,撮像レンズ11および絞り12が設けられている。撮像レンズ11は,レンズ制御装置16によって位置決めされる。絞り12は絞り制御装置15によって開口が制御される。撮像素子13によって撮像された被写体像を表す右目用の映像信号はADC(アナログ・ディジタル・コンバータ)制御装置14に入力する。ADC制御装置14において,アナログ/ディジタル変換処理等の所定の信号処理が行われて,右目用の動画を表す動画データに変換される。
第2の撮像装置20にも第2の撮像素子23が含まれている。第2の撮像素子23の前方にも,撮像レンズ21および絞り22が設けられている。撮像レンズ21は,レンズ制御装置26によって位置決めされる。絞り22は絞り制御装置25によって開口が制御される。撮像素子23によって撮像された被写体像を表す左目用の映像信号はADC制御装置24において,アナログ/ディジタル変換処理等の所定の信号処理が行われて,右目用の動画を表す動画データに変換される。
操作装置34において撮像モードが設定されると,ADC制御装置14から出力された右目用の動画データおよびADC制御装置24から出力された左目用の動画データは画像処理装置37において所定の画像処理が行われて液晶表示装置33に入力する。撮像された被写体が動画で表示される。立体撮像ディジタル・カメラには,外部表示装置41を接続することもできる。外部表示装置41を立体撮像ディジタル・カメラに接続するために,立体撮像ディジタル・カメラには,入出力インターフェイス39が設けられている。入出力インターフェイス39に外部表示装置41が接続されることにより,撮像により得られた(再生された)立体画像(立体動画)が外部表示装置41の表示画面に表示される。
操作装置34において記録モードが設定されると,ADC制御装置14から出力された右目用の動画データおよびADC制御装置24から出力された左目用の動画データは,視差量判断装置38に入力する。
視差量判断装置38において,立体動画を構成する1フレームの立体画像(一組の左目用画像と右目用画像)に所定のしきい値以上の視差をもつ被写体像部分が含まれているかどうかが判断される。所定のしきい値以上の視差をもつ被写体像部分が含まれている立体画像については,所定のしきい値以上の視差をもつ被写体像部分が含まれないように,その立体画像を表す一組の左目用画像と右目用画像とが視差調整される。
撮像によって得られた左目用画像データと右目用画像データとがメディア・インターフェイス35を介してメモリ・カード40に与えられ,立体画像データとしてメモリ・カード40に記録される。視差調整された場合には,それらの視差調整された左目用画像と右目用画像とをそれぞれ表す左目用画像データと右目用画像データのメモリ・カード40に記録されるのはいうまでもない。1フレームごとに左目用画像データと右目用画像データとがメモリ・カード40に記録されることにより,メモリ・カード40には,立体的な動画を表す動画データ(左目用動画データ,右目用動画データ)が記録されることとなる。
この実施例では,立体的な動画を表す動画データのほかに,視差が生じない箇所を示すクロス・ポイントを表すクロス・ポイント情報もメモリ・カード40に記録される。この実施例では,クロス・ポイントは,あらかじめ定められており(例えば,立体撮像ディジタル・カメラから2m前方の距離),通常は,そのクロス・ポイントで定められる箇所の視差が無くなるように被写体が撮像される。しかしながら,上述のように,所定のしきい値以上の視差が生じる場合には,そのフレームの立体画像を表す左目用画像と右目用画像とは視差調整が行われる。この結果,クロス・ポイントの位置もずれる。この実施例では,立体動画を構成する立体画像のフレームに対応してクロス・ポイント情報がメモリ・カード40に記録される。もっとも,フレームに対応してフレームごとにクロス・ポイント情報が記録されなくとも,あらかじめ定められているクロス・ポイントとずれている立体画像のフレームだけを,フレームごとにクロス・ポイント情報を記録するようにしてもよい。その場合,あらかじめ定められているクロス・ポイントを表すクロス・ポイント情報もメモリ・カード40に記録されるのはいうまでもない。
第2図は,クロス・ポイント(CP)情報が記録されているファイル(立体動画データが格納されているファイル)のヘッダを示している。クロス・ポイント情報は,ヘッダでなくともファイルの画像データ記録領域に記録してもよい。
立体動画を構成する1フレーム目,2フレーム目,3フレーム目のクロス・ポイントは,それぞれ2m,2.1m,2.3mであり,それらのクロス・ポイント情報がメモリ・カード59に記録されている。その他のフレームについてもクロス・ポイントが記録されている。
第1図に戻って,立体撮像ディジタル・カメラは,再生機能も有している。メモリ・カード40に記録された立体動画を表す立体動画データは,メディア・インターフェイス35を介してメモリ・カード40から読み取られる。読み取られた立体動画データが液晶表示装置33に与えられる。立体動画データによって表わされる立体動画が液晶表示装置33の表示画面に表示される。上述したように,立体撮像ディジタル・カメラは,外部表示装置41を接続することもでき,その外部表示装置41にメモリ・カード40に記録されている立体動画データによって表される立体動画を表示することもできる。その場合には,メモリ・カード40から読み取られた立体動画データが入出力インターフェイス39を介して外部表示装置41に与えられる。外部表示装置41に立体動画が表示されるようになる。
視差が大きい部分が含まれていると立体画像を見る観賞者に違和感を与えることがある。この実施例によると,立体画像のうちクロス・ポイントよりも奥側に遠い位置にある被写体を表す画像部分がぼかされる。このように遠い位置にある被写体を表す画像部分はぼかされるので,その画像部分を観賞者が注視することを防止できる。観賞者に違和感を与えるのは防止できる。立体画像のうちクロス・ポイントよりも近い位置にある被写体を表す画像部分についてはぼかされないので,立体的な画像が表示される。立体撮像ディジタル・カメラの背面に設けられている液晶表示装置33の表示画面は比較的小さいので視差が大きく無いが,外部表示装置41の表示画面は比較的大きいので視差も大きくなり,観賞者は違和感を持つことがある。この実施例では,外部表示装置41のような比較的大きな表示画面に立体画像を表示する場合に有効である。ぼかし処理は平滑化フィルタを利用できるし,ソフトウェアでも実現できる。ぼかし処理を行うためにぼかし処理装置42が立体撮像ディジタル・カメラに設けられている。
第3図は,再生された立体画像の一例である。
この立体画像50は,左目用画像と右目用画像とが重ねられることにより表される。左目用画像と右目用画像とが同時に重ねられてもよいし,時間的にずれて表示されることにより実質的に観賞者に左目用画像と右目用画像とが重ねて見えるようになればよい。
立体画像50には,左上に第1の領域51,右上に第2の領域52および手前に第3の領域53が含まれている。第2の領域52がクロス・ポイントがある領域である。第1の領域51はクロス・ポイントよりも遠い(奥にある)領域であり,第3の領域53はクロス・ポイントよりも近い(手前にある)領域である。
第2の領域52には木の画像52Aが含まれている。第2の領域52はクロス・ポイントがある領域であるから,木の画像52Aには視差が無い(左右にずれた画像とはなっていない)。第1の領域51には,左右にずれた木の画像51Lと51Rとが含まれている。一方の木の画像51Lは左目用画像によって表されるもので,他方の木の画像51Rは右目用画像によって表されるものである。木の画像51Lと51Rとの間には視差が生じている。第3の領域53には左右にずれた人の画像53Lと53Rとが含まれている。一方の人の画像53Lは左目用画像によって表されるもので,他方の人の画像53Rは右目用画像によって表されるものである。この実施例では,クロス・ポイントよりも遠い被写体を表している画像51Lおよび51Rについてぼかし処理が行われる。
立体画像のうち,クロス・ポイントよりも遠い画像部分を見つけるために視差が利用される。
第4図は,視差を説明するための立体画像の一例である。第4図において,第3図に示すものと同一物については同一符号を付して説明を省略する。
左目用画像を基準に考える。右目用画像を基準に考えてもよい。第1の領域51に含まれる一方の木の画像51Lの中の特定の画素P1を考える。他方の木の画像51Rの中から,画素P1に対応する画素P2が見つけられる。画素P1の位置を(xL1,yL1),画素P2の位置を(xR1,yR1)とすると,視差d1は,d1=(xL1−xR1)となる。視差d1は正となる。視差d1が正となるので,画素P1とP2とで表される被写体はクロス・ポイントよりも遠いと判断される。同様に,第3の領域53に含まれる一方の人の画像53Lの中の特定の画素P3を考え,他方の人の画像53Rの中から,画素P2に対応する画素P4が見つけられる。画素P3の位置を(xL2,yL2),画素P4の位置を(xR2,xR2)とすると,視差d2は,d2=(xL2−xR2)となる。視差d2は負となる。視差d2が負となるので,画素P3とP4とで表される被写体はクロス・ポイントよりも近いと判断される。このような処理が立体画像50のすべてについて行われ,立体画像50のうち,クロス・ポイントよりも遠い(奥側の)被写体を表す画像部分とクロス・ポイントよりも近い(手前の)被写体を表す画像部分とが見つけられる。もっとも,同一の被写体像部分と考えられる領域内では,その領域内での一または複数の画素で,このような処理が行われ,その結果により領域内の画像がクロス・ポイントよりも遠いまたは近いと判断してもよい。
第5図は,再生された立体画像の一例である。
上述のように第2の領域52はクロス・ポイントの領域であり,第1の領域51はクロス・ポイントよりも遠い被写体を表す領域であり,第3の領域53はクロス・ポイントよりも近い被写体を表す領域である。第1の領域51はクロス・ポイントよりも遠い被写体を表わす領域であるから,その領域51内の画像51Rおよび51Lがぼかされている。これにより,領域51内の画像51Rおよび51Lを観賞者が注視してしまうことを未然に防止できる。
第6図は,再生処理手順を示すフローチャートである。
立体撮像ディジタル・カメラと外部表示装置(例えば,テレビジョン装置)41とが接続され,通信が開始する(ステップ61)。メモリ・カード40からクロス・ポイント情報および立体動画データが読み取られる(ステップ62)。立体動画データによって表わされる立体動画を構成する各フレームの立体画像について上述のように,クロス・ポイントよりも遠い画像部分が見つけられ,その見つけられた画像部分についてぼかし処理が行われる(ステップ63)。クロス・ポイントよりも遠い画像部分についてぼかされた立体画像が順次,外部表示装置41に表示されることにより,立体動画が表示されるようになる(ステップ64)。
上述の実施例では,立体動画についてのものであったが,立体動画に限らず,立体的な静止面についても同様の処理を行うことができるのはいうまでもない。
第7図から第9図は,他の実施例を示している。上述の実施例では,クロス・ポイントよりも遠い位置にある被写体を表している画像部分をぼかしているが,この実施例では,クロス・ポイントから遠いほどぼかし量を大きくするものである。
第7図は,再生された立体画像の一例である。この図において,第3図に示すものと同一物については同一符号を付して説明を省略する。
立体画像60には,上述したように,第1の領域51,第2の領域52および第3の領域53のほかに第4の領域54が含まれている。第4の領域54には左目用画像の木の画像54Lと右目用画像の木の画像54Rとが含まれている。これらの画像54Lと54Rとによって表される被写体は,第1の領域51に含まれている画像51Lおよび51Rによって表される被写体よりも遠い位置にある。
第8図は,ぼかし処理が行われた立体画像の一例である。
上述したように,クロス・ポイントよりも遠い被写体を表す第1の領域51内の木の画像51Lおよび51Rならびに第2の領域54内の木の画像54Lおよび54Rはいずれもぼかされている。但し,第1の領域51内の木の画像51Lおよび51Rによって表される被写体よりも第2の領域54内の木の画像54Lおよび54Rによって表される被写体の方が遠いのでぼかし量が多くなっている。
クロス・ポイントよりも奥側に遠いほど視差が大きいが,クロス・ポイントよりも奥側に遠いほどぼかし量が大きいので,視差の大きい画像部分を注視しないようにできる。
第9図は,第6図に対応するもので,再生処理手順を示すフローチャートである。この図において,第6図に示す処理と同一の処理については同一符号を付して説明を省略する。
この実施例では,上述したように画像の視差を表す情報があらかじめ生成されており,その視差を表す情報が立体動画の各フレームの立体画像に対応してメモリ・カード40に記録されているものとする。もっとも,視差を表す情報があらかじめメモリ・カード40に記録されていなくとも,再生時に視差を算出するようにしてもよいのはいうまでもない。
メモリ・カード40からクロス・ポイント情報,立体動画データおよび視差を表す情報が読み取られる(ステップ62,65)。
つづいて,ぼかし処理が一段階かどうかが判断される(ステップ66)。ぼかし処理が一段階かどうかは,操作装置34からの設定により決定される。操作装置34により,ぼかし処理が一段階に設定されていると(ステップ66でYES),上述のようにクロス・ポイントよりも遠い被写体を表す画像部分は一律のぼかし量でぼかし処理が行われる(ステップ63)。操作装置34により,ぼかし処理が一段階に設定されていなければ(ステップ66でNO),クロス・ポイントよりも奥側に遠い被写体を表す画像部分ほどぼかし量が多くなるようなぼかし処理が行われる(ステップ67)。
第10図から第12図は,他の実施例を示している。この実施例は,立体画像を表示する表示画面サイズに応じてぼかし量を変えるものである。上述のように,クロス・ポイントから奥に遠いほどぼかし量を変えつつ,表示画面サイズに応じてぼかし量を変えてもよい。
第10図は,立体動画データが記録されているファイルのヘッダの内容を示している。
この実施例では,上述したクロス・ポイント情報のほかに,所定の表示画面サイズにたいする基準のぼかし量が格納されている。例えば,表示画面サイズが42型の場合には基準のぼかし量はDで表される。
第11a図および第11b図は,再生された立体画像の一例である。これらの図において,第8図に示すものと同一物については同一符号を付して説明を省略する。
第11a図は,37型の表示画面に表示された立体画像60の一例であり,第11b図は,42型の表示画面に表示された立体画像60の一例である。
表示された画像の大きさが大きいほど視差は大きくなる。たとえば,第11a図において,第1の領域51内の画像51Lと51Rとの視差がd37であり,第11b図において,第1の領域51内の画像51Lと51Rとの視差がd42であったものとする。すると,視差d42>d37となる。この実施例では,表示画面サイズが大きくなり視差が大きくなるほどぼかし量が大きくなり,表示画面サイズが小さくなり視差が小さくなるほどぼかし量は小さくなる。たとえば,42型の表示画面に立体画像を表示したときのぼかし量が上述したようにぼかし量Dであるとすると,37型の表示画面に立体画像を表示したときのぼかし量は(37型/42型)×Dとなる。
第12図は,第6図に対応するもので,再生処理手順のフローチャートである。この図において,第6図に示す処理と同一の処理については同一符号を付して説明を省略する。
立体撮像ディジタル・カメラと外部表示装置41とが接続され,その外部表示装置41の表示画面の大きさを表すサイズ情報が外部表示装置41から読み取られ,メモリ・カード40に記録されている基準ぼかし量が読み取られる(ステップ68)。読み取られたサイズ情報によって表される表示画面の大きさに合致したクロス・ポイントが算出される。算出されたクロス・ポイントの視差がなくなるように,左目用画像と右目用画像とが調整される。また,読み取られた基準ぼかし量から,立体画像を表示する表示画面に合致したぼかし量が算出される。算出されたクロス・ポイントよりも遠い位置の被写体が,基準ぼかし量から算出されたぼかし量でぼかされる(ステップ69)。
上述の実施例では,表示画面の大きさに応じてクロス・ポイントが算出され,算出されたクロス・ポイントの視差が無くなるように,左目用画像と右目用画像とが調整されているが,表示画面に応じたクロス・ポイントの算出,左目用画像と右目用両像との調整を行うことなく,読み取られた基準ぼかし量から表示画面の大きさに応じたぼかし量をぼかすようにしてもよい。
第13図および第14図は,他の実施例を示している。この実施例は,再生時にクロス・ポイントを変更するものである。
第13図は,表示画面に表示された立体画像の一例である。
立体画像60Aには,第8図に示す立体画像60と同様に,第1の領域51,第2の領域52,第3の領域53および第4の領域54が含まれている。第8図に示す立体画像60では,第2の領域52にクロス・ポイントが含まれており,視差の無い木の画像52Aが表示されている。これに対して,第13図に示す立体画像60Aでは,第2の領域52に含まれる画像部分によって表される被写体よりも手前の被写体を表す第3の領域53にクロス・ポイントが移動させられている。このために,第2の領域52内の木の画像52Lおよび52Lは二重の画像となっており,第3の領域53内の人物の画像53Aは視差の無い画像となっている。
クロス・ポイントよりも手前の画像部分は立体画像を構成するために視差が必要となるが,視差が多いと観賞者に違和感を与えることがある。このために,この実施例では,記録時の立体画像のクロス・ポイントよりも手前の画像部分の視差が所定のしきい値以上の場合にはクロス・ポイントを手前に移動するものである。
第14図は,再生処理手順を示すフローチャートである。
立体撮像ディジタル・カメラと外部表示装置41との通信が開始され(ステップ61),メモリ・カード40に記録されている立体動画データが読み取られる(ステップ71)。また,その立体動画データが格納されているファイルのヘッダから立体動画を構成する立体画像ごとのクロス・ポイント情報,表示画面サイズに対する基準ぼかし量が読み取られる(ステップ72)。さらに,そのファイルから立体画像ごとの視差情報も読み取られる(ステップ73)。視差情報は,立体動画データの記録時に生成され,クロス・ポイント情報,基準ぼかし量とともにファイルのヘッダに格納されているのはいうまでもない。もっとも,視差情報があらかじめ記録されていなくとも,再生時に生成するようにしてもよい。
立体画像の記録時のクロス・ポイントよりも手前(近距離)の画像部分の視差が,許容範囲内かどうかが確認される(ステップ74)。その視差が所定のしきい値以上であれば許容範囲外とされ,その視差が所定のしきい値未満であれば許容範囲内とされる。
許容範囲内でなければ(ステップ74でNO),クロス・ポイントが近距離側(手前側)に移動させられる(ステップ75)。第13図に示すように,手前の被写体を表す画像部分の視差が無くなる。
許容範囲内であると(ステップ74でYES),記録時のクロス・ポイントよりも遠い被写体を表す画像部分が,視差量および外部表示装置の表示画面サイズに応じてぼかされる(ステップ76)。視差量が多い部分ほどぼかし量が多くなり,かつ表示画面サイズが大きいほどぼかし量が多くなる。
クロス・ポイントが手前に移動させられた場合には,そのクロス・ポイントよりも遠い被写体を表す画像部分が,視差量および外部表示装置の表示画面サイズに応じてぼかされる(ステップ76)。
立体動画を構成するすべてのフレームの立体画像についての処理が終了していなければ(ステップ77でNO),次のフレームの立体画像について同様の処理が行われるように立体撮像ディジタル・カメラが制御させられて(ステップ78),ステップ74から76の処理が繰り返される。
立体動画を構成するすべてのフレームの立体画像についての処理が終了すると(ステップ77でYES),立体動画が表示される(ステップ64)。
第15図から第21図は,他の実施例を示している。この実施例は,立体動画のシーンが変わる場合に,急激にシーンが変わってしまう印象を観賞者に与えないようにするものである。
第15図は,ヘッダの内容の一例である。
この実施例では,クロス・ポイント情報のほかにシーンが切り替わるフレームを表すシーン・チェンジ・フレームもヘッダに記録されている。たとえば,134フレーム目がシーン・チェンジ・フレームであり,133フレームまでの立体動画のシーンと134フレーム以降の立体動画のシーンとが切り替わる。
第16図は,立体動画のシーンを表するタイム・チャートである。
第1フレームから第133フレームまでがシーンAの立体動画であり,第134フレーム以降がシーンBの立体動画である。
第17図は,立体動画のシーン切り替え前後の立体画像全体をぼかすタイミングを示すタイム・チャートである。
ハッチングで示すように,シーン・チェンジ・フレームの前後のそれぞれの1秒間の合計2秒間の間立体画像全体がぼかされて表示される。シーン・チェンジ前後は立体画像全体がぼかされるので,シーンが変わっても観賞者に違和感を与えなくて済む。
第18図は,立体画像の一例である。
第133フレームの立体画像60から第134フレームの立体画像60Aに切り替わるときにシーンが切り替わる。上述のように,シーンが切り替わる前後の立体画像は全体がぼかされるので,シーンが変わっても観賞者に違和感を与えなくて済む。
第19図は,変形例を示すもので,立体動画のシーン切り替え前後の立体画像全体をぼかすタイミングを示すタイム・チャートである。
上述の実施例では,シーンが切り替わる前後において立体画像全体がぼかされているが,この実施例ではシーンが切り替わる前の複数フレームの立体画像は徐々に大きさが小さくなるものが表示され,シーンの切り換え後の複数フレームの立体画像は徐々に大きさが大きくなり,立体画像の元の大きさとなる。
第20図は,シーンが切り替わる前後で立体画像の大きさが変わる様子を示している。
上述のように,シーンが切り替わる前の複数フレームの立体画像は,立体画像の元の大きさ60Bから徐々に小さくなり,シーンが切り替わる直前またはシーンが切り替わるフレームの画像がもっとも小さい大きさ60Cとなる。シーンが切り替わった後は徐々に大きくなり,元の立体画像の大きさ60Bとなる。
第21図は,第6図に対応するもので,再生処理手順を示すフローチャートである。この図において,第6図に示すものと同一物については同一符号を付して説明を省略する。
メモリ・カード40に記録されているシーン・チェンジ情報が読み取られる(ステップ101)。シーンの切り替えがあると(ステップ102でYES),上述のように,そのシーンの切り替え前後において立体画像全体のぼかし,立体画像の縮小,拡大処理などが行われる(ステップ104)。その後,上述のように,クロス・ポイントよりも奥に遠い被写体を表す画像部分のぼかし処理が行われる(ステップ69)。シーンの切り替えが無ければ(ステップ102でNO),ステップ104がスキップされる。
上述の実施例において,第6図に示す処理,第9図に示す処理,第12図に示す処理,第14図に示す処理および第21図に示す処理は,それぞれ別々の処理として図面上は現れているが,それらの処理のうち,任意の複数の処理を組み合わせてもよい。たとえば,第9図に示す処理,第12図に示す処理,第14図に示す処理および第21図に示す処理のうち,一または複数の任意の処理を第6図に示す処理に組み合わせてもよいし,第12図に示す処理,第14図に示す処理および第21図に示す処理のうち,一または複数の任意の処理を第9図に示す処理に組み合わせてもよいし,第14図に示す処理および第21図に示す処理のいずれかまたは両方の処理を第12図に示す処理に組み合わせてもよいし,第14図に示す処理と第21図に示す処理とを組み合わせてもよい。
さらに,上述の実施例では,クロス・ポイントよりも奥側に遠いほどぼかし量が多くなるように立体画像がぼかされているが,クロス・ポイントよりも手前側に近いほど立体画像をぼかすようにしてもよい。このように,クロス・ポイントよりも手前側に近いほど立体画像をぼかす処理は,上述の第6図に示す処理,第9図に示す処理,第12図に示す処理,第14図に示す処理または第21図に示す処理のそれぞれの処理において行われてもよいし,それらの任意の組み合わせの処理においても行われるようにしてもよい。このようなぼかし処理も平滑化フィルタを用いて実現できるのはいうまでもない。

Claims (6)

  1. 記録媒体に記録されている立体画像を表す立体画像データを読み取る立体画像データ読み取り手段
    上記記録媒体に記録されており,かつ上記立体画像の視差が無くなるクロス・ポイントを表すクロス・ポイント情報を,上記記録媒体から読み取るクロス・ポイント情報読み取り手段
    上記立体画像データ読み取り手段によって読み取られた立体画像データによって表される立体画像のうち,上記クロス・ポイント情報読み取り手段によって読み取られたクロス・ポイント情報によって表されるクロス・ポイントよりも奥側に遠いほどぼかし量が多くなるように,上記立体画像のうち上記クロス・ポイントよりも奥側に遠い位置にある被写体を表す画像部分をぼかす第1のぼかし手段,
    上記第1のぼかし手段によって上記遠い位置にある被写体を表す画像部分がぼかされた上記立体画像を表示するように表示手段を制御する表示制御手段
    上記立体画像のうち上記クロス・ポイントよりも手前側に近い位置にある被写体を表す画像部分の視差がしきい値以上かどうかを判定する視差判定手段,および
    上記視差判定手段によって,上記クロス・ポイントよりも手前側に近い位置にある被写体を表す画像部分の視差がしきい値以上と判定されたことに応じて,上記クロス・ポイントが,上記立体画像のうち上記クロス・ポイント情報読み取り手段によって読み取られたクロス・ポイント情報によって表される上記クロス・ポイントの位置よりも手前の被写体を表す画像部分に移動するように上記立体画像データを制御するクロス・ポイント制御手段,
    を備えた立体画像表示制御装置。
  2. 上記第1のぼかし手段は,
    上記表示手段の表示画面が大きいほどぼかし量が多くなるように,上記立体画像のうち上記クロス・ポイント検出手段によって検出されたクロス・ポイントよりも奥側に遠い位置にある被写体を表す画像部分をぼかすものである,
    請求項1に記載の立体画像表示制御装置。
  3. 上記立体画像は立体動画を構成する1フレームの画像であり,上記立体画像データ読み取り手段は多数フレームの立体画像を表す立体画像データを上記記録媒体から読み取るものであり,かつ上記立体画像のシーンが変わる上記立体画像のフレームを表すシーン・チェンジ情報が上記記録媒体に記録されており,上記記録媒体から上記シーン・チェンジ情報を読み取るシーン・チェンジ情報読み取り手段,ならびに
    上記シーン・チェンジ情報読み取り手段によって読み取られたシーン・チェンジ情報によって表される上記立体画像のフレームの前後の1または複数のフレームであるシーン・チェンジ・フレームの上記立体画像の全体をぼかす第2のぼかし手段をさらに備え,
    上記表示制御手段は,上記シーン・チェンジ・フレームを除くフレームの上記立体画像についは上記第1のぼかし手段によってぼかされた立体画像を表示し,かつ上記シーン・チェンジ・フレームの上記立体画像については上記第1のぼかし手段および上記第2のぼかし手段によってぼかされた立体画像を表示するように表示手段を制御するものである,
    請求項に記載の立体画像表示制御装置。
  4. 上記表示制御手段は,
    上記立体画像のシーンが変わる上記立体画像の前までは,上記シーン・チェンジ・フレームの立体画像が大きいものから徐々に上記立体画像のシーンが変わる上記立体画像の前までは小さくなり,上記立体画像のシーンが変わる上記立体画像の後からは上記シーン・チェンジ・フレームの立体画像が小さいものから徐々に大きくなるような上記立体画像を表示するように表示手段を制御するものである,
    請求項に記載の立体画像表示制御装置。
  5. 上記立体画像データ読み取り手段によって読み取られた立体画像データによって表される立体画像のうち,上記クロス・ポイント情報読み取り手段によって読み取られたクロス・ポイント情報によって表されるクロス・ポイントよりも手前側に近いほどぼかし量が多くなるように,上記立体画像のうち上記クロス・ポイントよりも手前側に近い位置にある被写体を表す画像部分をぼかす第2のぼかし手段
    をさらに備えた請求項に記載の立体画像表示制御装置。
  6. 立体画像データ読み取り手段が,記録媒体に記録されている立体画像を表す立体画像データを読み取り,
    クロス・ポイント情報読み取り手段が,上記記録媒体に記録されており,かつ上記立体画像の視差が無くなるクロス・ポイントを表すクロス・ポイント情報を,上記記録媒体から読み取り,
    ぼかし手段が,上記立体画像データ読み取り手段によって読み取られた立体画像データによって表される立体画像のうち,上記クロス・ポイント情報読み取り手段によって読み取られたクロス・ポイント情報によって表されるクロス・ポイントよりも奥側に遠いほどぼかし量が多くなるように,上記立体画像のうち上記クロス・ポイントよりも奥側に遠い位置にある被写体を表す画像部分をぼかし,
    表示制御手段が,上記第1のぼかし手段によって上記遠い位置にある被写体を表す画像部分がぼかされた上記立体画像を表示するように表示手段を制御
    視差判定手段が,上記立体画像のうち上記クロス・ポイントよりも手前側に近い位置にある被写体を表す画像部分の視差がしきい値以上かどうかを判定し,
    クロス・ポイント制御手段が,上記視差判定手段によって,上記クロス・ポイントよりも手前側に近い位置にある被写体を表す画像部分の視差がしきい値以上と判定されたことに応じて,上記クロス・ポイントが,上記立体画像のうち上記クロス・ポイント情報読み取り手段によって読み取られたクロス・ポイント情報によって表される上記クロス・ポイントの位置よりも手前の被写体を表す画像部分に移動するように上記立体画像データを制御する,
    立体画像表示制御装置の動作制御方法。
JP2011554288A 2010-06-17 2011-04-27 立体画像表示制御装置およびその動作制御方法 Expired - Fee Related JP4989788B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011554288A JP4989788B2 (ja) 2010-06-17 2011-04-27 立体画像表示制御装置およびその動作制御方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010138100 2010-06-17
JP2010138100 2010-06-17
JP2011554288A JP4989788B2 (ja) 2010-06-17 2011-04-27 立体画像表示制御装置およびその動作制御方法
PCT/JP2011/060681 WO2011158573A1 (ja) 2010-06-17 2011-04-27 立体画像表示制御装置およびその動作制御方法

Publications (2)

Publication Number Publication Date
JP4989788B2 true JP4989788B2 (ja) 2012-08-01
JPWO2011158573A1 JPWO2011158573A1 (ja) 2013-08-19

Family

ID=45347984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011554288A Expired - Fee Related JP4989788B2 (ja) 2010-06-17 2011-04-27 立体画像表示制御装置およびその動作制御方法

Country Status (5)

Country Link
US (1) US8472786B2 (ja)
EP (1) EP2469876B1 (ja)
JP (1) JP4989788B2 (ja)
CN (1) CN102656892B (ja)
WO (1) WO2011158573A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4787369B1 (ja) * 2010-03-30 2011-10-05 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP5572647B2 (ja) * 2012-02-17 2014-08-13 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
CN104137539B (zh) * 2012-02-23 2016-07-27 富士胶片株式会社 立体图像显示控制装置、具有该装置的摄像装置及立体图像显示控制方法
US8937644B2 (en) * 2012-03-21 2015-01-20 Canon Kabushiki Kaisha Stereoscopic image capture
JP2014236340A (ja) * 2013-05-31 2014-12-15 株式会社東芝 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
CN105100772B (zh) * 2015-07-16 2017-03-15 深圳市华星光电技术有限公司 一种三维图像处理方法及装置
US10078228B2 (en) 2016-09-29 2018-09-18 Jeremy Paul Willden Three-dimensional imaging system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06194602A (ja) * 1992-12-24 1994-07-15 Nippon Telegr & Teleph Corp <Ntt> 両眼立体視装置
JPH11355624A (ja) * 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 撮影装置
WO2004084560A1 (ja) * 2003-03-20 2004-09-30 Seijiro Tomita 立体映像撮影表示システム
WO2008126200A1 (ja) * 2007-03-23 2008-10-23 Ntt Comware Corporation 立体画像処理装置およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04343685A (ja) 1991-05-20 1992-11-30 Mitsubishi Electric Corp 産業用ロボットの駆動装置
JPH0943468A (ja) 1995-08-02 1997-02-14 Fujikura Ltd 光ファイバケーブル及びその製造方法
JP3787939B2 (ja) 1997-02-27 2006-06-21 コニカミノルタホールディングス株式会社 立体映像表示装置
JP2001326947A (ja) * 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
US7679641B2 (en) * 2006-04-07 2010-03-16 Real D Vertical surround parallax correction
JP4695664B2 (ja) * 2008-03-26 2011-06-08 富士フイルム株式会社 立体動画像処理装置および方法並びにプログラム
EP2286385A4 (en) * 2008-06-06 2013-01-16 Reald Inc TRUNKING GAIN STEREOSCOPIC IMAGES
JP5567578B2 (ja) * 2008-10-21 2014-08-06 コーニンクレッカ フィリップス エヌ ヴェ 入力された三次元ビデオ信号を処理するための方法及びシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06194602A (ja) * 1992-12-24 1994-07-15 Nippon Telegr & Teleph Corp <Ntt> 両眼立体視装置
JPH11355624A (ja) * 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 撮影装置
WO2004084560A1 (ja) * 2003-03-20 2004-09-30 Seijiro Tomita 立体映像撮影表示システム
WO2008126200A1 (ja) * 2007-03-23 2008-10-23 Ntt Comware Corporation 立体画像処理装置およびプログラム

Also Published As

Publication number Publication date
CN102656892A (zh) 2012-09-05
JPWO2011158573A1 (ja) 2013-08-19
US20120237179A1 (en) 2012-09-20
WO2011158573A1 (ja) 2011-12-22
EP2469876B1 (en) 2015-07-29
EP2469876A1 (en) 2012-06-27
EP2469876A4 (en) 2013-06-05
US8472786B2 (en) 2013-06-25
CN102656892B (zh) 2015-03-25

Similar Documents

Publication Publication Date Title
JP4989788B2 (ja) 立体画像表示制御装置およびその動作制御方法
US9560341B2 (en) Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device
JP5249149B2 (ja) 立体画像記録装置及び方法、立体画像出力装置及び方法、並びに立体画像記録出力システム
US8384802B2 (en) Image generating apparatus and image regenerating apparatus
US9161016B2 (en) Image processing apparatus, imaging apparatus, reproduction apparatus, and image processing method for processing zoom in 3D imaging
US20120263372A1 (en) Method And Apparatus For Processing 3D Image
JP5420075B2 (ja) 立体画像再生装置、その視差調整方法、視差調整プログラム、及び撮影装置
US20130162764A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
WO2011152167A1 (ja) 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム
JP5449551B2 (ja) 画像出力装置、方法およびプログラム
US20140176686A1 (en) Image processing device, image capturing apparatus, and method for adjusting disparity amount
JP5449535B2 (ja) 立体撮像装置及びその制御方法
JP5571257B2 (ja) 画像処理装置、方法およびプログラム
JP5580486B2 (ja) 画像出力装置、方法およびプログラム
JP5918982B2 (ja) 撮像装置、再生装置、その制御方法、撮像システム、及びプログラム
JP2012015620A (ja) 立体撮像装置
JP4887461B2 (ja) 3次元画像撮像装置及び3次元画像表示方法
JP2011223540A (ja) 立体動画処理装置およびその動作制御方法
JP2012044319A (ja) 画像処理装置、画像処理方法及び立体撮像装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120410

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120427

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees