JP5640175B2 - 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法 - Google Patents

画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法 Download PDF

Info

Publication number
JP5640175B2
JP5640175B2 JP2014504631A JP2014504631A JP5640175B2 JP 5640175 B2 JP5640175 B2 JP 5640175B2 JP 2014504631 A JP2014504631 A JP 2014504631A JP 2014504631 A JP2014504631 A JP 2014504631A JP 5640175 B2 JP5640175 B2 JP 5640175B2
Authority
JP
Japan
Prior art keywords
image
optical
unit
electronic information
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014504631A
Other languages
English (en)
Other versions
JPWO2013136601A1 (ja
Inventor
宗之 大島
宗之 大島
近藤 茂
茂 近藤
貴嗣 青木
貴嗣 青木
和紀 井上
和紀 井上
林 大輔
大輔 林
三沢 岳志
岳志 三沢
三沢 充史
充史 三沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2014504631A priority Critical patent/JP5640175B2/ja
Application granted granted Critical
Publication of JP5640175B2 publication Critical patent/JP5640175B2/ja
Publication of JPWO2013136601A1 publication Critical patent/JPWO2013136601A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Viewfinders (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Camera Data Copying Or Recording (AREA)

Description

本発明は、画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法に関する。
例えば山歩きに行き、双眼鏡で八ヶ岳連峰を観たとき、どの山が赤岳でその隣に見える山が何の山なのかは、初心者には分かりづらい。このとき、双眼鏡内に見える山の光学像毎に、山の名前が合成して表示されると、使い勝手の優れた双眼鏡になる。
或いは、都会の空き地にビルを建てる場合に、建築設計士が所持しているデジタルカメラのファインダ装置を通して空き地周りのビル群を観察したとき、周りのビル群の光学像と一緒に、設計したビルのCG画像が空き地に立った状態を観察できれば、建築後の景観を事前に確認できるため、便利である。
また、目的地に行きたい人が道に迷った場合に、デジタルカメラのファインダでその方向を覗けば、ビル群に隠れてしまった目的地の位置や周りのビルの名前がファインダ内に表示される、というものが実現されていれば、デジタルカメラの利用価値が高まる。
デジタルカメラのレンズをある方向に向け、その撮像画像(ライブビュー画像)をカメラ背面のLCD表示装置に表示させたとき、撮像画像中に、ランドマークの情報やその地名,ビル名称等を重畳して表示させるものは既に存在する(例えば、特許文献1)。
ランドマーク情報やビル名称等を知ることが主な目的であれば、従来の様に、カメラ背面等に設けたLCD表示装置に被写体のライブビュー画像を表示させ、これにビル名称等を重畳表示すれば良い。しかし、被写体の観察が主な目的であれば、被写体の鮮明な光学像を、直接、双眼鏡や光学ファインダ装置の観察窓を通して観たいという要望が高い。
下記の特許文献2には、双眼鏡や拡大鏡などで被写体を観察するとき、観察窓から覗いた視界の中に、図鑑情報等の電子情報も併せて合成表示する装置が提案されている。
被写体の光学像を目で直接観察し、その視界中にランドマークの名称等を電子情報で合成表示できれば、鮮明な光学像を観察できると同時に、必要な電子情報も一緒に知ることができる。しかし、それを実現する装置を具体的にどの様に構成すれば良いかは、特許文献2に記載されていない。
電子情報を光学像に重ねて表示する技術は、例えば下記の特許文献3記載の従来技術を応用すれば可能である。この特許文献3記載のデジタルカメラでは、光学ファインダを通してユーザの目に入ってくる被写体の光学像に、ファインダ内に設けた投射型表示装置の表示画像を重ねて投射する構成になっている。このため、必要となる電子情報を投写型表示装置に表示すれば、光学像と電子情報とが重畳した画像をユーザは目で見ることが可能となる。
被写体の光学像と、この光学像の近くの、大まかに合わせた位置に名称等の関連情報を表示することは容易である。しかし、例えば沢山の山々が連なった連峰を双眼鏡で見たときに、個々の山の名称が少しずつずれた位置に重畳表示されてしまうと、ユーザに誤った情報を提供することになってしまう。このため、被写体の光学像に高精度に整合する位置に電子情報を表示することが必要となる。
例えば、特許文献4,5には、光学ファインダと電子ビューファインダとを組み合わせたファインダ装置が開示されている。このファインダ装置の電子ビューファインダに表示される被写体の撮像画像は、光学ファインダに入射してくる被写体からの光学像ではない。ファインダ装置から少し離れた位置に設けられた撮影レンズで集光され撮像素子で撮像された光学像である。
つまり、光学ファインダを通した光学像と、電子ビューファインダに表示される撮像画像との間には、パララックスが生じる。このパララックスは、単焦点レンズのカメラであれば常に一定の関係があるため補正は容易である。しかし、撮影レンズがズームレンズの場合には、倍率変動に応じてパララックスが変化してしまい、光学像と撮像画像との高精度の位置合わせは困難となる。
日本国特開2006―59136号公報 日本国特開2011―253512号公報 日本国特開2010―107529号公報 日本国特開2009―200552号公報 日本国特開平3―292067号公報
本発明の目的は、被写体の光学像に高精度に位置合わせして電子情報を重畳表示することが可能な画像表示装置と、この画像表示装置をファインダ装置として搭載する撮影装置と、画像表示方法を提供することにある。
本発明の画像表示装置は、被写体側から取り込んだ入射光を分割するビームスプリッタと、そのビームスプリッタで分割された一方の入射光による第1の光学像を電気信号に変換し撮像画像として出力する撮像素子と、上記撮像画像の中の主要被写体画像に位置合わせした電子情報画像を生成する合成画像生成部と、その電子情報画像を表示するディスプレイパネルと、上記分割された他方の入射光による第2の光学像に上記ディスプレイパネルから投射された上記電子情報画像の光学像を重畳して出射させる光学プリズムとを備えることを特徴とする。
本発明の撮影装置は、上記の画像表示装置をファインダ装置として搭載することを特徴とする。
本発明の画像表示方法は、被写体側から取り込んだ入射光をビームスプリッタで分割し、上記ビームスプリッタで分割された一方の入射光による第1の光学像を撮像素子で電気信号に変換し撮像画像として出力し、その撮像画像の中の主要被写体画像に位置合わせした電子情報画像を合成画像生成部で生成し、上記電子情報画像をディスプレイパネルに表示し、上記分割された他方の入射光による第2の光学像に上記ディスプレイパネルから投射された上記電子情報画像の光学像を光学プリズムで重畳して出射させることを特徴とする。
本発明によれば、画像表示装置内に撮像素子を設け、ユーザが目で見る被写体光学像と同じ画像を撮像素子で撮像するため、その撮像画像に基づいて、即ち、高精度に位置合わせした電子情報画像を被写体光学像に重ねて表示できる。
本発明の第1の実施形態に係る画像表示装置としてのファインダ装置を搭載したデジタルカメラの外観斜視図である。 図1のデジタルカメラの機能ブロック図である。 図2に示すファインダ装置の画像合成方法の説明図である。 ファインダ装置を通して見える光学像の一例を示す図である。 図4の光学像を撮像したときの白飛び部分を示す図である。 本発明の第2の実施形態に係るデジタルカメラの機能ブロック図である。 図6の合成画像生成部が生成した合成画像の一例を示す図である。 本発明の第3の実施形態に係るデジタルカメラの機能ブロック図である。 図8のCPUが実行する制御手順を示すフローチャートである。 本発明の第3の実施形態に係るデジタルカメラのファインダ装置の視野内から検索対象オブジェクトを探す説明図である。 本発明の第3の実施形態に係るファインダ装置の視野内から検索対象オブジェクトを探す説明図である。 本発明の第3の実施形態に係るファインダ装置内の撮像素子による撮像画像の一例を示す図である。 図12に示す撮像画像の中から検索対象オブジェクトに該当する画像領域を切り出した図である。 本発明の第3の実施形態に係るデジタルカメラのファインダ装置で覗いた光学像に図13の画像を合成した画像を示す図である。 本発明の第4の実施形態に係るデジタルカメラの機能ブロック図である。 本発明の第4の実施形態で実現する合成画像の説明図である。 図15のCPUが実行する制御手順を示すフローチャートである。 図17のフローチャート中のコンテンツ配置条件決定処理の詳細手順を示すフローチャートである。 図17のフローチャート中のコンテンツ隠蔽領域算出処理の説明図である。 本発明の第5の実施形態に係るデジタルカメラ(スマートフォン)の外観斜視図である。 図20のスマートフォンの機能ブロック図である。
以下、本発明の一実施形態について、図面を参照して説明する。なお、実施形態では、デジタルカメラに搭載されるファインダ装置(画像表示装置)を例に説明するが、本発明の画像表示装置としてはこれに限定されるものではなく、撮像素子を内蔵した双眼鏡,単眼鏡,フィールドスコープ,ヘッドマウンドディスプレイ等、被写体を光学像と撮像画像の両方で観察できる画像表示装置であれば適用可能である。
図1は、本発明の第1の実施形態に係るデジタルカメラ10の外観斜視図である。デジタルカメラ10は、カメラ筐体11の前部に、撮影レンズ12を収納するレンズ鏡筒13が沈胴可能に取り付けられている。カメラ筐体11前面の向かって上面左肩部にはシャッタレリーズボタン14が設けられており、カメラ筐体11の背部には、図示省略の液晶表示部が設けられている。
カメラ筐体11の前面上部には、フラッシュ光の発光部15が設けられており、カメラ筐体11前面の向かって右肩部の内部には、ファインダ装置16が設けられている。ファインダ装置16は、被写体側の開口窓17と、撮影者側(ユーザ側)の覗き窓18との間に設けられている。
図2は、図1に示すデジタルカメラ10の機能ブロック構成図である。被写体の静止画像や動画像を撮影する撮像系21は、図1に示す撮影レンズ12と、その背部に設けられたCMOSイメージセンサ等の撮像素子22とを備える。
デジタルカメラ10は、カメラ全体を統括制御するCPU24と、メモリ25と、合成画像生成部26と、画像解析部27とを備え、これらはバス30によって相互に接続されている。撮像素子22による撮像画像信号Aは、バス30に出力される。
デジタルカメラ10のバス30には、通常のデジタルカメラと同様に、撮像画像信号に対してオフセット処理やガンマ補正処理,RGB/YC変換処理等を行う画像信号処理部や、画像処理後の撮像画像信号をJPEG形式の画像データに変換する画像圧縮部、JPEG画像データをメモリカード等に記録するカードインタフェース、カメラ背部の液晶表示部に撮像画像やライブビュー画像を表示する表示制御部等を備えるが、これらの図示は、省略している。
本実施形態のファインダ装置16は、図1に示す被写体側開口窓17の背部に設けた対物レンズ31と、対物レンズ31の背部に設けたハーフミラーなどのビームスプリッタ32と、ビームスプリッタ32の背部に設けた光学プリズム33と、光学プリズム33の背部に設けられ図1に示すユーザ側覗き窓18に対面する接眼レンズ34とを備える。対物レンズ31をズームレンズとし、これを撮影レンズ12のズーム倍率に連動させて駆動させる構成とするのが良い。
ビームスプリッタ32は、対物レンズ31及び接眼レンズ34の共通光軸に対して45度に傾けて配置され、対物レンズ31を通して入ってくる入射光を2分割する。分割光の一方は光軸に沿って直進し、他方は45度に反射される。
この45度に反射される入射光の先に、ファインダ装置16の集光レンズ35が設けられ、集光レンズ35の背部にCMOSイメージセンサ等の撮像素子36が設けられる。撮像素子36による撮像画像信号B1は、バス30に出力される。
ビームスプリッタ32を直進した分割光が入射する光学プリズム33は、入射面33aと出射面33bを備える。入射面33aは、光軸に対して垂直に設けられ、出射面33bは、光軸に対して45度に傾けて設けられている。そして、出射面33bに臨む位置であって光軸に対して直交する位置に、ファインダ装置16のディスプレイパネル37と、ディスプレイパネル37の表示画像光を出射面33bに集光するレンズ38とが設けられる。
ディスプレイパネル37は、バス30に接続された図示省略の表示制御部を介して、撮像素子36による撮像画像信号B1に基づいて生成された電子情報B2が供給される。
図3は、ファインダ装置16の機能説明図である。図2の集光レンズ35の光軸方向位置を調整することで、被写体からの入射光の焦点距離と撮像素子36の焦点距離を同一に合わせる。被写体からの入射光は、ビームスプリッタ32で2分割され、直進する分割光は、光学プリズム33,接眼レンズ34を直進してユーザの目に入射する。これにより、ユーザは、図3の被写体光学像51を観ることができる。
一方、ビームスプリッタ32で45度方向に反射した分割光は、撮像素子36の受光面に結像する。この結像した被写体光学像52を図3に示す。被写体光学像51,52の夫々の画面内の位置は、高精度に一致する。撮像素子36による撮像画像信号B1は、被写体光学像52の撮像画像信号であり、画像処理された後の撮像画像に基づいて例えば被写体の顔を囲む枠53が、電子情報として図2の合成画像生成部26で生成される。
この枠53の画像を電子情報B2としてディスプレイパネル37に表示させると、枠53の画像が、ファインダ装置16内を直進した被写体光学像51と精度良く位置合わせされ、ユーザの目に入射することになる。このとき、枠53の画像と一緒に、撮像素子36で撮像された顔画像である被写体光学像52を、例えば緑色で表示したとすると、被写体光学像51の顔が緑色に見えることになる。被写体光学像52の顔画像を真っ黒に表示すると、つまり、ディスプレイパネル37の被写体光学像52の顔画像部分を無表示にすると、被写体光学像51のみが枠53に囲まれてユーザの目に入射する。
図4は、ファインダ装置16を通して見た被写体の一例を示す図である。ヴァイオリンの光学像となっている。図5は、図4の光学像と同じ光学像を撮像素子36で撮像したとき、図2の画像解析部27が解析して求めた白飛び部分54だけを図示した図である。この図5の白飛び部分54を例えば赤や白を点滅した電子情報の画像とし、他の領域をマスク画像(黒表示)として合成画像生成部26が生成する。これを電子情報B2としてディスプレイパネル37に表示すると、図4の光学像の中の白飛びを起こしている領域が赤や白が点滅する画像としてユーザの目に入力される。
図5で説明した白飛び部分54は、ファインダ装置16内の撮像素子36が撮像した画像の中の白飛び部分である。つまり、実際に被写体を本撮影する撮像素子22の撮像画像中の白飛び部分とは異なる。しかし、撮像素子36と撮像素子22との間の感度差や電荷飽和量の差等は予め分かっているため、その差に応じた白飛び部分の画像を求めれば、精度良く、撮像素子22の白飛びを知ることができる。
或いは、本撮影を行う撮像素子22の白飛び部分をファインダ装置16を直進してユーザの目に入射する光学像に合成することもできる。撮像素子22によるライブビュー画像中の白飛び部分を画像解析部27で求め、この白飛び部分を表す画像を合成画像生成部26で生成する。
この合成画像をそのままディスプレイパネル37に表示してしまうと、ファインダ装置16を直進してくる光学像との間にパララックス分のズレが生じてしまう。そこで、撮像素子22による撮像画像と、撮像素子36による撮像画像とのマッチング処理を行ってどの程度のズレが生じているかを画像解析部27で解析し、ディスプレイパネル37に表示する合成画像の表示位置をズレ分だけずらして表示する。これにより、ファインダ装置16を直進してくる光学像に高精度に位置合わせした電子情報を合成画像として表示することが可能となる。
上記の実施形態は、白飛び部分の画像を光学像に合成する例であるが、黒潰れ領域や色飽和(RGBのうちの少なくとも1色が最大値となった状態)領域を光学像に合成することでも良い。
以上述べた実施形態によれば、ディスプレイパネル37に表示した画像と、ファインダ装置16を直進してユーザの目に入射する光学像との間の幾何的なズレが無くなるため、白飛び,黒潰れ等の警告といった画素単位のGUI表示を行っても、違和感のない表示が可能となる。
なお、図2の構成において、光学プリズム33の前段に液晶シャッタを設けておけば、液晶シャッタを閉じ撮像素子22のライブビュー画像をディスプレイパネル37に表示することで、ファインダ装置16を電子ビューファインダ装置として使用できる。
図6は、本発明の第2の実施形態に係るデジタルカメラの機能ブロック構成図である。図2の実施形態と異なるのは、ファインダ装置16に設ける撮像素子41として、位相差検出画素を撮像領域の全面に設けたものを使用する。また、バス30に、位相差情報解析部28を接続する。
位相差検出画素とは、例えば、隣接する2つの画素の一方の遮光膜開口と他方の遮光膜開口とを互いに反対方向に偏心して設けた画素をいう。これにより、一方の画素が被写体を右目(又は左目)で見た入射光を受光し、他方の画素が被写体を左目(又は右目)で見た入射光を受光することになり、被写体までの距離を検出することが可能となる。この様な位相差検出画素は、例えば特開2011―232371号公報や特開2011―227388号公報などで既に知られており、デジタルカメラの分野では、位相差AF方式に用いられるのが普通となっている。
本実施形態の撮像素子41は、位相差検出画素ペアを撮像素子受光面の全面に離散的に設けているため、画面内に撮像された個々の被写体までの距離を個別に算出することが可能となっている。被写体までの距離や画像ボケは、図6の位相差情報解析部28で検出される。
図7は、図6の合成画像生成部26が生成する画像例を示す図である。図示する例では、撮像素子41は、1画面内の主要被写体として、4つのビル1,2,3,4と3つの家5,6,7の画像を撮像している。位相差情報解析部28は、これら4つのビル1〜4及び3つの家5〜7までの距離を算出し、合成画像生成部26は、ビル1〜4及び家5〜7のぞれぞれの画像を背景画像から切り出した画像を求める。
そして、合成画像生成部26は、ビル1〜4,家5〜7の画像に対して、ファインダ装置16からの距離に応じた色付け画像を電子情報として生成する。例えば、最も近い家7やビル3は白画像,次に近いビル1と家6は少しピンク色画像,…,最も遠いビル4は赤色画像とし、背景画像を真っ黒にしてディスプレイパネル37に表示する。ディスプレイパネル37に表示されたビルや家の画像と、ファインダ装置16を通してユーザの目に入射する家やビルの光学像とは、高精度に整合する。これにより、ユーザは、ファインダ装置16を覗いて光学像を見たとき、主要被写体の表示色によって直感的に主要被写体までの距離を認識することが可能となる。
なお、位相差情報により、画像ボケが発生している領域を知ることができる。このため、撮像素子36,41(又は位相差検出画素が設けられた撮像素子22)による撮像画像で発生している画像ボケの領域を示す電子情報を、ファインダ装置16を透過する光学像に合わせて合成することもできる。
図8は、本発明の第3の実施形態に係るデジタルカメラの機能ブロック図である。図6の実施形態に、次の機能を付加した点が異なる。バス30には、オブジェクト検索部43と、被写体検出部44と、オブジェクトデータベース(DB)45と、第2バス46とが接続され、第2バス46には、位置情報取得部47と、方位情報取得部48と、姿勢情報取得部49が接続されている。
オブジェクトデータベース45は、カメラ内に設けても良いが、膨大なオブジェクトデータを利用する場合には、インターネット等のネットワークに接続されたデータベースを利用できる様にしても良い。
位置情報取得部47は、例えばGPS(Global Positioning System)であり、方位情報取得部48は方位を検出する電子コンパスであり、姿勢情報取得部49は、例えばGセンサ(重力方向の検出センサ)等でカメラの姿勢つまりファインダ装置16の姿勢を検出するものである。オブジェクトデータベース45には種々のオブジェクトが記憶されている。オブジェクトの例としては、例えば、公共施設や他の施設、建築物、地形、河川、湖沼、海、鉄道、道路、地名、更には、私的なユーザの知人居所等を示す地理情報のオブジェクト、或いは、知人等が所持する様々な情報機器(例えば、後述する図20,図21で説明するスマートフォン)の現在位置を示す情報のオブジェクト、等が挙げられる。
図9は、図8のCPU24が実行する制御手順を示すフローチャートである。先ず、ステップS1で、ユーザは、検索対象オブジェクトを指定する。例えば、ユーザは、目的地の霞ヶ関ビル(例えば、図7のビル4)を見つけたいとして霞ヶ関ビル4を検索対象オブジェクトとして、カメラ背面の液晶表示部のメニュー画面を通して指定する。
次に、CPU24は、各種情報の取得部47,48,49からの位置情報,方位情報,姿勢情報を取得し、次のステップS3で、図8のオブジェクト検索部43が、検索条件を満たすオブジェクトを、オブジェクトデータベース45から検索する。例えば、「現在地を中心として、半径Xkm以内で、かつ、ファインダ装置16の光軸が指す方位を中心として中心角Y度の扇形領域内に存在する」という検索条件で検索する。
次のステップS4では、ファインダ装置16を覗いた視野範囲内に存在するオブジェクトであってステップS3で検索されたオブジェクトの中に、検索対象オブジェクトが存在するか否かを判定する。検索対象オブジェクトが存在しない場合にはこの処理を終了する。図10に検索条件を満たす扇形の視野範囲61を示す。
視野範囲61内に検索対象オブジェクトが存在する場合には、次のステップS5に進み、ファインダ装置内の撮像素子41における位相差検出画素が撮影した位相差情報を取得する。次に、ステップS6で、図8の位相差情報解析部28が位相差情報から距離情報を算出し、被写体検出部44が同一距離にある被写体を撮像している画素群の撮像画像を被写体候補として抽出する。
次のステップS7では、被写体候補と検索対象オブジェクトとを照合する。図11は、扇形の視野範囲61内でデータベースを検索することで求めたオブジェクトと、ユーザが指定した検索対象オブジェクト(この例ではビル4)と、撮像素子41による撮像画像との関係を示す図である。このステップS7での照合では、「被写体と画像表示装置(ファインダ装置16)との相対方位角が検索対象オブジェクトに最も近いもの」という条件を満たす被写体候補を、検索対象オブジェクトであると決定する。
次のステップS8では、合成画像生成部26が、検出された被写体の領域を強調色の画像(電子情報)に置き換え、他の領域を黒でマスクする。即ち、図12は、撮像素子41で撮像された主要被写体の画像であり、ビル1〜4と家5〜7が映っている。この画像から、検索対象オブジェクトとして決定された被写体候補の画像(ビル4の画像)だけを切り出す。切り出した画像を、図13に示す。図13では、ビル4のうち見えている部分の画像だけを切り出し、例えば赤色画像で生成する。そして、他の領域は黒表示とする。黒表示とは、これをディスプレイパネル37に表示するとき、何も発光色の無い状態である。
次のステップS9では、図13の画像を、被写体の光学像に合わせて合成する電子情報として、ディスプレイパネル37に表示する。これにより、図14に示す画像が、ユーザの目に入射されることになる。図14の画像は、ファインダ装置16を透過してユーザの目に入射する光学像に、図13の画像が合成された画像となっている。図13の黒領域は、ディスプレイパネル37からの光は何もないため、ファインダ装置16を透過した鮮明な光学像だけがユーザに目に入射する。これに対し、ビル4について、ファインダ装置16を透過したビル4の光学像に、図13で説明した赤色のビル4の画像が重畳してユーザの目に入射することになる。これにより、ユーザは、ファインダ装置16を覗いたとき、ビル4だけが赤色強調色となった光学像を見ることになる。
なお、第3の実施形態では、検索対象オブジェクトに該当する被写体画像を強調色で色付けした。しかし、検索対象オブジェクトに該当する被写体が、他の被写体の影に隠れて見えない場合もある。検索対象オブジェクトが、奥行き方向の手前側に存在する被写体の影に隠れていることが検出できた場合、検索対象オブジェクトの存在を示す電子情報を合成表示すれば良い。例えば赤色の丸枠を、その手前側の被写体画像に重ねて点滅表示することで、ユーザに検索対象オブジェクトの存在を認識させることができる。
また、第3の実施形態では、検索対象オブジェクトに該当する被写体画像を強調色で色付けしただけであるが、検索対象オブジェクトの名称も一緒にディスプレイパネル37に表示することも可能である。
或いは、名称だけを、撮像素子41の撮像画像に重ねて表示することでも良い。ファインダ装置16を透過した光学像と、この光学像を分割した分割光の撮像画像とは、高精度に位置が一致するため、例えば被写体が沢山の山々が連なった連峰である場合、この連峰を構成する個々の山の名称を位置ズレ無く光学像に合成して表示できる。
図15は、本発明の第4の実施形態に係るデジタルカメラの機能ブロック構成図である。図8の実施形態に比べると、図8のオブジェクト検索部43の代わりにコンテンツ配置条件決定部63とコンテンツ隠蔽領域演算部64を設けている。更に、オブジェクトデータべース45の代わりにコンテンツデータベース65を設けている。
第4の実施形態では、例えば図16に示す様に、ファインダ装置16を覗いて見えるビル1,2,3の光学像の間の空き地に、コンテンツの画像(仮想物CG画像)を合成してユーザに見せる画像合成を行う。
図17は、図15のCPU24が行う制御手順を示すフローチャートである。先ず、ステップS11で、コンテンツ(仮想物)8の配置条件を決定する。このステップS11で行うコンテンツ配置条件決定処理手順の詳細を示すフローチャートを図18に示す。
図18において、先ず、ステップS21で、図15の各種情報取得部47,48,49から、現在地の位置情報,方位情報,ファインダ姿勢情報のデータを受信する。
次のステップS22では、図15のコンテンツ配置条件決定部63により、条件を満たすコンテンツをコンテンツデータベース65から検索する。この条件とは、例えば、「現在地を中心として半径Xkm以内であり、ファインダ光軸の指す方向を中心に中心角度Y度の扇形領域内に存在する空きスペースに収めることができる。」である。コンテンツデータベース65に格納されている各コンテンツには、世界座標による大きさ等が割り当てられており、ファインダ装置16のGPS信号,方位信号,姿勢信号によって定まる条件により検索される。
次のステップS23では、コンテンツデータベース65を検索した結果、条件に合うコンテンツが少なくとも1つは存在したか否かを判定する。1つも存在しない場合には、ステップS21に戻る。少なくとも1つのコンテンツが存在した場合には、ステップS23からステップS24に進み、検索されたコンテンツから、そのコンテンツと現在地との距離Aを算出すると共に、そのコンテンツの実サイズBをコンテンツデータベース65から読み出して参照する。そして、図17のステップS12に進む。
ステップS12では、ファインダ装置16で覗いた領域を位相差検出画素付きの撮像素子41で撮影し、位相差情報を取得する。次のステップS13では、図15の被写体検出部44が位相差情報に基づき、図9のステップ6と同様にして撮像画像中のビル1,2,3を抽出する。
次のステップS14では、被写体群(上記例では、ビル1,2,3)とコンテンツとの配置条件から、コンテンツの隠蔽領域を算出する。隠蔽領域とは、撮像画像の奥行き方向で、手前の被写体によって後側のコンテンツのうち隠れてしまう領域をいう。
図19は、コンテンツの隠蔽領域を算出する説明図である。被写体群のビル1,2,3の撮像画像を仮想の三次元空間上に配置すると共に、描画対象とするコンテンツをこの三次元空間上に配置する。そして、ファインダ装置16を基準視点として、周知の光線追跡法により、被写体群とコンテンツとの間の隠蔽関係を算出する。
光線追跡法とは、「目に飛び込んで来る光は、一番手前にある被写体から届く」という原理に基づいて、撮像素子41の各画素に到達する光を計算する方法である。この光線追跡法は、各画素の搭載フィルタ色や輝度を決定する3DCG描画方法の一般的な手法である。
図17のステップS14でコンテンツや被写体の隠蔽領域,描画する領域が分かると、次のステップS15に進み、図15の合成画像生成部26は、コンテンツのCG画像のうち描画する領域のみ生成する。そして、最後のステップS16で、ディスプレイパネル37に、コンテンツの描画領域のみ表示し、その他の領域は黒表示とする。
これにより、図16に示す様に、コンテンツ8のCG画像が、あたかも、手前のビル1,2の光学像の後に存在する様に表示される。コンテンツ8の後のビル3のうちコンテンツ8に隠れる部分は、コンテンツ8の表示によって上書きされ、ビル3の手前にコンテンツ8の画像が表示されることになる。
撮像素子41と撮像素子22との位置関係等は予め既知のため、撮像素子22で被写体を撮像したとき、このコンテンツ8のCG画像を、撮像素子22による撮像画像中に、位置ズレ無く、合成することができる。
この第4の実施形態によれば、ファインダ装置16の視野範囲内の空きスペースに設ける仮想物(コンテンツ)を、予めコンテンツデータベース65に登録されているコンテンツの中から自動的に選択する構成になっている。このため、ユーザのコンテンツ選択の手間が軽減されるという利点がある。
しかし、ユーザによっては、自身の希望するコンテンツのCG画像をファインダ装置16内に合成表示させたい場合もある。また、空きスペースではなく、既存の建物に替えてユーザ指定のコンテンツのCG画像を表示させたい場合もある。
この様な場合には、ユーザにコンテンツを選択させ、その大きさや設ける場所などを、カメラ背面の液晶表示部のメニュー画面を通して指定させることで、そのコンテンツを拡大/縮小して撮像画像中に合成すれば良い。
以上、本発明の画像表示装置の実施形態として、撮影装置のファインダ装置について説明してきたが、撮影装置の構成はこれに限定されない。撮影装置としては、例えば、内蔵型又は外付け型のPC用カメラ、或いは、以下に説明するような、撮影機能を有する携帯端末装置とすることができる。
撮影装置の一実施形態である携帯端末装置としては、例えば、携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。
図20は、撮影装置の一実施形態であるスマートフォン200の外観を示すものである。図20に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。また、この様な筐体201は、スピーカ205と、マイクロホン206、操作部207と、カメラ部208とを備える他に、図2,図6の実施形態で説明したファインダ装置16を備えている。なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用したりすることもできる。
図21は、図20に示すスマートフォン200の構成を示すブロック図である。図21に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GPS(Global Positioning System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220と、ファインダ装置16とを備える。また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
表示入力部204は、主制御部220の制御により、画像(静止画像および動画像)や文字情報などを表示して視覚的にユーザに情報を伝達すると共に、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。
表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。
図20に示すように、本発明の撮影装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体201の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
通話部211は、スピーカ205やマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210或いは外部入出力部213により受信された音声データを復号してスピーカ205から出力したりするものである。また、図20に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。
操作部207は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図20に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
記憶部212は、主制御部220の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達することや、スマートフォン200の内部のデータが外部機器に伝送されるようにすることができる。
GPS受信部214は、主制御部220の指示にしたがって、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、そのスマートフォン200の緯度、経度、高度からなる位置を検出する。GPS受信部214は、無線通信部210や外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
モーションセンサ部215は、例えば、3軸の加速度センサなどを備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向や加速度が検出される。係る検出結果は、主制御部220に出力されるものである。
電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
また、主制御部220は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。
更に、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示したりする。なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
更に、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
カメラ部208は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部208は、主制御部220の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部212に記録したり、外部入出力部213や無線通信部210を通じて出力することができる。図20に示すにスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよいし、或いは、複数のカメラ部208が搭載されてもよい。なお、複数のカメラ部208が搭載されている場合には、撮影に供するカメラ部208を切り替えて単独にて撮影したり、或いは、複数のカメラ部208を同時に使用して撮影したりすることもできる。
また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示することや、操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用することができる。また、GPS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。更には、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。
その他、静止画又は動画の画像データにGPS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等などを付加して記憶部212に記憶させたり、外部入出力部213や無線通信部210を通じて出力したりすることもできる。
上記した様な薄型のスマートフォン200に設けるファインダ装置16は、かなり小型のものとなり、ファインダ装置16内に設ける撮像素子41もかなり小型なものとなるが、図1〜図19で説明した実施形態と同様のことを実現することは可能である。
なお、図20の実施形態においては、カメラ部208を設けずに、ファインダ装置16内の撮像素子をカメラ部208として兼用させても良い。また、図2,図6などの実施形態でも、撮影レンズ12や撮像素子22を省略し、ファインダ装置16内の撮像素子36,41で本撮影を行う構成とすることも可能である。
スマートフォンの様な高機能な情報機器の場合、アプリケーションソフトが現在位置をオブジェクトデータベース45に逐次連絡することができる。このため、例えば図1や図20の撮影装置のユーザは、知人のスマートフォンの現在位置つまり知人の居場所を知りたい場合、検索対象オブジェクトとして知人のスマートフォンを指定すれば、ファインダ装置16を覗くことで、容易に見つけることができる。
以上述べた様に、実施形態の画像表示装置は、被写体側から取り込んだ入射光を分割するビームスプリッタと、そのビームスプリッタで分割された一方の入射光による第1の光学像を電気信号に変換し撮像画像として出力する撮像素子と、上記撮像画像の中の主要被写体画像に位置合わせした電子情報画像を生成する合成画像生成部と、その電子情報画像を表示するディスプレイパネルと、上記分割された他方の入射光による第2の光学像に上記ディスプレイパネルから投射された上記電子情報画像の光学像を重畳して出射させる光学プリズムとを備えることを特徴とする。
また、実施形態の画像表示装置は、ユーザ指定のオブジェクトに該当する被写体を上記撮像画像の中から検出する検出部を備え、上記電子情報画像は、上記オブジェクトが上記第2の光学像の中に存在することを示す画像とすることを特徴とする。
また、実施形態の画像表示装置は、現在地の位置情報を検出する第1センサと、上記入射光が入射してくる方向を検出する第2センサと、その画像表示装置の姿勢を検出する第3センサとを備え、上記検出部は、上記第1,第2,第3センサの各検出信号に基づいて上記オブジェクトの存在を検出することを特徴とする。
また、実施形態の画像表示装置の上記オブジェクトは、オブジェクトデータベースに登録され、地理情報と、情報機器の現在位置を示す情報と、の少なくともいずれかの情報を含むことを特徴とする。
また、実施形態の画像表示装置の上記電子情報画像は、上記撮像画像の中の主要被写体の配置位置に応じた仮想物CG画像であり、かつ上記主要被写体により奥行き方向で隠れて見えない領域を除いた画像であることを特徴とする。
また、実施形態の画像表示装置は、現在地の位置情報を検出する第1センサと、上記入射光が入射してくる方向を検出する第2センサと、その画像表示装置の姿勢を検出する第3センサとを備え、上記合成画像生成部は、上記第1,第2,第3センサの各検出信号により上記仮想物CG画像の表示位置を決めることを特徴とする。
また、実施形態の撮影装置は、上記のいずれかに記載の画像表示装置を、ファインダ装置として搭載したことを特徴とする。
また、実施形態の画像表示方法は、被写体側から取り込んだ入射光をビームスプリッタで分割し、上記ビームスプリッタで分割された一方の入射光による第1の光学像を撮像素子で電気信号に変換し撮像画像として出力し、その撮像画像の中の主要被写体画像に位置合わせした電子情報画像を合成画像生成部で生成し、上記電子情報画像をディスプレイパネルに表示し、上記分割された他方の入射光による第2の光学像に上記ディスプレイパネルから投射された上記電子情報画像の光学像を光学プリズムで重畳して出射させることを特徴とする。
以上述べた実施形態によれば、フォインダ装置等の画像表示装置を覗くことで、ユーザは、鮮明な被写体の光学像をタイムラグ無しで観察することができる。しかも、この光学像に高精度に位置合わせした電子情報画像も併せて視界内で見ることができ、画像表示装置の使い勝手や使用価値が高くなる。
本発明に係る画像表示装置は、目で見る被写体の光学像に、高精度に位置合わせした電子情報を重畳して表示できるため、ユーザの使い勝手や使用価値の高い画像表示装置を提供できる。また、この画像表示装置をファインダ装置としてデジタルカメラ等に用いると有用である。
本出願は、2012年3月16日出願の日本特許出願(特願2012−60381)に基づくものであり、その内容はここに参照として取り込まれる。
1〜4 ビルの像
5〜7 家の像
8 コンテンツのCG画像
10 デジタルカメラ
11 筐体
12 撮影レンズ
16 ファインダ装置
22 本撮影用の撮像素子
26 合成画像生成部
27 画像解析部
28 位相差情報解析部
32 ビームスプリッタ
33 光学プリズム
36,41 ファインダ装置内の撮像素子
43 オブジェクト検索部
44 被写体検出部
45 オブジェクトデータベース
47 位置情報取得部(GPS)
48 方位情報取得部(電子コンパス)
49 姿勢情報取得部
63 コンテンツ配置条件決定部
64 コンテンツ隠蔽領域演算部
65 コンテンツデータベース

Claims (6)

  1. 被写体側から取り込んだ入射光を分割するビームスプリッタと、
    該ビームスプリッタで分割された一方の入射光による第1の光学像を電気信号に変換し撮像画像として出力する撮像素子と、
    前記撮像画像の主要被写体から求めた部分画像と、該部分画像の他の画像領域を黒表示画像としたマスク画像とを有する電子情報画像であって、前記電子情報画像の中の前記部分画像の位置が、前記撮像画像の中の主要被写体画像の位置と同じである電子情報画像を生成する合成画像生成部と、
    前記電子情報画像を表示するディスプレイパネルと、
    前記分割された他方の入射光による第2の光学像に前記ディスプレイパネルから投射された前記電子情報画像の光学像を重畳して出射させる光学プリズムとを備える画像表示装置。
  2. 請求項1に記載の画像表示装置であって、ユーザ指定のオブジェクトに該当する被写体を前記撮像画像の中から検出する検出部を備え、
    前記電子情報画像は、前記オブジェクトが前記第2の光学像の中に存在することを示す画像とする画像表示装置。
  3. 請求項2に記載の画像表示装置であって、
    現在地の位置情報を検出する第1センサと、前記入射光が入射してくる方向を検出する第2センサと、該画像表示装置の姿勢を検出する第3センサとを備え、前記検出部は、前記第1,第2,第3センサの各検出信号に基づいて前記オブジェクトの存在を検出する画像表示装置。
  4. 請求項2又は請求項3に記載の画像表示装置であって、
    前記オブジェクトは、オブジェクトデータベースに登録され、地理情報と、情報機器の現在位置を示す情報と、の少なくともいずれかの情報を含む画像表示装置。
  5. 請求項1乃至請求項4のいずれか1項に記載の画像表示装置を、ファインダ装置として搭載した撮影装置。
  6. 被写体側から取り込んだ入射光をビームスプリッタで分割し、前記ビームスプリッタで分割された一方の入射光による第1の光学像を撮像素子で電気信号に変換し撮像画像として出力し、
    前記撮像画像の主要被写体から求めた部分画像と、該部分画像の他の画像領域を黒表示画像としたマスク画像とを有する電子情報画像であって、前記電子情報画像の中の前記部分画像の位置が、前記撮像画像の中の主要被写体画像の位置と同じである電子情報画像を合成画像生成部で生成し、
    前記電子情報画像をディスプレイパネルに表示し、
    前記分割された他方の入射光による第2の光学像に前記ディスプレイパネルから投射された前記電子情報画像の光学像を光学プリズムで重畳させる画像表示方法。
JP2014504631A 2012-03-16 2012-11-27 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法 Expired - Fee Related JP5640175B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014504631A JP5640175B2 (ja) 2012-03-16 2012-11-27 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012060381 2012-03-16
JP2012060381 2012-03-16
JP2014504631A JP5640175B2 (ja) 2012-03-16 2012-11-27 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法
PCT/JP2012/080613 WO2013136601A1 (ja) 2012-03-16 2012-11-27 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法

Publications (2)

Publication Number Publication Date
JP5640175B2 true JP5640175B2 (ja) 2014-12-10
JPWO2013136601A1 JPWO2013136601A1 (ja) 2015-08-03

Family

ID=49160554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014504631A Expired - Fee Related JP5640175B2 (ja) 2012-03-16 2012-11-27 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法

Country Status (4)

Country Link
US (1) US9167166B2 (ja)
JP (1) JP5640175B2 (ja)
CN (1) CN104169795B (ja)
WO (1) WO2013136601A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5931206B2 (ja) * 2012-09-19 2016-06-08 富士フイルム株式会社 画像処理装置、撮像装置、プログラム及び画像処理方法
JP6286668B2 (ja) * 2013-05-22 2018-03-07 パナソニックIpマネジメント株式会社 撮像装置および撮像画像の表示方法
GB2537398A (en) 2015-04-16 2016-10-19 Nokia Technologies Oy Apparatus and method for capturing images
CN107065164B (zh) * 2017-04-20 2019-09-20 深圳市元征科技股份有限公司 图像展示方法及装置
WO2019049532A1 (ja) * 2017-09-07 2019-03-14 富士フイルム株式会社 撮像装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008078908A (ja) * 2006-09-20 2008-04-03 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
JP2009239651A (ja) * 2008-03-27 2009-10-15 Canon Inc 撮像装置
JP2009267792A (ja) * 2008-04-25 2009-11-12 Panasonic Corp 撮像装置
JP2010135894A (ja) * 2008-12-02 2010-06-17 Canon Inc 撮像装置
JP2011035638A (ja) * 2009-07-31 2011-02-17 Toppan Printing Co Ltd 仮想現実空間映像制作システム
JP2012004763A (ja) * 2010-06-16 2012-01-05 Nikon Corp カメラ
JP2012015889A (ja) * 2010-07-02 2012-01-19 Sony Corp 画像処理装置および画像処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5161025A (en) 1989-12-28 1992-11-03 Fuji Photo Film Co., Ltd. Optical/electrical view finder
DE102004004806B4 (de) * 2004-01-30 2012-04-19 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Elektronische Laufbildkamera
JP2006059136A (ja) * 2004-08-20 2006-03-02 Seiko Epson Corp ビューア装置及びそのプログラム
JP2010107529A (ja) * 2007-02-21 2010-05-13 Nikon Corp ファインダ装置および光学装置
JP2009200552A (ja) * 2008-02-19 2009-09-03 Olympus Imaging Corp 撮像装置および撮像装置の表示方法
JP2011253512A (ja) * 2010-06-02 2011-12-15 Kunio Yasuzawa 拡張現実感の応用装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008078908A (ja) * 2006-09-20 2008-04-03 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
JP2009239651A (ja) * 2008-03-27 2009-10-15 Canon Inc 撮像装置
JP2009267792A (ja) * 2008-04-25 2009-11-12 Panasonic Corp 撮像装置
JP2010135894A (ja) * 2008-12-02 2010-06-17 Canon Inc 撮像装置
JP2011035638A (ja) * 2009-07-31 2011-02-17 Toppan Printing Co Ltd 仮想現実空間映像制作システム
JP2012004763A (ja) * 2010-06-16 2012-01-05 Nikon Corp カメラ
JP2012015889A (ja) * 2010-07-02 2012-01-19 Sony Corp 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
CN104169795B (zh) 2016-05-18
CN104169795A (zh) 2014-11-26
US9167166B2 (en) 2015-10-20
WO2013136601A1 (ja) 2013-09-19
US20150036025A1 (en) 2015-02-05
JPWO2013136601A1 (ja) 2015-08-03

Similar Documents

Publication Publication Date Title
US9721392B2 (en) Server, client terminal, system, and program for presenting landscapes
US9332208B2 (en) Imaging apparatus having a projector with automatic photography activation based on superimposition
KR101285360B1 (ko) 증강현실을 이용한 관심 지점 표시 장치 및 방법
WO2010001778A1 (ja) 撮像装置、画像表示装置および電子カメラ
JP5640175B2 (ja) 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法
CN108702445B (zh) 一种图像显示方法、电子设备及计算机可读存储介质
US20090278949A1 (en) Camera system and method for providing information on subjects displayed in a camera viewfinder
US20120033070A1 (en) Local search device and local search method
JP5229791B2 (ja) 写真マッピング方法及びシステム、並びにプログラム及び記憶媒体
US9635234B2 (en) Server, client terminal, system, and program
CN104062758B (zh) 图像显示的方法和显示设备
JP2010050927A (ja) 撮影装置、撮影方法、プログラム、および記録媒体
JP2009060338A (ja) 表示装置、電子カメラ
JP2021125789A (ja) 映像処理装置、映像処理システム、映像処理方法、及びコンピュータプログラム
JP2009224890A (ja) 撮影装置及び携帯情報端末
JP6450890B2 (ja) 画像提供システム、画像提供方法、およびプログラム
JP2008152374A (ja) 画像システム、撮影方位特定装置、撮影方位特定方法、プログラム
JP5969062B2 (ja) 画像処理装置及び画像処理方法
JP6966011B1 (ja) 撮像装置、撮像方法および情報処理装置
JP2012227717A (ja) 表示装置、表示プログラムおよび表示方法
CN114758082A (zh) 地图构建方法、装置、设备及存储介质
JP2014086948A (ja) 撮像装置
JP2012208314A (ja) デジタルカメラ、撮影支援方法およびプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141027

R150 Certificate of patent or registration of utility model

Ref document number: 5640175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees