JP4019660B2 - Image data processing apparatus, image data processing method, and program - Google Patents

Image data processing apparatus, image data processing method, and program Download PDF

Info

Publication number
JP4019660B2
JP4019660B2 JP2001230029A JP2001230029A JP4019660B2 JP 4019660 B2 JP4019660 B2 JP 4019660B2 JP 2001230029 A JP2001230029 A JP 2001230029A JP 2001230029 A JP2001230029 A JP 2001230029A JP 4019660 B2 JP4019660 B2 JP 4019660B2
Authority
JP
Japan
Prior art keywords
mirror
image data
image
reflected
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001230029A
Other languages
Japanese (ja)
Other versions
JP2003046780A (en
Inventor
広治 入原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2001230029A priority Critical patent/JP4019660B2/en
Publication of JP2003046780A publication Critical patent/JP2003046780A/en
Application granted granted Critical
Publication of JP4019660B2 publication Critical patent/JP4019660B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Input (AREA)
  • Picture Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、撮影された画像のデータ処理を行う画像データ処理装置、この画像データ処理装置における画像データ処理方法、及び、この画像データ処理装置における制御プログラムに関する。
【0002】
【従来の技術】
従来、鏡を用い、被写体の正面に位置するカメラによって、被写体の上面等の正面以外の面を撮影する撮影装置があった。ここで図12を参照して、撮影装置の一例について説明する。
【0003】
図12は、鏡を利用した撮影装置の一例として画像処理装置100を示す図である。画像処理装置100は、ケース101内の台座104の上に置かれた被写体105の像を鏡110に映し、鏡110に映る鏡像をカメラ103によって撮影する装置である。
【0004】
ケース101の一端側には、フード102がケース101に対して回動可能に取り付けられている。また、台座104の上方には被写体105の上面の像を映す鏡110が設置され、フード102の端部には、鏡110の方を向いてカメラ103が取り付けられている。このため、フード102の回動に伴って、カメラ103の撮像面は被写体105の正面や鏡110の方向を向く。
【0005】
このように、カメラ103は、被写体105の正面の像を撮影するとともに、鏡110に映る像を撮影することによって被写体105の上面を撮影するものである。
【0006】
また、鏡110には、鏡110の角度を変化させるモータ120と、鏡110の角度を検知する角度検出装置121とが取り付けられている。このため、鏡110の角度を撮影に適した角度に移動させることができ、さらに、鏡110の角度を検出することによって、カメラ103側における撮影時の条件と合わせて、撮影条件を取得し、撮影画像のデータ処理に応用することもできる。
【0007】
【発明が解決しようとする課題】
ところが、従来の画像処理装置100においては、鏡110が有する特性によって撮影画像の鮮明さが損なわれるという問題があった。
【0008】
図13は、鏡110の構成を詳細に示すとともに、鏡110における光線の反射の様子を模式的に示す図である。
通常、鏡は、透明な平面ガラスの一面に、金属等の反射材を蒸着もしくは塗布することにより反射蒸着面を形成させてなる。そして、いわゆる鏡像は、鏡に入射した光が反射蒸着面で反射することで得られるものである。
【0009】
ところが実際には、鏡に入射した光の一部はガラス表面において反射し、反射蒸着面で反射した光とは異なる経路で放射される。
図13に示すように、入射光131が鏡110に入射すると、入射光131の一部はガラス111の表面で反射され、反射光132となって放射される。また、入射光131の残りはガラス111内部に入射し、反射蒸着面112で反射され、ガラス111から反射光133となって放射される。なお、空気中における屈折率とガラス111の屈折率との差によって、空気中からガラス111に入射する光と、ガラス111から空気中に放射される光は、それぞれ屈折する。
【0010】
つまり、入射光131は、ガラス表面で反射した反射光132と、反射蒸着面112で反射した反射光133とに分かれて放射される。反射光132はガラス111の内部には入射しない光であり、一方、反射光133は反射蒸着面112まで到達して2度の屈折を経た光である。このため、反射光132と反射光133とは平行であり、かつ、反射光132と反射光133との間には図中dで示す光路差が生じる。
【0011】
また、多くの場合、ガラス111の表面における反射光132は、鏡110への入射光のごく一部であり、反射蒸着面112における反射光133の方が圧倒的に大きな割合を占める。
【0012】
このため、鏡110により得られる鏡像は、ガラス111の表面における反射光132による像と、反射蒸着面112における反射光133による像とが、光路差dの分だけずれて重なったものとなり、さらに、反射光132の光量(強度)は反射光133の光量(強度)に比べて小さい。
【0013】
このため、例えば、画像処理装置100によって、図14(a)に示すような被写体105の鏡像を撮影すると、撮影画像は、図14(b)に示すように、2つの像が光路差dの分だけずれて重なった画像となってしまう。そして、ずれて重なる2つの像のうち一方は、弱い光による薄い像である。
【0014】
図15は、鏡110における光線の反射の様子を模式化し、より詳細に示す図である。
図15に示す例では、入射光として図中符号A,B,Cで示す3つの光線が鏡110に入射した場合を想定する。この場合の反射光は、図中符号Ak,A1,B2,Czの4本の光線となる。
【0015】
つまり、入射光A,B,Cは、それぞれガラス111の表面と反射蒸着面112とで反射し、反射光Ak,Az、反射光Bk,Bz、反射光Ck,Czとに分かれて放射される。さらに、入射光Aが反射蒸着面112で反射した反射光Azと、入射光Bがガラス111の表面で反射した反射光Bkとは重なり合い、同様に、入射光Bが反射蒸着面112で反射した反射光Bzと入射光Cがガラス111の表面で反射した反射光Ckとが重なり合う。
このため、鏡110から放射される反射光は、反射光Ak、反射光Azと反射光Bkとの和である反射光A1、反射光Bzと反射光Ckとの和である反射光B2、反射光Czの4本の光線となる。
【0016】
そして、これら反射光Ak,A1,B2,Czをカメラによって撮影すると、撮影画像は鮮明さが損なわれた画像となる。例えば、反射光Akは入射光Aのごく一部であるから、光量(強度)が入射光Aより劣るので、入射光A,B,Cの端部をぼやけさせる。また、反射光A1は、異なる入射光Aと入射光Bとが重なった光であり、入射光A,Bのどちらとも周波数成分が異なるため、被写体の色や明るさを忠実に反映した光ではなくなっている。同様に、反射光B2は入射光B,Cのどちらとも周波数成分の異なる光となってしまい、被写体の色や明るさを忠実に反映しておらず、反射光Czは入射光Cよりも光量(強度)が劣る光であり、画像の端部をぼやけさせてしまう。
【0017】
このように、鏡を利用して鏡像を撮影した画像は、画像の端部、すなわち被写体と背景との境界部分がぼやけた上、境界以外の部分においても被写体とは色や明るさが異なる不鮮明な像となり、全体として不鮮明な画像となってしまうという問題があった。
【0018】
さらに、鏡表面における反射光の影響は鏡の角度によって異なるので、鏡の角度を変えて複数の画像を撮影した場合、各画像の不鮮明さはそれぞれ異なる。このため、より均質な複数の画像を撮影したい場合は、鏡の角度を厳密に調整する必要があり、非常に手間がかかるという問題があった。
【0019】
そして、このような問題は、高い解像度で撮影を行った場合や、カメラ103の撮像素子が高感度の場合に特に顕著に現れるので、より鮮明な画像を必要とする場合には無視できない問題となり、鏡を使用して撮影を行うこと自体が困難になっていた。
【0020】
本発明の課題は、鏡で反射される画像を処理する画像データ処理装置において、鏡の表面における反射光の影響による像の乱れを解消し、より鮮明な画像を得られるようにすることである。
【0021】
【課題を解決するための手段】
本発明の画像データ処理装置は、鏡に映る鏡像を撮影して得られる撮影画像データを生成する画像データ生成手段と、前記鏡の表面における反射光と前記鏡の裏面の反射材で反射を経た光との間に生じる光路差を求める光路差算出手段と、この光路差算出手段により算出された光路差に基づいて、前記画像データ生成手段により生成された画像データから、前記鏡の表面における反射光による成分を除く成分除去手段とを備えることを特徴とする。
【0028】
【発明の実施の形態】
以下、図を参照して本発明の実施の形態を詳細に説明する。
【0029】
〔第1の実施の形態〕
まず、構成を説明する。
図1は、本発明を適用した第1の実施の形態における画像処理装置10の構成を示すブロック図である。図1に示すように、画像処理装置10は、CPU(Central Processing Unit )11、RAM(Random Access Memory)12、記憶装置13、記憶装置13が有する記録媒体14、入力部15、表示部16、伝送制御部17及びI/F18等の各部を備えて構成され、記録媒体14を除く各部はバス19により接続されている。
【0030】
図1に示す画像処理装置10は、例えば、図12に示すように、ケース101、フード102、カメラ103、台座104、鏡110、モータ120及び角度検出装置121等の各部を備えた撮影装置100に対して、カメラ103、モータ120及び角度検出装置121とI/F18を介して接続されている。本第1の実施の形態においては、撮影装置100は図示しないモータやポテンショメータ等を備えており、画像処理装置10の制御に従ってフード102のケース101に対する取り付け角度、台座104の高さを変更することが可能である。
【0031】
CPU11は、入力部15からの指示入力に従って、記憶装置13に格納された制御プログラムを読み出して、RAM12に設けられるワークエリアに展開して実行し、画像処理装置10の各部およびI/F18を介して接続された機器の制御を行う。
【0032】
具体的には、CPU11は、記憶装置13に格納された撮影アプリケーションプログラムを読み出して、後述する撮影処理(図4)を実行し、被写体の位置および撮影すべき面に合わせて、フード102の角度、カメラ103における撮影条件、モータ120の動作を制御する。そして、CPU11は、カメラ103により撮影を実行させ、カメラ103が有する撮像素子により得られた画像データを取得するとともに、該画像データの補正を行って、ビデオ信号に変換して出力する。この画像データの補正に際して、CPU11は、鏡110のガラス111表面で反射した反射光と、鏡110の反射蒸着面112で反射した反射光との光路差を求め、この光路差に基づいて、鏡110のガラス111表面で反射した反射光の影響を除く処理を行う。また、上記撮影処理において、CPU11は、取得した画像データや補正を行った画像データを記憶装置13に格納させるとともに、ビデオ信号を表示部16へ出力することにより、表示部16の画面上に画像を表示させる。
【0033】
RAM12は、CPU11により実行されるプログラムや、該プログラムに係るデータ等を一時的に格納するためのワークエリア等を生成する。
図2は、図1に示すRAM12の構成を模式的に示す図である。
【0034】
図2に示すように、RAM12には、画像データメモリ12a、画像データワークメモリ12b、画像データ保存メモリ12c、ワークエリア12d等の各種の格納領域が確保される。
このうち、画像データワークメモリ12bは、カメラ103による撮影によって得られた画像データを一時的に格納する格納領域であり、画像データワークメモリ12bの格納された画像データに対しては、CPU11によって補正等の処理が施される。そして、画像データワークメモリ12bに格納された画像データを補正して得られた画像データは、画像データメモリ12aに格納される。
【0035】
さらに、画像データ保存メモリ12cは、CPU11によって処理された画像データを順次格納する格納領域であり、ワークエリア12dは、CPU11により実行される各種プログラムや、これら各プログラムに係るデータ等を一時的に格納するための格納領域である。
【0036】
記憶装置13は、プログラムやデータ等が記憶される記録媒体14を有し、この記録媒体14は磁気的、光学的記録媒体、若しくは半導体メモリで構成されている。この記録媒体14は記憶装置13に固定的に設けたもの、若しくは着脱自在に装着するものである。
【0037】
また、この記録媒体14に記憶するプログラム、データ等は、その一部若しくは全部をサーバやクライアント等の他の機器からネットワーク回線等の伝送媒体を介して伝送制御部17から受信して記憶する構成にしてもよく、さらに、記録媒体14はネットワーク上に構築されたサーバの記録媒体であってもよい。さらに、前記プログラムをネットワーク回線等の伝送媒体を介してサーバやクライアントへ伝送してこれらの機器にインストールするように構成してもよい。
【0038】
記憶装置13には、カメラ103によって被写体の撮影を実行させるための撮影アプリケーションプログラム、カメラ103により撮影された画像、または、CPU11の処理により補正された画像のデータや、各種の条件が設定された撮影条件テーブルファイル等の各種のファイルのほか、被写体の実寸を算出するための実寸算出プログラムや、撮影画像中のサイズと実寸との関係を示す実寸算出式係数テーブル、及び、実寸算出式係数テーブルに基づいて撮影画像中のサイズと実寸との計算を行うための実寸算出処理プログラム等が格納される。
【0039】
図3は、記憶装置13に格納される実寸算出式係数テーブル13aの構成を模式的に示す図である。
図3に示すように、実寸算出式係数テーブル13aには、カメラ103における撮影解像度と、パラメータa,b,cの各撮影解像度における値とが対応づけて設定されている。実寸算出式係数テーブル13aにおけるパラメータa,b,cの値は、カメラ103による撮影画像中のサイズと実寸との対応を示すものであり、後述する光路差に相当する画素数の算出処理(図5)で参照される。
【0040】
入力部15は、数字キー、文字キーおよび各種機能キー等を備えるキーボードやポインティングデバイス等を備え、これらキーボードやポインティングデバイスにおける操作に対応して操作信号を生成し、CPU11に出力する。
【0041】
表示部16は、CRT(Cathode Ray Tube)や、LCD(Liquid Crystal Display)等によって構成される表示画面を備え、CPU11から入力される表示情報に従って、表示画面上に、入力部15からの入力指示やCPU11による処理結果等を表示させる。また、表示部16は、CPU11から入力されるビデオ信号に基づいて、CPU11の撮影処理により生成された画像等を表示させる。
【0042】
伝送制御部17は、LAN(Local Area Network)、WAN(Wide Area Network)、或いはインターネット等の各種ネットワークに接続された伝送媒体に接続可能なインターフェイスである。ここで、伝送媒体とは、電話回線等のより対金属線や同軸ケーブル、光ファイバーケーブル等により構成され、各種装置と接続されることにより上記ネットワークを形成するものである。
【0043】
I/F部18は、画像処理装置10から撮影装置100の各部に対して、各種指示信号や位置情報等を入出力するためのインターフェイスであり、たとえば、USB(Universal Serial Bus)ポートやRS−232C端子をはじめとするシリアル入出力端子、パラレル入出力端子、SCSIインターフェイス、IrDA(Infrared Data Association)規格に準じた赤外線通信装置等が備えられ、有線または無線通信手段により各種機器と接続することが可能である。
【0044】
次に、本実施の形態の動作を説明する。
図4は、本第1の実施の形態における画像処理装置10の動作を示すゼネラルフローである。
【0045】
図4に示す処理において、CPU11は、まず、撮影装置100にセットされた被写体105の位置、及び、撮影すべき被写体の面に合わせて、フード102を移動させてカメラ103の取り付け角度、台座104の高さ等の調節を実行する(ステップS1)。
【0046】
続いて、CPU11は、モータ120を駆動させることによって鏡110の角度を調節するとともに、角度検出装置121によって鏡110の角度を読み取らせる(ステップS2)。
【0047】
ここでCPU11は、カメラ103による被写体105の撮影を実行させ、カメラ103が有するCCD(Charge Coupled Device)等の撮像素子により得られた画像のデータを取得し、RAM12内の画像データワークメモリ12bに取り込み、さらにR,G,Bの色要素に分解することで、各画素の色調アナログデータを取得する(ステップS3)。
【0048】
次いで、CPU11は、ステップS3で取得した各画素の色調アナログデータを増幅し(ステップS4)、さらにA/D変換(Analog to Digital Conversion)を行って(ステップS5)、各画素の色調データを示すデジタルデータを生成して画像データメモリ12aに格納する(ステップS6)。
【0049】
そして、CPU11は、画像データメモリ12a内の画像データについて画像データ補正処理を実行し(ステップS7)、撮影画像の画像データを補整して、より鮮明な画像の画像データを得る。
【0050】
その後、CPU11は、補正された画像データをD/A変換(Digital to Analog Conversion)してアナログ画像データを生成し(ステップS8)、さらにビデオ画像に変換して出力する(ステップS9)。
【0051】
以上の撮影処理によって、CPU11は、カメラ103により撮影された画像から鏡110の影響を除く補正を行って、より鮮明な画像を得、さらに得られた画像を表示部16の画面上に表示させる。
【0052】
図5は、図4のステップS7に示す画像データ補正処理をより詳細に示すフローチャートである。
【0053】
図5に示すように、画像データ補正処理に置いて、CPU11は、まずステップS6で生成され、画像データメモリ12aに格納された画像データを読み込む(ステップS11)。
【0054】
続いて、CPU11は、画像データメモリ12aに格納された画像データ中の各画素のデータのうち、補正すべきデータの値を算出する(ステップS12)。すなわち、カメラ103により撮影された画像は、鏡110に映る被写体105の鏡像である。従って、カメラ103により撮影された画像の各画素のデータは、鏡110の反射蒸着面112で反射された光とともに、ガラス111表面で反射した光を含むデータとなっている。
【0055】
図12〜図15に基づいて説明したように、カメラ103の撮像素子が受光する光のうち、鏡110のガラス111表面で反射した光はごく一部であり、鏡110への入射光の大部分は反射蒸着面112で反射する。このため、図4に示す画像データ補正処理で、CPU11は、撮影画像の画素データからガラス111で反射した光による成分を除去することにより、反射蒸着面112で反射された光のみによる画像のデータを生成し、より鮮明な画像データとする。
【0056】
そこで、ステップS12においては、画像データメモリ12aに格納された画像データ中の各画素のデータのうち、ガラス111の表面における反射光が占める割合を算出する。この割合は、例えば画素データ中の割合として「0.03」のように求められ、以後、この値を補正画素データの値と称する。なお、補正画素データの値は鏡110を構成する材料や鏡110の角度等によって異なる。また、ステップS12において、補正画素データが所定の値よりも小さい値となった場合、補正を行う必要がないと判断して、「補正画素データ=0」としても良い。
【0057】
次いで、CPU11は、補正対象となる画素の位置を算出する(ステップS13)。図13に基づいて説明したように、不鮮明な画像の原因となるガラス111表面での反射光は、反射蒸着面112での反射光とは光路差dだけずれている。このため、ステップS13では、ガラス111の表面における反射光の影響を除くため、光路差dを求める。この光路差dの値は、例えば、下記式(1)に示す演算を行うことによって求めることができる。
【数1】

Figure 0004019660
なお、上記式(1)において、
tはガラス111の厚みを示し、
θは鏡110の水平面に対する角度を示し、
1は空気中における屈折率を示し、
2はガラス111の屈折率を示す。
【0058】
そして、CPU11は、ステップS12で得られた補正画素データと、ステップS13で求められた光路差dの値とをもとに、光路差に相当する画素数の算出処理を実行し(ステップS14)、鏡110における光路差dに相当する、撮影画像データ中の画素数を求め、ステップS15へ移行する。
【0059】
ステップS15では、ステップS14で求められた画素数と、ステップS12で得られた補正画素データとをもとにして、画像データの補正を行う。
詳細に説明すると、ガラス111の表面における反射光は、反射蒸着面112における反射光とは光路差dだけ離れている。従って、カメラ103の撮像素子が、光路差dだけ離れた位置で受光した光をもとにして減算すべき画素データを求め、この画素データを、補正対象の画素データから減算すれば、ガラス111の表面における反射光の影響を除くことができる。
【0060】
ステップS15における処理を式で示すと、下記式(2)に示す通りになる。CPU11は、下記式(2)に示す処理を、画像データワークメモリ12bに格納された画像データ中の全ての画素データについて行うことにより、画像の補整を行う。
【数2】
Figure 0004019660
【0061】
そして、CPU11は、ステップS15で補正された後の画素データを含む画像データを、先に画像データワークメモリ12bに格納されていた画像データに置き換えて画像データメモリ12aに格納し(ステップS16)、ステップS8(図4)へ移行する。
【0062】
図6は、図5のステップS14に示す光路差に相当する画素数の算出処理を、より詳細に示すフローチャートである。
【0063】
図5に示す処理において、CPU11は、まず、カメラ103における撮影条件を取得して、RAM12のワークエリア12dに記憶する(ステップS21)。ここで撮影条件とは、撮影解像度、撮影倍率、撮影距離を指し、以後、撮影倍率の値をZ、撮影距離の値をRとする。
【0064】
続いて、CPU11は、記憶装置13に格納された実寸算出式係数テーブル13aを参照し、ステップS21で取得した撮影解像度に対応するパラメータa,b,cを取得する(ステップS22)。
【0065】
そして、CPU11は、1ミリメートルに相当する撮影画像中の画素数を求める(ステップS23)。この画素数は、例えば、下記式(3)に示す演算を行うことにより求められる。
【数3】
Figure 0004019660
【0066】
その後、CPU11は、ステップS23で求められた画素数をもとに、ステップS12で求められる光路差dに相当する画素数を算出し(ステップS24)、ステップS15(図5)へ移行する。
【0067】
以上の処理によって、画像処理装置10においては、鏡110に映る被写体105の鏡像をカメラ103により撮影した画像について、ガラス111の表面における反射光の影響を除く処理を施すことにより、鮮明な画像を得ることができる。これにより、鮮明な画像を必要とする場合であっても、鏡を用いて撮影を行うことが可能になる。
【0068】
また、鏡の角度を変えて複数の画像を撮影した場合であっても、鏡の表面における反射光の影響が除かれているので、各画像が異なる具合に不鮮明になってしまうようなことがない。このため、鏡の角度を厳密に調整する等の作業を行う必要がなく、鏡を利用した撮影を手軽に行うことができる。
【0069】
特に、撮影条件等をもとに、既に撮影された画像について補正を行うので、従来用いていたカメラを用いることができる。このため、上記第1の実施の形態における画像処理装置10は、カメラ103内部の機構等に改良を加えた場合に比べて、非常に容易に、かつ低コストで実現できる。
【0070】
なお、上記第1の実施の形態においては、図12に示す撮影装置100を利用して撮影された画像を処理する場合について説明としたが、本発明はこれに限定されるものではなく、鏡を用いて撮影を行った画像のデータであれば容易に適用できる。また、例えば、CCD等の撮像素子を有するカメラ103を利用した場合について説明したが、カメラ103に代えて銀塩カメラによって撮影を行った場合であっても、撮影されたフィルムをフィルムスキャナで読み取る等の処理により画像データをデジタルデータとして得ることができれば、本発明を容易に適用することができる。
【0071】
また、上記の画像処理装置10による処理は、撮影装置100に限らず、カメラ内部に鏡を有する場合についても適用できる。以下、この場合について、第2の実施の形態として説明する。
【0072】
〔第2の実施の形態〕
図7は、本発明を適用した第2の実施の形態におけるカメラの撮像系20について、その概略構成を示す図である。本第2の実施の形態においては、撮像系20を有するカメラにより撮影された画像を、上記画像処理装置10(図1)によって処理する場合について説明する。従って、画像処理装置10が有するI/F18は、撮像系20を有するカメラに接続されているものとする。
【0073】
図7に示す撮像系20においては、入射光をレンズ21によって集光し、鏡22によって反射させ、撮像素子23によって受光する。従って、撮像素子23により鏡22に映る鏡像を撮影することになる。
【0074】
また、鏡22は一般的な鏡として、一面に反射蒸着面が形成されたガラスによってなるものであり、鏡22への入射光の大部分が反射蒸着面で反射される一方、入射光の一部はガラス表面で反射され、CCD等によってなる撮像素子23に入射する。従って、撮像素子23により撮影された画像は、鏡22のガラス表面における反射光の影響で不鮮明な画像になってしまうおそれがある。
【0075】
図8は、本第2の実施の形態における画像処理装置10の動作を示すフローチャートである。
【0076】
図8に示す処理において、CPU11は、まず、カメラのシャッターがONにされたか否かを判別し(ステップS31)、シャッターがONにされていない場合は、撮像素子23により得られる画像の取り込みを行う(ステップS32)。続いて、CPU11は、取り込んだ画像をRAM12内の画像データワークメモリ12bに格納し(ステップS33)、画像データワークメモリ12bに格納した画像をもとに表示情報を生成して表示部16に出力して、表示部16の画面上に撮像素子23により得られる画像を表示させ(ステップS34)、後述するステップS41に移行する。
【0077】
一方、カメラのシャッターがONにされた場合(ステップS31;Yes)、CPU11は、カメラ103が有する撮像素子23により受光された画像のデータを取得し、RAM12内の画像データワークメモリ12bに取り込み、さらにR,G,Bの色要素に分解することで、各画素の色調アナログデータを取得する(ステップS35)。
【0078】
次いで、CPU11は、ステップS3で取得した各画素の色調アナログデータを増幅し(ステップS36)、さらにA/D変換を行って(ステップS37)、各画素の色調データを示すデジタルデータを生成して画像データメモリ12aに格納する(ステップS38)。
【0079】
そして、CPU11は、画像データメモリ12a内の画像データについて画像データ補正処理を実行し(ステップS39)、撮影画像の画像データを補整して、より鮮明な画像の画像データを得る。このステップS39における画像データ補正処理は、上記第1の実施の形態において図5に示した処理と同様である。
【0080】
その後、CPU11は、補正された画像データを、RAM12内の画像データメモリ12a若しくは画像データ保存メモリ12cに格納して保存し(ステップS40)、ステップS41に移行する。
【0081】
ステップS41では、撮影が終了したか否かを判別し、終了していない場合はステップS31に戻る。
なお、ステップS40で保存された画像データは、その後D/A変換によってアナログ画像データに変換され、表示部16の画面上に表示させることもできる。
【0082】
このように、鏡22を利用した撮像系20を有するカメラで撮影された画像について本発明を適用すれば、鏡22のガラス表面における反射光の影響を除くことで、より鮮明な画像を得ることができる。
【0083】
また、本発明は、撮影を行う場合に限られず、鏡を用いて画像を投影する場合についても適用できる。以下、この場合について、第3の実施の形態として説明する。
【0084】
〔第3の実施の形態〕
図9は、本発明を適用した第3の実施の形態におけるプロジェクターの投影光学系30について、その概略構成を示す図である。
本第3の実施の形態においては、投影光学系30を有するプロジェクターにより投影される画像を、上記画像処理装置10(図1)によって処理する場合について説明する。従って、画像処理装置10が有するI/F18は、投影光学系30を有するプロジェクターに接続されているものとする。
【0085】
投影光学系30は、光源31により発せられた光を、凹面鏡32によってLCD33に向けて反射させる。そして、LCD33を透過した光を凹レンズ34により拡散し、鏡35によって反射させて、図示しないスクリーン等に投影するものである。
LCD33には、画像処理装置10の制御に従って画像が表示されるので、光源31からの光がLCD33を透過することにより、LCD33に表示された画像をスクリーン等に投影することができる。
【0086】
図10は、鏡35の構成を示すとともに、鏡35における反射の様子を模式化して示す図である。
図10に示すように、鏡35は、ガラス351と、ガラス351の一面に形成された反射蒸着面352とによって構成される。そして、鏡35に入射する入射光のうち大部分は反射蒸着面352で反射されて放射されるが、入射光の一部はガラス351の表面で反射する。このため、鏡35への入射光は、ガラス351の表面における反射光と、反射蒸着面352における反射光とに分かれて放射されてしまい、スクリーン上の画像は不鮮明なものとなるおそれがある。
【0087】
従って、本第3の実施の形態においては、LCD33に表示される画像を画像処理装置10によって処理し、鏡で反射されることで適切な画像となるように補正することで、鮮明な投影画像を得られるようにするものである。
【0088】
ここで、図10に模式的に示すように、鏡35の反射光として、A〜Lの10本の光線を投影する場合を例にとって説明する。A〜Lの10本の光線は、互いに、ガラス351の表面における反射光と反射蒸着面352における反射光との光路差に相当する間隔を有している。
【0089】
上述のように、A〜Lの10本の光線をそのまま鏡35に入射させた場合、反射光は、ガラス351の表面における反射光と、反射蒸着面352における反射光とに分かれてしまう。
【0090】
そこで、鏡35への入射光を、A´、A´−b、B´−c、C´−d、D´−e、E´−f、F´−g、G´−h、H´−i、I´−j、J´−k、K´−lの11本の光線を入射光とする。なお、これら11本の光線は、互いに、ガラス351の表面における反射光と反射蒸着面352における反射光との光路差dに相当する間隔を有している。なお、A´,B´,C´,D´,E´,F´,G´,H´,I´,J´,K´、及び、a,b,c,d,e,f,g,h,i,j,k,lは、それぞれ、光線A,B,C,D,E,F,G,H,I,J,K,Lの一部と等しく、かつ、光量(強度)が異なる光である。
【0091】
すると、上記11本の光線は、一部がガラス351の表面で反射され、大部分は反射蒸着面352で反射され、光路差dだけ離れて放射される。このため、光線A´は光線A´−bと重ね合わされて放射される。同様に、光線A´−bは光線B´−cと、光線B´−cは光線C´−dと、光線C´−dは光線D´−eと、光線D´−eは光線E´−fと、光線E´−fは光線F´−gと、光線F´−gは光線G´−hと、光線G´−hは光線H´−iと、光線H´−iは光線I´−jと、光線I´−jは光線J´−kと、光線J´−kは光線K´−lと、それぞれ重ね合わされて放射される。
【0092】
従って、A´,B´,C´,D´,E´,F´,G´,H´,I´,J´,K´、及び、a,b,c,d,e,f,g,h,i,j,k,lの光量(強度)を、光線A,B,C,D,E,F,G,H,I,J,K,Lに対して適切な値に設定することにより、鏡35からの反射光を、重なりのない光線A,B,C,D,E,F,G,H,I,J,K,Lとすることができる。
【0093】
図11は、本第3の実施の形態における画像処理装置10の動作を示すフローチャートである。
【0094】
図11に示す処理において、画像処理装置10は、まず、投影光学系30の光源31を点灯させ(ステップS51)、続いて、投影すべき画像として記憶装置13に格納された画像データを読み出して、画像データワークメモリ12bに格納する(ステップS52)。
【0095】
ここで、CPU11は、画像データワークメモリ12bに格納された画像データを補整する処理を実行する(ステップS53)。このステップS53における処理で、CPU11は、上記第1の実施の形態において図5に示す処理と同様に、鏡35における補正画素データ値を求め、次いで鏡35において生じる光路差dを求め、さらに光路差dに相当する画素数を算出し、画像データワークメモリ12bに格納された画像データに含まれる各画素のデータを補正する処理を行う。
【0096】
そして、CPU11は、補正された画像データをもとにLCD33へ補正された画像を出力して表示させる(ステップS54)。
その後、CPU11は、投影が終了したか否かを判別し、終了していない場合はステップS51へ戻る。
【0097】
このように、投影光学系30を有するプロジェクターに本発明を適用することにより、鏡を利用して画像を投影する場合において、鏡を構成するガラス表面における反射光の影響を除いて、鮮明な画像を投影することが可能になる。また、投影光学系30を有するプロジェクターにおいて、その投影光学系の構造に改良を加える場合に比べ、本発明は、非常に安価に、かつ容易に適用することができる。
【0098】
そして、本発明によれば、鏡の影響によって画像が不鮮明になることを気にせずに画像を投影することができるので、手軽に鮮明な投影画像を得られる上、スクリーンの設置等を厳密に行う必要がなくなる。
【0099】
なお、上記第3の実施の形態においては、投影光学系30の中に鏡を含む例について説明したが、本発明はこれに限定されるものではなく、例えば、プロジェクターの外部に鏡を設置し、この鏡を利用して画像をスクリーン等に投影する場合についても、勿論適用することができる。
【0100】
また、上記の実施の形態においては、画像処理装置10を構成する各部の構成は任意であり、その他の具体的な細部構成についても適宜に変更可能であることは勿論である。
【0101】
【発明の効果】
本発明の画像データ処理装置によれば、鏡の表面における反射光と鏡の裏面の反射材で反射された光との光路差を求めた上で、画像データから鏡の表面における反射光の影響を排除するので、鏡の表面における反射光の影響を、効率よく、確実に排除して、鮮明な画像を得ることができる。
【図面の簡単な説明】
【図1】本発明を適用した第1の実施の形態における画像処理装置10の構成を示す図である。
【図2】図1に示すRAM12の構成を模式的に示す図である。
【図3】図1の記憶装置13に格納される実寸算出式係数テーブル13aの構成を模式的に示す図である。
【図4】図1の画像処理装置10の動作を示すゼネラルフローである。
【図5】図4のステップS7に示す画像データ補正処理を詳細に示すフローチャートである。
【図6】図5のステップS14に示す光路差に相当する画素数の算出処理を詳細に示すフローチャートである。
【図7】本発明を適用した第2の実施の形態におけるカメラの撮像系20について、その概略構成を示す図である。
【図8】第2の実施の形態における画像処理装置10の動作を示すフローチャートである。
【図9】本発明を適用した第3の実施の形態におけるプロジェクターの投影光学系30について、その概略構成を示す図である。
【図10】図9の鏡35の構成を示すとともに、鏡35における反射の様子を模式化して示す図である。
【図11】第3の実施の形態における画像処理装置10の動作を示すフローチャートである。
【図12】鏡を利用した撮影装置の一例としての画像処理装置100を示す図である。
【図13】図12に示す鏡110の構成を詳細に示すとともに、鏡110における光線の反射の様子を模式的に示す図である。
【図14】図12に示す画像処理装置100による撮影画像の例を示す図であり、(a)は被写体105を示し、(b)は画像処理装置100により得られる撮影画像を示す。
【図15】図12に示す鏡110における光線の反射の様子を模式化し、より詳細に示す図である。
【符号の説明】
10 画像処理装置
11 CPU
12 RAM
12a 画像データメモリ
12b 画像データワークメモリ
12c 画像データ保存メモリ
12d ワークエリア
13 記憶装置
13a 実寸算出式係数テーブル
14 記録媒体
15 入力部
16 表示部
17 伝送制御部
18 I/F
19 バス
20 撮像系
21 レンズ
22 鏡
23 撮像素子
30 投影光学系
31 光源
32 凹面鏡
33 LCD
34 凹レンズ
35 鏡
351 ガラス
352 反射蒸着面
100 撮影装置
101 ケース
102 フード
103 カメラ
104 台座
105 被写体
106 被写体画像
110 鏡
111 ガラス
112 反射蒸着面
120 モータ
121 角度検出装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image data processing apparatus that performs data processing of a captured image, an image data processing method in the image data processing apparatus, and a control program in the image data processing apparatus.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been a photographing apparatus that uses a mirror and photographs a surface other than the front surface such as the upper surface of a subject with a camera located in front of the subject. Here, an example of an imaging device will be described with reference to FIG.
[0003]
FIG. 12 is a diagram illustrating an image processing apparatus 100 as an example of an imaging apparatus using a mirror. The image processing apparatus 100 is an apparatus that displays an image of a subject 105 placed on a pedestal 104 in a case 101 on a mirror 110 and captures a mirror image reflected on the mirror 110 with a camera 103.
[0004]
A hood 102 is attached to one end side of the case 101 so as to be rotatable with respect to the case 101. In addition, a mirror 110 that projects an image of the upper surface of the subject 105 is installed above the pedestal 104, and a camera 103 is attached to the end of the hood 102 so as to face the mirror 110. For this reason, as the hood 102 rotates, the imaging surface of the camera 103 faces the front of the subject 105 and the mirror 110.
[0005]
As described above, the camera 103 captures a front image of the subject 105 and also captures an upper surface of the subject 105 by capturing an image reflected on the mirror 110.
[0006]
Further, a motor 120 that changes the angle of the mirror 110 and an angle detection device 121 that detects the angle of the mirror 110 are attached to the mirror 110. For this reason, the angle of the mirror 110 can be moved to an angle suitable for shooting, and further, by detecting the angle of the mirror 110, the shooting conditions are acquired together with the shooting conditions on the camera 103 side, It can also be applied to data processing of captured images.
[0007]
[Problems to be solved by the invention]
However, the conventional image processing apparatus 100 has a problem that the sharpness of the captured image is impaired due to the characteristics of the mirror 110.
[0008]
FIG. 13 is a diagram schematically illustrating the configuration of the mirror 110 and the manner in which the light beam is reflected by the mirror 110.
Usually, a mirror is formed by forming a reflective vapor deposition surface on one surface of a transparent flat glass by vapor deposition or application of a reflective material such as metal. A so-called mirror image is obtained when light incident on the mirror is reflected by the reflective vapor deposition surface.
[0009]
However, in practice, a part of the light incident on the mirror is reflected on the glass surface and is emitted through a different path from the light reflected by the reflective vapor deposition surface.
As shown in FIG. 13, when the incident light 131 is incident on the mirror 110, a part of the incident light 131 is reflected by the surface of the glass 111 and is emitted as reflected light 132. Further, the remainder of the incident light 131 enters the inside of the glass 111, is reflected by the reflective vapor deposition surface 112, and is radiated as reflected light 133 from the glass 111. Note that light incident on the glass 111 from the air and light emitted from the glass 111 into the air are refracted by the difference between the refractive index in the air and the refractive index of the glass 111.
[0010]
That is, the incident light 131 is divided and emitted into the reflected light 132 reflected by the glass surface and the reflected light 133 reflected by the reflective vapor deposition surface 112. The reflected light 132 is light that does not enter the inside of the glass 111, while the reflected light 133 is light that reaches the reflective vapor deposition surface 112 and undergoes refraction twice. Therefore, the reflected light 132 and the reflected light 133 are parallel, and an optical path difference indicated by d in the figure is generated between the reflected light 132 and the reflected light 133.
[0011]
In many cases, the reflected light 132 on the surface of the glass 111 is a small part of the incident light on the mirror 110, and the reflected light 133 on the reflective vapor deposition surface 112 accounts for an overwhelmingly large proportion.
[0012]
For this reason, the mirror image obtained by the mirror 110 is an image in which the image of the reflected light 132 on the surface of the glass 111 and the image of the reflected light 133 on the reflective vapor deposition surface 112 are overlapped by being shifted by the optical path difference d. The light amount (intensity) of the reflected light 132 is smaller than the light amount (intensity) of the reflected light 133.
[0013]
Therefore, for example, when the image processing apparatus 100 captures a mirror image of the subject 105 as shown in FIG. 14A, the captured image has two optical path differences d as shown in FIG. 14B. It will be an image that overlaps by shifting by the amount. One of the two images that are shifted and overlapped is a thin image due to weak light.
[0014]
FIG. 15 is a diagram schematically showing a state of reflection of light rays in the mirror 110 and showing in more detail.
In the example shown in FIG. 15, it is assumed that three light beams indicated by reference signs A, B, and C in the figure enter the mirror 110 as incident light. The reflected light in this case is four light beams denoted by reference symbols Ak, A1, B2, and Cz in the drawing.
[0015]
That is, the incident lights A, B, and C are reflected by the surface of the glass 111 and the reflective vapor deposition surface 112, respectively, and are divided into the reflected lights Ak and Az, the reflected lights Bk and Bz, and the reflected lights Ck and Cz. . Further, the reflected light Az reflected by the reflective vapor deposition surface 112 and the reflected light Bk reflected by the surface of the glass 111 overlap the incident light A. Similarly, the incident light B reflected by the reflective vapor deposition surface 112. The reflected light Bz and the reflected light Ck reflected by the surface of the glass 111 are overlapped with the reflected light Bz.
For this reason, the reflected light radiated from the mirror 110 is reflected light Ak, reflected light A1 that is the sum of the reflected light Az and reflected light Bk, reflected light B2 that is the sum of the reflected light Bz and reflected light Ck, It becomes four rays of light Cz.
[0016]
And when these reflected light Ak, A1, B2, Cz is image | photographed with a camera, a picked-up image turns into an image with which the clearness was impaired. For example, since the reflected light Ak is only a part of the incident light A, the amount of light (intensity) is inferior to that of the incident light A, so that the ends of the incident light A, B, and C are blurred. In addition, the reflected light A1 is light in which different incident light A and incident light B overlap, and since the frequency components are different from both incident light A and B, the reflected light A1 is light that faithfully reflects the color and brightness of the subject. It is gone. Similarly, the reflected light B2 has different frequency components from both the incident light B and C, and does not faithfully reflect the color or brightness of the subject. The reflected light Cz is lighter than the incident light C. The light is inferior in (intensity) and blurs the edge of the image.
[0017]
In this way, an image obtained by taking a mirror image using a mirror is blurred at the edge of the image, that is, at the boundary between the subject and the background, and the color and brightness differ from the subject at other portions than the boundary. There is a problem that the image becomes unclear and the image becomes unclear as a whole.
[0018]
Furthermore, since the influence of the reflected light on the mirror surface varies depending on the angle of the mirror, when a plurality of images are taken while changing the angle of the mirror, the unclearness of each image differs. For this reason, when it is desired to take a plurality of more uniform images, it is necessary to adjust the angle of the mirror strictly, which is very troublesome.
[0019]
Such a problem appears particularly prominently when shooting at a high resolution or when the image sensor of the camera 103 has a high sensitivity, and therefore cannot be ignored when a clearer image is required. It was difficult to shoot using a mirror.
[0020]
SUMMARY OF THE INVENTION An object of the present invention is to eliminate an image disturbance due to the influence of reflected light on the surface of a mirror and obtain a clearer image in an image data processing apparatus that processes an image reflected by a mirror. .
[0021]
[Means for Solving the Problems]
The image data processing apparatus of the present invention is reflected by image data generating means for generating captured image data obtained by capturing a mirror image reflected in a mirror, reflected light on the surface of the mirror, and a reflective material on the back surface of the mirror. An optical path difference calculating means for obtaining an optical path difference generated between the light and a reflection on the surface of the mirror from the image data generated by the image data generating means based on the optical path difference calculated by the optical path difference calculating means. And a component removing unit that removes a component caused by light.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0029]
[First Embodiment]
First, the configuration will be described.
FIG. 1 is a block diagram showing a configuration of an image processing apparatus 10 according to a first embodiment to which the present invention is applied. As shown in FIG. 1, the image processing apparatus 10 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a storage device 13, a recording medium 14 included in the storage device 13, an input unit 15, a display unit 16, Each unit including a transmission control unit 17 and an I / F 18 is configured, and each unit excluding the recording medium 14 is connected by a bus 19.
[0030]
An image processing apparatus 10 illustrated in FIG. 1 includes, for example, an imaging apparatus 100 including various components such as a case 101, a hood 102, a camera 103, a pedestal 104, a mirror 110, a motor 120, and an angle detection device 121 as illustrated in FIG. On the other hand, the camera 103, the motor 120, and the angle detection device 121 are connected to each other through the I / F 18. In the first embodiment, the photographing apparatus 100 includes a motor, a potentiometer, and the like (not shown), and changes the attachment angle of the hood 102 to the case 101 and the height of the pedestal 104 according to the control of the image processing apparatus 10. Is possible.
[0031]
The CPU 11 reads out a control program stored in the storage device 13 in accordance with an instruction input from the input unit 15, expands and executes the control program in a work area provided in the RAM 12, and passes through each unit of the image processing apparatus 10 and the I / F 18. To control connected devices.
[0032]
Specifically, the CPU 11 reads the shooting application program stored in the storage device 13 and executes a shooting process (FIG. 4) to be described later. The angle of the hood 102 is adjusted according to the position of the subject and the surface to be shot. The camera 103 controls shooting conditions and the operation of the motor 120. Then, the CPU 11 causes the camera 103 to perform shooting, acquires image data obtained by the imaging element included in the camera 103, corrects the image data, converts the image data into a video signal, and outputs the video signal. When correcting the image data, the CPU 11 obtains an optical path difference between the reflected light reflected by the surface of the glass 111 of the mirror 110 and the reflected light reflected by the reflective vapor deposition surface 112 of the mirror 110, and based on the optical path difference, The process which removes the influence of the reflected light reflected on the glass 111 surface of 110 is performed. In the photographing process, the CPU 11 stores the acquired image data or the corrected image data in the storage device 13 and outputs a video signal to the display unit 16, thereby displaying an image on the screen of the display unit 16. Is displayed.
[0033]
The RAM 12 generates a work area or the like for temporarily storing a program executed by the CPU 11, data related to the program, and the like.
FIG. 2 is a diagram schematically showing the configuration of the RAM 12 shown in FIG.
[0034]
As shown in FIG. 2, various storage areas such as an image data memory 12a, an image data work memory 12b, an image data storage memory 12c, and a work area 12d are secured in the RAM 12.
Among these, the image data work memory 12b is a storage area for temporarily storing image data obtained by photographing with the camera 103, and the image data stored in the image data work memory 12b is corrected by the CPU 11. Etc. are performed. The image data obtained by correcting the image data stored in the image data work memory 12b is stored in the image data memory 12a.
[0035]
Furthermore, the image data storage memory 12c is a storage area for sequentially storing image data processed by the CPU 11, and the work area 12d temporarily stores various programs executed by the CPU 11, data related to these programs, and the like. This is a storage area for storing.
[0036]
The storage device 13 includes a recording medium 14 in which programs, data, and the like are stored. The recording medium 14 includes a magnetic or optical recording medium or a semiconductor memory. The recording medium 14 is fixedly provided in the storage device 13 or is detachably mounted.
[0037]
The program, data, etc. stored in the recording medium 14 are partly or entirely received from the transmission control unit 17 via another transmission medium such as a network line from other devices such as a server or a client and stored. In addition, the recording medium 14 may be a recording medium of a server built on a network. Furthermore, the program may be transmitted to a server or a client via a transmission medium such as a network line and installed in these devices.
[0038]
The storage device 13 is set with a photographing application program for causing the camera 103 to photograph a subject, an image photographed by the camera 103, an image data corrected by the processing of the CPU 11, and various conditions. In addition to various files such as the shooting condition table file, an actual size calculation program for calculating the actual size of the subject, an actual size calculation formula coefficient table showing the relationship between the size in the captured image and the actual size, and an actual size calculation formula coefficient table The actual size calculation processing program and the like for calculating the size and actual size in the captured image are stored.
[0039]
FIG. 3 is a diagram schematically showing the configuration of the actual size calculation formula coefficient table 13 a stored in the storage device 13.
As shown in FIG. 3, in the actual size calculation formula coefficient table 13a, the shooting resolution of the camera 103 and the values at the shooting resolutions of the parameters a, b, and c are set in association with each other. The values of the parameters a, b, and c in the actual size calculation formula coefficient table 13a indicate the correspondence between the size in the image captured by the camera 103 and the actual size, and the calculation processing of the number of pixels corresponding to the optical path difference described later (FIG. Referenced in 5).
[0040]
The input unit 15 includes a keyboard, a pointing device, and the like that include numeric keys, character keys, various function keys, and the like. The input unit 15 generates an operation signal corresponding to an operation on the keyboard and the pointing device, and outputs the operation signal to the CPU 11.
[0041]
The display unit 16 includes a display screen configured by a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like, and an input instruction from the input unit 15 is displayed on the display screen according to display information input from the CPU 11. And the result of processing by the CPU 11 is displayed. Further, the display unit 16 displays an image generated by the photographing process of the CPU 11 based on the video signal input from the CPU 11.
[0042]
The transmission control unit 17 is an interface that can be connected to a transmission medium connected to various networks such as a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. Here, the transmission medium is constituted by a metal wire such as a telephone line, a coaxial cable, an optical fiber cable or the like, and forms the network by being connected to various devices.
[0043]
The I / F unit 18 is an interface for inputting / outputting various instruction signals, position information, and the like from the image processing apparatus 10 to each unit of the photographing apparatus 100. For example, a USB (Universal Serial Bus) port or an RS- Serial input / output terminals such as 232C terminal, parallel input / output terminals, SCSI interface, infrared communication device conforming to IrDA (Infrared Data Association) standard, etc. are provided, and can be connected to various devices by wired or wireless communication means. Is possible.
[0044]
Next, the operation of the present embodiment will be described.
FIG. 4 is a general flow showing the operation of the image processing apparatus 10 in the first embodiment.
[0045]
In the processing shown in FIG. 4, the CPU 11 first moves the hood 102 according to the position of the subject 105 set on the photographing apparatus 100 and the surface of the subject to be photographed, the mounting angle of the camera 103, and the pedestal 104. The height is adjusted (step S1).
[0046]
Subsequently, the CPU 11 drives the motor 120 to adjust the angle of the mirror 110, and causes the angle detection device 121 to read the angle of the mirror 110 (step S2).
[0047]
Here, the CPU 11 causes the camera 103 to perform photographing of the subject 105, acquires image data obtained by an image sensor such as a CCD (Charge Coupled Device) included in the camera 103, and stores the image data in the image data work memory 12 b in the RAM 12. The color tone analog data of each pixel is acquired by taking in and further dividing into R, G, and B color elements (step S3).
[0048]
Next, the CPU 11 amplifies the color tone analog data of each pixel acquired in step S3 (step S4), further performs A / D conversion (Analog to Digital Conversion) (step S5), and indicates the color tone data of each pixel. Digital data is generated and stored in the image data memory 12a (step S6).
[0049]
Then, the CPU 11 executes an image data correction process on the image data in the image data memory 12a (step S7), and corrects the image data of the photographed image to obtain a clearer image data.
[0050]
Thereafter, the CPU 11 performs D / A conversion (Digital to Analog Conversion) on the corrected image data to generate analog image data (step S8), further converts it into a video image, and outputs it (step S9).
[0051]
Through the above-described photographing process, the CPU 11 performs a correction that excludes the influence of the mirror 110 from the image photographed by the camera 103, obtains a clearer image, and further displays the obtained image on the screen of the display unit 16. .
[0052]
FIG. 5 is a flowchart showing in more detail the image data correction process shown in step S7 of FIG.
[0053]
As shown in FIG. 5, in the image data correction process, the CPU 11 first reads the image data generated in step S6 and stored in the image data memory 12a (step S11).
[0054]
Subsequently, the CPU 11 calculates a value of data to be corrected among the data of each pixel in the image data stored in the image data memory 12a (step S12). That is, the image photographed by the camera 103 is a mirror image of the subject 105 reflected on the mirror 110. Therefore, the data of each pixel of the image photographed by the camera 103 is data including light reflected by the surface of the glass 111 as well as light reflected by the reflective vapor deposition surface 112 of the mirror 110.
[0055]
As described with reference to FIGS. 12 to 15, the light reflected by the glass 111 surface of the mirror 110 is a small part of the light received by the image sensor of the camera 103, and the incident light to the mirror 110 is large. The portion is reflected by the reflective vapor deposition surface 112. For this reason, in the image data correction processing shown in FIG. 4, the CPU 11 removes the component due to the light reflected by the glass 111 from the pixel data of the photographed image, so that the image data by only the light reflected by the reflective vapor deposition surface 112 is obtained. Is generated to obtain clearer image data.
[0056]
Therefore, in step S12, the ratio of the reflected light on the surface of the glass 111 in the data of each pixel in the image data stored in the image data memory 12a is calculated. This ratio is obtained as, for example, “0.03” as the ratio in the pixel data, and this value is hereinafter referred to as the value of the correction pixel data. Note that the value of the correction pixel data differs depending on the material constituting the mirror 110, the angle of the mirror 110, and the like. In step S12, if the correction pixel data becomes smaller than a predetermined value, it is determined that it is not necessary to perform correction, and “correction pixel data = 0” may be set.
[0057]
Next, the CPU 11 calculates the position of the pixel to be corrected (step S13). As described based on FIG. 13, the reflected light on the surface of the glass 111 that causes a blurred image is shifted from the reflected light on the reflective vapor deposition surface 112 by an optical path difference d. For this reason, in step S13, in order to remove the influence of the reflected light on the surface of the glass 111, the optical path difference d is obtained. The value of this optical path difference d can be obtained, for example, by performing the calculation shown in the following formula (1).
[Expression 1]
Figure 0004019660
In the above formula (1),
t indicates the thickness of the glass 111;
θ represents the angle of the mirror 110 with respect to the horizontal plane,
n 1 Indicates the refractive index in air,
n 2 Indicates the refractive index of the glass 111.
[0058]
Then, the CPU 11 performs a process of calculating the number of pixels corresponding to the optical path difference based on the corrected pixel data obtained in step S12 and the value of the optical path difference d obtained in step S13 (step S14). The number of pixels in the captured image data corresponding to the optical path difference d in the mirror 110 is obtained, and the process proceeds to step S15.
[0059]
In step S15, the image data is corrected based on the number of pixels obtained in step S14 and the corrected pixel data obtained in step S12.
More specifically, the reflected light on the surface of the glass 111 is separated from the reflected light on the reflective vapor deposition surface 112 by an optical path difference d. Therefore, if the image sensor of the camera 103 obtains pixel data to be subtracted based on the light received at a position separated by the optical path difference d, and subtracts this pixel data from the pixel data to be corrected, the glass 111 The influence of the reflected light on the surface of can be removed.
[0060]
The processing in step S15 is expressed by the following equation (2). The CPU 11 corrects the image by performing the processing represented by the following formula (2) for all the pixel data in the image data stored in the image data work memory 12b.
[Expression 2]
Figure 0004019660
[0061]
Then, the CPU 11 replaces the image data including the pixel data corrected in step S15 with the image data previously stored in the image data work memory 12b and stores the image data in the image data memory 12a (step S16). The process proceeds to step S8 (FIG. 4).
[0062]
FIG. 6 is a flowchart showing in more detail the calculation processing of the number of pixels corresponding to the optical path difference shown in step S14 of FIG.
[0063]
In the process shown in FIG. 5, the CPU 11 first acquires the shooting conditions for the camera 103 and stores it in the work area 12d of the RAM 12 (step S21). Here, the shooting conditions indicate the shooting resolution, shooting magnification, and shooting distance. Hereinafter, the shooting magnification value is Z and the shooting distance value is R.
[0064]
Subsequently, the CPU 11 refers to the actual size calculation formula coefficient table 13a stored in the storage device 13 and acquires parameters a, b, and c corresponding to the imaging resolution acquired in step S21 (step S22).
[0065]
And CPU11 calculates | requires the pixel count in the picked-up image corresponded to 1 millimeter (step S23). This number of pixels is obtained by performing, for example, the calculation shown in the following formula (3).
[Equation 3]
Figure 0004019660
[0066]
Thereafter, the CPU 11 calculates the number of pixels corresponding to the optical path difference d obtained in step S12 based on the number of pixels obtained in step S23 (step S24), and proceeds to step S15 (FIG. 5).
[0067]
With the above processing, in the image processing apparatus 10, a clear image is obtained by performing processing that removes the influence of reflected light on the surface of the glass 111 on the image obtained by capturing the mirror image of the subject 105 reflected on the mirror 110 with the camera 103. Obtainable. As a result, even when a clear image is required, it is possible to take a picture using a mirror.
[0068]
Even when a plurality of images are taken by changing the angle of the mirror, the influence of the reflected light on the surface of the mirror is removed, so that each image may become unclear. Absent. For this reason, it is not necessary to perform operations such as strictly adjusting the angle of the mirror, and photographing using the mirror can be easily performed.
[0069]
In particular, since a previously taken image is corrected based on the shooting conditions and the like, a conventionally used camera can be used. For this reason, the image processing apparatus 10 according to the first embodiment can be realized very easily and at a low cost as compared with the case where the mechanism inside the camera 103 is improved.
[0070]
In the first embodiment, the case where an image captured using the imaging device 100 shown in FIG. 12 is processed has been described. However, the present invention is not limited to this, and a mirror is used. Any data can be easily applied if it is data of an image taken using. In addition, for example, the case where the camera 103 having an image sensor such as a CCD is used has been described. However, even when the photographing is performed by a silver salt camera instead of the camera 103, the photographed film is read by the film scanner. If the image data can be obtained as digital data by such processing, the present invention can be easily applied.
[0071]
The processing by the image processing apparatus 10 is not limited to the photographing apparatus 100 but can be applied to a case where a mirror is provided inside the camera. Hereinafter, this case will be described as a second embodiment.
[0072]
[Second Embodiment]
FIG. 7 is a diagram showing a schematic configuration of the imaging system 20 of the camera according to the second embodiment to which the present invention is applied. In the second embodiment, a case will be described in which an image captured by a camera having an imaging system 20 is processed by the image processing apparatus 10 (FIG. 1). Accordingly, it is assumed that the I / F 18 included in the image processing apparatus 10 is connected to a camera including the imaging system 20.
[0073]
In the imaging system 20 shown in FIG. 7, incident light is collected by a lens 21, reflected by a mirror 22, and received by an imaging device 23. Therefore, a mirror image reflected on the mirror 22 is captured by the image sensor 23.
[0074]
The mirror 22 is a general mirror made of glass having a reflective vapor deposition surface formed on one surface, and most of the incident light on the mirror 22 is reflected by the reflective vapor deposition surface, while one of the incident light is reflected on the mirror 22. The part is reflected by the glass surface and is incident on the image sensor 23 formed by a CCD or the like. Therefore, an image photographed by the image sensor 23 may be unclear due to the influence of reflected light on the glass surface of the mirror 22.
[0075]
FIG. 8 is a flowchart showing the operation of the image processing apparatus 10 in the second embodiment.
[0076]
In the process shown in FIG. 8, the CPU 11 first determines whether or not the camera shutter is turned on (step S31). If the shutter is not turned on, the image obtained by the image sensor 23 is captured. It performs (step S32). Subsequently, the CPU 11 stores the captured image in the image data work memory 12b in the RAM 12 (step S33), generates display information based on the image stored in the image data work memory 12b, and outputs the display information to the display unit 16. Then, an image obtained by the image sensor 23 is displayed on the screen of the display unit 16 (step S34), and the process proceeds to step S41 described later.
[0077]
On the other hand, when the shutter of the camera is turned on (step S31; Yes), the CPU 11 acquires the data of the image received by the image sensor 23 included in the camera 103, loads it into the image data work memory 12b in the RAM 12, Further, the color tone analog data of each pixel is acquired by decomposing the color elements into R, G, and B color elements (step S35).
[0078]
Next, the CPU 11 amplifies the color tone analog data of each pixel acquired in step S3 (step S36), further performs A / D conversion (step S37), and generates digital data indicating the color tone data of each pixel. The image data is stored in the image data memory 12a (step S38).
[0079]
Then, the CPU 11 executes an image data correction process on the image data in the image data memory 12a (step S39), and corrects the image data of the photographed image to obtain a clearer image data. The image data correction process in step S39 is the same as the process shown in FIG. 5 in the first embodiment.
[0080]
Thereafter, the CPU 11 stores and stores the corrected image data in the image data memory 12a or the image data storage memory 12c in the RAM 12 (step S40), and proceeds to step S41.
[0081]
In step S41, it is determined whether or not shooting has been completed. If not, the process returns to step S31.
Note that the image data stored in step S40 can be converted to analog image data by D / A conversion and displayed on the screen of the display unit 16.
[0082]
Thus, if the present invention is applied to an image taken by a camera having the imaging system 20 using the mirror 22, a clearer image can be obtained by removing the influence of the reflected light on the glass surface of the mirror 22. Can do.
[0083]
Further, the present invention is not limited to the case of shooting, but can also be applied to the case of projecting an image using a mirror. Hereinafter, this case will be described as a third embodiment.
[0084]
[Third Embodiment]
FIG. 9 is a diagram showing a schematic configuration of the projection optical system 30 of the projector in the third embodiment to which the invention is applied.
In the third embodiment, a case will be described in which an image projected by a projector having the projection optical system 30 is processed by the image processing apparatus 10 (FIG. 1). Accordingly, it is assumed that the I / F 18 included in the image processing apparatus 10 is connected to a projector including the projection optical system 30.
[0085]
The projection optical system 30 reflects the light emitted from the light source 31 toward the LCD 33 by the concave mirror 32. The light transmitted through the LCD 33 is diffused by the concave lens 34, reflected by the mirror 35, and projected onto a screen or the like (not shown).
Since the image is displayed on the LCD 33 according to the control of the image processing apparatus 10, the image displayed on the LCD 33 can be projected onto a screen or the like when the light from the light source 31 passes through the LCD 33.
[0086]
FIG. 10 is a diagram schematically showing the configuration of the mirror 35 and the state of reflection at the mirror 35.
As shown in FIG. 10, the mirror 35 includes a glass 351 and a reflective vapor deposition surface 352 formed on one surface of the glass 351. Most of the incident light incident on the mirror 35 is reflected and emitted by the reflective vapor deposition surface 352, but a part of the incident light is reflected by the surface of the glass 351. For this reason, the incident light to the mirror 35 is radiated separately from the reflected light on the surface of the glass 351 and the reflected light on the reflective vapor deposition surface 352, and the image on the screen may become unclear.
[0087]
Therefore, in the third embodiment, the image displayed on the LCD 33 is processed by the image processing apparatus 10 and corrected so as to be an appropriate image by being reflected by the mirror, thereby obtaining a clear projected image. It is to be able to obtain.
[0088]
Here, as schematically shown in FIG. 10, a case where ten light beams A to L are projected as reflected light of the mirror 35 will be described as an example. The ten light beams A to L have a distance corresponding to the optical path difference between the reflected light on the surface of the glass 351 and the reflected light on the reflective vapor deposition surface 352.
[0089]
As described above, when the ten light beams A to L are directly incident on the mirror 35, the reflected light is divided into reflected light on the surface of the glass 351 and reflected light on the reflective vapor deposition surface 352.
[0090]
Therefore, the incident light to the mirror 35 is converted into A ′, A′-b, B′-c, C′-d, D′-e, E′-f, F′-g, G′-h, and H ′. Eleven rays of -i, I'-j, J'-k, and K'-l are used as incident light. Note that these 11 light beams have a distance corresponding to the optical path difference d between the reflected light on the surface of the glass 351 and the reflected light on the reflective vapor deposition surface 352. A ′, B ′, C ′, D ′, E ′, F ′, G ′, H ′, I ′, J ′, K ′, and a, b, c, d, e, f, g , H, i, j, k, and l are equal to a part of the light rays A, B, C, D, E, F, G, H, I, J, K, and L, respectively, and the light amount (intensity). Are different lights.
[0091]
Then, a part of the eleven rays are reflected by the surface of the glass 351, and most of the eleven rays are reflected by the reflective vapor deposition surface 352, and are emitted by being separated by the optical path difference d. For this reason, the light beam A ′ is emitted while being superimposed on the light beam A′-b. Similarly, the light beam A′-b is the light beam B′-c, the light beam B′-c is the light beam C′-d, the light beam C′-d is the light beam D′-e, and the light beam D′-e is the light beam E ′. '-F, ray E'-f is ray F'-g, ray F'-g is ray G'-h, ray G'-h is ray H'-i, ray H'-i The light beam I′-j, the light beam I′-j, and the light beam J′-k are emitted in a superimposed manner with the light beam K′-l, respectively.
[0092]
Therefore, A ′, B ′, C ′, D ′, E ′, F ′, G ′, H ′, I ′, J ′, K ′, and a, b, c, d, e, f, g , H, i, j, k, and l are set to appropriate values for the light rays A, B, C, D, E, F, G, H, I, J, K, and L. Thereby, the reflected light from the mirror 35 can be made into the light rays A, B, C, D, E, F, G, H, I, J, K, and L which do not overlap.
[0093]
FIG. 11 is a flowchart showing the operation of the image processing apparatus 10 according to the third embodiment.
[0094]
In the process shown in FIG. 11, the image processing apparatus 10 first turns on the light source 31 of the projection optical system 30 (step S51), and then reads the image data stored in the storage device 13 as an image to be projected. Then, it is stored in the image data work memory 12b (step S52).
[0095]
Here, the CPU 11 executes a process for correcting the image data stored in the image data work memory 12b (step S53). In the process in step S53, the CPU 11 obtains the correction pixel data value in the mirror 35, and then obtains the optical path difference d generated in the mirror 35, and the optical path, as in the process shown in FIG. 5 in the first embodiment. The number of pixels corresponding to the difference d is calculated, and processing for correcting the data of each pixel included in the image data stored in the image data work memory 12b is performed.
[0096]
Then, the CPU 11 outputs and displays the corrected image on the LCD 33 based on the corrected image data (step S54).
Thereafter, the CPU 11 determines whether or not the projection has ended. If not, the CPU 11 returns to step S51.
[0097]
In this way, by applying the present invention to a projector having the projection optical system 30, when projecting an image using a mirror, a clear image can be obtained except for the influence of reflected light on the glass surface constituting the mirror. Can be projected. Further, in the projector having the projection optical system 30, the present invention can be applied very inexpensively and easily compared with the case where the structure of the projection optical system is improved.
[0098]
According to the present invention, the image can be projected without worrying about the image becoming unclear due to the influence of the mirror, so that a clear projected image can be easily obtained and the installation of the screen or the like can be strictly performed. No need to do it.
[0099]
In the third embodiment, the example in which the mirror is included in the projection optical system 30 has been described. However, the present invention is not limited to this, and for example, a mirror is installed outside the projector. Of course, the present invention can also be applied to a case where an image is projected onto a screen or the like using this mirror.
[0100]
Further, in the above-described embodiment, the configuration of each unit configuring the image processing apparatus 10 is arbitrary, and it is needless to say that other specific detailed configurations can be appropriately changed.
[0101]
【The invention's effect】
According to the image data processing apparatus of the present invention, after obtaining the optical path difference between the reflected light on the mirror surface and the light reflected by the reflective material on the back surface of the mirror, the influence of the reflected light on the mirror surface from the image data. Therefore, the influence of the reflected light on the mirror surface can be efficiently and surely eliminated, and a clear image can be obtained.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an image processing apparatus 10 according to a first embodiment to which the present invention is applied.
FIG. 2 is a diagram schematically showing a configuration of a RAM 12 shown in FIG.
3 is a diagram schematically showing a configuration of an actual size calculation formula coefficient table 13a stored in the storage device 13 of FIG. 1; FIG.
4 is a general flow showing the operation of the image processing apparatus 10 of FIG.
FIG. 5 is a flowchart showing in detail an image data correction process shown in step S7 of FIG.
6 is a flowchart showing in detail a process for calculating the number of pixels corresponding to the optical path difference shown in step S14 of FIG.
FIG. 7 is a diagram showing a schematic configuration of an imaging system 20 of a camera according to a second embodiment to which the present invention is applied.
FIG. 8 is a flowchart showing an operation of the image processing apparatus 10 according to the second embodiment.
FIG. 9 is a diagram showing a schematic configuration of a projection optical system 30 of a projector according to a third embodiment to which the invention is applied.
10 is a diagram schematically showing the configuration of the mirror 35 of FIG. 9 and the state of reflection by the mirror 35. FIG.
FIG. 11 is a flowchart showing an operation of the image processing apparatus 10 according to the third embodiment.
FIG. 12 is a diagram illustrating an image processing apparatus 100 as an example of an imaging apparatus using a mirror.
13 is a diagram showing in detail the configuration of the mirror 110 shown in FIG. 12, and schematically showing the state of light rays reflected by the mirror 110. FIG.
14 is a diagram illustrating an example of a captured image obtained by the image processing apparatus 100 illustrated in FIG. 12, in which (a) illustrates a subject 105 and (b) illustrates a captured image obtained by the image processing apparatus 100. FIG.
15 is a diagram schematically showing a state of reflection of light rays in the mirror 110 shown in FIG. 12, and showing in more detail.
[Explanation of symbols]
10 Image processing device
11 CPU
12 RAM
12a Image data memory
12b Image data work memory
12c Image data storage memory
12d work area
13 Storage device
13a Actual size calculation formula coefficient table
14 Recording media
15 Input section
16 Display section
17 Transmission control unit
18 I / F
19 Bus
20 Imaging system
21 Lens
22 mirrors
23 Image sensor
30 Projection optical system
31 Light source
32 Concave mirror
33 LCD
34 Concave lens
35 mirrors
351 glass
352 reflective deposition surface
100 photographing device
101 cases
102 Food
103 cameras
104 pedestal
105 subjects
106 Subject image
110 mirror
111 glass
112 Reflective deposition surface
120 motor
121 Angle detector

Claims (3)

鏡に映る鏡像を撮影して得られる撮影画像データを生成する画像データ生成手段と、
前記鏡の表面における反射光と前記鏡の裏面の反射材で反射を経た光との間に生じる光路差を求める光路差算出手段と、
この光路差算出手段により算出された光路差に基づいて、前記画像データ生成手段により生成された画像データから、前記鏡の表面における反射光による成分を除く成分除去手段と、
を備えることを特徴とする画像データ処理装置。
Image data generation means for generating captured image data obtained by capturing a mirror image reflected in a mirror;
An optical path difference calculating means for obtaining an optical path difference generated between the reflected light on the surface of the mirror and the light reflected by the reflector on the back surface of the mirror;
Based on the optical path difference calculated by the optical path difference calculating means, from the image data generated by the image data generating means, a component removing means for removing a component due to reflected light on the surface of the mirror;
An image data processing apparatus comprising:
鏡に映る鏡像を撮影して得られる撮影画像データを生成し、
前記鏡の表面における反射光と前記鏡の裏面の反射材で反射を経た光との間に生じる光路差を求め、
この光路差算出手段により算出された光路差に基づいて、前記画像データ生成手段により生成された画像データから、前記鏡の表面における反射光による成分を除くことを特徴とする画像データ処理装置における画像データ処理方法。
Generate shot image data obtained by shooting a mirror image reflected in the mirror,
Find the optical path difference that occurs between the reflected light on the surface of the mirror and the light reflected by the reflector on the back surface of the mirror,
Based on the optical path difference calculated by the optical path difference calculating means, an image in the image data processing apparatus is characterized in that a component due to reflected light on the surface of the mirror is removed from the image data generated by the image data generating means. Data processing method.
コンピュータ
鏡に映る鏡像を撮影して得られる撮影画像データを生成する画像データ生成手段、
前記鏡の表面における反射光と前記鏡の裏面の反射材で反射を経た光との間に生じる光路差を求める光路差算出手段、
この光路差算出手段により算出された光路差に基づいて、前記画像データ生成手段により生成された画像データから、前記鏡の表面における反射光による成分を除く成分除去手段
として機能させるためのプログラム。
The computer,
Image data generating means for generating captured image data obtained by capturing a mirror image reflected in a mirror ;
An optical path difference calculating means for obtaining an optical path difference generated between the reflected light on the surface of the mirror and the light reflected by the reflector on the back surface of the mirror;
Based on the optical path difference calculated by the optical path difference calculating means, a component removing means for removing a component due to reflected light on the surface of the mirror from the image data generated by the image data generating means.
Program to function as.
JP2001230029A 2001-07-30 2001-07-30 Image data processing apparatus, image data processing method, and program Expired - Fee Related JP4019660B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001230029A JP4019660B2 (en) 2001-07-30 2001-07-30 Image data processing apparatus, image data processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001230029A JP4019660B2 (en) 2001-07-30 2001-07-30 Image data processing apparatus, image data processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007151144A Division JP4497177B2 (en) 2007-06-07 2007-06-07 Image data processing apparatus, image data processing method and program

Publications (2)

Publication Number Publication Date
JP2003046780A JP2003046780A (en) 2003-02-14
JP4019660B2 true JP4019660B2 (en) 2007-12-12

Family

ID=19062302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001230029A Expired - Fee Related JP4019660B2 (en) 2001-07-30 2001-07-30 Image data processing apparatus, image data processing method, and program

Country Status (1)

Country Link
JP (1) JP4019660B2 (en)

Also Published As

Publication number Publication date
JP2003046780A (en) 2003-02-14

Similar Documents

Publication Publication Date Title
US7245325B2 (en) Photographing device with light quantity adjustment
US7057645B1 (en) Camera system that compensates low luminance by composing multiple object images
JP4295613B2 (en) Method and system for outputting information relating to equipment defects
US10447944B2 (en) Imaging apparatus, control method thereof and program
JP6035947B2 (en) Image display device, image display method, and image display program
JPH09182093A (en) Image reproducing method and device
JP2004222231A (en) Image processing apparatus and image processing program
JP4513205B2 (en) Electronic camera and recording medium for image processing program
JPH10200804A (en) Camera type scanner
JP3259031B2 (en) Measurement result or analysis result projection apparatus and method
JP3576882B2 (en) Digital image transmission method for visual reconstruction or capture of digital image and apparatus for performing the method
JP2007071891A (en) Three-dimensional measuring device
JP5363872B2 (en) Image correction apparatus and program thereof
JP4423777B2 (en) Panorama projector apparatus and panorama photographing apparatus
JP4019660B2 (en) Image data processing apparatus, image data processing method, and program
JP4497177B2 (en) Image data processing apparatus, image data processing method and program
JP5284183B2 (en) Image processing apparatus and method
KR100188193B1 (en) Automatic distorted picture ratio control apparatus for projector
JP2004222233A (en) Image processing apparatus and image processing program
JPH11196315A (en) Image reader
KR100810344B1 (en) Apparatus for digital photographing and method for smear appearance correction and detecting using the same
JP3304685B2 (en) Digital camera
JP4212138B2 (en) 3D measuring device
JP2011135379A (en) Imaging apparatus, imaging method and program
JP2004222232A (en) Image processor and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070917

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111005

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121005

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121005

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131005

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees