JP5194566B2 - 画像処理装置、画像処理システム及び制御プログラム - Google Patents

画像処理装置、画像処理システム及び制御プログラム Download PDF

Info

Publication number
JP5194566B2
JP5194566B2 JP2007143588A JP2007143588A JP5194566B2 JP 5194566 B2 JP5194566 B2 JP 5194566B2 JP 2007143588 A JP2007143588 A JP 2007143588A JP 2007143588 A JP2007143588 A JP 2007143588A JP 5194566 B2 JP5194566 B2 JP 5194566B2
Authority
JP
Japan
Prior art keywords
image
images
region
brightness
cut out
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007143588A
Other languages
English (en)
Other versions
JP2008299505A (ja
Inventor
淳 新宮
真吾 内橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2007143588A priority Critical patent/JP5194566B2/ja
Priority to US11/967,944 priority patent/US8059188B2/en
Publication of JP2008299505A publication Critical patent/JP2008299505A/ja
Priority to US13/238,516 priority patent/US8384788B2/en
Application granted granted Critical
Publication of JP5194566B2 publication Critical patent/JP5194566B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、画像処理システム及び制御プログラムに関する。
従来より、観察者に対象物の質感や光沢度などを伝えることが可能な画像処理装置が知られている(例えば、特許文献1参照)。この画像処理装置では、撮影光源情報又は対象物立体形状情報等の撮影環境情報と、照明光形状情報、照明光位置情報、対象物向き情報、対象物位置情報、観察者位置情報等の観察環境情報とを用いて、入力された画像を、任意の再現環境で対象物を観察した時の画像に変換する。
また、従来より、対象物の表面を照射する複数の照明装置と、照射された対象物の表面を撮影する単一又は複数の撮影装置とを備える疵(きず)検査装置が知られている(例えば、特許文献2参照)。
特開2000−90233号公報 特開平07−306162号公報
ところで、対象物を撮影するときに、対象物上の細かい傷や模様などは、ある限られた照明下でしか、上手く撮影できない場合がある。
上記特許文献1及び特許文献2の技術を組み合わせた場合、複数の照明装置のうち1台だけ点灯して、順番に各照明装置の光線を対象物に照射したときの画像を取得できる。
しかしながら、対象物上の細かい傷や模様などは、照明装置の光線が直接対象物に照射されると、光線が強すぎて、対象物の画像に埋もれてしまう。一方で、照明装置の光線が対象物上の細かい傷や模様などにほとんど照射されないと、ユーザは細かい傷や模様などを識別することができない。
本発明の目的は、光線の照射方向を変えて対象物を撮影した複数の撮影画像から、当該対象物上の表面をユーザに効果的に観察させることが可能な画像を取得することができる画像処理装置、画像処理システム及び制御プログラムを提供することにある。
上記目的を達成するため、請求項1の画像処理装置は、光線の照射方向がそれぞれ異なるように設定された複数の照明装置を用いて、光線の照射方向を変えて対象物を撮影した複数の撮影画像を記憶する記憶手段と、前記記憶手段に記憶された各撮影画像から、ユーザによって指定された領域の領域画像を切り出す切出手段と、前記切出手段により切り出された各領域画像からエッジ量の算出、前記切出手段により切り出された各領域画像の明るさに対するクラスタリング処理の実行、又は前記切出手段により切り出された複数の領域画像間の明るさの差の合計処理の実行のいずれかにより、領域画像毎に単一又は複数の照明パラメータを算出する算出手段と、前記単一又は複数の照明パラメータを用いて、前記切出手段により切り出された複数の領域画像を合成することにより、複数の合成画像を作成する作成手段と、前記作成手段により作成された複数の合成画像を表示する表示手段と、前記表示手段に表示される複数の合成画像を、それぞれの合成画像に用いられた複数の撮影画像の光線の照射方向の違いに応じて切り換える切換手段とを備えることを特徴とする。
請求項2の画像処理装置は、請求項1に記載の画像処理装置において、前記切出手段により切り出された各領域画像からエッジ量の算出、又は前記切出手段により切り出された複数の領域画像間の明るさの差の合計処理の実行のいずれかが実行される際に、前記算出手段は、各領域画像を複数領域に分割し、分割された領域画像毎に前記照明パラメータを算出することを特徴とする。
請求項3の画像処理装置は、請求項1又は2に記載の画像処理装置において、前記切出手段により切り出される領域画像は、前記記憶手段に記憶された各撮影画像の全体又は一部であることを特徴とする。
請求項の画像処理装置は、請求項に記載の画像処理装置において、前記表示手段は、前記作成手段により作成された単一又は複数の合成画像を拡大又は縮小表示することを特徴とする。
請求項の画像処理装置は、請求項1乃至のいずれか1項に記載の画像処理装置において、前記対象物の識別情報を入力する入力手段と、前記切出手段により切り出された各領域画像からエッジ量の算出、前記切出手段により切り出された各領域画像の明るさに対するクラスタリング処理の実行、又は前記切出手段により切り出された複数の領域画像間の明るさの差の合計処理の実行のいずれかを指示する指示手段とを備え、前記切出手段は、入力された識別情報に対応する対象物が撮影された各撮影画像から、ユーザによって指定された領域の領域画像を切り出し、前記算出手段は、前記指示手段により指示された処理により、領域画像毎に単一又は複数の照明パラメータを算出することを特徴とする。
請求項の画像処理装置は、請求項1乃至のいずれか1項に記載の画像処理装置において、前記切出手段により切り出された各領域画像からエッジ量が算出される際に、前記算出手段は、領域画像毎に算出されたエッジ量を前記照明パラメータとすることを特徴とする。
請求項の画像処理装置は、請求項1乃至のいずれか1項に記載の画像処理装置において、前記切出手段に切り出された各領域画像の明るさに対するクラスタリング処理が実行される際に、前記算出手段は、各領域画像に含まれる全てのピクセルの明るさにクラスタリング処理を実行し、ピクセルの明るさを複数のクラスタ集合に分け、それぞれのクラスタ集合の平均値を前記照明パラメータとすることを特徴とする。
請求項の画像処理装置は、請求項1乃至のいずれか1項に記載の画像処理装置において、前記切出手段に切り出された複数の領域画像間の明るさの差の合計処理が実行される際に、前記算出手段は、処理対象としての領域画像に含まれる全ピクセルと当該領域画像の比較対象としての少なくとも1つの領域画像に含まれる全ピクセルとの間の明るさの差の絶対値をピクセルの明るさの最大値から減算する計算を実行し、算出された値の合計を前記照明パラメータとすることを特徴とする。
請求項の画像処理装置は、請求項1乃至のいずれか1項に記載の画像処理装置において、前記切出手段に切り出された複数の領域画像間の明るさの差の合計処理が実行される際に、前記算出手段は、処理対象としての領域画像に含まれるピクセルと、これに対応する、当該領域画像の比較対象としての少なくとも1つの撮影画像に含まれるピクセルとの間の明るさの差の絶対値を算出し、算出された値の合計を前記照明パラメータとすることを特徴とする。
請求項10の画像処理装置は、請求項1乃至のいずれか1項に記載の画像処理装置において、前記切出手段に切り出された複数の領域画像間の明るさの差の合計処理が実行される際に、前記算出手段は、処理対象としての領域画像に含まれる全ピクセルの明るさの平均値を予め算出し、当該明るさの平均値よりも少ない明るさのピクセルを前記処理対象としての領域画像から除外し、前記処理対象としての領域画像に残されたピクセルと、これに対応する、当該領域画像の比較対象としての少なくとも1つの撮影画像に含まれるピクセルとの間の明るさの差の絶対値を算出し、算出された値の合計を前記照明パラメータとすることを特徴とする。
請求項11の画像処理装置は、請求項1乃至10のいずれか1項に記載の画像処理装置において、前記作成手段は、前記複数の領域画像に、それぞれ対応する領域画像の単一又は複数の照明パラメータで重み付けをし、その重み付けの結果を重畳し、画像の明るさのスケールを変更する線形変換の関数又はヒストグラムを変換する関数によって重畳された画像の明るさを補正することにより、前記単一又は複数の合成画像を作成することを特徴とする。
請求項12の画像処理システムは、画像処理装置と情報処理装置とを備える画像処理システムであって、前記画像処理装置は、光線の照射方向がそれぞれ異なるように設定された複数の照明装置を用いて、光線の照射方向を変えて対象物を撮影した複数の撮影画像を記憶する記憶手段と、前記記憶手段に記憶された各撮影画像から、ユーザによって指定された領域の領域画像を切り出す切出手段と、前記切出手段により切り出された各領域画像からエッジ量の算出、前記切出手段により切り出された各領域画像の明るさに対するクラスタリング処理の実行、又は前記切出手段により切り出された複数の領域画像間の明るさの差の合計処理の実行のいずれかにより、領域画像毎に単一又は複数の照明パラメータを算出する算出手段と、前記単一又は複数の照明パラメータを用いて、前記切出手段により切り出された複数の領域画像を合成することにより、複数の合成画像を作成する作成手段とを備え、前記情報処理装置は、前記作成手段により作成された複数の合成画像を表示する表示手段と、前記表示手段に表示される複数の合成画像を、それぞれの合成画像に用いられた複数の撮影画像の光線の照射方向の違いに応じて切り換える切換手段とを備えることを特徴する。
請求項13の画像処理システムは、光線の照射方向を変えて対象物を撮影すると共に当該対象物を異なる複数の角度から撮影する複数の撮影装置、画像処理装置、及び情報処理装置とを備える画像処理システムであって、前記画像処理装置は、光線の照射方向を変えて、前記複数の撮影装置の各々で対象物を撮影した複数の撮影画像、及び前記複数の撮影装置の各々で、当該対象物を異なる複数の角度から撮影した複数の撮影画像を記憶する記憶手段と、前記記憶手段に記憶された各撮影画像から、ユーザによって指定された領域の領域画像を切り出す切出手段と、前記切出手段により切り出された各領域画像からエッジ量の算出、前記切出手段により切り出された各領域画像の明るさに対するクラスタリング処理の実行、又は前記切出手段により切り出された複数の領域画像間の明るさの差の合計処理の実行のいずれかにより、領域画像毎に単一又は複数の照明パラメータを算出する算出手段と、前記単一又は複数の照明パラメータを用いて、前記切出手段により切り出された複数の領域画像を合成することにより、複数の合成画像を作成する作成手段とを備え、前記情報処理装置は、前記作成手段により作成された複数の合成画像を表示する表示手段と、前記表示手段に表示される複数の合成画像を、前記複数の撮影装置の種別、前記複数の撮影画像の撮影角度、又はそれぞれの合成画像に用いられた複数の撮影画像の光線の照射方向の違いに応じて切り換える切換手段とを備えることを特徴する。
請求項14の制御プログラムは、コンピュータを、光線の照射方向がそれぞれ異なるように設定された複数の照明装置を用いて、光線の照射方向を変えて対象物を撮影した複数の撮影画像を記憶する記憶手段、前記記憶手段に記憶された各撮影画像から、ユーザによって指定された領域の領域画像を切り出す切出手段、前記切出手段により切り出された各領域画像からエッジ量の算出、前記切出手段により切り出された各領域画像の明るさに対するクラスタリング処理の実行、又は前記切出手段により切り出された複数の領域画像間の明るさの差の合計処理の実行のいずれかにより、領域画像毎に単一又は複数の照明パラメータを算出する算出手段前記単一又は複数の照明パラメータを用いて、前記切出手段により切り出された複数の領域画像を合成することにより、複数の合成画像を作成する作成手段、前記作成手段により作成された複数の合成画像を表示する表示手段、及び前記表示手段に表示される複数の合成画像を、それぞれの合成画像に用いられた複数の撮影画像の光線の照射方向の違いに応じて切り換える切換手段として機能させることを特徴とする。
請求項1、14の発明によれば、複数の領域画像のエッジ量又は明るさが調整された単一又は複数の合成画像が作成されるので、従来のように、対象物上の細かい傷や模様などが、対象物の画像に埋もれること又はユーザに識別されないことを防止できる。結果として、光線の照射方向を変えて対象物を撮影した複数の撮影画像から、当該対象物上の表面をユーザに効果的に観察させることが可能な画像を取得することができる。さらに、それぞれの合成画像に用いられた複数の撮影画像の光線の照射方向の違いに応じて複数の合成画像を切り換えて表示することができ、対象物上の表面をユーザに効果的に観察させることができる。
請求項2の発明によれば、光線の照射方向を変えて対象物を撮影した複数の撮影画像から、本発明の構成を用いない場合に比べて、より細かい精度で、当該対象物上の表面をユーザに効果的に観察させることが可能な画像を取得することができる。
請求項3の発明によれば、光線の照射方向を変えて対象物を撮影した複数の撮影画像から、当該対象物上の表面の全体又は一部をユーザに効果的に観察させることが可能な画像を取得することができる。
請求項の発明によれば、対象物上の表面を拡大又は縮小した状態でユーザに観察させることができる。
請求項の発明によれば、ユーザ所望の対象物が撮影された複数の撮影画像から、ユーザ所望の処理が実行されることにより、単一又は複数の合成画像を取得することができる。
請求項の発明によれば、エッジ量が調整された合成画像を作成することができる。
請求項の発明によれば、明るさが調整された複数の合成画像を作成することができる。
請求項の発明によれば、複数の領域画像間の明るさの差が小さい状態に適した方法で照明パラメータが算出されるので、影の少ない合成画像を作成することができる。
請求項の発明によれば、複数の領域画像間の明るさの差が大きい状態に適した方法で照明パラメータが算出されているので、コントラストの大きい合成画像を作成することができる。
請求項10の発明によれば、影がのぞかれた状態で複数の領域画像間の明るさの差が大きい状態に適した方法で照明パラメータが算出されているので、てかりの多い合成画像を作成することができる。
請求項11の発明によれば、複数の領域画像の明るさがより一層調整された単一又は複数の合成画像を作成することができる。
請求項12の発明によれば、光線の照射方向を変えて対象物を撮影した複数の撮影画像から、当該対象物上の表面をユーザに効果的に観察させることが可能な画像を取得することができる。さらに、それぞれの合成画像に用いられた複数の撮影画像の光線の照射方向の違いに応じて複数の合成画像を切り換えて表示することができ、対象物上の表面をユーザに効果的に観察させることができる。
請求項13の発明によれば、光線の照射方向を変えて対象物を撮影した複数の撮影画像から、当該対象物上の表面をユーザに効果的に観察させることが可能な画像を取得することができる。さらに、複数の撮影装置の種別、複数の撮影画像の撮影角度、又はそれぞれの合成画像に用いられた複数の撮影画像の光線の照射方向の違いに応じて複数の合成画像を切り換えて表示することができ、対象物上の表面をユーザに効果的に観察させることができる。
以下、本発明の実施の形態について、図面を参照して説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る画像処理装置を含む画像処理システムの構成を示すブロック図である。
図1の画像処理システムは、サーバとして機能するパーソナルコンピュータ(PC)3、データサーバ7、クライアントとして機能するPC8を備えており、これらは、ネットワーク4を介して互いに接続されている。PC3には、ライトやLED等で構成される照明装置11〜13及びビデオカメラで構成される撮像装置1が接続されている。照明装置11〜13は、PC3からの制御コマンドに基づいて、対象物5に対して光線を照射する。尚、PC3に接続される照明装置は、2台に限定されるものではなく、2台以上であればよい。
撮影装置1は、対象物5からの反射画像を撮影し、撮影画像をPC1に出力する。即ち、撮影装置1は、対象物5の全体像を撮影する。
PC3は、撮影装置1により撮影された撮影画像をネットワーク4を介してデータサーバ7に出力する。PC8は、操作部804及び表示部805を備え、表示部805は撮影装置1で撮影された対象物5の画像を表示する。また、PC3は、対象物5の画像上の任意の領域を指定し、その領域に適した明るさの部分画像を作成する指示をデータサーバ7に出力する。さらに、PC3は、PC1に対して制御コマンドを出力し、照明装置11〜13及び撮影装置1の動作(例えば、照明装置11〜13からの光線の照射角度及び明るさ、撮影装置1の撮影角度や撮影画像の明るさなど)を制御することができる。
尚、同図においては、クライアントは、PC8の1台が記載されているが、複数のクライアント(PC)を備えていてもよい。
また、PC3、データサーバ7、及びPC8は、それぞれ別体で構成されているが、PC3及びデータサーバ7を、データサーバ7及びPC8を、又はPC3、データサーバ7及びPC8を1台の情報処理装置(例えば、PC又は携帯端末など)で構成してもよい。この場合、1台の情報処理装置は、制御部、送受信部、記憶部、表示部、及びIF部などを備え、PC3及びデータサーバ7で実行される処理、データサーバ7及びPC8で実行される処理、又はPC3、データサーバ7及びPC8で実行される処理と同様の処理を実行する。
図2は、PC3、データサーバ7、PC8の機能構成を示すブロック図である。
PC3は、装置全体を制御すると共に、照明装置11〜13及び撮影装置1の動作を制御する制御部301と、ネットワーク4を介してデータサーバ7又はPC8と情報やデータの送受信を行う送受信部302と、制御プログラム、データ及び情報等を記憶する記憶部303と、照明装置11〜13及び撮影装置1と接続するためのインターフェイス(IF)部304とを備えている。さらに、PC3は、撮影装置1で撮影された撮影画像を表示するための表示部305を備えていてもよい。制御部301は、送受信部302、記憶部303、IF部304及び表示部305に接続されており、さらにIF部304を介して照明装置11〜13及び撮影装置1に接続されている。
データサーバ7は、装置全体を制御する制御部701(切出手段、算出手段、作成手段)と、ネットワーク4を介してPC3及びPC8と情報やデータの送受信を行う送受信部702と、マウスやキーボードなどで構成される操作部703(切換手段、入力手段、指示手段)と、制御プログラム、撮影画像、データ及び情報等を記憶する記憶部704(記憶手段)と、表示部705(表示手段)とを備えている。制御部701は、送受信部702、操作部703、記憶部704及び表示部705に接続されている。
PC8は、装置全体を制御する制御部801と、ネットワーク4を介してPC3及びデータサーバ7と情報やデータの送受信を行う送受信部802と、マウスやキーボードなどで構成される操作部803(切換手段)と、制御プログラム、データ及び情報等を記憶する記憶部804と、表示部805(表示手段)とを備えている。制御部801は、送受信部802、操作部803、記憶部804及び表示部805に接続されている。
図3は、データサーバ7のハードウエア構成を示すブロック図である。
データサーバ7は、装置全体を制御するCPU21、制御プログラムを備えるROM22、ワーキングエリアとして機能するRAM23、各種の情報やプログラムを備えるハードディスクドライブ(HDD)24、マウス及びキーボード25、他のコンピュータと接続するためのネットワークインターフェイス26、液晶モニタ又はCRTで構成されるディスプレイ27、及び不図示のUSB機器と接続するためのUSB(universal serial bus)インターフェイス28を備えている。CPU21はシステムバス29を介してROM22、RAM23、ハードディスクドライブ(HDD)24、マウス及びキーボード25、ネットワークインターフェイス26、ディスプレイ27及びUSBインターフェイス28に接続されている。
制御部701は、制御プログラムに従って各種の処理を実行するCPU21に相当する。送受信部702は、ネットワークインターフェイス26に相当し、記憶部703は、ハードディスクドライブ(HDD)24に相当する。操作部704は、マウス及びキーボード25に相当し、表示部705は、ディスプレイ27に相当する。尚、PC3、PC8も上述したハードウエア構成と同一のハードウエア構成を有する。
図4は、図1の画像処理システムで実行される処理を示すフローチャートである。
まず、PC3は、照明装置11〜13を制御し、撮影装置1で対象物5を撮影し、複数照明下での撮影画像をデータサーバ7に送信する(ステップS1)。このとき、データサーバ7は、PC3からの撮影画像を記憶部703に蓄積する。
次いで、データサーバ7は、PC8から対象物5の領域画像の送信要求を受信したか否かを判別する(ステップS2)。ここで、領域画像とは、PC8で指定された領域に含まれる画像である。つまり、PC8で指定された領域が撮影画像全体である場合には、領域画像は撮影画像と同一になり、PC8で指定された領域が撮影画像の一部分である場合には、領域画像は撮影画像の部分画像となる。
PC8から対象物5の領域画像の送信要求を受信していない場合には、上記判別処理を繰り返す。一方、PC8から対象物5の領域画像の送信要求を受信した場合には、データサーバ7は、記憶部703に蓄積された撮影画像に基づいて当該領域画像を作成し(ステップS3)、PC8に領域画像を送信して(ステップS4)、本処理を終了する。
図5は、図4のステップS1の詳細な処理を示すフローチャートである。
まず、PC3は、照明装置を1つのみを点灯させ(ステップS11)、撮影装置1に対象物5の撮影を実行させ、撮影画像を記憶部303に保存する(ステップS12)。ここで、照明装置11のみを点灯させ、撮影装置1で撮影した画像を撮影画像31とし、照明装置12のみを点灯させ、撮影装置1で撮影した画像を撮影画像32とし、照明装置13のみを点灯させ、撮影装置1で撮影した画像を撮影画像33とする。同様に、その他の照明装置を1つずつ点灯し、撮影装置1で撮影した画像を撮影画像34、35…とする。
次いで、PC3は、全ての照明装置で撮影が実行されたか否かを判別する(ステップS13)。ステップS13でNOの場合には、ステップS11に戻る。一方、ステップS13でYESの場合には、PC3は、記憶部303に保存された撮影画像をデータサーバ7に送信し(ステップS14)、本処理を終了する。
データサーバ7は、PC3から撮影画像を受信し、記憶部703に保存すると共に、画像生成に備えて、当該撮影画像に対し、所定の計算又はノイズ除去などの前処理を実行する。
図6は、PC8の表示部805に表示されるユーザインターフェイス(ユーザIF)の一例を示す図である。尚、データサーバ7及びPC8が1台のPCで構成される場合には、このユーザIFは、そのPCの表示部に表示される。
同図に示すように、ユーザIFはブラウザで表示される。スライドバー811上のポインタ812を右又は左に動かすと、画像表示領域813(表示手段)に表示される画像が切り替わる。操作部803、スライドバー811及びポインタ812は画像の切換手段を構成する。
対象物ID817の欄(入力手段)には、全体画像表示領域815に表示される対象物のIDを入力し、タイプID818の欄(指示手段)には、後述する照明パラメータの計算方法を入力する。尚、このタイプID818の欄は、ユーザIF上に設けなくてもよい。この場合、制御部701が照明パラメータの計算方法はあらかじめ定められたもので行う。
画像表示領域813に表示される画像の領域814がマウス等で指定されると、PC8の制御部801は、対象物ID、タイプID、及び領域の座標を対象物5の領域画像の送信要求としてデータサーバ7に送信する。データサーバ7は、対象物IDに基づいて、所望の対象物の撮影画像を複数選択し、タイプIDに基づいて、後述する照明パラメータの算出方法を決定し、領域の座標に基づいて、複数の撮影画像から当該領域に対応する画像を切り出し、後述する画像処理(合成処理)を実行する。データサーバ7は、画像処理後の1つ又は複数の領域画像(以下、最終的に各領域画像が合成して作成される画像を合成画像という)をPC8に送信する。PC8は、画像処理後の1つ又は複数の合成画像を受信し、画像表示領域813に表示する。ここで、PC8が、複数の合成画像を受信した場合には、画像表示領域813に表示される合成画像は、スライドバー811上のポインタ812を右又は左に動かすこと、又は当該合成画像上のマウスオーバー等により切り換えられる。この複数の合成画像の切り換える際に、PC8は、切り換え処理にクロスフェーディング(画像がじわじわ切り替わる効果)などの処理を追加してもよい。
また、現在、画像表示領域813に表示されている画像の領域(814)がマウス等で指定されると、画像表示領域813には、デジタルズーム処理によってその領域の画像が拡大表示される。全体画像表示領域815には画像全体が表示され、現在、画像表示領域813に拡大表示されている部分が四角枠で表示される。
また、ズームボタン(+)816a又はズームボタン(−)816bが押下されると、データサーバ7が全体画像表示領域815に表示されている画像にデジタルズーム処理を実行し、全体画像表示領域815に表示される画像をズームイン又はズームアウトする。
尚、マウス等で指定される領域814は、画像表示領域813に表示されている画像の一部分に限らず、画像表示領域813に表示されている画像全体であってもよい。
図7は、図4のステップS3の詳細な処理を示すフローチャートである。
まず、データサーバ7の制御部701は、PC8から受信した対象物IDに基づいて、所望の対象物の撮影画像を複数選択し、PC8から受信した領域の座標に基づいて、複数の撮影画像から当該領域に対応する画像を切り出す(ステップS31)。例えば、図8に示すように、所望の対象物の撮影画像が撮影画像31〜33である場合、領域の座標に基づいて各撮影画像から切り出した画像は、領域画像41〜43となる。
次いで、制御部701は、各領域画像に基づいて、照明パラメータを計算する(ステップS32)。
照明パラメータの計算方法としては、(1)領域画像毎にエッジ量を算出して、照明パラメータを計算する方法、(2)各領域画像にクラスタリング処理を実行し、照明パラメータを計算する方法、(3)領域画像間の明るさの差を合計することで照明パラメータを計算する方法などがある。いずれの方法で照明パラメータを計算するかは、タイプIDにより決定される。
まず、(1)領域画像毎にエッジ量を算出して、照明パラメータの計算する方法を説明する。この方法では、制御部701は、各領域画像のエッジ抽出を実行し、領域画像中のエッジ量をその領域画像の照明パラメータとする。エッジ抽出の方法は、一時微分などの多くの方法がある。例えば、図8の領域画像41〜43のエッジ量は、順番に500、200、1000であり、この数値をそのままあるいは単純な計算をして、照明パラメータとする。単純な計算とは、例えば所定の数値で除したり、最大値が所定の数値になるような比率を乗したりすることが考えられる。尚、この方法で照明パラメータを計算すると、最終的に、よりエッジの多い合成画像が生成される。
次に、(2)各領域画像にクラスタリング処理を実行し、照明パラメータを計算する方法を説明する。
まず、各領域画像iに含まれるピクセルの座標を(x、y)とし、そのピクセルの明るさをZi(x、y)とした場合に、制御部701は、全てのピクセルの明るさ(全てのZi(x、y))にクラスタリング処理を実行し、ピクセルの明るさを複数のクラスタ集合に分ける。そして、それぞれのクラスタ集合の平均値を照明パラメータとする。このクラスタリングでは、k-means法等の既知の方法を用いる。
この方法では、領域画像41〜43に対して、それぞれ複数の照明パラメータが取得されるので、最終的に、明るさが調整された複数の合成画像が作成される。例えば、領域画像41〜43に対して、それぞれ4つの照明パラメータが取得される場合(即ち、それぞれ4つのクラスタ集合に分けられる場合)には、最終的に、4つの合成画像が作成される。ただし、ピクセルの明るさZi(x、y)が複数のクラスタ集合に分けられたときに、ピクセルの数が最も多いクラスタ集合の平均値を照明パラメータとすることで、領域画像41〜43に対して、それぞれ1つの照明パラメータが取得されるようにしてもよい。
次いで、(3)領域画像間の明るさの差を合計することで照明パラメータを計算する方法を説明する。
処理対象としての領域画像iに含まれるピクセルの座標を(x、y)とし、そのピクセルの明るさをZi(x、y)とし、比較対象としての領域画像i’のピクセルの明るさをZi’(x、y)とする。制御部701は、領域画像間の明るさの差が小さい状態であるとして照明パラメータを計算する場合は、領域画像iに含まれる全ピクセルと領域画像i’に含まれる全ピクセルとの間の明るさの差の絶対値をピクセルの明るさの最大値から減算する計算を実行し、算出された値の合計を照明パラメータとする。即ち、制御部701は、下記式(1)に従って照明パラメータを算出する。ピクセルの明るさの最大値は、通常の場合255(階調)となり、下記式(1)はこれを255として記述した。
Figure 0005194566
制御部701は、領域画像間の明るさの差が大きい状態であるとして照明パラメータを計算する場合は、領域画像iに含まれる全ピクセルと領域画像i’に含まれる全ピクセルとの間の明るさの差の絶対値を算出し、算出された値の合計を照明パラメータとする。即ち、制御部701は、下記式(2)に従って照明パラメータを算出する。
Figure 0005194566
尚、領域画像間の明るさの差が大きい状態であるとして照明パラメータを計算する場合には、制御部701は、影の影響を除去するために、領域画像iに含まれる全ピクセルの明るさの平均値Zmean(x、y)を予め算出し、Zi(x、y)<Zmean(x、y)の関係を持つピクセルは、上記式(2)の加算から除外するようにしてもよい。
上記式(1)又は式(2)によれば、例えば、領域画像41の照明パラメータは、領域画像41及び領域画像42の明るさの差と、領域画像41及び領域画像43の明るさの差との合計値となる。
図7において、制御部701は、ステップS32で算出された照明パラメータを用いて、各領域画像を合成し、合成結果の領域画像(即ち、合成画像)をPC8へ送信して(ステップS33)、本処理を終了する。
ステップS33では、具体的には、制御部701は、複数の領域画像に、それぞれ対応する領域画像の照明パラメータで重み付けをし、その重み付けの結果を重畳し、関数fによって明るさ又は色(例えば、ホワイトバランス)を補正して合成画像を作成する。即ち、制御部701は、下記式(3)に従って、合成画像を作成する。
合成画像=f(領域画像41×領域画像41用の照明パラメータ+領域画像42×領域画像42用の照明パラメータ+領域画像43×領域画像43用の照明パラメータ+……) ……(3)
ここで、関数fは、画像の明るさのスケールを変更する線形変換の関数又はヒストグラム平滑化などのヒストグラムを変換する(即ち画像の濃度値の出現分布を変換する)関数などである。
上記式(3)によれば、複数の領域画像の明るさがより一層調整された単一又は複数の合成画像を作成することができる。
上記(1)領域画像毎にエッジ量を算出して、照明パラメータを計算する場合、または上記(3)領域画像間の明るさの差を合計することで照明パラメータを計算する場合は、各領域画像に対して照明パラメータは1つ算出されるが、これに代えて、例えば、制御部701が、各領域画像を左右又は上下に2分割し、若しくは左右且つ上下で4分割し、分割された領域画像毎に照明パラメータを1つ算出するようにしてもよい。これにより、1つの領域画像から2つ又は4つの照明パラメータが算出され、2つ又は4つの合成画像が作成される。
例えば、各領域画像を左右に2分割し、分割された領域画像毎に照明パラメータが1つ算出される場合は、制御部701は領域画像41〜43の右半分の領域で領域画像41〜43用の照明パラメータを算出し、別途、領域画像41〜43の左半分の領域で領域画像41〜43用の照明パラメータを算出する。領域画像41〜43の右半分の領域で算出された領域画像41〜43用の照明パラメータを用いて領域画像41〜43を合成すると、右半分の領域のエッジが強い合成画像が作成される。同様に、領域画像41〜43の左半分の領域で算出された領域画像41〜43用の照明パラメータを用いて領域画像41〜43を合成すると、左半分の領域のエッジが強い合成画像が作成される。
上記式(1)に従って算出された照明パラメータを用いて、複数の領域画像を合成すると、複数の領域画像間の明るさの差が小さい状態に適した方法で照明パラメータを算出しているので、影の少ない合成画像を作成することができる。また、上記式(2)に従って算出された照明パラメータを用いて、複数の領域画像を合成すると、複数の領域画像間の明るさの差が大きい状態に適した方法で照明パラメータが算出されているので、コントラストの大きい合成画像を作成することができる。さらに、上述した影の影響を取り除いた照明パラメータで、且つ上記式(2)に従って算出された照明パラメータを用いて、複数の領域画像を合成すると、影が除かれた状態で複数の領域画像間の明るさの差が大きい状態に適した方法で照明パラメータを算出しているので、てかりの多い合成画像を作成することができる。
上記(3)領域画像間の明るさの差を合計することで照明パラメータを計算する場合は、各領域画像に対して照明パラメータは1つ算出されるが、これに代えて、例えば、制御部701が、各領域画像をクラスタリングによって複数のピクセル集合に分割し、分割されたピクセル集合毎に照明パラメータを1つ算出するようにしてもよい。これにより、1つの領域画像から複数の照明パラメータが算出され、複数の合成画像が作成される。例えば、クラスタリングにより3つのピクセル集合に分割したとすると、3つの照明パラメータが算出され、3枚の合成画像が生成される。
例えば、領域画像間の明るさが大きい状態であるとして照明パラメータを計算する場合には、あるピクセルに照明が与える影響度を下記式(4)で表す。
Figure 0005194566
この値をクラスタリングにすることで、複数のピクセル集合(例えばピクセル集合Aとピクセル集合B)に分ける。各ピクセル集合ごとに上記式(2)によって照明パラメータを算出する。ピクセル集合Aに含まれるピクセルで計算された照明パラメータで領域画像41〜43を合成すると、ある部分のてかりが強調された合成画像が生成される。ピクセル集合Bに含まれるピクセルで計算された照明パラメータで領域画像41〜43を合成すると、別の部分のてかりが強調された合成画像が生成される。
以上詳細に説明したように、本実施の形態によれば、データサーバ7の記憶部703が光線の照射方向を変えて対象物5を撮影した複数の撮影画像を記憶し、制御部701が記憶部703に記憶された各撮影画像から、ユーザによって指定された領域の領域画像を切り出し、各領域画像からエッジ量の算出、各領域画像の明るさに対するクラスタリング処理の実行、又は複数の領域画像間の明るさの差の合計処理の実行のいずれかにより、領域画像毎に単一又は複数の照明パラメータを算出し、単一又は複数の照明パラメータを用いて、複数の領域画像を合成することにより、単一又は複数の合成画像を作成する。
このように、複数の領域画像のエッジ量又は明るさが調整された単一又は複数の合成画像が作成されるので、従来のように、対象物上の細かい傷や模様などが、対象物5の画像に埋もれること又はユーザに識別されないことを防止できる。結果として、光線の照射方向を変えて対象物5を撮影した複数の撮影画像から、当該対象物5上の表面をユーザに効果的に観察させることが可能な画像を取得することができる。
また、制御部701により切り出される領域画像は、記憶部703に記憶された各撮影画像の全体又は一部であるので、光線の照射方向を変えて対象物5を撮影した複数の撮影画像から、当該対象物5上の表面の全体又は一部をユーザに効果的に観察させることが可能な画像を取得することができる。
画像表示領域813は、制御部701により作成された単一又は複数の合成画像を表示し、スライドバー811及びポインタ812は、画像表示領域813に表示される合成画像を光線の照射方向に応じて切り換えるので、光線の照射方向に応じて複数の合成画像を切り換えて表示することができ、対象物5上の表面をユーザに効果的に観察させることができる。
また、画像表示領域813は、制御部701により作成された単一又は複数の合成画像を拡大又は縮小表示するので、対象物5上の表面を拡大又は縮小した状態でユーザに観察させることができる。
対象物ID817の欄には対象物の識別情報が入力され、タイプID818の欄では照明パラメータの計算方法が指示される(即ち、各領域画像からエッジ量の算出、各領域画像の明るさに対するクラスタリング処理の実行、又は複数の領域画像間の明るさの差の合計処理の実行のいずれかが指示される)ので、ユーザ所望の対象物が撮影された複数の撮影画像から、ユーザ所望の処理が実行されることにより、単一又は複数の合成画像を取得することができる。
図1の画像処理システムでは、3台の照明装置の点灯を順番に切り換えて、撮影装置1が対象物5を撮影しているが、最初の場所で撮影装置1が対象物5を撮影した後に、ユーザ又はPC3が1台の照明装置を移動させて、移動場所で撮影装置1が対象物5を撮影するという処理を2回繰り返してもよい。
(第2の実施の形態)
図9は、第2の実施の形態に係る画像処理システム構成を示すブロック図である。
図9の画像処理システムは、対象物5を撮影する撮影装置2と、対象物5を回転させるターンテーブル6とを更に備える点で、図1の画像処理システムと異なる。撮影装置2及びターンテーブル6はPC3に接続されており、PC3の制御により動作する。尚、図9の撮影装置2及びターンテーブル6以外の構成は、図1の画像処理システムの構成と同一なので、その説明は省略する。
図9の画像処理システムは、上述した図4の処理を実行するが、ステップS401の工程が上述した図5の処理と異なるので、以下に説明する。
図10は、図4のステップS1の詳細な処理を示すフローチャートである。
まず、PC3は、照明装置を1つのみを点灯させ(ステップS51)、撮影装置1及び撮影装置2に対象物5の撮影を実行させ、撮影画像を記憶部303に保存する(ステップS52)。
次いで、PC3は、全ての照明装置で撮影が実行されたか否かを判別する(ステップS53)。ステップS53でNOの場合には、ステップS51に戻る。一方、ステップS53でYESの場合には、PC3は、ターンテーブル6が1周回転したか否かを判別する(ステップS54)。ステップS54でNOの場合には、PC3は、ターンテーブル6を所定角度(例えば、30度、45度、60度、又は90度など)回転させ(ステップS55)、ステップS51に戻る。
PC3は、ステップS55でターンテーブルを回転させた回数をカウントし、このカウント値によって、ステップS54の判別を実行する。例えば、ステップS55でターンテーブル6を一度に30度回転させる場合には、PC3は、ターンテーブルを回転させた回数が12回に到達するまで、ステップS54ではNOと判別する。
ステップS54でYESの場合には、PC3は、記憶部303に保存された撮影画像をデータサーバ7に送信し(ステップS56)、本処理を終了する。
図11は、PC8の表示部805に表示されるユーザインターフェイス(ユーザIF)の一例を示す図である。図11のユーザIFは、所望の角度を選択するためのスライドバー821及びポインタ822、並びに所望の撮影装置を選択するためのチェックボックス823を備えている点で、図6のユーザIFと異なる。図11のユーザIFのその他の構成は、図6のユーザIFの構成と同一なので、その説明は省略する。
尚、PC8のユーザインターフェイス上で所望の角度及び撮影装置を選択した後は、上記図4のステップS2〜S4の処理が実行される。
本実施の形態によれば、ユーザは、PC8のユーザIF上で所望の角度又は撮影装置を選択し、所望の角度又は撮影装置で撮影された撮影画像を使って作成された合成画像を見ることができる。また、ユーザは、PC8のユーザIF上で角度又は撮影装置を変更したときには、適宜、変更された角度又は撮影装置で撮影された撮影画像を使って作成された合成画像を見ることができる。
また、記憶部703は、光線の照射方向を変えて、撮影装置1,2の各々で対象物5を撮影した複数の撮影画像、及び撮影装置1,2の各々で、対象物5を異なる複数の角度から撮影した複数の撮影画像を記憶し、画像表示領域813が制御部701により作成された単一又は複数の合成画像を表示し、スライドバー811,821、ポインタ812,822及びチェックボックス823により画像表示領域813に表示される合成画像が、撮影装置1,2の種別、複数の撮影画像の撮影角度、又は光線の照射方向に応じて切り換えられる。
よって、撮影装置1,2の種別、複数の撮影画像の撮影角度、又は光線の照射方向に応じて複数の合成画像を切り換えて表示することができ、対象物5上の表面をユーザに効果的に観察させることができる。
尚、操作部803、スライドバー811,821、ポインタ812,822及びチェックボックス823は画像の切換手段を構成する。
データサーバ7の機能を実現するためのソフトウェアのプログラムが記録されている記録媒体を、データサーバ7に供給し、データサーバ7の制御部701が記憶媒体に格納されたプログラムを読み出し実行することによっても、上記第1及び第2の実施の形態と同様の効果を奏する。プログラムを供給するための記憶媒体としては、例えば、CD−ROM、DVD、又はSDカードなどがある。
また、データサーバ7の制御部701が、データサーバ7の機能を実現するためのソフトウェアのプログラムを実行することによっても、上記実施の形態と同様の効果を奏する。
なお、本発明は、上述した実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内で種々変形して実施することが可能である。
本発明の第1の実施の形態に係る画像処理装置を含む画像処理システムの構成を示すブロック図である。 PC3、データサーバ7、PC8の機能構成を示すブロック図である。 データサーバ7のハードウエア構成を示すブロック図である。 図1の画像処理システムで実行される処理を示すフローチャートである。 図4のステップS1の詳細な処理を示すフローチャートである。 PC8の表示部805に表示されるユーザインターフェイス(ユーザIF)の一例を示す図である。 図4のステップS3の詳細な処理を示すフローチャートである。 (A)〜(C)は撮影画像31〜33の一例を示す図であり、(D)〜(F)は領域画像41〜43の一例を示す図である。 第2の実施の形態に係る画像処理システム構成を示すブロック図である。 図4のステップS1の詳細な処理を示すフローチャートである。 PC8の表示部805に表示されるユーザインターフェイス(ユーザIF)の一例を示す図である。
符号の説明
1,2 撮影装置
3,8 PC
4 ネットワーク
5 対象物
7 データサーバ
11〜13 照明装置
301,701,801 制御部
302,702,802 送受信部
303,703,803 記憶部
304 IF部
704,804 操作部
305,705,805 表示部

Claims (14)

  1. 光線の照射方向がそれぞれ異なるように設定された複数の照明装置を用いて、光線の照射方向を変えて対象物を撮影した複数の撮影画像を記憶する記憶手段と、
    前記記憶手段に記憶された各撮影画像から、ユーザによって指定された領域の領域画像を切り出す切出手段と、
    前記切出手段により切り出された各領域画像からエッジ量の算出、前記切出手段により切り出された各領域画像の明るさに対するクラスタリング処理の実行、又は前記切出手段により切り出された複数の領域画像間の明るさの差の合計処理の実行のいずれかにより、領域画像毎に単一又は複数の照明パラメータを算出する算出手段と、
    前記単一又は複数の照明パラメータを用いて、前記切出手段により切り出された複数の領域画像を合成することにより、複数の合成画像を作成する作成手段と、
    前記作成手段により作成された複数の合成画像を表示する表示手段と、
    前記表示手段に表示される複数の合成画像を、それぞれの合成画像に用いられた複数の撮影画像の光線の照射方向の違いに応じて切り換える切換手段と
    を備えることを特徴とする画像処理装置。
  2. 前記切出手段により切り出された各領域画像からエッジ量の算出、又は前記切出手段により切り出された複数の領域画像間の明るさの差の合計処理の実行のいずれかが実行される際に、前記算出手段は、各領域画像を複数領域に分割し、分割された領域画像毎に前記照明パラメータを算出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記切出手段により切り出される領域画像は、前記記憶手段に記憶された各撮影画像の全体又は一部であることを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記表示手段は、前記作成手段により作成された単一又は複数の合成画像を拡大又は縮小表示することを特徴とする請求項1に記載の画像処理装置。
  5. 前記対象物の識別情報を入力する入力手段と、
    前記切出手段により切り出された各領域画像からエッジ量の算出、前記切出手段により切り出された各領域画像の明るさに対するクラスタリング処理の実行、又は前記切出手段により切り出された複数の領域画像間の明るさの差の合計処理の実行のいずれかを指示する指示手段とを備え、
    前記切出手段は、入力された識別情報に対応する対象物が撮影された各撮影画像から、ユーザによって指定された領域の領域画像を切り出し、
    前記算出手段は、前記指示手段により指示された処理により、領域画像毎に単一又は複数の照明パラメータを算出することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記切出手段により切り出された各領域画像からエッジ量が算出される際に、前記算出手段は、領域画像毎に算出されたエッジ量を前記照明パラメータとすることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記切出手段に切り出された各領域画像の明るさに対するクラスタリング処理が実行される際に、前記算出手段は、各領域画像に含まれる全てのピクセルの明るさにクラスタリング処理を実行し、ピクセルの明るさを複数のクラスタ集合に分け、それぞれのクラスタ集合の平均値を前記照明パラメータとすることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記切出手段に切り出された複数の領域画像間の明るさの差の合計処理が実行される際に、前記算出手段は、処理対象としての領域画像に含まれる全ピクセルと当該領域画像の比較対象としての少なくとも1つの領域画像に含まれる全ピクセルとの間の明るさの差の絶対値をピクセルの明るさの最大値から減算する計算を実行し、算出された値の合計を前記照明パラメータとすることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記切出手段に切り出された複数の領域画像間の明るさの差の合計処理が実行される際に、前記算出手段は、処理対象としての領域画像に含まれるピクセルと、これに対応する、当該領域画像の比較対象としての少なくとも1つの撮影画像に含まれるピクセルとの間の明るさの差の絶対値を算出し、算出された値の合計を前記照明パラメータとすることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  10. 前記切出手段に切り出された複数の領域画像間の明るさの差の合計処理が実行される際に、前記算出手段は、処理対象としての領域画像に含まれる全ピクセルの明るさの平均値を予め算出し、当該明るさの平均値よりも少ない明るさのピクセルを前記処理対象としての領域画像から除外し、前記処理対象としての領域画像に残されたピクセルと、これに対応する、当該領域画像の比較対象としての少なくとも1つの撮影画像に含まれるピクセルとの間の明るさの差の絶対値を算出し、算出された値の合計を前記照明パラメータとすることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  11. 前記作成手段は、前記複数の領域画像に、それぞれ対応する領域画像の単一又は複数の照明パラメータで重み付けをし、その重み付けの結果を重畳し、画像の明るさのスケールを変更する線形変換の関数又はヒストグラムを変換する関数によって重畳された画像の明るさを補正することにより、前記単一又は複数の合成画像を作成することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 画像処理装置と情報処理装置とを備える画像処理システムであって、
    前記画像処理装置は、
    光線の照射方向がそれぞれ異なるように設定された複数の照明装置を用いて、光線の照射方向を変えて対象物を撮影した複数の撮影画像を記憶する記憶手段と、
    前記記憶手段に記憶された各撮影画像から、ユーザによって指定された領域の領域画像を切り出す切出手段と、
    前記切出手段により切り出された各領域画像からエッジ量の算出、前記切出手段により切り出された各領域画像の明るさに対するクラスタリング処理の実行、又は前記切出手段により切り出された複数の領域画像間の明るさの差の合計処理の実行のいずれかにより、領域画像毎に単一又は複数の照明パラメータを算出する算出手段と、
    前記単一又は複数の照明パラメータを用いて、前記切出手段により切り出された複数の領域画像を合成することにより、複数の合成画像を作成する作成手段とを備え、
    前記情報処理装置は、
    前記作成手段により作成された複数の合成画像を表示する表示手段と、
    前記表示手段に表示される複数の合成画像を、それぞれの合成画像に用いられた複数の撮影画像の光線の照射方向の違いに応じて切り換える切換手段と
    を備えることを特徴する画像処理システム。
  13. 光線の照射方向を変えて対象物を撮影すると共に当該対象物を異なる複数の角度から撮影する複数の撮影装置、画像処理装置、及び情報処理装置とを備える画像処理システムであって、
    前記画像処理装置は、
    光線の照射方向を変えて、前記複数の撮影装置の各々で対象物を撮影した複数の撮影画像、及び前記複数の撮影装置の各々で、当該対象物を異なる複数の角度から撮影した複数の撮影画像を記憶する記憶手段と、
    前記記憶手段に記憶された各撮影画像から、ユーザによって指定された領域の領域画像を切り出す切出手段と、
    前記切出手段により切り出された各領域画像からエッジ量の算出、前記切出手段により切り出された各領域画像の明るさに対するクラスタリング処理の実行、又は前記切出手段により切り出された複数の領域画像間の明るさの差の合計処理の実行のいずれかにより、領域画像毎に単一又は複数の照明パラメータを算出する算出手段と、
    前記単一又は複数の照明パラメータを用いて、前記切出手段により切り出された複数の領域画像を合成することにより、複数の合成画像を作成する作成手段とを備え、
    前記情報処理装置は、
    前記作成手段により作成された複数の合成画像を表示する表示手段と、
    前記表示手段に表示される複数の合成画像を、前記複数の撮影装置の種別、前記複数の撮影画像の撮影角度、又はそれぞれの合成画像に用いられた複数の撮影画像の光線の照射方向の違いに応じて切り換える切換手段と
    を備えることを特徴する画像処理システム。
  14. コンピュータを、
    光線の照射方向がそれぞれ異なるように設定された複数の照明装置を用いて、光線の照射方向を変えて対象物を撮影した複数の撮影画像を記憶する記憶手段、
    前記記憶手段に記憶された各撮影画像から、ユーザによって指定された領域の領域画像を切り出す切出手段、
    前記切出手段により切り出された各領域画像からエッジ量の算出、前記切出手段により切り出された各領域画像の明るさに対するクラスタリング処理の実行、又は前記切出手段により切り出された複数の領域画像間の明るさの差の合計処理の実行のいずれかにより、領域画像毎に単一又は複数の照明パラメータを算出する算出手段、
    前記単一又は複数の照明パラメータを用いて、前記切出手段により切り出された複数の領域画像を合成することにより、複数の合成画像を作成する作成手段、
    前記作成手段により作成された複数の合成画像を表示する表示手段、及び
    前記表示手段に表示される複数の合成画像を、それぞれの合成画像に用いられた複数の撮影画像の光線の照射方向の違いに応じて切り換える切換手段として機能させることを特徴とする制御プログラム。
JP2007143588A 2007-05-30 2007-05-30 画像処理装置、画像処理システム及び制御プログラム Expired - Fee Related JP5194566B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007143588A JP5194566B2 (ja) 2007-05-30 2007-05-30 画像処理装置、画像処理システム及び制御プログラム
US11/967,944 US8059188B2 (en) 2007-05-30 2007-12-31 Apparatus, system, method, and program for optimizing an image using illumination parameter
US13/238,516 US8384788B2 (en) 2007-05-30 2011-09-21 Image processing apparatus, image processing system, computer readable medium, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007143588A JP5194566B2 (ja) 2007-05-30 2007-05-30 画像処理装置、画像処理システム及び制御プログラム

Publications (2)

Publication Number Publication Date
JP2008299505A JP2008299505A (ja) 2008-12-11
JP5194566B2 true JP5194566B2 (ja) 2013-05-08

Family

ID=40087676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007143588A Expired - Fee Related JP5194566B2 (ja) 2007-05-30 2007-05-30 画像処理装置、画像処理システム及び制御プログラム

Country Status (2)

Country Link
US (2) US8059188B2 (ja)
JP (1) JP5194566B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8384740B1 (en) * 2009-02-24 2013-02-26 A9.Com, Inc. Method and system for virtually placing a tangible item on an appendage
JP5327524B2 (ja) * 2009-02-27 2013-10-30 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
AT508707B1 (de) * 2009-11-05 2011-06-15 Strobotech Johannes Strobl E U Verfahren zur bestimmung von luftporenkennwerten sowie erfassungseinheit dazu
JP2011123740A (ja) * 2009-12-11 2011-06-23 Fujifilm Corp 閲覧システム、サーバ、テキスト抽出方法及びプログラム
US9277101B2 (en) * 2011-12-22 2016-03-01 Verizon Patent And Licensing Inc. Method and system for generating interpolations of captured video content
DE102014113258A1 (de) * 2014-09-15 2016-03-17 Carl Zeiss Ag Verfahren zum Erzeugen eines Ergebnisbilds und optische Vorrichtung

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07306162A (ja) 1994-05-13 1995-11-21 Nippon Steel Corp 疵検査装置
JP2000090233A (ja) 1998-09-08 2000-03-31 Olympus Optical Co Ltd 画像処理装置
JP4063418B2 (ja) * 1998-09-11 2008-03-19 イーストマン コダック カンパニー オートホワイトバランス装置
US6598797B2 (en) * 1998-09-11 2003-07-29 Jason J. Lee Focus and illumination analysis algorithm for imaging device
US6674917B1 (en) * 1998-09-29 2004-01-06 Hitachi, Ltd. Method of synthesizing an image for any light source position and apparatus therefor
US7889275B2 (en) * 2003-01-28 2011-02-15 Microsoft Corp. System and method for continuous flash
US7652709B2 (en) * 2003-07-31 2010-01-26 Seiko Epson Corporation Image forming device, image output device, image processing system, image retrieving method, image quality determining method and recording medium
JP2005094746A (ja) * 2003-08-08 2005-04-07 Seiko Epson Corp 画像検索方法、画像データ仕分け方法、画像生成装置、画像出力装置、画像処理システム及び記録媒体

Also Published As

Publication number Publication date
US20080297624A1 (en) 2008-12-04
US8059188B2 (en) 2011-11-15
US20120008000A1 (en) 2012-01-12
US8384788B2 (en) 2013-02-26
JP2008299505A (ja) 2008-12-11

Similar Documents

Publication Publication Date Title
JP5194566B2 (ja) 画像処理装置、画像処理システム及び制御プログラム
JP5762142B2 (ja) 撮像装置、画像処理装置およびその方法
WO2015166684A1 (ja) 画像処理装置と画像処理方法
US11398007B2 (en) Video generation device, video generation method, program, and data structure
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
JP2010287174A (ja) 家具シミュレーション方法、装置、プログラム、記録媒体
US10810776B2 (en) Image processing device and image processing method
JP2015011585A (ja) 画像処理装置、画像形成装置、画像形成システム、画像処理方法およびプログラム
JP2010152521A (ja) 画像立体化処理装置及び方法
US9367767B2 (en) Data processor and computer-readable non-volatile recording medium for storing program for data processing
JP2006133990A (ja) 画像処理装置
JP4541397B2 (ja) 擬似的3次元画像生成装置、擬似的3次元画像生成方法及び擬似的3次元画像生成プログラム
JP5995614B2 (ja) 距離情報推定装置
JP2008204318A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5807569B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2022089879A (ja) 画像処理装置およびその制御方法
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP3230481B2 (ja) テレビジョン画像の合成方式
KR101921706B1 (ko) 현실영상 원근에 따른 혼합현실 생성 및 제공 시스템
JP6226050B2 (ja) 画像合成方法及び装置
US20220408069A1 (en) Information processing apparatus, information processing method, and storage medium
JP4075778B2 (ja) 擬似的3次元画像生成装置、擬似的3次元画像生成方法及び擬似的3次元画像生成プログラム
US20210334527A1 (en) Image processing method, image processing apparatus and non-transitory computer readable medium
JP7197211B2 (ja) 三次元グラフィックスデータ作成方法、プログラム及び三次元グラフィックスデータ作成システム
JP6843319B2 (ja) 情報処理装置、プログラム及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5194566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees