JP4131097B2 - Image processing method, image processing apparatus, and image processing program - Google Patents

Image processing method, image processing apparatus, and image processing program Download PDF

Info

Publication number
JP4131097B2
JP4131097B2 JP2001286891A JP2001286891A JP4131097B2 JP 4131097 B2 JP4131097 B2 JP 4131097B2 JP 2001286891 A JP2001286891 A JP 2001286891A JP 2001286891 A JP2001286891 A JP 2001286891A JP 4131097 B2 JP4131097 B2 JP 4131097B2
Authority
JP
Japan
Prior art keywords
image
pattern
logical
symbol
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001286891A
Other languages
Japanese (ja)
Other versions
JP2002262180A (en
Inventor
宣男 飯塚
邦雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2001286891A priority Critical patent/JP4131097B2/en
Publication of JP2002262180A publication Critical patent/JP2002262180A/en
Application granted granted Critical
Publication of JP4131097B2 publication Critical patent/JP4131097B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理方法、画像処理装置、及び、画像処理プログラムに関し、詳しくは、画像中の所望領域を切り出したり、画像中の所望位置に他の画像を張り付けたりする等の加工処理を行う際に適用可能な画像処理方法、画像処理装置、及び、画像処理プログラムに関する。
【0002】
【従来の技術】
近年、ディジタル画像技術及びそれを用いた撮影装置の普及に伴って、様々な被写体のディジタル画像データを容易に生成できるようになってきた。かかる画像データは、ディジタル信号の特徴(特に加工容易性)から、画像の加工、例えば、撮影画像中の所望領域の切り出しや、撮影画像中の所望位置に他の画像を張り付けたりすることが可能であるため、従来より、以下のような画像処理が行われていた。
【0003】
(1)専用の加工ツールを用いる方法
画像エディタなどと呼ばれるツールを用いて対象となる画像データを読み込み、所望の領域を人為的に指定して切り出す画像処理方法である。切り出した画像は別名の画像オブジェクトとして保存する。また、撮影画像中の所望位置に他の画像を張り付ける場合は、張り付け位置を同様に人為的に指定した上、その指定位置に、あらかじめ用意されていた張り付け画像の中から所望の張り付け画像を選択して張り付けるという手順を踏む。この方法の欠点は、専用の加工ツールを必要とする点、及び、画像加工用の処理装置(パーソナルコンピュータ等)を必要とする点にあり、結局、撮影現場でリアルタイムな加工を行うことができないという致命的な問題点がある。
【0004】
(2)色分離による方法
特定の背景色を持った被写体の画像信号の分離技術である。クロマキー分離と呼ばれることもある。一般に青色背景で撮影された被写体の画像信号から青色部分を取り除き、被写体像だけを抽出する。
【0005】
【発明が解決しようとする課題】
ところで、上記(2)の方法は、撮影装置に上述の色分離処理機能を搭載しておくことにより、撮影現場でのリアルタイム性が得られるから、上記(1)の欠点を解消できるというメリットがあるものの、特定の背景色を必要とするために、もっぱらスタジオ等のように環境が整えられた特定の現場でしか利用することができず、撮影場所を問わずに汎用的に利用することができないという問題点があった。
【0006】
本発明が解決しようとする課題は、画像中の所望領域を切り出したり、画像中の所望位置に他の画像を張り付けたりする等の加工処理を行うことができる汎用性に優れた画像処理方法、画像処理装置、及び、画像処理プログラムを提供することにある。
【0007】
【課題を解決するための手段】
請求項1記載の発明は、所定のパターンで輝度が変動する発光領域を含む、時間軸方向に並ぶ複数の画像信号を処理の対象とする画像処理方法であって、前記複数の画像信号を時間軸方向に二値化して論理1シンボルと論理0シンボルにパターンシンボル化する第1のステップと、この第1のステップにてパターンシンボル化された論理1シンボル、および、論理0シンボルのそれぞれの総和値を求める第2のステップと、この第2のステップにて求められた論理1シンボルの総和値と前記論理0シンボルの総和値との差値に基づいてパターンマッチングを行い前記発光領域の画像を抽出する第3のステップと、この第3のステップにて抽出された画像の位置に任意の画像の張り付け、若しくは前記抽出された画像の切り出しを行う第4のステップと、を含むことを特徴とする。
【0009】
請求項2記載の発明は、上記請求項1記載の発明において、前記第1のステップにてパターンシンボル化した各論理シンボルにおいて、最大シンボルと最小シンボルとの差値を求める第5のステップを更に含み、前記第3のステップは、前記第2のステップにて求められた論理1シンボルの総和値と前記論理0シンボルの総和値との差を、前記第5のステップにて求められた最大シンボルと最小シンボルとの差値で正規化した結果に基づいてパターンマッチングを行い前記発光領域の画像を抽出することを特徴とする。
【0012】
請求項3記載の発明は、所定のパターンで輝度が変動する発光領域を含む、時間軸方向に並ぶ複数の画像信号を処理の対象とする画像処理装置において、前記複数の画像信号を時間軸方向に二値化して論理1シンボルと論理0シンボルにパターンシンボル化する第1の手段と、この第1の手段によってパターンシンボル化された論理1シンボル、および、論理0シンボルのそれぞれの総和値を求める第2の手段と、この第2の手段によって求められた論理1シンボルの総和値と前記論理0シンボルの総和値との差値に基づいてパターンマッチングを行い前記発光領域の画像を抽出する第3の手段と、この第3の手段によって抽出された画像の位置に任意の画像の張り付け、若しくは前記抽出された画像の切り出しを行う第4の手段と、を備えることを特徴とする。
【0013】
請求項4記載の発明は、上記請求項3記載の発明において、前記第1の手段によってパターンシンボル化した各論理シンボルにおいて、最大シンボルと最小シンボルとの差値を求める第5の手段を更に備え、前記第3の手段は、前記第2の手段によって求められた論理1シンボルの総和値と前記論理0シンボルの総和値との差を、前記第5の手段によって求められた最大シンボルと最小シンボルとの差値で正規化した結果に基づいてパターンマッチングを行い前記発光領域の画像を抽出することを特徴とする。また、請求項5記載の発明は、所定のパターンで輝度が変動する発光領域を含む、時間軸方向に並ぶ複数の画像信号を処理の対象とする画像処理を行うコンピュータを、前記複数の画像信号を時間軸方向に二値化して論理1シンボルと論理0シンボルにパターンシンボル化する第1の手段、この第1の手段によってパターンシンボル化された論理1シンボル、および、論理0シンボルのそれぞれの総和値を求める第2の手段、この第2の手段によって求められた論理1シンボルの総和値と前記論理0シンボルの総和値との差値に基づいてパターンマッチングを行い前記発光領域の画像を抽出する第3の手段、この第3の手段によって抽出された画像の位置に任意の画像の張り付け、若しくは前記抽出された画像の切り出しを行う第4の手段、として機能させることを特徴とする。
【0014】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<第1の実施の形態>
図1は、第1の実施の形態の原理ブロック構成図である。この図において、1は画像処理装置、2は第1光源、3は第2光源、4は第3光源、5は撮影範囲、6は撮影装置(以下「カメラ」という。)、11は光源制御部、12は画像検出部、13は検出領域形状認識処理部、14はオブジェクト符号化処理部である。
【0015】
撮影範囲5はカメラ6の撮影範囲であり、カメラ6は撮影範囲5内に存在する背景及び被写体(又は複数の被写体からなる被写体群)の像を撮影し、その撮影画像を所定のフレーム周期(例えば、毎秒数十フレーム)で生成出力する。
【0016】
代表的に示す三つの光源(第1光源2、第2光源3及び第3光源4)は、所定のパターンないしは制御可能なパターンで輝度変化(たとえば点滅;以下点滅で代表する。)を繰り返すものであり、これらは、撮影範囲5の内部で自らが発光する“自発光型”と、当該撮影範囲5の内部に位置する被写体の任意部分又は任意領域に向けて撮影範囲5の外部から光線を照射する“外部照射型”とに分けることができる。以下、便宜上、第1光源2を自発光型、第2及び第3光源3、4を外部照射型として説明することにする。
【0017】
図2は、特に限定しないが、自発光型光源と外部照射型光源の具体例である。この図において、LED(Light-Emitting Diode)や小型電球等の点光源35は自らが発光する自発光型光源の一種であり、また、EL(Electro Luminescent)パネルやCRT(Cathode Ray Tube)あるいは反射制御型(反射板、印刷体メカ制御又はLCD:Liquid Crystal Display等)の面光源36も、自らが発光する自発光型光源の一種である。一方、ビーム光線を照射するレーザポインタ37は外部照射型光源の一種であり、また、懐中電灯38も可視光線を照射できるから外部照射型光源の一種である。
【0018】
したがって、第1光源2には図示の点光源35又は面光源36を使用することができ、また、第2及び第3光源3、4には図示のレーザポインタ37又は懐中電灯38を使用することができる。なお、レーザポインタ37や懐中電灯38を撮影範囲5の内部で用いることとし、その光線をカメラ6に向けて照射することにすれば、これらのレーザポインタ37や懐中電灯38も自発光型光源の一種になるから、これらも第1光源2に利用可能である。
【0019】
カメラ6は、上述のとおり、撮影範囲5の被写体(又は複数の被写体からなる被写体群)の像を撮影し、その撮影画像を所定のフレーム周期(例えば、毎秒数十フレーム)で生成出力するが、第1光源2〜第3光源4が所定のパターンで点滅している場合、カメラ6は、被写体像の情報に加えて、第1光源2〜第3光源4による点滅光のパターン情報を内在するフレーム画像を生成出力する。
【0020】
光源制御部11及び画像検出部12は、互いに駆動タイミングを制御し、第1光源2〜第3光源4のすべて又は一部の点滅パターンが外部制御可能である場合、そのパターン周期のコントロールを行い、且つ、カメラ6からのフレーム画像信号を受け取って、その画像信号中の部分的信号レベル(典型的には輝度レベル)の変動パターンに基づいて自発光型光源の発光位置および外部照射型光源による照射位置・照射領域を特定し、それらの特定情報と画像信号とを画像利用装置(図1では検出領域形状認識処理部13)に出力する。
【0021】
図1に示す原理的なブロック構成における画像処理装置1の使用法は、次のとおりである。すなわち、カメラ6の撮影範囲5に存在する被写体(又は被写体群)の任意位置に、自発光型光源である第1光源2を置き、および/または、当該被写体(又は被写体群)の任意領域に、外部照射型光源である第2光源3及び第3光源4(又はそのいずれか一方)からの光を照射するという使い方をするものである。
【0022】
第1光源2の置き場所や第2光源3及び第3光源4からの光の照射範囲は、画像処理装置1の検出領域形状認識処理部13が具備する機能に依存する。例えば、撮影画像中の所望領域の切り出し機能を具備していれば、第2光源3及び第3光源4からの光の照射範囲をその切り出し所望領域に合わせることができるし、撮影画像中の所望位置に他の画像を張り付ける機能を具備していれば、第1光源2の置き場所をその画像張り付け位置に合わせることができる。
【0023】
図3は、撮影範囲5に四つの被写体が含まれる場合の使用例を示す図である。なお、図示の被写体画像はそれぞれ、床に置かれた球状物体5a、テレビ5b、片腕を水平に伸ばした立姿人物5c、及び、縦長箱状物体5dであるが、これらの被写体例は説明の便宜にすぎない。図3において、立姿人物5cの水平腕先には、輝点2aが描かれている。この輝点2aは、自発光型光源である第1光源2の発光によるものである。すなわち、図示の立姿人物5cの水平腕先には、例えば、図2の点光源35又は面光源36が握られているものとする。また、球状物体5aの全体と立姿人物5cの上半身部分には、それぞれ異なる光が照射されており、これらの照射光領域3b、4bは、外部照射型光源である第2光源3及び第3光源4の発光によるものである。すなわち、図示の球状物体5aの全体と立姿人物5cの上半身部分には、例えば、図2のレーザポインタ37又は懐中電灯38からの照射光が当てられているものとする。
【0024】
カメラ6は、撮影範囲5の被写体(又は複数の被写体からなる被写体群)の像を撮影し、その撮影画像を所定のフレーム周期(例えば、毎秒数十フレーム)で生成出力するが、その撮影画像には、球状物体5a、テレビ5b、立姿人物5c及び縦長箱状物体5dの各々の被写体像が含まれている。そして、この被写体像のうち球状物体5aの像全体は照射光領域3bによって所定のパターンで輝度が変動すると共に、立姿人物5cの上半身像部分は照射光領域4bによって所定のパターンで輝度が変動し、さらに、立姿人物5cの水平腕先付近は輝点2aによって所定のパターンで輝度が変動している。
【0025】
画像検出部12は、カメラ6からの画像信号を取り込み、光源制御部11によって点滅制御されたその画像信号中の部分的信号レベル(典型的には輝度レベル)の変動パターンに基づいて自発光型光源(第1光源2)の発光位置(輝点2aの位置)および外部照射型光源(第2光源3及び第3光源4)による照射位置・照射領域(照射光領域3b及び4bの位置やその領域範囲)を特定し、それらの特定情報と画像信号とを後段に出力する。
【0026】
ここで、画像処理装置1の主な機能は、例えば、撮影画像中の所望領域の切り出し機能を有するもの、又は、撮影画像中の所望位置に他の画像を張り付ける機能を有するもの(若しくはその両方の機能を有するもの)であり、出力された画像信号と特定情報とを受け取り、その特定情報に基づいて画像信号中から画像の切り出しを行うことができるものである。図3においては、効果付け処理装置15及び表示装置16は、画像検出部12から出力された画像信号と特定情報とを受け取り、その特定情報に基づいて撮影画像中の所望位置に他の画像を張り付け、それを表示するという処理を行うことができるものである。
【0027】
これらの処理によって得られる画像について、図3に示した撮影範囲5を例にして説明すると、まず、画像の切り出し処理では、撮影画像中の照射光領域3b及び4bに含まれる部分画像が切り出されるので、図3の例では、球状物体5aの全体像と立姿人物5cの上半身像が切り出され、図1のオブジェクト符号化部14により、各々個別に利用可能な画像オブジェクトとしてデータ化することができる。一方、画像の張り付け処理では、撮影画像中の輝点2aの位置(撮影領域5における画素座標)にあらかじめ用意された画像オブジェクトが張り付けられるので、例えば、図3の効果付け処理装置15により、任意の画像オブジェクトを輝点2aの位置に張り付け、それを表示装置16に出力して表示することができる。
【0028】
なお、張り付け処理における画像オブジェクトは、発明の原理上、どのようなものであっても構わないが、実用の観点からは元画像に所望の演出効果を付与できるものが好ましい。例えば、“熊のぬいぐるみ”(図12参照)などの面白みのある画像オブジェクトを張り付けられるようにすれば、立姿人物5cにぬいぐるみを持たせたような仮想的な演出効果を与えることができる。
【0029】
ちなみに、図3の右下に示す画像Gは、表示装置16に出力された加工済画像の例であり、効果付け処理装置15が画像の切り出し機能と画像の張り付け機能の双方を有している場合を想定したものである。画像Gは、第2光源3からの照射光領域3bによって切り出された球状物体像Gaと、第3光源4からの照射光領域4bによって切り出された上半身像Gcと、さらに、第1光源2の輝点2aの位置に張り付けられた画像オブジェクトGbとによって構成されている。
【0030】
球状物体像Ga及び上半身像Gcは、それぞれ独立して利用可能な画像オブジェクトであるから、例えば、MPEG−4やMPEG−7といった今日の高度なマルチメディア規格におけるオブジェクトベース符号化処理にも柔軟に対応できる上、さらに、任意の画像オブジェクトの張り付け加工を可能とするので、撮影現場で、例えば、図12に示するように、熊のぬいぐるみを張り付けた加工画像を容易に生成することができる。
【0031】
図4は、図1(又は図3)の画像処理装置1、第2光源3、第3光源4の具体的構成を示す図である。なお、撮影範囲5およびその範囲内に含まれる被写体(球状物体5a、テレビ5b、立姿人物5c及び縦長箱状物体5d)並びに照射光領域(照射光領域3b及び4b)や輝点(輝点2a)は、図3における同一符号のものと同じものを表している。さらに、図4においては、第1光源を図示していないが、立姿人物5cの水平腕先の輝点2aは第1光源の発光によるものであり、立姿人物5cは、図3における第1光源2と同じものを握っているものとする。
【0032】
図4において、画像処理装置1は、CPU17、変動パターン/処理対応リスト格納部151、結果出力画像バッファ152、符号クロック部111、タイムスロットカウンタ部18、第1相関処理部121、第2相関処理部122、リングバッファ123、デジタイズ部124、キャプチャフレームバッファ125、同期トリガ信号出力部112及び表示装置161などを備える。また、第3光源4は、同期トリガ信号取り出し部41、発光部42、変動パターンレジスタ43、ビットクロック部44及び符号クロック部45などを備え、第2光源3も第3光源4と同様の構成要素を備える。
【0033】
<画像処理装置1の各構成要素の説明>
CPU17は、プログラム制御により、画像処理装置1の全体動作を制御し、且つ、第2光源3や第3光源4などの点滅パターンの遠隔制御を行う。変動パターン/処理対応リスト格納部151は、変動パターン(各光源2〜4の点滅パターン)ごとにそのパターンと相関関係にある画像領域の処理内容を対応付けてリスト化して格納する機能を有する。これは、相異なる変動パターンを同時に弁別して検出できる本実施の形態において、それぞれの画像領域に、異なる画像処理効果を割り付けるために機能する。結果出力画像バッファ152は、CPU17が各変動パターンを検出し、この検出結果に基づく各画像領域における処理(切り出し、消去、置き換え等々)を全て行った結果を統合したものを格納する。
【0034】
符号クロック部111は、変動パターンの全体位相を決定するクロックを発生する。このクロックは、各変動パターン系列の最初のタイミングを指定するものである。画像処理装置1の符号クロックのタイミングは、各光源装置2〜4の点滅パターンの点滅タイミングに比べて、図5(b)(c)に示すようにt時間だけやや遅れたものになっている。tの値は、画像取りこみが開始する前に照明の点滅遷移が終了しなくてはいけないので、例えば、光源の不安定時間を1msとすれば、1.5ms程度である。タイムスロットカウンタ部18は、変動パターン内の変動タイミングを指定するクロックカウンタである。カメラ6と画像処理装置1とは、各照明のタイムスロットにおいて同期をとることができる構成であり、その周期は、図5(c)に示すように、カメラ6のフレームレートに等しく、位相としては、光源装置に比べてt時間だけ遅れたタイミングとなっている。
【0035】
第1相関処理部121は、相関値画像バッファ121a、2値画像バッファ121b、正画像バッファ121c、負画像バッファ121d及び変動パターンレジスタ121eを備え、その機能として、撮像された画像を時系列的に変動パターンレジスタで示された点滅パターン処理し、画像内の相関の有無を判定した2値画像として得る。第2相関処理部122は、相関値画像バッファ122a、2値画像バッファ122b、正画像バッファ122c、負画像バッファ122d及び変動パターンレジスタ122eを備え、第2の検出変動パターンに対して、第1相関処理部121と同様の処理を行う。リングバッファ123は、撮像される画像の時系列処理に対して、検出したい時間変動パターンごとの相関度を求めるため、過去n枚分の画像を記憶する画像メモリである。いま、光源の変動パターンが、所定のパターンシンボル(たとえば、「1110100」)と一致する輝度変動領域を検出したい場合は、このリングバッファ123に格納される画像の枚数は、そのパターンシンボルのシンボル数n(ここではn=7)に相当するn枚分である。
【0036】
なお、パターン長を長くすればするほど(すなわち、シンボル数nを多くすればするほど)、自然界の輝度変動と偶然に一致する確率(=誤検出確率)を飛躍的に低下させることが可能である。しかしながら、背景や周囲に非常に大きい輝度変動があったり、瞬間的な変位の大きい物体が撮像対象となる場合には、より強い照明(と高い検出スレッシュレベル)、または、より長い系列の変動パターンを必要とする。特にちらつく照明があったり、高速移動する物体が存在しない場合、5〜10ビット(シンボル数n=5〜10)の明滅を含む輝度変動照明の照射であれば、人間の肌程度の反射を持つ物体は、輝度の変動にして、5%程度以上の変動を与えることができれば、画像検出は可能である。
【0037】
デジタイズ部124は、カメラ6から取り込んだ画像信号をディジタル画像データに変換する。キャプチャフレームバッファ125は、一フレーム分の画像データをバッファリングする。同期トリガ信号出力部112は、第2光源3や第3光源4などに対して発光同期用の同期信号を出力する。表示装置161は、結果出力された画像を表示する。
【0038】
<第3光源4の各構成要素の説明>
同期トリガ信号取り出し部41は、画像処理装置1から出力された同期信号を取り込み、符号クロック部45に出力する。発光部42は、変動パターンレジスタ43に設定された変動パターンに対応した点滅パターンで発光し、その光を撮影範囲5の任意領域(図では立姿人物の上半身部分)に照射する。変動パターンレジスタ43は、発光部42の発光パターンデータを保持する。ビットクロック部44は、変動パターンレジスタの、1タイムスロット(変動パターン符号の1bit分)のON/OFFタイミングを指定する。符号クロック部45は、変動パターンレジスタの系列の最初のビットの出力タイミングを指定する。
【0039】
図4に示す第2光源3及び第3光源4は、その発光の点滅パターンが外部から制御可能になっており、画像処理装置1は、いくつか用意された変動パターンの中から外乱等を考慮して適切なパターンを選択し、その選択パターンを第2光源3や第3光源4に設定する。このパターン設定のために、画像処理装置1と各光源2〜4の間は通信が可能となるように構成されており、例えば、図5(a)に示すように、画像処理装置1、第2光源3、及び、第3光源4との間が、コネクタ等でワイヤード接続され、あるいは無線等でワイヤレス接続されている。又は、図4に示すように、一つの光源(図4では第3光源4)を中継機として、画像処理装置1と他の光源(図4では第2光源3)との間が間接的に接続されるものであってもよい。
【0040】
今、輝点2aの変動パターンを便宜的に「変動パターン1」とし、且つ、画像処理装置1から第2光源3に対して、上記変動パターン1と異なる他の変動パターン(以下「変動パターン2」という)を設定したものと仮定する。説明を簡単化するために、変動パターン1を「1000101」の繰り返し、変動パターン2を「1110100」の繰り返しとし、光の点滅(オン/オフ)をパターンの“1”、“0”に対応させると、輝点2aは「オン→オフ→オフ→オフ→オン→オフ→オン」を繰り返すこととなり、また、二つの照射光領域3b、4bは「オン→オン→オン→オフ→オン→オフ→オフ」を繰り返すこととなる。
【0041】
これらの発光パターンは、撮影範囲5の各被写体像とともにカメラ6によって撮影され、所定のフレーム周期で画像処理装置1に出力されると共に、デジタイズ部124によってディジタル化された1フレームごとの画像信号がキャプチャフレームバッファ125に1画面分展開された後、当該展開画面がリングバッファ123に送られ、バッファ0からバッファnに順次格納されるようになっている。
【0042】
図5(b)は、撮像側(カメラ6側)のタイミングと光源側(例えば、第2光源3及び第3光源4)のタイミングの対比図であり、撮像側では所定の撮像側フレームクロックに同期した撮像側フレームサンプリングクロックにより、フレーム画像の取り込み(撮影)を行い、一方、光源側では光源側符号フレームクロックに同期した光源側符号出力ビットクロックにより、上述の変動パターン(「1110100」)で発光部42の点滅を行う。光源出力信号の立ち上がり及び立ち下がりのタイミングは、撮像側符号フレームクロックに対してある時間tだけ早くなっており、この時間tは、光源出力の動作遷移時間(図5(c)の左下がりハッチング参照)や、撮像側のデータサンプル遅れを考慮した時間に設定されている。
【0043】
図6は、リングバッファ123の画像格納状態を示す図であり、ここではリングバッファ123のバッファ数(n)を便宜的に7個とし、各バッファを符号B0〜B6で表している。B0〜B6の左側に付した符号t0〜t6はそれぞれフレーム時間であり、時間t0のフレーム画像がB0に格納されると、次の時間t1のフレーム画像がB1に格納され、次の時間t2のフレーム画像がB2に格納され、これを繰り返して、時間t6のフレーム画像がB6に格納されると、これら7個のフレーム画像を用いて特有の変動パターンを抽出した後、再び、次の時間のフレームを最初のB0に格納する。
【0044】
図6において、B0〜B6の格納画像を図示のとおりとすると、B0の格納画像に含まれる球状物体5aの全体像と立姿人物5cの上半身像は、それぞれ照射光領域3b及び4bによって明るくなっており、且つ、立姿人物5cの水平腕先付近も輝点2aによって明るくなっている。同様に、B1〜B6についてみると、B1、B2及びB4でも球状物体5aの全体像と立姿人物5cの上半身像はそれぞれ照射光領域3b及び4bによって明るくなっており、一方、B3、B5及びB6では照射光領域3b及び4bがないためにいずれも暗くなっている。また、輝点2aはB4及びB6でも存在し、B1、B2、B3及びB5では存在しない。
【0045】
したがって、図示の7個のフレーム画像は、球状物体5aの全体像及び立姿人物5cの上半身像について、「オン→オン→オン→オフ→オン→オフ→オフ」の周期パターン、すなわち、「1110100」の変動パターン2で点滅(輝度変動)する特異画像部分となり、且つ、立姿人物5cの水平腕先付近について、「オン→オフ→オフ→オフ→オン→オフ→オン」、すなわち、「1000101」の変動パターン1で点滅する特異画像部分となる。このような特異画像部分は、変動パターンに対し相関度が低い外乱光、例えば、撮影範囲5のテレビ5bの輝度ちらつき(フリッカ)に伴う外乱光が含まれていたとしても、以下の理由から、両者を区別(弁別)して、特異画像部分の切り出しや、張り付け等を支障なく行うことができる。
【0046】
その理由は、以下のように考えることができる。すなわち、今、B0〜B6の各格納画像における照射光領域3b及び4bと輝点2aについて、それらの代表座標点(たとえば、領域中央の座標点など)を選び出し、各代表座標点の輝度レベルの時間的変化を図7のとおりとする。図7において、ハッチング付き四角記号のグラフは輝点2a(第1光源領域)の輝度レベル変化を表し、三角記号のグラフは照射光領域3b(第2光源領域;立姿人物5cへの照射領域)の輝度レベル変化を表し、×記号のグラフは照射光領域4b(第3光源領域;球状物体5aへの照射領域)の輝度レベル変化を表し、黒菱形記号のグラフは外乱光(テレビ5bのフリッカ点灯)の輝度レベル変化を表している。
【0047】
これら四つのグラフのうち、外乱光の輝度レベル変化を表すグラフについて、その最大輝度レベルや輝度変化幅は、他のグラフよりも意図的に大きくされている。これは、次に述べる相関値算出手法を適用することにより、外乱光に影響されることなく、輝点2aや照射光領域3b及び4bの検出を支障なく行うことができることを強調するためである。
【0048】
図8は、図7の四つのグラフにおける各フレーム時間t0〜t6ごとの輝度レベル実際値、及び、これらの実際値に、以下の理論に基づく算出式を適用して得られた相関値(パターン1とパターン2の各相関値)を示すリスト図である。このリスト図において、相関値は以下のように求める。上記の値の系列、つまりベクトル間の相関値の算出式は、一般には、相関値=内積/ノルムで(0〜1の値として)定義される。したがって、相関値rは、符号ビット0を−1に対応させて、1,1,1,−1,1,−1,−1とし、t0〜t6も平均を0とするよう正規化して、次式(ア)として表される。
【0049】
【数1】

Figure 0004131097
【0050】
なお、本発明のより望ましい形態は、上記式(ア)に従って、厳密な相関値計算を行う方法であるが、本実施の形態では、照明の変動パターンが点滅からなるバイナリ符号であることや、自然界に検出対象と相関度の高い急激なドットデータ変動の頻度が比較的少ないことから、上記式(ア)のような厳密な相関値計算を用いなくても、簡易的な相関度算出処理でも可能である。ちなみに、次式(イ)による方法は、検出スレッシュ設定が厳密な相関値計算よりやや煩雑になるが、通常の相関値計算にあるような、二乗や平方根などのコストのかかる演算を回避しつつ、検出性能を確保することが可能である。以後、この式による値も相関値と呼ぶ。値域は8bit輝度信号であれば、0〜255を取る。
【0051】
相関値=Σ1/C1−Σ0/C0 ・・・・(イ)
【0052】
但し、Σ1はパターンの論理1に対応する輝度レベルの総和(すなわち、論理1シンボルの総和値)、C1はパターンの論理1の個数(すなわち、論理1シンボルの個数)、Σ0はパターンの論理0に対応する輝度レベルの総和(すなわち、論理0シンボルの総和値)、C0はパターンの論理0の個数(すなわち、論理0シンボルの個数)である。
【0053】
今、パターン1は「1000101」のパターンシンボルを持ち、パターン2は「1110100」のパターンシンボルを持つから、これらパターンごとの式(イ)は、次式(イ−1、イ−2)のようになる。なお、以下において、相関値1はパターン1の相関値、相関値2はパターン2の相関値である。
【0054】
Figure 0004131097
【0055】
図8において、t0〜t6のそれぞれで、外乱光の輝度レベルは“130”、“240”、“200”、“190”、“220”、“108”、“119”となっており、第1光源領域の輝度レベルは“200”、“65”、“60”、“63”、“208”、“58”、“198”となっている。同様に、第2光源領域の輝度レベルは“125”、“126”、“124”、“29”、“124”、“28”、“30”、第3光源領域の輝度レベルは“165”、“155”、“152”、“70”、“154”、“80”、“71”となっている。
【0056】
以下、これらの実際値(輝度レベル)を、パターン1及びパターン2のそれぞれについて、上式(イ−1、イ−2)に当てはめた場合の、相関値1及び相関値2の算出方法を例示する。
【0057】
はじめに、パターン1の相関値(相関値1)を算出する。すなわち、上式(イ−1)を用いて、外乱光、第1〜第3光源領域の各相関値(相関値1)を算出する。パターン1の論理1シンボルはt0、t4、t6の位置にあり、その個数(C1)は“3”である。また、パターン1の論理0シンボルはt1、t2、t3、t5の位置にあり、その個数(C0)は“4”である。
【0058】
したがって、パターン1の外乱光のΣ1は、t0+t4+t6=“130”+“220”+“119”=“469”となり、Σ0は、t1+t2+t3+t5=“240”+“200”+“190”+“108”=“738”となり、C1=“3”、C0=“4”であるから、パターン1の外乱光の相関値1は、上式(イ−1)より、“469”/“3”−“738”/“4”=“−28.17”となる。
【0059】
また、パターン1の第1光源領域のΣ1は、t0+t4+t6=“200”+“208”+“198”=“606”となり、Σ0は、t1+t2+t3+t5=“65”+“60”+“63”+“58”=“246”となり、C1=“3”、C0=“4”であるから、パターン1の第1光源領域の相関値1は、上式(イ−1)より、“606”/“3”−“246”/“4”=“140.50”となる。
【0060】
また、パターン1の第2光源領域のΣ1は、t0+t4+t6=“125”+“124”+“30”=“279”となり、Σ0は、t1+t2+t3+t5=“126”+“124”+“29”+“28”=“307”となり、C1=“3”、C0=“4”であるから、パターン1の第2光源領域の相関値1は、上式(イ−1)より、“279”/“3”−“307”/“4”=“16.25”となる。
【0061】
また、パターン1の第3光源領域のΣ1は、t0+t4+t6=“165”+“154”+“71”=“390”となり、Σ0は、t1+t2+t3+t5=“155”+“152”+“70”+“80”=“457”となり、C1=“3”、C0=“4”であるから、パターン1の第3光源領域の相関値1は、上式(イ−1)より、“390”/“3”−“457”/“4”=“15.75”となる。
【0062】
次に、パターン2の相関値(相関値2)を算出する。すなわち、上式(イ−2)を用いて、外乱光、第1〜第3光源領域の各相関値(相関値2)を算出する。パターン2の論理1シンボルはt0、t1、t2、t4の位置にあり、その個数(C1)は“4”である。また、パターン2の論理0シンボルはt3、t5、t6の位置にあり、その個数(C0)は“3”である。
【0063】
したがって、パターン2の外乱光のΣ1は、t0+t1+t2+t4=“130”+“240”+“200”+“220”=“790”となり、Σ0は、t3+t5+t6=“190”+“108”+“119”=“417”となり、C1=“4”、C0=“3”であるから、パターン2の外乱光の相関値2は、上式(イ−2)より、“790”/“4”−“417”/“3”=“58,50”となる。
【0064】
また、パターン2の第1光源領域のΣ1は、t0+t1+t2+t4=“200”+“65”+“60”+“208”=“533”となり、Σ0は、t3+t5+t6=“63”+“58”+“198”=“319”となり、C1=“4”、C0=“3”であるから、パターン2の第1光源領域の相関値2は、上式(イ−2)より、“533”/“4”−“319”/“3”=“26.92”となる。
【0065】
また、パターン2の第2光源領域のΣ1は、t0+t1+t2+t4=“125”+“126”+“124”+“124”=“499”となり、Σ0は、t3+t5+t6=“29”+“28”+“30”=“87”となり、C1=“4”、C0=“3”であるから、パターン2の第2光源領域の相関値2は、上式(イ−2)より、“499”/“4”−“87”/“3”=“95.75”となる。
【0066】
また、パターン2の第3光源領域のΣ1は、t0+t1+t2+t4=“165”+“155”+“152”+“154”=“626”となり、Σ0は、t3+t5+t6=“70”+“80”+“71”=“221”となり、C1=“4”、C0=“3”であるから、パターン2の第3光源領域の相関値2は、上式(イ−2)より、“626”/“4”−“221”/“3”=“82.83”となる。
【0067】
以上の計算によって得られた各相関値(相関値1、相関値2)を比較すると、パターン1については輝点2a(第1光源領域)の相関値1(“140.50”)が最大であり、パターン2については照射光領域3b(第2光源領域)の相関値2(“95.75”)が最大であり、照射光領域4b(第3光源領域)の相関値2(“82.83”)がその次につけている。
【0068】
したがって、相関値判定用のスレッシュレベルを、例えば、“80.00”とすると、パターン1については、その最大値を示した輝点2a(第1光源領域)の相関値1(“140.50”)だけが抽出されることとなり、また、パターン2については、その最大値を示した照射光領域3b(第2光源領域)の相関値2(“95.75”)と、次位の大きさを示した照射光領域4b(第3光源領域)の相関値2(“82.83”)が抽出されることとなる。
【0069】
その結果、外乱光が重畳されている場合であっても、当該外乱光に影響されることなく、輝点2aや照射光領域3b及び4bの検出を支障なく行うことができ、しかも、外乱光の最大輝度レベルや輝度変化幅が輝点2aや照射光領域3b及び4bのそれよりも大きい場合(図8のリスト図は敢えてそのようなレベル関係にしてある。)であっても、上記の検出動作、すなわち、輝点2aや照射光領域3b及び4bの検出を何ら支障なく行うことができる。
【0070】
図9は、上記第1の実施の形態における画像処理装置1の処理フローを示す図である。同図において、まず、第2光源3や第3光源4(要すれば第1光源2にも)に所要の変動パターンのセット(設定)、当該変動パターンとの処理対応リストのセット(設定)、及び、各光源との同期合わせを行ったり等の初期化を実行する(ステップS11)。次に、カメラ6からの画像信号取り込み(フレームキャプチャ)を待つ(ステップS12)。画像取り込みが行われると、キャプチャフレームバッファ125にキャプチャされた画像信号に基づく画像データを、そのときのタイムスロットカウンタ部18の値(N)に対応したバッファ(例えば、N=0であればリングバッファ123のバッファ0)にコピーする(ステップS13)。
【0071】
次に、モジュロ演算を行って(タイムスロットは、変動パターンが、1110100の長さL=7ビットパターンで表される場合、N=0〜6の値を周期的に取る必要があるため)、タイムスロットカウンタ部18の値を更新し(ステップS14)、各検出変動パターンごとに相関値画像算出や判定2値が像算出等の処理を行い(ステップS15)、パターン1の変動領域が検出された場合(ステップS16)は、変動パターン/処理対応リスト格納部151からパターン1用処理指示を取り出し、処理を実行して、結果出力画像バッファ152に書き込む(ステップS17)。
【0072】
変動パターン/処理対応リスト格納部151の格納内容が図12のようなものである場合、上記処理により、変動パタン1により照射された領域(または直接発光領域)の左上座標に、格納されている合成用CG画像等が書き出される。図6に示した、光源と符号パターンの組み合わせの場合、変動パターン1を設定した第1光源の座標に合成用のCG画像(アニメキャラクタや、小道具の画像その他)が上書きされる。また、パターン2の変動領域が検出された場合(ステップS18)は、同様に、変動パターン/処理対応リスト格納部151からパターン2用処理指示を取り出し、処理を実行して、結果出力画像バッファ152に書き込む(ステップS19)。
【0073】
設定および、実使用の様子が、図12、図6の場合、変動パターン2を設定された、第2、第3光源で照射された、中央の立姿人物の上半身(4b)、および、左下のボール(3b)のみが、切り出されることになる。なお、処理内容の指定により、立ち姿人物の切り出しを行う際、変動パターン1で行う、CG合成のほうが表示優先度が高いため、このパターン2で対応処理を行っても立ち姿人物の差し出した手が、パターン1で書きこみ合成した、CG等の上になってしまうことはない。
【0074】
そして、変動パターン/処理対応リスト格納部151から、非検出領域対象処理を実行し(ステップS20)、図6の設定例の場合は、非検出領域に対しては白となるので、図12、図6の例では、白いバックの中でボールと立姿人物の上半身とが切り出され、あたかもその人物の右手に、合成したCG画像の物体(熊のぬいぐるみ)を持っているような結果出力が得られる。
【0075】
なお、図4の変動パターン処理結果リスト151により、まったく同一の変動照明を用いながら、処理結果はまったく違うものを得ることも可能である。
【0076】
後は、この結果画像を出力(ステップS21)した後、再びフレームキャプチャ(ステップS12)以降を繰り返す。
【0077】
図10は、上記のステップS15の具体的フローであり、このフローでは、変動パターン1の処理と変動パターン2の処理を同時並行的に実行する。すなわち、まず、リングバッファ123の各バッファ0〜nに含まれる画像信号の中で変動パターンの“1”に相当する部分の加算結果を求め、その加算画像数で割った画像を、正画像バッファ121c(変動パターン2の処理フローでは正画像バッファ122c)に格納する(ステップS15a)。この処理の目的は、格納したバッファの画像系列の中で、輝度が高くなっているべきタイミング(=照明点灯)での画像の輝度平均を算出することである。
【0078】
次に、リングバッファ123の各バッファ0〜nに含まれる画像信号の中で変動パターンの“0”に相当する部分の加算結果を求め、その加算画像数で割った画像を、負画像バッファ121d(変動パターン2の処理フローでは正画像バッファ122d)に格納する(ステップS15b)。この処理の目的は、輝度が低くなっているべきタイミング(=照明消灯)での各画像の輝度平均を算出することである。
【0079】
次に、正画像バッファの格納画像と負画像バッファの格納画像との差分をとり、その差分画像を相関値画像バッファ121a(変動パターン2の処理フローでは相関値画像バッファ122a)に格納する(ステップS15c)。 そして、最後に、照明強度/拡散特性、検出物体の反射係数、背景環境の空間的、時間的変動度によって定める一定の値により、相関値画像バッファ121a(変動パターン2の処理フローでは正画像バッファ122a)に格納する(ステップS15d)。
【0080】
図11は、図10動作フローの処理の動作概念図である。中央に示した一連の画像バッファを参照することで、変動パターン1、2それぞれの検出処理では、点灯タイミングに対応するビット「1」および消灯に対応するビット「0」に対応する画像群が加算・平均されそれらの差分画像を、該当パターンの相関画像として得られる様子を示している。
【0081】
以上のことから、本実施の形態によれば、撮影場所を問わずに、撮影画像中の所望領域を切り出したり、撮影画像中の所望位置に他の画像を張り付けたりする等の加工処理を行うことができる汎用性に優れた画像処理方法及び画像処理装置を提供することができるうえ、とりわけ外乱光に晒される撮影現場であっても、その外乱光の影響を受けることなく、撮影範囲5の画像信号の中から輝点2bや照射光領域3b及び4bの検出を行うことができ、所望領域の画像オブジェクト切り出しや、所望位置への画像オブジェクトの張り付け等を行うことができるという格別有益な効果が得られる。
【0082】
また、輝点2bや照射光領域3b及び4bの変動パターン(明滅パターン)と画像加工処理の内容とを対応付けしたデータ(変動パターン/処理対応リスト)を変動パターン/処理対応リスト格納部151に格納し、実際に検出された輝点2bや照射光領域3b及び4bの変動パターンと変動パターン/処理対応リストとを照合して、そのリストから、実行すべき画像加工処理の種別(画像の張り付け又は切り出し)を取り出すようにしているため、いちいち、撮像側(カメラ6側)で画像加工の種別を指定する必要がなく、操作性の簡素化を図ることができる。
【0083】
<第2の実施の形態>
次に、本発明の第2の実施の形態について説明する。
まず、前記第1の実施の形態では、式(イ)で示した簡略的な相関値評価式を用いることにより、検出すべきパターンについて、他の画像領域の輝度等の変動(=外乱)の影響を受けることなく、目的とする信号領域だけを検出することができるとしている。
【0084】
しかしながら、前記第1の実施の形態における簡略的な相関値評価式(式(イ))は、より巌しい環境条件の場合、たとえば、外乱光の変動成分に検出パターン変動の1タイムスロットにきわめて近い瞬間的変動が多発するような画像領域が含まれる場合において、「変動の大きな外乱信号に影響されない、したがって、誤検出しない」という性能を完全に満たすことが困難であるという欠点が予想される。
【0085】
このような厳しい環境条件を想定した場合、前記第1の実施の形態では、▲1▼パターンのビット数を増やす、または、▲2▼照射や発光光源の輝度を上げて、より大きな変動を与えるようにし、図10のステップS15dにおける2値化画像取得のための判定スレッショルドを上げる(=判定条件を厳しくする)という、いずれかの対策をとる必要があるが、▲1▼の場合、その対策は処理においてオーバヘッドの増加を招く欠点があり、また、▲2▼の場合、その対策は検出感度が低下する欠点がある。
【0086】
そこで、第2の実施の形態では、相関値評価式に正規化処理を加えることにより、より簡便で、しかも、上記の厳しい環境条件を想定した場合においても、良好な特性の相関値取得を可能とすることができるように改良した場合について詳述するものである。
なお、第2の実施の形態のブロツク構成図等は、前記第1の実施の形態と同一であるため図示等を省略し、また、処理フロー等についても相関値に係わる部分が第2の実施の形態に特有の処理になっている以外はすべて同一であるから、これも図示等を省略する。
【0087】
第2の実施の形態のポイントは、前記第1の実施の形態で示した簡略的な相関値評価式(式(イ))の代わりに、次式(ウ)を使用することにある。
【0088】
相関値=(〔前式(イ)〕/ΔW)×const ・・・・(ウ)
ΔW=max(t0・・・・t6)−min(t0・・・・t6) ・・・・(エ)
【0089】
但し、max(引数)は引数で与えられたデータの最大値を返すmax関数、min(引数)は引数で与えられたデータの最小値を返すmin関数である。なお、式(ウ)において、constは乗算係数(たとえば、const=“255”)である。constを乗じているのは、最大0〜1の値を扱いやすいドット信号輝度範囲0〜255の値域に変換するためのである。constの値は、対象とする値域によっては“255”以外になることはいうまでもない。
【0090】
前記第1の実施の形態と同様に、パターン1のパターンシンボルは「1000101」であり、パターン2のパターンシンボルは「1110100」であるものとする。これらパターンごとの式(ウ)は、次式(ウ−1、ウ−2)のようになる。なお、以下において、相関値1はパターン1の相関値、相関値2はパターン2の相関値である。
【0091】
Figure 0004131097
【0092】
図13において、t0〜t6のそれぞれで、第1光源領域の輝度レベルは“200”、“65”、“60”、“63”、“208”、“58”、“198”となっており、同様に、第2光源領域の輝度レベルは“125”、“126”、“124”、“29”、“124”、“28”、“30”、第3光源領域の輝度レベルは“165”、“155”、“152”、“70”、“154”、“80”、“71”となっている。
【0093】
これら第1〜第3光源領域の輝度レベル値の例は、前記第1の実施の形態(図8)と同一であるが、外乱光の輝度レベルについては、上記の厳しい環境条件を想定した、たとえば、“250”、“240”、“255”、“100”、“30”、“80”、“119”となっている点で相違する。なお、第2光源領域周縁とは、第2光源領域(立姿人物5cへの照射領域)のエッジ部分のことをいう。これは、このエッジ部分における第1の実施の形態の不都合を説明するために、敢えて追加したものである。
【0094】
ここで、図13の各代表座標点の輝度レベルの時間的変化を図14のとおりとする。図14において、ハッチング付き四角記号のグラフは輝点2a(第1光源領域)の輝度レベル変化を表し、三角記号のグラフは照射光領域3b(第2光源領域;立姿人物5cへの照射領域)の輝度レベル変化を表し、×記号のグラフは照射光領域4b(第3光源領域;球状物体5aへの照射領域)の輝度レベル変化を表し、丸記号のグラフは照射光源領域4bのエッジ(第3光源領域周縁;立姿人物5cへの照射領域エッジ)の輝度レベル変化を表し、黒菱形記号のグラフは外乱光(テレビ5bのフリッカ点灯)の輝度レベル変化を表している。なお、立姿人物5cは黒色の服を着ているものとする。すなわち、第3光源領域周縁は、黒色服のエッジを表している。
【0095】
図13の例に、前記第1の実施の形態における式(イ)を適用した場合、以下に詳述するように、外乱光を確実に排除できず、さらに、第2光源領域周縁も抽出できないという不都合を生じるが、第2の実施の形態における式(ウ)を適用した場合、このような不都合を生じることがない。
【0096】
以下、図13の例に、前記第1の実施の形態における式(イ)を適用した場合の相関値を、パターン1について「相関値1A」、パターン2について「相関値2A」ということとし、さらに、第2の実施の形態の式(ウ)を適用した場合の相関値を、パターン1については「相関値1B」といい、パターン2について「相関値2B」ということとして、それぞれの相関値(相関値1A、2A、1B、2B)の算出方法を例示する。
【0097】
同図において、相関値1Aは式(イ)を適用して算出したパターン1の相関値、相関値2Aは式(イ)を適用して算出したパターン2の相関値であり、これらの相関値1A、2Aは、前記第1の実施の形態における相関値に相当するものである。また、相関値1Bは式(ウ)を適用して算出したパターン1の相関値、相関値2Bは式(ウ)を適用して算出したパターン2の相関値であり、これらの相関値1B、2Bは第2の実施の形態に特有のものである。
【0098】
また、相関値1A及び相関値2Aの値は、外乱光と第2光源領域周縁を除き、前記第1の実施の形態における計算結果(図8参照)と同一である。すなわち、第1光源領域〜第3光源領域の相関値1Aはそれぞれ“140.50”、“16.25”、“15.75”、相関値2Aはそれぞれ“26.92”、“95.75”、“82.83”であり、これらの値は、前記第1の実施の形態における計算結果(図8参照)と同一である。
【0099】
前記第1の実施の形態と相違する外乱光と第2光源領域周縁のそれぞれの相関値1A及び相関値2Aは、式(イ)を適用して、次のようにして求められる。すなわち、図13において、t0〜t6のそれぞれで、外乱光の輝度レベルは“250”、“240”、“255”、“100”、“30”、“80”、“119” であり、また、第2光源領域周縁の輝度レベルは“70”、“69”、“69”、“20”、“68”、“21”、“20” である。
【0100】
パターン1の論理1シンボルはt0、t4、t6の位置にあり、その個数(C1)は“3”である。また、パターン1の論理0シンボルはt1、t2、t3、t5の位置にあり、その個数(C0)は“4”である。したがって、パターン1の外乱光のΣ1は、t0+t4+t6=“250”+“30”+“119”=“399”となり、Σ0は、t1+t2+t3+t5=“240”+“255”+“100”+“80”=“675”となり、C1=“3”、C0=“4”であるから、パターン1の外乱光の相関値1Aは、上式(イ−1)より、“399”/“3”−“675”/“4”=“−35.75”となる。
【0101】
また、パターン1の第2光源領域周縁のΣ1は、t0+t4+t6=“70”+“68”+“20”=“158”となり、Σ0は、t1+t2+t3+t5=“69”+“69”+“20”+“21”=“179”となり、C1=“3”、C0=“4”であるから、パターン1の第2光源領域周縁の相関値1Aは、上式(イ−1)より、“158”/“3”−“179”/“4”=“7.92”となる。
【0102】
パターン2の論理1シンボルはt0、t1、t2、t4の位置にあり、その個数(C1)は“4”である。また、パターン2の論理0シンボルはt3、t5、t6の位置にあり、その個数(C0)は“3”である。したがって、パターン2の外乱光のΣ1は、t0+t1+t2+t4=“250”+“240”+“255”+“30”=“775”となり、Σ0は、t3+t5+t6=“100”+“80”+“119”=“299”となり、C1=“4”、C0=“3”であるから、パターン2の外乱光の相関値2Aは、上式(イ−2)より、“775”/“4”−“299”/“3”=“94.08”となる。
【0103】
また、パターン2の第2光源領域周縁のΣ1は、t0+t1+t2+t4=“70”+“69”+“69”+“68”=“276”となり、Σ0は、t3+t5+t6=“20”+“21”+“20”=“61”となり、C1=“4”、C0=“3”であるから、パターン2の第2光源領域周縁の相関値2Aは、上式(イ−2)より、“276”/“4”−“61”/“3”=“48.67”となる。
【0104】
次に、図13の例に、第2の実施の形態における式(ウ)を適用して、パターン1の「相関値1B」とパターン2の「相関値2B」をすべて算出する。
まず、式(ウ)のΔW項を計算する。図13において、t0〜t6のうち最大値を持つシンボルに着目すると、外乱光はt2の“255”、第1光源領域はt4の“208”、第2光源領域はt1の“126”、第3光源領域はt0の“165”、第2光源領域周縁はt0の“70”である。また、t0〜t6のうち最小値を持つシンボルに着目すると、外乱光はt4の“30”、第1光源領域はt5の“58”、第2光源領域はt5の“28”、第3光源領域はt3の“70”、第2光源領域周縁はt3の“20”である。
【0105】
したがって、外乱光のΔWをΔW0、第1光源領域のΔWをΔW1、第2光源領域のΔWをΔW2、第3光源領域のΔWをΔW3、及び、第2光源領域周縁のΔWをΔW4と呼ぶことにすると、式(エ)より、ΔW0=“255”−“30”=“225”、ΔW1=“208”−“58”=“150”、ΔW2=“126”−“28”=“98”、ΔW3=“165”−“70”=“95”、ΔW4=“70”−“20”=“50”となる。
【0106】
<相関値1B>
図13の例におけるパターン1の相関値(相関値1B)は、式(ウ−1)より、相関値1AをΔWで除算し、それにconst=“255”を乗じた値で与えられる。したがって、外乱光の相関値1Aは“−35.75”、ΔW0は“225”であるから、“−40.52”が得られる。
【0107】
同様に、第1光源領域の相関値1Aは“140.50”、ΔW1は“150”であるから、“238.85”が得られ、第2光源領域の相関値1Aは“16.25”、ΔW2は“98”であるから、“42.28”が得られる。また、第3光源領域の相関値1Aは“15.75”、ΔW3は“95”であるから、“42.28”が得られ、第2光源領域周縁の相関値1Aは“7.92”、ΔW4は“50”であるから、“40.39”が得られる。
【0108】
<相関値2B>
図13の例におけるパターン2の相関値(相関値2B)は、式(ウ−2)より、相関値2AをΔWで除算し、それにconst=“255”を乗じた値で与えられる。したがって、外乱光の相関値2Aは“94.08”、ΔW0は“225”であるから、“106.63”が得られる。
【0109】
同様に、第1光源領域の相関値2Aは“26.92”、ΔW1は“150”であるから、“45.76”が得られ、第2光源領域の相関値2Aは“95.75”、ΔW2は“98”であるから、“249.15”が得られる。また、第3光源領域の相関値2Aは“82.83”、ΔW3は“95”であるから、“222.34”が得られ、第2光源領域周縁の相関値2Aは“48.67”、ΔW4は“50”であるから、“248.22”が得られる。
【0110】
<各相関値の評価>
さて、以上の計算により、図13におけるすべての相関値(相関値1A、2A、1B、2B)が明らかになった。このうちの相関値1A、2Aについては、式(イ)を適用して求めたもの、すなわち、前記第1の実施の形態によるものである。
【0111】
不都合の実例は、図13において、外乱光の相関値2A(“94.08”)と第2光源領域周縁の相関値2A(“48.67”)に見ることができる。
すなわち、外乱光の相関値2Aは“94.08”という大きな値であるため、しきい値(たとえば、“80.00”)を上回ってしまい分離することができないという不都合がある。また、第2光源領域周縁の相関値2Aは“48.67”という小さな値であるため、しきい値(たとえば、“80.00”)を下回ってしまい、抽出することができないという不都合がある。
【0112】
これに対して、式(ウ)を適用して求めた相関値、すなわち、第2の実施の形態によって求めた相関値1B及び2Bは、たとえば、外乱光の相関値2Bは“106.63”、第2光源領域周縁の相関値2Bは“248.22”であるため、適当なしきい値(たとえば、“200.00”)を使用することにより、外乱光の相関値2B(“106.63”)を除外することができ、且つ、第2光源領域周縁の相関値2B(“248.22”)を抽出することができ、前記第1の実施の形態の不都合を解消することができる。
【0113】
以上、説明したとおり、第2の実施の形態にあっては、より巌しい環境条件の場合、たとえば、外乱の変動成分に検出パターン変動の1タイムスロットにきわめて近い瞬間的変動が多発するような画像領域が含まれる場合において、「変動の大きな外乱信号に影響されない、したがって、誤検出しない」という性能を完全に満たすことができるという格別のメリットが得られる。。
【0114】
なお、第2の実施の形態の処理は、カメラノイズなどによるフレームごとのサンプリングレベル変動のような、微小な変動列が正規化処理により大きい値が乗じられる可能性があり、検出対象外となるべき点が、偶然大きな相関値を持ってしまうことがある。しかしながら、このような検出対象外の点は孤立して出現する特性があるので、対処方法として、図10のステップS15dの2値化の前に、メディアンフィルタを追加することで解消することができる。
【0115】
また、カメラ特性が悪い場合、あらかじめ正規化する前に、ある程度以下の第1方式相関値(たとえば、0〜255の値域において5以下)は、切リ捨てる処理を追加してもよい。
【0116】
また、前記第1の実施の形態では、信号強度はそれ自体が2値化判定スレッシュを決める重要な要因であり、たとえば、黒っぼいものについては、それに応じて(2値化判定スレッシュを)下げるなどの使用条件による適切な設定などが必要であった。しかしながら、第2の実施の形態によれば、判定スレッシュは変動の大きさによらず同一パターンであることを表すので、環境条件による得られるΔWの大小に影響されないという利点を備えるので、正規化された2値化判定スレッショルドを設定することができる。
【0117】
このように、第2の実施の形態によれば、相関係数計算によって、より厳密に「パターンの類似度」だけを評価することができる。したがって、より、変動パターンに相似した外乱があっても、また、変動の小さい第2光源領域周辺のようなドットの値変動列であっても、良好な相関値評価を行うことができる。
【0118】
なお、以上の実施の形態では、複数フレームを使って画像を処理するため、検出対象が動いた場合にエッジ部分がずれることがあり、結果として、検出できるのは各フレームで重なっている領域のみになるという問題があるが、撮像素子のフレームレートを上げる等により、動きに伴う検出誤差を許容範囲に収めることが可能になる。
【0119】
また、検出対象が動く場合は、複数枚のフレームバッファ間の動きベクトルデータを算出し、フレーム間の動きベクトルを参照し、対応点群のセットを取り出すことで行うなどするとよい。
【0120】
以上、説明したとおり、第2の実施の形態によれば、前記第1の実施の形態と比較して、より近似したパターンの外乱、また、より弱い変動の目的パターンも良好に切り出すことができる。また、式(ア)のような厳密な相関値に比べて、遙かに処理負担を引き下げることができ、且つ、信号の有無を判定する処理において、使用条件や環境条件の影響を受けにくいものとすることができる。
【0121】
【発明の効果】
本発明によれば、時間軸方向に並ぶ複数の画像信号に、所定のパターンで輝度が変動する発光領域を含ませておくだけで、当該画像内の発光領域に任意の画像を張り付けることができ、又は、当該領域内の画像を切り出すことができる。したがって、画像中の所望領域を切り出したり、画像中の所望位置に他の画像を張り付けたりする等の加工処理を行うことができる
【図面の簡単な説明】
【図1】実施の形態の原理ブロック構成図である。
【図2】自発光型光源と外部照射型光源の具体例である。
【図3】撮影範囲5に四つの被写体が含まれる場合の使用例を示す図である。
【図4】画像処理装置1及び第1光源2〜第3光源4の具体的構成を示す図である。
【図5】画像処理装置1と各光源の間の通信構成図である。
【図6】リングバッファ123の画像格納状態を示す図である。
【図7】輝度レベルの時間的変化を示す図である。
【図8】各フレーム時間t0〜t6ごとの輝度レベル実際値及びこれらの実際値を適用して得られた相関値を示すリスト図である。
【図9】画像処理装置1の処理フローを示す図である。
【図10】図9のステップS15の具体的フローを示す図である。
【図11】図10のフローの動作概念図である。
【図12】変動パターン/処理対応リストの一例を示す図である。
【図13】各フレーム時間t0〜t6ごとの輝度レベル実際値及びこれらの実際値を適用して得られた相関値を示すリスト図である。
【図14】輝度レベルの時間的変化を示す図である。
【符号の説明】
Ga 球状物体像
Gb 画像オブジェクト
Gc 上半身像
1 画像処理装置
2 第1光源(自発光型光源)
2a 輝点
3 第2光源(外部照射型光源)
3b 照射光領域
4 第3光源(外部照射型光源)
4b 照射光領域
5 撮影範囲
5a 球状物体
5b テレビ
5c 立姿人物
6 カメラ
11 光源制御部
12 画像検出部
13 検出領域形状認識処理部
14 オブジェクト符号化処理部
15 効果付け処理装置
16 表示装置
17 CPU
18 タイムスロットカウンタ部
41 同期トリガ信号取出部
43 変動パターンレジスタ
111 符号クロック部
112 同期トリガ信号出力部
121a 相関値画像バッファ
121e 変動パターンレジスタ
122a 相関値画像バッファ
122e 変動パターンレジスタ
123 リングバッファ
125 キャプチャフレームバッファ[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an image processing method., Image processing apparatus, and image processing programFor more details,In the imageCut out the desired area,In the imageImage processing method applicable when performing processing such as pasting another image at a desired position, Image processing apparatus, and image processing programAbout.
[0002]
[Prior art]
In recent years, along with the popularization of digital image technology and photographing apparatuses using the same, it has become possible to easily generate digital image data of various subjects. Such image data can be processed from the characteristics of the digital signal (especially ease of processing), for example, to cut out a desired area in the captured image, or to paste another image at a desired position in the captured image. Therefore, conventionally, the following image processing has been performed.
[0003]
(1) Method using a dedicated processing tool
This is an image processing method in which target image data is read using a tool called an image editor or the like, and a desired area is artificially specified and cut out. The clipped image is saved as an alias image object. In addition, when pasting another image at a desired position in the photographed image, the pasting position is artificially designated in the same manner, and the desired pasted image is prepared from the pasted images prepared in advance at the designated position. Follow the steps of selecting and pasting. The disadvantages of this method are that it requires a dedicated processing tool and a processing device for image processing (such as a personal computer), so that real-time processing cannot be performed at the shooting site. There is a fatal problem.
[0004]
(2) Color separation method
This is a technique for separating an image signal of a subject having a specific background color. Sometimes called chroma key separation. Generally, a blue portion is removed from an image signal of a subject photographed with a blue background, and only the subject image is extracted.
[0005]
[Problems to be solved by the invention]
By the way, the method (2) has the merit that the disadvantage of the above (1) can be eliminated because the above-described color separation processing function is installed in the photographing apparatus, so that real-time performance can be obtained at the photographing site. However, because it requires a specific background color, it can only be used in specific places where the environment is prepared, such as a studio, and can be used universally regardless of the shooting location. There was a problem that it was not possible.
[0006]
  The problem to be solved by the present invention is:In the imageCut out the desired area,In the imageA versatile image processing method capable of performing processing such as pasting another image at a desired position., Image processing apparatus, and image processing programIs to provide.
[0007]
[Means for Solving the Problems]
  The invention according to claim 1 is an image processing method for processing a plurality of image signals arranged in the time axis direction, including a light emitting region whose luminance varies in a predetermined pattern,A first step of binarizing the plurality of image signals in a time axis direction to form a pattern symbol into a logical 1 symbol and a logical 0 symbol; a logical 1 symbol converted into a pattern symbol in the first step; and A pattern matching is performed based on a second step of calculating a total value of each of the logical 0 symbols, and a difference value between the total value of the logical 1 symbols calculated in the second step and the total value of the logical 0 symbols. And a third step of extracting an image of the light emitting area, and a fourth step of pasting an arbitrary image at the position of the image extracted in the third step or cutting out the extracted image ,It is characterized by including.
[0009]
  The invention according to claim 2In the first aspect of the present invention, the method further includes a fifth step of obtaining a difference value between the maximum symbol and the minimum symbol in each logical symbol converted into a pattern symbol in the first step, and the third step includes The difference between the total value of the logical 1 symbols determined in the second step and the total value of the logical 0 symbols is the difference value between the maximum symbol and the minimum symbol determined in the fifth step. Perform pattern matching based on the normalized result and extract the image of the light emitting areaIt is characterized by that.
[0012]
  According to a third aspect of the present invention, a plurality of image signals arranged in the time axis direction including a light emitting region whose luminance varies with a predetermined pattern are processed.In the image processing apparatus, a first means for binarizing the plurality of image signals in the time axis direction to form a pattern symbol into a logical 1 symbol and a logical 0 symbol, and a logical 1 pattern symbolized by the first means A second means for obtaining a sum value of each of the symbols and logic 0 symbols, and a difference value between the sum value of the logic 1 symbols and the sum value of the logic 0 symbols obtained by the second means. A third means for performing pattern matching and extracting an image of the light emitting area; and a fourth means for pasting an arbitrary image at the position of the image extracted by the third means or for cutting out the extracted image. MeansIt is characterized by that.
[0013]
  The invention described in claim 4The invention according to claim 3 further includes fifth means for obtaining a difference value between the maximum symbol and the minimum symbol in each logical symbol converted into a pattern symbol by the first means, and the third means comprises: The difference between the total value of the logical 1 symbols obtained by the second means and the total value of the logical 0 symbols is normalized by the difference value between the maximum symbol and the minimum symbol obtained by the fifth means. Perform pattern matching based on the result and extract the image of the light emitting areaIt is characterized by that. The invention according to claim 5A computer that performs image processing on a plurality of image signals arranged in the time axis direction, including a light emitting region whose luminance varies in a predetermined pattern, is binarized in the time axis direction to perform logic processing. First means for pattern symbolizing into 1 symbol and logic 0 symbol, logic 1 symbol converted into a pattern symbol by the first means, and second means for obtaining the total value of each of the logic 0 symbols, A third means for extracting an image of the light emitting area by performing pattern matching on the basis of a difference value between the total value of the logical 1 symbols obtained by the means of 2 and the total value of the logical 0 symbols; A fourth means for pasting an arbitrary image at the position of the image extracted by the above, or for cutting out the extracted image;It is made to function as.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<First Embodiment>
FIG. 1 is a block diagram illustrating the principle of the first embodiment. In this figure, 1 is an image processing device, 2 is a first light source, 3 is a second light source, 4 is a third light source, 5 is a photographing range, 6 is a photographing device (hereinafter referred to as “camera”), and 11 is light source control. , 12 is an image detection unit, 13 is a detection region shape recognition processing unit, and 14 is an object encoding processing unit.
[0015]
The shooting range 5 is a shooting range of the camera 6, and the camera 6 takes images of the background and subjects (or a group of subjects consisting of a plurality of subjects) existing in the shooting range 5, and takes the shot images for a predetermined frame period ( For example, it is generated and output at several tens of frames per second).
[0016]
Three representative light sources (the first light source 2, the second light source 3, and the third light source 4) repeatedly change the luminance (for example, blinking; hereinafter represented by blinking) in a predetermined pattern or a controllable pattern. These are a “self-luminous type” that emits light within the photographing range 5 and a light beam from the outside of the photographing range 5 toward an arbitrary part or an arbitrary region of the subject located inside the photographing range 5. It can be divided into “external irradiation type” for irradiation. Hereinafter, for convenience, the first light source 2 will be described as a self-luminous type, and the second and third light sources 3 and 4 will be described as an external irradiation type.
[0017]
Although it does not specifically limit, FIG. 2 is a specific example of a self-light-emitting light source and an external illumination light source. In this figure, a point light source 35 such as an LED (Light-Emitting Diode) or a small light bulb is a kind of self-luminous light source that emits light, and an EL (Electro Luminescent) panel, a CRT (Cathode Ray Tube), or a reflection. A surface light source 36 of a control type (reflector, printing body mechanical control or LCD: Liquid Crystal Display) is also a kind of self-luminous light source that emits light. On the other hand, the laser pointer 37 that irradiates the beam is a kind of external illumination light source, and the flashlight 38 is also a kind of external illumination light source because it can emit visible light.
[0018]
Therefore, the illustrated point light source 35 or the surface light source 36 can be used for the first light source 2, and the illustrated laser pointer 37 or the flashlight 38 can be used for the second and third light sources 3 and 4. Can do. If the laser pointer 37 and the flashlight 38 are used inside the photographing range 5 and the light beam is irradiated toward the camera 6, the laser pointer 37 and the flashlight 38 are also self-luminous light sources. Since these are one type, these can also be used for the first light source 2.
[0019]
As described above, the camera 6 captures an image of a subject (or a subject group made up of a plurality of subjects) in the photographing range 5, and generates and outputs the photographed image at a predetermined frame period (for example, several tens of frames per second). When the first light source 2 to the third light source 4 are blinking in a predetermined pattern, the camera 6 includes the pattern information of the blinking light by the first light source 2 to the third light source 4 in addition to the subject image information. A frame image to be generated is generated and output.
[0020]
The light source control unit 11 and the image detection unit 12 control the drive timing with each other, and control the pattern cycle when all or some of the blinking patterns of the first light source 2 to the third light source 4 are externally controllable. The frame image signal from the camera 6 is received, and the light emission position of the self-luminous light source and the external illumination light source are based on the variation pattern of the partial signal level (typically luminance level) in the image signal. The irradiation position / irradiation area is specified, and the specific information and the image signal are output to the image utilization apparatus (detection area shape recognition processing unit 13 in FIG. 1).
[0021]
The usage of the image processing apparatus 1 in the basic block configuration shown in FIG. 1 is as follows. That is, the first light source 2 that is a self-luminous light source is placed at an arbitrary position of a subject (or subject group) existing in the shooting range 5 of the camera 6 and / or in an arbitrary region of the subject (or subject group). The light is emitted from the second light source 3 and the third light source 4 (or one of them), which are external illumination light sources.
[0022]
The place where the first light source 2 is placed and the irradiation range of light from the second light source 3 and the third light source 4 depend on the functions of the detection area shape recognition processing unit 13 of the image processing apparatus 1. For example, if a function for cutting out a desired area in a captured image is provided, the irradiation range of light from the second light source 3 and the third light source 4 can be adjusted to the desired cut-out area, and a desired area in the captured image can be obtained. If the function of attaching another image to the position is provided, the place where the first light source 2 is placed can be adjusted to the image attaching position.
[0023]
FIG. 3 is a diagram illustrating an example of use in the case where four subjects are included in the shooting range 5. The illustrated subject images are a spherical object 5a placed on the floor, a television 5b, a standing figure 5c with one arm extended horizontally, and a vertically long box-like object 5d. These subject examples are for convenience of explanation. Only. In FIG. 3, a bright spot 2a is drawn on the horizontal arm tip of the standing figure 5c. This bright spot 2a is caused by light emission of the first light source 2 which is a self-luminous light source. That is, it is assumed that, for example, the point light source 35 or the surface light source 36 of FIG. Further, different light is irradiated to the entire spherical object 5a and the upper body portion of the standing figure 5c, and these irradiation light regions 3b and 4b are a second light source 3 and a third light source which are external irradiation light sources. This is due to the emission of 4. That is, it is assumed that, for example, the irradiation light from the laser pointer 37 or the flashlight 38 in FIG. 2 is applied to the entire spherical object 5a and the upper half of the standing figure 5c.
[0024]
The camera 6 captures an image of a subject (or subject group consisting of a plurality of subjects) in the photographing range 5, and generates and outputs the photographed image at a predetermined frame period (for example, several tens of frames per second). Includes object images of the spherical object 5a, the television 5b, the standing figure 5c, and the vertically long box-like object 5d. Of the subject image, the luminance of the entire spherical object 5a varies in a predetermined pattern depending on the irradiation light region 3b, and the luminance of the upper body image portion of the standing figure 5c varies in a predetermined pattern depending on the irradiation light region 4b. Further, the luminance of the standing figure 5c near the horizontal arm tip varies in a predetermined pattern due to the bright spot 2a.
[0025]
The image detection unit 12 captures an image signal from the camera 6 and is self-luminous based on a variation pattern of a partial signal level (typically a luminance level) in the image signal that is blinked and controlled by the light source control unit 11. The light emission position of the light source (first light source 2) (the position of the bright spot 2a) and the irradiation position / irradiation region (the positions of the irradiation light regions 3b and 4b) and the external irradiation type light sources (second light source 3 and third light source 4) The area range) is specified, and the specified information and the image signal are output to the subsequent stage.
[0026]
Here, the main function of the image processing apparatus 1 is, for example, one having a function of cutting out a desired area in a captured image, or one having a function of attaching another image to a desired position in a captured image (or its) It has both functions), and can receive an output image signal and specific information and cut out an image from the image signal based on the specific information. In FIG. 3, the effect processing device 15 and the display device 16 receive the image signal output from the image detection unit 12 and specific information, and based on the specific information, put another image at a desired position in the captured image. The process of pasting and displaying it can be performed.
[0027]
The image obtained by these processes will be described by taking the imaging range 5 shown in FIG. 3 as an example. First, in the image clipping process, partial images included in the irradiated light areas 3b and 4b in the captured image are clipped. Therefore, in the example of FIG. 3, the entire image of the spherical object 5a and the upper body image of the standing figure 5c are cut out, and can be converted into data as individually usable image objects by the object encoding unit 14 of FIG. . On the other hand, in the image pasting process, an image object prepared in advance is pasted to the position of the bright spot 2a in the captured image (pixel coordinates in the capturing area 5), so that, for example, the effect processing apparatus 15 in FIG. The image object can be pasted at the position of the bright spot 2a and output to the display device 16 for display.
[0028]
The image object in the pasting process may be any image in principle, but from the viewpoint of practical use, an image object that can give a desired effect to the original image is preferable. For example, if an interesting image object such as “Stuffed Bear” (see FIG. 12) can be pasted, a virtual effect such as a stuffed toy can be given to the standing figure 5c.
[0029]
Incidentally, an image G shown in the lower right of FIG. 3 is an example of a processed image output to the display device 16, and the effect processing device 15 has both an image clipping function and an image pasting function. The case is assumed. The image G includes a spherical object image Ga cut out by the irradiation light region 3 b from the second light source 3, an upper body image Gc cut out by the irradiation light region 4 b from the third light source 4, and the first light source 2. The image object Gb is attached to the position of the bright spot 2a.
[0030]
Since the spherical object image Ga and the upper body image Gc are image objects that can be used independently, for example, the object-based encoding processing in today's advanced multimedia standards such as MPEG-4 and MPEG-7 is also flexible. Furthermore, since any image object can be pasted, it is possible to easily generate a processed image pasted with a bear doll, for example, as shown in FIG.
[0031]
FIG. 4 is a diagram showing a specific configuration of the image processing apparatus 1, the second light source 3, and the third light source 4 of FIG. 1 (or FIG. 3). It should be noted that the shooting range 5 and the subjects (spherical object 5a, television 5b, standing figure 5c, and vertically long box-like object 5d) included in the shooting range, irradiation light regions (irradiation light regions 3b and 4b), and bright spots (bright spots 2a ) Represents the same reference numerals as those in FIG. Furthermore, although the first light source is not shown in FIG. 4, the bright spot 2a of the horizontal arm tip of the standing figure 5c is due to the light emission of the first light source, and the standing figure 5c is the first light source in FIG. Suppose you hold the same thing as 2.
[0032]
4, the image processing apparatus 1 includes a CPU 17, a variation pattern / processing correspondence list storage unit 151, a result output image buffer 152, a code clock unit 111, a time slot counter unit 18, a first correlation processing unit 121, and a second correlation process. Unit 122, ring buffer 123, digitizing unit 124, capture frame buffer 125, synchronization trigger signal output unit 112, display device 161, and the like. The third light source 4 includes a synchronization trigger signal extraction unit 41, a light emitting unit 42, a variation pattern register 43, a bit clock unit 44, a sign clock unit 45, and the like. The second light source 3 has the same configuration as the third light source 4. With elements.
[0033]
<Description of each component of the image processing apparatus 1>
The CPU 17 controls the overall operation of the image processing apparatus 1 by program control and performs remote control of blinking patterns such as the second light source 3 and the third light source 4. The variation pattern / process correspondence list storage unit 151 has a function of associating and listing the processing contents of the image area correlated with the pattern for each variation pattern (flashing pattern of each light source 2 to 4). This functions in order to assign different image processing effects to the respective image regions in the present embodiment in which different variation patterns can be simultaneously discriminated and detected. The result output image buffer 152 stores a result obtained by integrating the results of the CPU 17 detecting each variation pattern and performing all the processes (cutout, erasure, replacement, etc.) on each image region based on the detection result.
[0034]
The code clock unit 111 generates a clock that determines the overall phase of the variation pattern. This clock designates the first timing of each variation pattern series. The timing of the code clock of the image processing apparatus 1 is slightly delayed by t time as shown in FIGS. 5B and 5C compared to the blinking timing of the blinking patterns of the light source devices 2 to 4. . Since the blinking transition of the illumination must be completed before the image capturing starts, the value of t is, for example, about 1.5 ms when the unstable time of the light source is 1 ms. The time slot counter unit 18 is a clock counter that designates the variation timing within the variation pattern. The camera 6 and the image processing apparatus 1 are configured to be synchronized in the time slots of each illumination, and the cycle is equal to the frame rate of the camera 6 as shown in FIG. Is delayed by t time compared to the light source device.
[0035]
The first correlation processing unit 121 includes a correlation value image buffer 121a, a binary image buffer 121b, a positive image buffer 121c, a negative image buffer 121d, and a fluctuation pattern register 121e, and functions as a function of capturing captured images in time series. The blinking pattern process indicated by the variation pattern register is processed to obtain a binary image in which the presence or absence of correlation in the image is determined. The second correlation processing unit 122 includes a correlation value image buffer 122a, a binary image buffer 122b, a positive image buffer 122c, a negative image buffer 122d, and a variation pattern register 122e, and a first correlation with respect to the second detected variation pattern. The same processing as the processing unit 121 is performed. The ring buffer 123 is an image memory that stores the past n images in order to obtain the degree of correlation for each time variation pattern to be detected with respect to time-series processing of captured images. If it is desired to detect a luminance fluctuation region where the light source fluctuation pattern matches a predetermined pattern symbol (for example, “1110100”), the number of images stored in the ring buffer 123 is the number of symbols of the pattern symbol. This is n sheets corresponding to n (here, n = 7).
[0036]
Note that the longer the pattern length (that is, the greater the number of symbols n), the more drastically the probability of coincidental coincidence with the natural luminance fluctuation (= false detection probability) can be drastically reduced. is there. However, if there is a very large brightness fluctuation in the background or surroundings, or if an object with a large instantaneous displacement is to be imaged, stronger illumination (and a higher detection threshold level) or a longer series of fluctuation patterns Need. In particular, when there is flickering illumination or when there is no object moving at high speed, irradiation with brightness variation illumination including blinking of 5 to 10 bits (number of symbols n = 5 to 10) has a reflection similar to that of human skin. Image detection is possible if the object can give a fluctuation of about 5% or more in terms of fluctuations in luminance.
[0037]
The digitizing unit 124 converts the image signal captured from the camera 6 into digital image data. The capture frame buffer 125 buffers image data for one frame. The synchronization trigger signal output unit 112 outputs a synchronization signal for light emission synchronization to the second light source 3 and the third light source 4. The display device 161 displays the image output as a result.
[0038]
<Description of each component of the third light source 4>
The synchronization trigger signal extraction unit 41 takes in the synchronization signal output from the image processing apparatus 1 and outputs it to the code clock unit 45. The light emitting unit 42 emits light with a blinking pattern corresponding to the variation pattern set in the variation pattern register 43, and irradiates the light to an arbitrary region of the photographing range 5 (in the figure, the upper body portion of a standing figure). The variation pattern register 43 holds the light emission pattern data of the light emitting unit 42. The bit clock unit 44 designates the ON / OFF timing of one time slot (one bit of the fluctuation pattern code) of the fluctuation pattern register. The code clock unit 45 designates the output timing of the first bit of the variation pattern register series.
[0039]
In the second light source 3 and the third light source 4 shown in FIG. 4, the flashing pattern of the light emission can be controlled from the outside, and the image processing apparatus 1 considers disturbances etc. from several prepared fluctuation patterns. Then, an appropriate pattern is selected, and the selected pattern is set in the second light source 3 or the third light source 4. For this pattern setting, the image processing apparatus 1 and each of the light sources 2 to 4 are configured to be able to communicate with each other. For example, as shown in FIG. The two light sources 3 and the third light source 4 are wired-connected by a connector or the like, or wirelessly connected by a radio or the like. Alternatively, as shown in FIG. 4, one light source (third light source 4 in FIG. 4) is used as a relay, and indirectly between the image processing apparatus 1 and another light source (second light source 3 in FIG. 4). It may be connected.
[0040]
For the sake of convenience, the variation pattern of the bright spot 2a is referred to as “variation pattern 1”, and another variation pattern different from the variation pattern 1 (hereinafter referred to as “variation pattern 2”) from the image processing apparatus 1 to the second light source 3 ”) Is set. In order to simplify the explanation, the variation pattern 1 is repeated “1000101”, the variation pattern 2 is repeated “1110100”, and the blinking (on / off) of the light corresponds to “1” and “0” of the pattern. Then, the bright spot 2a repeats “on → off → off → off → on → off → on”, and the two irradiation light regions 3b and 4b are “on → on → on → off → on → off → "OFF" will be repeated.
[0041]
These light emission patterns are photographed by the camera 6 together with the respective subject images in the photographing range 5 and output to the image processing apparatus 1 at a predetermined frame period. At the same time, an image signal for each frame digitized by the digitizing unit 124 is obtained. After one screen is developed in the capture frame buffer 125, the developed screen is sent to the ring buffer 123 and sequentially stored in the buffer 0 to the buffer n.
[0042]
FIG. 5B is a comparison diagram of timing on the imaging side (camera 6 side) and timing on the light source side (for example, the second light source 3 and the third light source 4). In the imaging side, a predetermined imaging side frame clock is used. The frame image is captured (photographed) by the synchronized imaging-side frame sampling clock, while the light source-side code output bit clock synchronized with the light-source-side code frame clock has the above-described variation pattern (“1110100”). The light emitting unit 42 is blinked. The rise and fall timing of the light source output signal is advanced by a certain time t with respect to the imaging side code frame clock, and this time t is the operation transition time of the light source output (left-down hatching in FIG. 5C). Reference) and a time considering the data sample delay on the imaging side.
[0043]
FIG. 6 is a diagram showing an image storage state of the ring buffer 123. Here, the number of buffers (n) of the ring buffer 123 is set to 7 for convenience, and each buffer is represented by reference numerals B0 to B6. Symbols t0 to t6 attached to the left side of B0 to B6 are frame times. When a frame image at time t0 is stored in B0, a frame image at the next time t1 is stored in B1, and at the next time t2. When the frame image is stored in B2 and this is repeated and the frame image at time t6 is stored in B6, a unique variation pattern is extracted using these seven frame images, and then again at the next time. Store the frame in the first B0.
[0044]
In FIG. 6, if the stored images of B0 to B6 are as shown in the figure, the entire image of the spherical object 5a and the upper body image of the standing figure 5c included in the stored image of B0 are brightened by the irradiation light regions 3b and 4b, respectively. In addition, the vicinity of the horizontal arm of the standing figure 5c is also brightened by the bright spot 2a. Similarly, regarding B1 to B6, the overall image of the spherical object 5a and the upper body image of the standing figure 5c are also brightened by the irradiation light regions 3b and 4b in B1, B2 and B4, respectively, while B3, B5 and B6 Then, since there is no irradiation light area | region 3b and 4b, all are dark. Moreover, the bright spot 2a exists also in B4 and B6, and does not exist in B1, B2, B3, and B5.
[0045]
Accordingly, the seven frame images shown in the figure are periodic patterns of “on → on → on → off → on → off → off” for the whole image of the spherical object 5a and the upper body image of the standing figure 5c, that is, “1110100”. In the vicinity of the horizontal arm tip of the standing figure 5c, “ON → OFF → OFF → OFF → ON → OFF → ON”, that is, “1000101” It becomes a specific image portion blinking with the fluctuation pattern 1. Even if such a specific image portion includes disturbance light having a low correlation degree with respect to the fluctuation pattern, for example, disturbance light due to luminance flicker of the television 5b in the shooting range 5, for the following reason, By distinguishing (discriminating) both, it is possible to cut out or paste a specific image portion without any trouble.
[0046]
The reason can be considered as follows. That is, for the irradiation light areas 3b and 4b and the bright spot 2a in the stored images B0 to B6, their representative coordinate points (for example, the coordinate point at the center of the area) are selected, and the brightness level of each representative coordinate point is selected. The temporal change is as shown in FIG. In FIG. 7, a hatched square symbol graph represents a change in luminance level of the bright spot 2a (first light source region), and a triangular symbol graph represents an irradiation light region 3b (second light source region; irradiation region to the standing figure 5c). The graph of the symbol x represents the luminance level change of the irradiation light region 4b (third light source region; the irradiation region of the spherical object 5a), and the graph of the black rhombus symbol represents disturbance light (flicker of the television 5b). Lighting level).
[0047]
Among these four graphs, the maximum luminance level and the luminance change width of the graph representing the luminance level change of the disturbance light are intentionally larger than those of the other graphs. This is to emphasize that the bright spot 2a and the irradiation light regions 3b and 4b can be detected without any trouble without being affected by disturbance light by applying the correlation value calculation method described below. .
[0048]
FIG. 8 shows the luminance level actual values for each frame time t0 to t6 in the four graphs of FIG. 7, and the correlation values (patterns) obtained by applying the calculation formula based on the following theory to these actual values. 2 is a list diagram showing correlation values of 1 and pattern 2. In this list diagram, the correlation value is obtained as follows. A formula for calculating the above-described series of values, that is, correlation values between vectors, is generally defined by correlation value = inner product / norm (as a value of 0 to 1). Therefore, the correlation value r is normalized so that the sign bit 0 corresponds to −1 to be 1,1,1, −1,1, −1, −1, and t0 to t6 are also normalized to have an average of 0, It is expressed as the following formula (A).
[0049]
[Expression 1]
Figure 0004131097
[0050]
A more desirable form of the present invention is a method of performing a strict correlation value calculation according to the above formula (a), but in this embodiment, the illumination fluctuation pattern is a binary code consisting of blinking, Since the frequency of sudden dot data fluctuations that have a high degree of correlation with the detection target in the natural world is relatively small, even if a simple correlation degree calculation process such as the above formula (a) is not used, a simple correlation degree calculation process can be performed. Is possible. By the way, the method based on the following equation (A) makes the detection threshold setting a little more complicated than the exact correlation value calculation, but avoids costly operations such as square and square root as in the normal correlation value calculation. It is possible to ensure detection performance. Hereinafter, the value according to this equation is also referred to as a correlation value. The value range is 0 to 255 if it is an 8-bit luminance signal.
[0051]
Correlation value = Σ1 / C1-Σ0 / C0 (A)
[0052]
However, Σ1 is the sum of the luminance levels corresponding to the logic 1 of the pattern (ie, the sum of logic 1 symbols), C1 is the number of logic 1 of the pattern (ie, the number of logic 1 symbols), and Σ0 is the logic 0 of the pattern Is the sum of the luminance levels corresponding to (that is, the sum of logical 0 symbols), and C0 is the number of logical 0s in the pattern (ie, the number of logical 0 symbols).
[0053]
Since the pattern 1 has a pattern symbol of “1000101” and the pattern 2 has a pattern symbol of “1110100”, the expression (a) for each pattern is as shown in the following expressions (a-1, i-2): become. In the following, correlation value 1 is the correlation value of pattern 1, and correlation value 2 is the correlation value of pattern 2.
[0054]
Figure 0004131097
[0055]
In FIG. 8, the disturbance light luminance levels are “130”, “240”, “200”, “190”, “220”, “108”, and “119” at t0 to t6, respectively. The luminance level of one light source region is “200”, “65”, “60”, “63”, “208”, “58”, “198”. Similarly, the luminance level of the second light source region is “125”, “126”, “124”, “29”, “124”, “28”, “30”, and the luminance level of the third light source region is “165”. , “155”, “152”, “70”, “154”, “80”, “71”.
[0056]
Hereinafter, a method of calculating correlation value 1 and correlation value 2 when these actual values (luminance levels) are applied to the above formulas (a-1, i-2) for each of pattern 1 and pattern 2 will be exemplified. To do.
[0057]
First, the correlation value of pattern 1 (correlation value 1) is calculated. That is, the correlation value (correlation value 1) of the disturbance light and the first to third light source regions is calculated using the above equation (A-1). The logic 1 symbol of pattern 1 is at the positions t0, t4, and t6, and the number (C1) thereof is “3”. The logic 0 symbol of pattern 1 is at the positions t1, t2, t3, and t5, and the number (C0) thereof is “4”.
[0058]
Therefore, Σ1 of disturbance light of pattern 1 is t0 + t4 + t6 = “130” + “220” + “119” = “469”, and Σ0 is t1 + t2 + t3 + t5 = “240” + “200” + “190” + “108”. Since “738”, C1 = “3”, and C0 = “4”, the correlation value 1 of the disturbance light of the pattern 1 is “469” / “3” − “from the above equation (A-1). 738 ”/“ 4 ”=“ − 28.17 ”.
[0059]
Also, Σ1 of the first light source region of pattern 1 is t0 + t4 + t6 = “200” + “208” + “198” = “606”, and Σ0 is t1 + t2 + t3 + t5 = “65” + “60” + “63” + “ 58 ”=“ 246 ”, and C1 =“ 3 ”and C0 =“ 4 ”. Therefore, the correlation value 1 of the first light source region of the pattern 1 is“ 606 ”/“ from the above equation (A-1). 3 "-" 246 "/" 4 "=" 140.50 ".
[0060]
Further, Σ1 of the second light source region of pattern 1 is t0 + t4 + t6 = “125” + “124” + “30” = “279”, and Σ0 is t1 + t2 + t3 + t5 = “126” + “124” + “29” + “ Since 28 ”=“ 307 ”, C1 =“ 3 ”, and C0 =“ 4 ”, the correlation value 1 of the second light source region of the pattern 1 is“ 279 ”/“ from the above equation (A-1). 3 "-" 307 "/" 4 "=" 16.25 ".
[0061]
Also, Σ1 of the third light source region of pattern 1 is t0 + t4 + t6 = “165” + “154” + “71” = “390”, and Σ0 is t1 + t2 + t3 + t5 = “155” + “152” + “70” + “ Since 80 ”=“ 457 ”, C1 =“ 3 ”, and C0 =“ 4 ”, the correlation value 1 of the third light source region of the pattern 1 is“ 390 ”/“ from the above equation (A-1). 3 "-" 457 "/" 4 "=" 15.75 ".
[0062]
Next, the correlation value of pattern 2 (correlation value 2) is calculated. That is, the correlation value (correlation value 2) of the disturbance light and the first to third light source regions is calculated using the above equation (A-2). The logic 1 symbol of pattern 2 is at the positions t0, t1, t2, and t4, and the number (C1) thereof is “4”. The logic 0 symbol of pattern 2 is at the positions t3, t5, and t6, and the number (C0) thereof is “3”.
[0063]
Therefore, Σ1 of disturbance light of pattern 2 is t0 + t1 + t2 + t4 = “130” + “240” + “200” + “220” = “790”, and Σ0 is t3 + t5 + t6 = “190” + “108” + “119”. = “417”, C1 = “4”, and C0 = “3”. Therefore, the correlation value 2 of the disturbance light of the pattern 2 is “790” / “4” − “ 417 "/" 3 "=" 58, 50 ".
[0064]
Further, Σ1 of the first light source region of pattern 2 is t0 + t1 + t2 + t4 = “200” + “65” + “60” + “208” = “533”, and Σ0 is t3 + t5 + t6 = “63” + “58” + “ Since 198 ”=“ 319 ”, C1 =“ 4 ”, and C0 =“ 3 ”, the correlation value 2 of the first light source region of the pattern 2 is“ 533 ”/“ from the above equation (A-2). 4 "-" 319 "/" 3 "=" 26.92 ".
[0065]
Also, Σ1 of the second light source region of pattern 2 is t0 + t1 + t2 + t4 = “125” + “126” + “124” + “124” = “499”, and Σ0 is t3 + t5 + t6 = “29” + “28” + “ Since 30 ”=“ 87 ”, C1 =“ 4 ”, and C0 =“ 3 ”, the correlation value 2 of the second light source region of the pattern 2 is“ 499 ”/“ from the above equation (A-2). 4 "-" 87 "/" 3 "=" 95.75 ".
[0066]
Further, Σ1 of the third light source region of pattern 2 is t0 + t1 + t2 + t4 = “165” + “155” + “152” + “154” = “626”, and Σ0 is t3 + t5 + t6 = “70” + “80” + “ 71 ”=“ 221 ”, C1 =“ 4 ”, and C0 =“ 3 ”. Therefore, the correlation value 2 of the third light source region of the pattern 2 is“ 626 ”/“ from the above equation (A-2). 4 "-" 221 "/" 3 "=" 82.83 ".
[0067]
When the correlation values (correlation value 1 and correlation value 2) obtained by the above calculation are compared, the correlation value 1 (“140.50”) of the bright spot 2a (first light source region) is maximum for pattern 1. Yes, for pattern 2, the correlation value 2 (“95.75”) of the irradiation light region 3b (second light source region) is the maximum, and the correlation value 2 (“82.75”) of the irradiation light region 4b (third light source region). 83 ") is the next.
[0068]
Therefore, if the threshold level for correlation value determination is, for example, “80.00”, for pattern 1, the correlation value 1 (“140.50” of the bright spot 2a (first light source region) indicating the maximum value is obtained. ”) Is extracted, and for the pattern 2, the correlation value 2 (“ 95.75 ”) of the irradiation light region 3b (second light source region) indicating the maximum value and the next higher magnitude are obtained. The correlation value 2 (“82.83”) of the irradiation light region 4b (third light source region) indicating the above is extracted.
[0069]
As a result, even when disturbance light is superimposed, the detection of the bright spot 2a and the irradiation light regions 3b and 4b can be performed without hindrance without being affected by the disturbance light, and the disturbance light Even when the maximum luminance level and the luminance change width are larger than those of the bright spot 2a and the irradiation light regions 3b and 4b (the list in FIG. 8 dares to have such a level relationship). The detection operation, that is, the detection of the bright spot 2a and the irradiation light regions 3b and 4b can be performed without any trouble.
[0070]
FIG. 9 is a diagram showing a processing flow of the image processing apparatus 1 in the first embodiment. In the figure, first, a required variation pattern set (setting) for the second light source 3 and the third light source 4 (and also the first light source 2 if necessary), and a processing correspondence list set with the variation pattern (setting). And initialization such as synchronization with each light source is performed (step S11). Next, it waits for image signal capture (frame capture) from the camera 6 (step S12). When the image is captured, the image data based on the image signal captured by the capture frame buffer 125 is converted into a buffer corresponding to the value (N) of the time slot counter unit 18 at that time (for example, if N = 0, a ring Copy to buffer 0) of buffer 123 (step S13).
[0071]
Next, modulo operation is performed (the time slot needs to periodically take a value of N = 0 to 6 when the variation pattern is represented by a length L = 7 bit pattern of 1110100) The value of the time slot counter unit 18 is updated (step S14), the correlation value image calculation and the determination binary value are performed for each detected variation pattern, and the image calculation is performed (step S15), and the variation region of the pattern 1 is detected. If this is the case (step S16), the pattern 1 processing instruction is taken out from the variation pattern / processing correspondence list storage 151, executed, and written in the result output image buffer 152 (step S17).
[0072]
When the stored contents of the variation pattern / process correspondence list storage unit 151 are as shown in FIG. 12, the above processing is stored in the upper left coordinates of the region irradiated with the variation pattern 1 (or the direct light emission region). A composite CG image or the like is written out. In the case of the combination of the light source and the code pattern shown in FIG. 6, a CG image for synthesis (an animation character, an image of a prop, etc.) is overwritten on the coordinates of the first light source set with the variation pattern 1. When the variation area of pattern 2 is detected (step S18), the pattern 2 processing instruction is similarly extracted from the variation pattern / processing correspondence list storage unit 151, the process is executed, and the result output image buffer 152 is processed. (Step S19).
[0073]
In the case of setting and actual use in FIG. 12 and FIG. 6, the upper body (4b) of the central standing figure irradiated with the second and third light sources set with the variation pattern 2 and the lower left Only the ball (3b) will be cut out. It should be noted that when a standing figure is cut out by specifying the processing contents, the display priority is higher in the CG synthesis performed in the variation pattern 1, and thus the hand that the standing figure is presented even if the corresponding process is performed in this pattern 2. CG and the like that are written and synthesized with pattern 1 will not become.
[0074]
Then, the non-detection area target process is executed from the variation pattern / process correspondence list storage unit 151 (step S20). In the case of the setting example in FIG. In the example of FIG. 6, the ball and the upper body of the standing figure are cut out in a white background, and a result output is obtained as if the synthesized CG image object (the bear stuffed animal) is in the right hand of the person. It is done.
[0075]
Note that it is possible to obtain completely different processing results from the variation pattern processing result list 151 of FIG. 4 while using exactly the same variation illumination.
[0076]
Thereafter, after outputting the result image (step S21), the frame capture (step S12) and the subsequent steps are repeated again.
[0077]
FIG. 10 is a specific flow of the above step S15. In this flow, the process of the fluctuation pattern 1 and the process of the fluctuation pattern 2 are executed in parallel. That is, first, an addition result of a portion corresponding to “1” of the fluctuation pattern in the image signal included in each of the buffers 0 to n of the ring buffer 123 is obtained, and an image divided by the number of added images is obtained as a normal image buffer. 121c (the normal image buffer 122c in the processing flow of variation pattern 2) is stored (step S15a). The purpose of this processing is to calculate the average luminance of the image at the timing when the luminance should be high (= illumination lighting) in the stored buffer image series.
[0078]
Next, an addition result of a portion corresponding to “0” of the variation pattern in the image signals included in each of the buffers 0 to n of the ring buffer 123 is obtained, and an image divided by the number of added images is obtained as a negative image buffer 121d. (In the processing flow of the variation pattern 2, it is stored in the normal image buffer 122d) (step S15b). The purpose of this process is to calculate the average luminance of each image at the timing when the luminance should be low (= illumination off).
[0079]
Next, the difference between the stored image in the positive image buffer and the stored image in the negative image buffer is taken, and the difference image is stored in the correlation value image buffer 121a (correlation value image buffer 122a in the process flow of the variation pattern 2) (step). S15c). Finally, the correlation value image buffer 121a (the normal image buffer in the processing flow of the fluctuation pattern 2) is determined by a fixed value determined by the illumination intensity / diffusion characteristic, the reflection coefficient of the detected object, and the spatial and temporal variability of the background environment. 122a) (step S15d).
[0080]
FIG. 11 is an operation conceptual diagram of the processing of the operation flow of FIG. By referring to the series of image buffers shown in the center, in the detection processes of the variation patterns 1 and 2, the image group corresponding to the bit “1” corresponding to the lighting timing and the bit “0” corresponding to the lighting off is added. The averaged difference image is shown as a correlation image of the corresponding pattern.
[0081]
From the above, according to the present embodiment, processing such as cutting out a desired area in a captured image or pasting another image at a desired position in the captured image is performed regardless of the shooting location. An image processing method and an image processing apparatus excellent in versatility that can be provided, and in particular, even in a shooting site that is exposed to ambient light, without being affected by the ambient light, It is possible to detect the bright spot 2b and the irradiation light areas 3b and 4b from the image signal, and it is possible to perform a particularly useful effect that it is possible to cut out an image object in a desired area, paste an image object at a desired position, and the like. Is obtained.
[0082]
Further, data (variation pattern / processing correspondence list) in which the variation pattern (blinking pattern) of the bright spot 2b and the irradiation light regions 3b and 4b is associated with the content of the image processing is stored in the variation pattern / processing correspondence list storage unit 151. The stored variation pattern of the bright spot 2b and the irradiation light areas 3b and 4b actually detected is compared with the variation pattern / processing correspondence list, and the type of image processing to be executed (image pasting) is checked from the list. In addition, since it is not necessary to designate the type of image processing on the imaging side (camera 6 side), the operability can be simplified.
[0083]
<Second Embodiment>
Next, a second embodiment of the present invention will be described.
First, in the first embodiment, by using the simple correlation value evaluation formula shown in the formula (A), the variation (= disturbance) of the brightness of other image regions is detected for the pattern to be detected. Only the target signal region can be detected without being affected.
[0084]
However, the simple correlation value evaluation formula (formula (A)) in the first embodiment is extremely effective in one time slot of detection pattern fluctuation in disturbance light fluctuation components, for example, in the case of more severe environmental conditions. In the case of including an image region in which near instantaneous fluctuations occur frequently, it is expected that it is difficult to completely satisfy the performance of “not affected by disturbance signals having large fluctuations, and therefore not erroneously detected”. .
[0085]
Assuming such severe environmental conditions, in the first embodiment, (1) the number of bits of the pattern is increased, or (2) the brightness of the illumination or light emitting light source is increased to give larger fluctuations. Thus, it is necessary to take one of the measures of raising the determination threshold for acquiring the binarized image in step S15d in FIG. 10 (= stricter the determination condition). Has the disadvantage of increasing the overhead in processing, and in the case of (2), the countermeasure has the disadvantage of lowering the detection sensitivity.
[0086]
Therefore, in the second embodiment, by adding a normalization process to the correlation value evaluation formula, it is easier to obtain a correlation value with good characteristics even when the above severe environmental conditions are assumed. The case where it is improved so that
The block configuration diagram and the like of the second embodiment are the same as those of the first embodiment, so illustrations thereof are omitted, and the processing flow and the like are related to the correlation value in the second embodiment. Since the processing is the same except for the processing peculiar to the form of FIG.
[0087]
The point of the second embodiment is to use the following equation (c) instead of the simple correlation value evaluation equation (equation (a)) shown in the first embodiment.
[0088]
Correlation value = ([formula (A)] / ΔW) × const (C)
ΔW = max (t0... T6) −min (t0... T6) (D)
[0089]
However, max (argument) is a max function that returns the maximum value of the data given by the argument, and min (argument) is a min function that returns the minimum value of the data given by the argument. In equation (c), const is a multiplication coefficient (for example, const = “255”). const is multiplied to convert the maximum value of 0 to 1 into an easy-to-handle dot signal luminance range of 0 to 255. It goes without saying that the value of const is other than “255” depending on the target range.
[0090]
As in the first embodiment, the pattern symbol of pattern 1 is “1000101”, and the pattern symbol of pattern 2 is “1110100”. The formula (c) for each pattern is as the following formulas (c-1, c-2). In the following, correlation value 1 is the correlation value of pattern 1, and correlation value 2 is the correlation value of pattern 2.
[0091]
Figure 0004131097
[0092]
In FIG. 13, the luminance levels of the first light source region are “200”, “65”, “60”, “63”, “208”, “58”, “198” at t0 to t6, respectively. Similarly, the luminance level of the second light source region is “125”, “126”, “124”, “29”, “124”, “28”, “30”, and the luminance level of the third light source region is “165”. ”,“ 155 ”,“ 152 ”,“ 70 ”,“ 154 ”,“ 80 ”,“ 71 ”.
[0093]
Examples of the brightness level values of the first to third light source regions are the same as those in the first embodiment (FIG. 8), but the brightness level of the disturbance light is assumed to be severe environmental conditions described above. For example, “250”, “240”, “255”, “100”, “30”, “80”, “119” are different. Note that the peripheral edge of the second light source region refers to an edge portion of the second light source region (an irradiation region for the standing figure 5c). This is intentionally added to explain the inconvenience of the first embodiment at this edge portion.
[0094]
Here, the temporal change in the luminance level of each representative coordinate point in FIG. 13 is as shown in FIG. In FIG. 14, a hatched square symbol graph represents a change in luminance level of the bright spot 2a (first light source region), and a triangular symbol graph represents an irradiation light region 3b (second light source region; irradiation region to the standing figure 5c). X represents a change in luminance level of the irradiation light region 4b (third light source region; irradiation region to the spherical object 5a), and a circle symbol represents an edge (first of the irradiation light source region 4b). 3 light source region periphery; irradiation region edge to standing figure 5c) represents a luminance level change, and a black rhombus symbol graph represents a luminance level change of disturbance light (flicker lighting of TV 5b). It is assumed that the standing figure 5c is wearing black clothes. That is, the periphery of the third light source region represents the edge of the black clothes.
[0095]
When the formula (A) in the first embodiment is applied to the example of FIG. 13, disturbance light cannot be reliably excluded and the periphery of the second light source region cannot be extracted as will be described in detail below. However, when the formula (c) in the second embodiment is applied, such a problem does not occur.
[0096]
Hereinafter, in the example of FIG. 13, the correlation value when the formula (a) in the first embodiment is applied is referred to as “correlation value 1A” for pattern 1 and “correlation value 2A” for pattern 2. Furthermore, the correlation value when the formula (c) of the second embodiment is applied is referred to as “correlation value 1B” for pattern 1 and “correlation value 2B” for pattern 2, and the respective correlation values. The calculation method of (correlation value 1A, 2A, 1B, 2B) is illustrated.
[0097]
In the figure, the correlation value 1A is the correlation value of the pattern 1 calculated by applying the formula (A), the correlation value 2A is the correlation value of the pattern 2 calculated by applying the formula (A), and these correlation values 1A and 2A correspond to the correlation values in the first embodiment. Further, the correlation value 1B is the correlation value of the pattern 1 calculated by applying the formula (c), the correlation value 2B is the correlation value of the pattern 2 calculated by applying the formula (c), and these correlation values 1B, 2B is unique to the second embodiment.
[0098]
Further, the correlation value 1A and the correlation value 2A are the same as the calculation results (see FIG. 8) in the first embodiment, except for disturbance light and the second light source region periphery. That is, the correlation values 1A of the first light source region to the third light source region are “140.50”, “16.25”, “15.75”, respectively, and the correlation values 2A are “26.92”, “95.75”, respectively. "82.83", and these values are the same as the calculation results (see FIG. 8) in the first embodiment.
[0099]
The correlation value 1A and the correlation value 2A of the disturbance light and the second light source region periphery, which are different from those of the first embodiment, are obtained as follows by applying the formula (A). That is, in FIG. 13, the luminance level of disturbance light is “250”, “240”, “255”, “100”, “30”, “80”, “119” at t0 to t6, respectively. The luminance levels around the second light source region are “70”, “69”, “69”, “20”, “68”, “21”, “20”.
[0100]
The logic 1 symbol of pattern 1 is at the positions t0, t4, and t6, and the number (C1) thereof is “3”. The logic 0 symbol of pattern 1 is at the positions t1, t2, t3, and t5, and the number (C0) thereof is “4”. Therefore, Σ1 of disturbance light of pattern 1 is t0 + t4 + t6 = “250” + “30” + “119” = “399”, and Σ0 is t1 + t2 + t3 + t5 = “240” + “255” + “100” + “80” = “675”, C1 = “3”, and C0 = “4”. Therefore, the disturbance light correlation value 1A of the pattern 1 is “399” / “3” − “ 675 ”/“ 4 ”=“ − 35.75 ”.
[0101]
Further, Σ1 at the periphery of the second light source region of pattern 1 is t0 + t4 + t6 = “70” + “68” + “20” = “158”, and Σ0 is t1 + t2 + t3 + t5 = “69” + “69” + “20” + Since “21” = “179”, C1 = “3”, and C0 = “4”, the correlation value 1A around the second light source region of the pattern 1 is “158” from the above equation (A-1). /“3”−“179”/“4”=“7.92 ”.
[0102]
The logic 1 symbol of pattern 2 is at the positions t0, t1, t2, and t4, and the number (C1) thereof is “4”. The logic 0 symbol of pattern 2 is at the positions t3, t5, and t6, and the number (C0) thereof is “3”. Therefore, Σ1 of disturbance light of pattern 2 is t0 + t1 + t2 + t4 = “250” + “240” + “255” + “30” = “775”, and Σ0 is t3 + t5 + t6 = “100” + “80” + “119”. = “299”, C1 = “4”, and C0 = “3”. Therefore, the correlation value 2A of the disturbance light of the pattern 2 is “775” / “4” − “from the above equation (A-2). 299 ”/“ 3 ”=“ 94.08 ”.
[0103]
Further, Σ1 at the periphery of the second light source region of pattern 2 is t0 + t1 + t2 + t4 = “70” + “69” + “69” + “68” = “276”, and Σ0 is t3 + t5 + t6 = “20” + “21” + Since “20” = “61”, C1 = “4”, and C0 = “3”, the correlation value 2A of the second light source region periphery of the pattern 2 is “276” from the above equation (A-2). /“4”−“61”/“3”=“48.67 ”.
[0104]
Next, formula (c) in the second embodiment is applied to the example of FIG. 13 to calculate all of “correlation value 1B” of pattern 1 and “correlation value 2B” of pattern 2.
First, the ΔW term of the formula (c) is calculated. In FIG. 13, focusing on the symbol having the maximum value among t0 to t6, the disturbance light is “255” at t2, the first light source region is “208” at t4, the second light source region is “126” at t1, The three light source regions are “165” at t0, and the periphery of the second light source region is “70” at t0. Focusing on the symbol having the minimum value among t0 to t6, the disturbance light is “30” at t4, the first light source region is “58” at t5, the second light source region is “28” at t5, and the third light source. The area is “70” at t3, and the periphery of the second light source area is “20” at t3.
[0105]
Therefore, the disturbance light ΔW is called ΔW0, the first light source region ΔW is called ΔW1, the second light source region ΔW is called ΔW2, the third light source region ΔW is called ΔW3, and the second light source region periphery ΔW is called ΔW4. Then, from equation (D), ΔW0 = “255” − “30” = “225”, ΔW1 = “208” − “58” = “150”, ΔW2 = “126” − “28” = “98” ΔW3 = “165” − “70” = “95” and ΔW4 = “70” − “20” = “50”.
[0106]
<Correlation value 1B>
The correlation value (correlation value 1B) of the pattern 1 in the example of FIG. 13 is given by a value obtained by dividing the correlation value 1A by ΔW and multiplying by const = “255” according to the equation (c-1). Accordingly, since the correlation value 1A of the disturbance light is “−35.75” and ΔW0 is “225”, “−40.52” is obtained.
[0107]
Similarly, since the correlation value 1A of the first light source region is “140.50” and ΔW1 is “150”, “238.85” is obtained, and the correlation value 1A of the second light source region is “16.25”. , ΔW2 is “98”, so “42.28” is obtained. Further, since the correlation value 1A of the third light source region is “15.75” and ΔW3 is “95”, “42.28” is obtained, and the correlation value 1A of the periphery of the second light source region is “7.92”. , ΔW4 is “50”, so “40.39” is obtained.
[0108]
<Correlation value 2B>
The correlation value (correlation value 2B) of the pattern 2 in the example of FIG. 13 is given by a value obtained by dividing the correlation value 2A by ΔW and multiplying by const = “255” from the equation (c-2). Accordingly, the correlation value 2A of disturbance light is “94.08” and ΔW0 is “225”, so “106.63” is obtained.
[0109]
Similarly, since the correlation value 2A of the first light source region is “26.92” and ΔW1 is “150”, “45.76” is obtained, and the correlation value 2A of the second light source region is “95.75”. , ΔW2 is “98”, so “249.15” is obtained. Further, since the correlation value 2A of the third light source region is “82.83” and ΔW3 is “95”, “222.34” is obtained, and the correlation value 2A of the periphery of the second light source region is “48.67”. , ΔW4 is “50”, so “248.22” is obtained.
[0110]
<Evaluation of each correlation value>
By the above calculation, all the correlation values (correlation values 1A, 2A, 1B, 2B) in FIG. 13 are clarified. Of these, the correlation values 1A and 2A are obtained by applying the formula (A), that is, according to the first embodiment.
[0111]
An inconvenient example can be seen in FIG. 13 in the correlation value 2A (“94.08”) of disturbance light and the correlation value 2A (“48.67”) of the periphery of the second light source region.
In other words, since the disturbance light correlation value 2A is a large value of “94.08”, it exceeds the threshold value (for example, “80.00”) and cannot be separated. Further, since the correlation value 2A at the periphery of the second light source region is a small value of “48.67”, it is below a threshold value (for example, “80.00”), and there is a disadvantage that extraction cannot be performed. .
[0112]
On the other hand, the correlation value obtained by applying the formula (c), that is, the correlation values 1B and 2B obtained by the second embodiment, for example, the correlation value 2B of disturbance light is “106.63”. Since the correlation value 2B at the periphery of the second light source region is “248.22”, by using an appropriate threshold value (for example, “200.00”), the correlation value 2B of disturbance light (“106.63”) is used. ”) Can be excluded, and the correlation value 2B (“ 248.22 ”) around the second light source region can be extracted, thereby eliminating the disadvantages of the first embodiment.
[0113]
As described above, in the second embodiment, in the case of more severe environmental conditions, for example, instantaneous fluctuations very close to one time slot of the detection pattern fluctuation frequently occur in the fluctuation component of the disturbance. In the case where the image region is included, a special merit is obtained that the performance of “not affected by a disturbance signal having a large variation and therefore not erroneously detected” can be completely satisfied. .
[0114]
Note that the processing of the second embodiment is not subject to detection because there is a possibility that a minute variation sequence such as a sampling level variation for each frame due to camera noise or the like may be multiplied by a larger value in the normalization processing. A power point may have a large correlation value by chance. However, since such a point that is not a detection target has a characteristic of appearing in isolation, it can be solved by adding a median filter before binarization in step S15d in FIG. 10 as a countermeasure. .
[0115]
In addition, when the camera characteristics are poor, before normalization in advance, a process of truncating the first method correlation value (for example, 5 or less in the range of 0 to 255) below to some extent may be added.
[0116]
In the first embodiment, the signal strength itself is an important factor for determining the binarization determination threshold. For example, for a black object, the binarization determination threshold is set accordingly. ) Appropriate settings were required depending on the usage conditions such as lowering. However, according to the second embodiment, since the determination threshold represents the same pattern regardless of the magnitude of the fluctuation, it has an advantage that it is not affected by the magnitude of ΔW obtained by the environmental condition. The binarization determination threshold that has been set can be set.
[0117]
Thus, according to the second embodiment, only the “pattern similarity” can be more strictly evaluated by the correlation coefficient calculation. Therefore, even if there is a disturbance similar to the variation pattern, or even in the dot value variation sequence around the second light source region where the variation is small, it is possible to perform a favorable correlation value evaluation.
[0118]
In the above embodiment, since the image is processed using a plurality of frames, the edge portion may be shifted when the detection target moves, and as a result, only the overlapping area in each frame can be detected. However, it is possible to keep the detection error associated with the movement within an allowable range by increasing the frame rate of the image sensor.
[0119]
Further, when the detection target moves, it is preferable to calculate motion vector data between a plurality of frame buffers, refer to the motion vectors between frames, and extract a set of corresponding points.
[0120]
As described above, according to the second embodiment, compared to the first embodiment, a disturbance of a more approximate pattern and a target pattern having a weaker fluctuation can be well cut out. . Compared to the exact correlation value as in equation (a), the processing load can be greatly reduced, and the process for determining the presence or absence of a signal is less susceptible to the influence of use conditions and environmental conditions. It can be.
[0121]
【The invention's effect】
  According to the present invention, it is possible to attach an arbitrary image to a light emitting area in the image only by including a light emitting area whose luminance varies in a predetermined pattern in a plurality of image signals arranged in the time axis direction. Or an image in the region can be cut out. Therefore,In the imageCut out the desired area ofIn the imageProcessing such as pasting other images to the desired position.
[Brief description of the drawings]
FIG. 1 is a principle block diagram of an embodiment.
FIG. 2 is a specific example of a self-luminous light source and an external illumination light source.
FIG. 3 is a diagram illustrating a usage example when four shooting subjects are included in a shooting range 5;
FIG. 4 is a diagram showing a specific configuration of the image processing apparatus 1 and a first light source 2 to a third light source 4;
FIG. 5 is a communication configuration diagram between the image processing apparatus 1 and each light source.
6 is a diagram showing an image storage state of the ring buffer 123. FIG.
FIG. 7 is a diagram showing temporal changes in luminance levels.
FIG. 8 is a list diagram showing luminance level actual values for each frame time t0 to t6 and correlation values obtained by applying these actual values.
9 is a diagram showing a processing flow of the image processing apparatus 1. FIG.
FIG. 10 is a diagram showing a specific flow of step S15 of FIG.
11 is an operation concept diagram of the flow of FIG.
FIG. 12 is a diagram illustrating an example of a variation pattern / processing correspondence list;
FIG. 13 is a list diagram showing luminance level actual values for each frame time t0 to t6 and correlation values obtained by applying these actual values.
FIG. 14 is a diagram illustrating a temporal change in luminance level.
[Explanation of symbols]
Ga spherical object image
Gb image object
Gc Upper body image
1 Image processing device
2 First light source (Self-emitting light source)
2a bright spot
3 Second light source (external illumination light source)
3b Irradiation light area
4 Third light source (external illumination light source)
4b Irradiation light area
5 Shooting range
5a Spherical object
5b TV
5c standing figure
6 Camera
11 Light source controller
12 Image detector
13 Detection region shape recognition processing unit
14 Object coding processor
15 Effect processing equipment
16 Display device
17 CPU
18 Time slot counter
41 Synchronous trigger signal extractor
43 Fluctuation pattern register
111 Code clock
112 Synchronous trigger signal output section
121a Correlation value image buffer
121e Fluctuation pattern register
122a Correlation value image buffer
122e Fluctuation pattern register
123 Ring buffer
125 capture frame buffer

Claims (5)

所定のパターンで輝度が変動する発光領域を含む、時間軸方向に並ぶ複数の画像信号を処理の対象とする画像処理方法であって、
前記複数の画像信号を時間軸方向に二値化して論理1シンボルと論理0シンボルにパターンシンボル化する第1のステップと、
この第1のステップにてパターンシンボル化された論理1シンボル、および、論理0シンボルのそれぞれの総和値を求める第2のステップと、
この第2のステップにて求められた論理1シンボルの総和値と前記論理0シンボルの総和値との差値に基づいてパターンマッチングを行い前記発光領域の画像を抽出する第3のステップと、
この第3のステップにて抽出された画像の位置に任意の画像の張り付け、若しくは前記抽出された画像の切り出しを行う第4のステップと
を含むことを特徴とする画像処理方法。
An image processing method for processing a plurality of image signals arranged in a time axis direction, including a light emitting region whose luminance varies with a predetermined pattern,
A first step of patterning the symbols into logical one symbol and the logic 0 symbol by binarizing the plurality of image signals in the time axis direction,
The first patterned symbolized logical one symbol in step, and a second step of obtaining the respective sum values of logic zero symbol,
A third step of extracting an image of the light emitting area by performing pattern matching based on a difference value between the total value of the logical 1 symbols obtained in the second step and the total value of the logical 0 symbols;
An image processing method comprising: a fourth step of pasting an arbitrary image at the position of the image extracted in the third step , or cutting out the extracted image.
前記第1のステップにてパターンシンボル化した各論理シンボルにおいて、最大シンボルと最小シンボルとの差値を求める第5のステップを更に含み、
前記第3のステップは、前記第2のステップにて求められた論理1シンボルの総和値と前記論理0シンボルの総和値との差を、前記第5のステップにて求められた最大シンボルと最小シンボルとの差値で正規化した結果に基づいてパターンマッチングを行い前記発光領域の画像を抽出することを特徴とする請求項1に記載の画像処理方法。
And further including a fifth step of obtaining a difference value between the maximum symbol and the minimum symbol in each of the logical symbols converted into pattern symbols in the first step ,
In the third step, the difference between the total value of the logical 1 symbols determined in the second step and the total value of the logical 0 symbols is calculated by calculating the difference between the maximum symbol and the minimum value determined in the fifth step. The image processing method according to claim 1, wherein pattern matching is performed based on a result normalized with a difference value from a symbol to extract an image of the light emitting area.
所定のパターンで輝度が変動する発光領域を含む、時間軸方向に並ぶ複数の画像信号を処理の対象とする画像処理装置において、In an image processing apparatus for processing a plurality of image signals arranged in the time axis direction, including a light emitting region whose luminance varies with a predetermined pattern,
前記複数の画像信号を時間軸方向に二値化して論理1シンボルと論理0シンボルにパターンシンボル化する第1の手段と、First means for binarizing the plurality of image signals in a time axis direction to form pattern symbols into logical 1 symbols and logical 0 symbols;
この第1の手段によってパターンシンボル化された論理1シンボル、および、論理0シンボルのそれぞれの総和値を求める第2の手段と、A second means for obtaining a total value of each of the logical 1 symbol and the logical 0 symbol that are pattern-symbolized by the first means;
この第2の手段によって求められた論理1シンボルの総和値と前記論理0シンボルの総和値との差値に基づいてパターンマッチングを行い前記発光領域の画像を抽出する第3の手段と、Third means for performing pattern matching on the basis of a difference value between the total value of the logical 1 symbols obtained by the second means and the total value of the logical 0 symbols, and extracting an image of the light emitting area;
この第3の手段によって抽出された画像の位置に任意の画像の張り付け、若しくは前記抽出された画像の切り出しを行う第4の手段とA fourth means for pasting an arbitrary image at the position of the image extracted by the third means, or for cutting out the extracted image;
を備えることを特徴とする画像処理装置。An image processing apparatus comprising:
前記第1の手段によってパターンシンボル化した各論理シンボルにおいて、最大シンボルと最小シンボルとの差値を求める第5の手段を更に備え、A fifth means for obtaining a difference value between the maximum symbol and the minimum symbol in each of the logical symbols converted into pattern symbols by the first means;
前記第3の手段は、前記第2の手段によって求められた論理1シンボルの総和値と前記論理0シンボルの総和値との差を、前記第5の手段によって求められた最大シンボルと最小シンボルとの差値で正規化した結果に基づいてパターンマッチングを行い前記発光領域の画像を抽出することを特徴とする請求項3に記載の画像処理装置。The third means calculates the difference between the sum value of the logical 1 symbols obtained by the second means and the sum value of the logical 0 symbols, and determines the maximum symbol and the minimum symbol obtained by the fifth means. The image processing apparatus according to claim 3, wherein pattern matching is performed based on a result obtained by normalizing with a difference value between the two to extract an image of the light emitting area.
所定のパターンで輝度が変動する発光領域を含む、時間軸方向に並ぶ複数の画像信号を処理の対象とする画像処理を行うコンピュータを、A computer that performs image processing on a plurality of image signals arranged in the time axis direction, including a light-emitting region whose luminance varies in a predetermined pattern,
前記複数の画像信号を時間軸方向に二値化して論理1シンボルと論理0シンボルにパターンシンボル化する第1の手段、First means for binarizing the plurality of image signals in a time axis direction to form a pattern symbol into a logical 1 symbol and a logical 0 symbol;
この第1の手段によってパターンシンボル化された論理1シンボル、および、論理0シンボルのそれぞれの総和値を求める第2の手段、A second means for obtaining a total value of each of the logical 1 symbol and the logical 0 symbol that are pattern-symbolized by the first means;
この第2の手段によって求められた論理1シンボルの総和値と前記論理0シンボルの総和値との差値に基づいてパターンマッチングを行い前記発光領域の画像を抽出する第3の手段、Third means for extracting an image of the light emitting region by performing pattern matching based on a difference value between the total value of the logical 1 symbols and the total value of the logical 0 symbols obtained by the second means;
この第3の手段によって抽出された画像の位置に任意の画像の張り付け、若しくは前記抽出された画像の切り出しを行う第4の手段Fourth means for pasting an arbitrary image at the position of the image extracted by the third means, or for cutting out the extracted image
として機能させることを特徴とする画像処理プログラム。An image processing program that functions as an image processing program.
JP2001286891A 2000-12-27 2001-09-20 Image processing method, image processing apparatus, and image processing program Expired - Fee Related JP4131097B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001286891A JP4131097B2 (en) 2000-12-27 2001-09-20 Image processing method, image processing apparatus, and image processing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-397139 2000-12-27
JP2000397139 2000-12-27
JP2001286891A JP4131097B2 (en) 2000-12-27 2001-09-20 Image processing method, image processing apparatus, and image processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007048228A Division JP2007189730A (en) 2000-12-27 2007-02-28 Image processing system, light source, imaging apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2002262180A JP2002262180A (en) 2002-09-13
JP4131097B2 true JP4131097B2 (en) 2008-08-13

Family

ID=26606798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001286891A Expired - Fee Related JP4131097B2 (en) 2000-12-27 2001-09-20 Image processing method, image processing apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP4131097B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107889531A (en) * 2015-04-28 2018-04-06 飞利浦照明控股有限公司 Metadata in more image scenes

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007020760A1 (en) * 2005-08-19 2007-02-22 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing system and image processing program
JP4610511B2 (en) * 2006-03-30 2011-01-12 京セラ株式会社 Visible light receiving apparatus and visible light receiving method
JP4793685B2 (en) * 2006-03-31 2011-10-12 カシオ計算機株式会社 Information transmission system, imaging apparatus, information output method, and information output program
JP4692931B2 (en) * 2006-07-28 2011-06-01 カシオ計算機株式会社 Image processing apparatus, image processing method, and image processing program
JP4487211B2 (en) 2007-06-01 2010-06-23 カシオ計算機株式会社 Connection control apparatus and network connection control program
JP5182004B2 (en) * 2008-10-22 2013-04-10 カシオ計算機株式会社 Image processing apparatus and program
JP5203271B2 (en) * 2009-03-26 2013-06-05 Kddi株式会社 Display information forming apparatus and system
JP5423137B2 (en) * 2009-05-14 2014-02-19 カシオ計算機株式会社 Information recording system, imaging device, light emitting device, and program
JP6099652B2 (en) * 2012-09-05 2017-03-22 パイオニア株式会社 Imaging apparatus and image processing method
JP2015094768A (en) 2013-11-08 2015-05-18 セイコーエプソン株式会社 Display device, display system, and control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107889531A (en) * 2015-04-28 2018-04-06 飞利浦照明控股有限公司 Metadata in more image scenes

Also Published As

Publication number Publication date
JP2002262180A (en) 2002-09-13

Similar Documents

Publication Publication Date Title
US10182189B2 (en) Image processing apparatus and method
US8378970B2 (en) Manipulation input device which detects human hand manipulations from captured motion images
JP2022036143A (en) Object tracking system, object tracking device, and object tracking method
JP4131097B2 (en) Image processing method, image processing apparatus, and image processing program
US20080166022A1 (en) Manipulation Of Virtual Objects Using Enhanced Interactive System
JP6553624B2 (en) Measurement equipment and system
JP2010211617A (en) Imaging apparatus, moving body detection method, moving body detection circuit and program
JP2011188024A (en) Information processing unit, method of processing information, and program
KR101189209B1 (en) Position recognizing apparatus and methed therefor
JP2011239279A (en) Remote control device and remote control method
JP2013046170A (en) Indication light detector and detection method
US8654103B2 (en) Interactive display
US10348983B2 (en) Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image
JP2010152791A (en) Image processor for detecting object, method, program, and computer readable medium storing the program
TWI638334B (en) Image processing method and electronic apparatus for foreground image extraction
US20040001074A1 (en) Image display apparatus and method, transmitting apparatus and method, image display system, recording medium, and program
JP2001162049A (en) Shooting game device, position detecting device, and information memory medium
JP2000050145A (en) Automatic tracking device
US8947494B2 (en) Pointer information processing device, computer-readable recording medium and conference system
JP2001273484A (en) Instructed position detection system, presentation system and information storage medium
JP2007189730A (en) Image processing system, light source, imaging apparatus, and image processing program
JP2004355494A (en) Display interface method and device
CN108351684B (en) Operation detection device, operation detection method and image display system
JP2018085118A (en) Information processor, information processing method and program
JP6827598B1 (en) Device for image-based services

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080430

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080513

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4131097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130606

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees