JP6092371B2 - 電子機器および画像処理方法 - Google Patents

電子機器および画像処理方法 Download PDF

Info

Publication number
JP6092371B2
JP6092371B2 JP2015511019A JP2015511019A JP6092371B2 JP 6092371 B2 JP6092371 B2 JP 6092371B2 JP 2015511019 A JP2015511019 A JP 2015511019A JP 2015511019 A JP2015511019 A JP 2015511019A JP 6092371 B2 JP6092371 B2 JP 6092371B2
Authority
JP
Japan
Prior art keywords
image
pixel
value
evaluation value
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015511019A
Other languages
English (en)
Other versions
JPWO2014167676A1 (ja
Inventor
山本 晃司
晃司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JPWO2014167676A1 publication Critical patent/JPWO2014167676A1/ja
Application granted granted Critical
Publication of JP6092371B2 publication Critical patent/JP6092371B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Description

本発明の実施形態は、画像を処理する電子機器および該機器に適用される画像処理方法に関する。
近年、カメラ付きのパーソナルコンピュータ、PDA、携帯電話、スマートフォン等や、デジタルカメラのような画像を撮影できる様々な電子機器が普及している。
このような電子機器は、人物や風景を撮影するだけでなく、雑誌やノート、掲示板等に記載された内容を撮影するために用いられることもある。撮影によって得られた画像は、例えば、個人の記録として保存することや、複数人で閲覧すること等に利用される。
特開2005−130326号公報
ところで、ホワイトボード(whiteboard)のように表面が反射しやすい被写体では、被写体上に、反射による写り込み(グレア:glare)が発生することがある。このような被写体を撮影した画像では、写り込みによって、被写体の情報(例えば、ホワイトボードに書き込まれた文字)が欠落する可能性がある。
本発明は、画像に捉えられた、被写体上の写り込みを軽減できる電子機器および画像処理方法を提供することを目的とする。
実施形態によれば、電子機器は、位置合わせ手段、重み算出手段および合成画像算出手段を具備する。位置合わせ手段は、被写体が撮影された第1画像、当該第1画像とは異なる位置から前記被写体が撮影された第2画像とから対応点を検出し、検出された対応点に基づく変換係数を算出し、前記変換係数を用いて前記第2画像を変換することによって、前記第1画像に前記第2画像を位置合わせする。重み算出手段は、前記第1画像内の画素が、白とびの画素であるか否かを示す第1評価値を算出し、前記位置合わせされた第2画像内の画素が、白とびの画素であるか否かを示す第2評価値を算出し、前記第1評価値と前記第2評価値とに基づいて重みを算出する。合成画像算出手段は、前記重みに基づいて、前記第1画像内の画素と前記位置合わせされた第2画像内の画素とを重み付け加算することによって、合成画像を算出する。
図1は、実施形態に係る電子機器の外観を示す斜視図である。 図2は、同実施形態の電子機器のシステム構成を示すブロック図である。 図3は、同実施形態の電子機器によって実行される画像処理プログラムの機能構成を示すブロック図である。 図4は、同実施形態の電子機器によって、複数の画像を用いて、画像上の写り込みを低減する例を説明するための図である。 図5は、図4の複数の画像を合成する例を説明するための図である。 図6は、同実施形態の電子機器によって実行される反射低減処理の手順の例を示すフローチャートである。
以下、実施の形態について図面を参照して説明する。
図1は、一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン、PDA、またはデジタルカメラのような各種電子機器に内蔵される組み込みシステムとして実現され得る。以下では、この電子機器がタブレットコンピュータ10として実現されている場合を想定する。タブレットコンピュータ10は、タブレットまたはスレートコンピュータとも称される携帯型電子機器であり、図1に示すように、本体11とタッチスクリーンディスプレイ17とを備える。タッチスクリーンディスプレイ17は、本体11の上面に重ね合わせるように取り付けられている。
本体11は、薄い箱形の筐体を有している。タッチスクリーンディスプレイ17には、フラットパネルディスプレイと、フラットパネルディスプレイの画面上のペンまたは指の接触位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば、液晶表示装置(LCD)であってもよい。センサとしては、例えば、静電容量方式のタッチパネル、電磁誘導方式のデジタイザなどを使用することができる。
また、本体11には、本体11の下面(裏面)側から画像を撮影するためのカメラモジュールが設けられている。
図2は、タブレットコンピュータ10のシステム構成を示す図である。
タブレットコンピュータ10は、図2に示されるように、CPU101、システムコントローラ102、主メモリ103、グラフィクスコントローラ104、BIOS−ROM105、不揮発性メモリ106、無線通信デバイス107、エンベデッドコントローラ(EC)108、カメラモジュール109等を備える。
CPU101は、タブレットコンピュータ10内の各種モジュールの動作を制御するプロセッサである。CPU101は、ストレージデバイスである不揮発性メモリ106から主メモリ103にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS)201、および各種アプリケーションプログラムが含まれている。アプリケーションプログラムには、画像処理プログラム202が含まれている。この画像処理プログラム202は、例えば、カメラモジュール109を用いて撮影される画像に含まれる、被写体上の写り込みを低減する機能、画像に含まれるノイズを低減(除去)する機能、画像を鮮鋭化する機能、等を有する。
また、CPU101は、BIOS−ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ102は、PCI EXPRESS規格のシリアルバスなどを介してグラフィクスコントローラ104との通信を実行する機能も有している。
グラフィクスコントローラ104は、本タブレットコンピュータ10のディスプレイモニタとして使用されるLCD17Aを制御する表示コントローラである。このグラフィクスコントローラ104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。このLCD17A上にはタッチパネル17Bが配置されている。
無線通信デバイス107は、無線LANまたは3G移動通信などの無線通信を実行するように構成されたデバイスである。EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザによるパワーボタンの操作に応じて本タブレットコンピュータ10を電源オンまたは電源オフする機能を有している。
カメラモジュール109は、例えば、ユーザが、タッチスクリーンディスプレイ17の画面上に表示されたボタン(グラフィカルオブジェクト)をタッチ(タップ)したことに応じて、画像を撮影する。カメラモジュール109は、動画像のような、連続した複数の画像を撮影することもできる。
ところで、カメラモジュール109を用いて、ホワイトボードや光沢紙のような反射による写り込み(グレア)が生じやすい被写体を撮影した場合、撮影された画像上に、日光や室内の蛍光灯等に起因する、いわゆる白とび(flared highlights)が写り込むことがある。画像上で白とびが写り込んだ領域では、例えば、ホワイトボードに書き込まれた文字や図形が欠落してしまう可能性がある。
そのため、本実施形態では、異なる位置や角度から被写体を撮影することによって得られた複数の画像、すなわち、画像上の異なる位置に白とび(写り込み)が生じた複数の画像を用いて、写り込みが軽減された画像を生成する。
図3を参照して、本実施形態のコンピュータ10によって実行される画像処理プログラム202の機能構成の例を説明する。画像処理プログラム202は、例えば、切り出し範囲検出部31、対応点検出部32、位置合わせ部33、重みマップ生成部34、合成画像算出部35、歪み補正部36を含む。この画像処理プログラム202には、例えば、カメラモジュール109を用いて撮影された複数の画像が入力される。なお、以下では、図4および図5を併せて参照して、撮影された2枚の画像41,42が入力される場合の例を説明するが、画像処理プログラム202は、任意の枚数の画像を同様にして処理することができる。
カメラモジュール109は、基準画像(第1画像)41を生成する。カメラモジュール109は、例えば、ユーザによって撮影が指示されたことに応じて基準画像41を生成(撮影)する。基準画像41には反射による写り込み(すなわち、白とび)411が生じている。
切り出し範囲検出部31は、基準画像41から、出力画像として取得する範囲に対応する切り出し範囲412を検出する。例えば、切り出し範囲検出部31は、基準画像41に含まれる複数の画素の画素値(輝度値)を用いて、基準画像41内のエッジを検出する。そして、切り出し範囲検出部31は、検出されたエッジによって構成される最大の四角形を切り出し範囲412として検出する。これにより、例えば、基準画像41内でホワイトボード(被写体)が写っている範囲を切り出し範囲412として検出することができる。
また、カメラモジュール109は、参照画像(第2画像)42を生成する。カメラモジュール109は、基準画像41と同様に、例えば、ユーザによって撮影が指示されたことに応じて参照画像42を生成(撮影)する。カメラモジュール109は、基準画像41を撮影した位置とは異なる位置から被写体を撮影することによって、基準画像41上の写り込み411とは異なる位置に写り込み421が生じる参照画像42を生成する。
対応点検出部32および位置合わせ部33は、被写体(例えば、ホワイトボード)が撮影された基準画像41に対して、基準画像41とは異なる位置から当該被写体が撮影された参照画像42を位置合わせする。つまり、対応点検出部32および位置合わせ部33は、参照画像42上の画素の位置が、基準画像41上の対応する画素の位置と一致するように、参照画像42を位置合わせする。
まず、対応点検出部32は、生成された基準画像41と参照画像42との対応点を検出する。より具体的には、対応点検出部32は、基準画像41と参照画像42の各々から特徴点を検出する。この特徴点は、SIFT(scale-invariant feature transform)やSURF(speeded up robust features)等の、画像上での被写体の回転や変形にロバストな局所特徴量を用いて検出された画像内の角等を示し、一枚の画像から複数検出され得る。対応点検出部32は、基準画像41および参照画像42から検出された特徴点を用いて、基準画像41上の特徴点に対応する、参照画像42上の特徴点を検出することによって、基準画像41と参照画像42との対応点を検出する。
図4に示す例では、対応点検出部32は、基準画像41上の特徴点41Aに対応する、参照画像42上の特徴点42Aを検出している。つまり、対応点検出部32は、基準画像41上の特徴点41Aと参照画像42上の特徴点42Aとを対応点として検出する。同様に、対応点検出部32は、基準画像41上の特徴点41Bに対応する、参照画像42上の特徴点42Bを検出する。つまり、対応点検出部32は、基準画像41上の特徴点41Bと参照画像42上の特徴点42Bとを対応点として検出する。同様にして、対応点検出部32は、基準画像41と参照画像42との多数の対応点を検出する。
位置合わせ部33は、検出された対応点に基づいて参照画像42を射影変換する。より具体的には、位置合わせ部33は、対応点を用いて、参照画像42上の画素を、対応する基準画像41上の画素と同じ位置に配置するための射影変換係数を算出する。位置合わせ部33は、例えば、最小二乗法やRANSAC(random sample consensus)を用いて、対応点から射影変換係数を推定する。なお、位置合わせ部33は、信頼性に基づくフィルタリングによって信頼性が高い対応点を抽出し、抽出された対応点を用いて射影変換係数を推定してもよい。
位置合わせ部33は、推定された射影変換係数に基づいて、参照画像42を射影変換した変換画像(射影変換画像)43を生成する。この射影変換によって、図4に示すように、参照画像42上の写り込み421も、射影変換画像43上の写り込み431に変換されている。なお、射影変換画像43上の領域432は、射影変換画像43上の画素に対応する、参照画像42上の画素が存在しなかった領域を示している。
位置合わせ部33は、例えば、基準画像41と参照画像42の両方を、画像上の被写体の切り出し範囲(例えば、ホワイトボードの範囲)に基づいて、歪み補正(矩形補正)することによって、基準画像41と参照画像42とを位置合わせすることもできる。しかし、このような位置合わせでは、複数の画像の各々から切り出し範囲を検出し、その切り出し範囲に対応する画像を用いて各画像の歪み補正を行う必要がある。
したがって、上述した基準画像41から切り出し範囲412を検出し、基準画像41と参照画像42との対応点を用いて、参照画像42から射影変換画像43を生成する構成は、基準画像41と参照画像42の各々について、切り出し範囲を検出し、切り出し範囲に基づいて歪み補正する構成よりも処理時間を短縮することができるので、ユーザビリティを向上させることができる。
重みマップ生成部34および合成画像算出部35は、基準画像41と射影変換画像43(すなわち、射影変換された参照画像42)とを合成することによって、反射軽減画像44を生成する。
重みマップ生成部34は、基準画像41内の画素に対応する第1評価値を算出し、参照画像42が変換された射影変換画像43内の画素に対応する第2評価値を算出する。そして、重みマップ生成部34は、第1評価値と第2評価値とに基づいて重みを算出する。第1評価値は、基準画像41内の画素が、基準画像41と射影変換画像43との合成(すなわち、合成画像の算出)に適した画素である度合いを示す。第2評価値は、射影変換画像43内の画素が、基準画像41と射影変換画像43との合成に適した画素である度合いを示す。重みマップ生成部34は、例えば、ある画素に、写り込みに起因する白とびが発生しているか否かを推定し、白とびが発生している可能性が高いほど、その画素の評価値を小さくする。
より具体的には、重みマップ生成部34は、図5に示すように、基準画像41を用いて第1白とびマップ(第1評価値)51を生成し、参照画像42の射影変換画像43を用いて第2白とびマップ(第2評価値)52を生成する。
重みマップ生成部34は、例えば、基準画像41内の画素の画素値が第1範囲内である場合に、その画素が白とびであると認識し、また、射影変換画像43内の画素の画素値が第2範囲内である場合に、その画素が白とびであると認識する。重みマップ生成部34は、基準画像41内の画素の画素値が第1範囲内である場合に、その画素の評価値に第1の値(例えば、0)を設定し、基準画像41内の画素の画素値が第1範囲内でない場合に、その画素の評価値に第1の値よりも大きい第2の値(例えば、1)を設定する。同様に、重みマップ生成部34は、射影変換画像43内の画素の画素値が第2範囲内である場合に、その画素の評価値に第1の値(例えば、0)を設定し、射影変換画像43内の画素の画素値が第2範囲内でない場合に、その画素の評価値に第1の値よりも大きい第2の値(例えば、1)を設定する。なお、第1範囲は、基準画像41内の複数の画素を解析することによって決定され、第2範囲は、射影変換画像43(または参照画像42)内の複数の画素を解析することによって決定される。
なお、重みマップ生成部34は、例えば、基準画像41内の画素の画素値(輝度値)が第1しきい値以上である場合に、その画素が白とびであると認識し、また、射影変換画像43内の画素の画素値が第2しきい値以上である場合に、その画素が白とびであると認識してもよい。重みマップ生成部34は、基準画像41内の画素の画素値が第1しきい値以上である場合に、その画素の評価値に第1の値(例えば、0)を設定し、基準画像41内の画素の画素値が第1しきい値未満である場合に、その画素の評価値に第1の値よりも大きい第2の値(例えば、1)を設定する。同様に、重みマップ生成部34は、射影変換画像43内の画素の画素値が第2しきい値以上である場合に、その画素の評価値に第1の値(例えば、0)を設定し、射影変換画像43内の画素の画素値が第2しきい値未満である場合に、その画素の評価値に第1の値よりも大きい第2の値(例えば、1)を設定する。なお、第1しきい値は、基準画像41内の複数の画素を解析することによって決定され、第2しきい値は、射影変換画像43(または参照画像42)内の複数の画素を解析することによって決定される。
したがって、重みマップ生成部34は、白とびマップ51,52において、例えば、白とびが認識された領域511,521に小さな評価値(例えば、0)を設定し、それ以外の領域512,522に大きな評価値(例えば、1)を設定する。
また、重みマップ生成部34は、被写体がホワイトボードや黒板である場合には、画素の輝度と色が第3範囲内にあるか否かに応じて、ホワイトボードや黒板である領域を推定してもよい。その場合、重みマップ生成部34は、ホワイトボードや黒板であると推定された領域の評価値を大きくする。なお、第3範囲は、被写体の既知の情報(例えば、ホワイトボードや黒板の既知の特徴量)を利用して決定される。
重みマップ生成部34は、生成された第1白とびマップ51と第2白とびマップ52とを用いて、重みマップ(アルファマップ)53を生成する。重みマップ53は、例えば、射影変換画像43と基準画像41とをアルファブレンディングするための重みαを含む。重みマップ53は、一方の画像上の画素に対する重みαを示す。重みαは、例えば、0から1までの値である。その場合、他方の画像上の画素に対する重みは(1−α)である。
重みマップ53は、基準画像41上で白とびが検出された位置(例えば、第1白とびマップ51上で評価値=0である位置)では、基準画像41の画素(画素値)に対する重みを小さくし、参照画像42の射影変換画像43の画素に対する重みを大きくするように構成される。また、重みマップ53は、射影変換画像43上で白とびが検出された位置(例えば、第2白とびマップ52上で評価値=0である位置)では、基準画像41の画素に対する重みを大きくし、射影変換画像43の画素に対する重みを小さくするように構成される。
つまり、重みマップ53は、第1白とびマップ51上の評価値が、第2白とびマップ52上の対応する評価値よりも大きい場合、基準画像41の画素(画素値)に対する重みを、射影変換画像43の画素に対する重みよりも大きくするように構成される。また、重みマップ53は、第1白とびマップ51上の評価値が、第2白とびマップ52上の対応する評価値よりも小さい場合、基準画像41の画素に対する重みを、射影変換画像43の画素に対する重みよりも小さくするように構成される。さらに、第1白とびマップ51上の評価値が、第2白とびマップ52上の対応する評価値と等しい場合、基準画像41の画素に対する重みと、射影変換画像43の画素に対する重みとが等しくなるように構成される。
図5に示す例では、第1白とびマップ51上の領域511に対応する、基準画像41上の画素から白とび(基準画像41上の画素の評価値=0)が検出されている。また、第2白とびマップ52上の領域521に対応する、射影変換画像43上の画素から白とび(射影変換画像43上の画素の評価値=0)が検出されている。
そのため、第1白とびマップ51上の領域511に対応する、重みマップ53上の重み531は、基準画像41の画素に対する重みが小さく、且つ射影変換画像43の画素に対する重みが大きくなるように設定される。また、第2白とびマップ52上の領域521に対応する、重みマップ53上の重み532は、基準画像41の画素に対する重みが大きく、且つ射影変換画像43の画素に対する重みが小さくなるように設定される。さらに、領域511,521以外の領域512,522に対応する、重みマップ53上の重み533は、例えば、基準画像41上の画素に対する重みと射影変換画像43上の画素に対する重みとが等しくなるように設定される。
例えば、重みマップ53が射影変換画像43上の画素に対する重みαを示すことを想定する。その場合、重みマップ53では、重み531に“1”が設定され、重み532に“0”が設定され、重み533に“0.5”が設定される。
合成画像算出部35は、生成された重みマップ53に基づいて、基準画像41と参照画像42の射影変換画像43とを重み付け加算(アルファブレンディング)することによって、反射軽減画像(合成画像)44を生成する。合成画像算出部35は、例えば、重みαで重み付けされた射影変換画像43内の画素の画素値と、重み(1−α)で重み付けされた基準画像41内の対応する画素の画素値との和を算出することによって、反射軽減画像44を算出する。
なお、合成画像算出部35は、基準画像41と射影変換画像43の両方で白とびが発生していない第1領域(例えば、重みマップ53上の領域533に対応する画素)では、基準画像41上の第1領域と、射影変換画像43上の第1領域との輝度(輝度の範囲)が同等になるように、各画像41,43上の第1領域に含まれる画素の輝度を調整した後、反射軽減画像44を生成してもよい。また、重みマップ生成部34は、重みマップ34上の境界(エッジ)によって生じる、反射軽減画像44上の境界(不連続)を抑制するために、重みマップ34をぼかす処理を予め行ってもよい。このような構成により、反射軽減画像44上での画素値(輝度)の変化をより滑らかにすることができる。
歪み補正部36は、算出された反射軽減画像44から、切り出し範囲412に対応する画像を切り出す。そして、歪み補正部36は、切り出された画像に歪み補正(矩形補正)を施すことによって、写り込みが軽減され、且つ矩形に補正された画像45を取得する。
以上の構成により、画像に捉えられた、被写体上の写り込みを軽減することができる。なお、上述した例では、参照画像42が1枚である場合について説明したが、参照画像42は複数であってもよい。その場合、重みマップ生成部34は、ある画素に対して、複数の参照画像42に対応する複数の評価値を算出し、それら複数の評価値を用いて当該画素の1つの評価値を算出する。
例として、参照画像42が3枚であって、画素が白とびである場合に評価値=0と設定され、画素が白とびでない場合に評価値=1と設定されることを想定する。その場合、重みマップ生成部34は、例えば、多数決によって評価値を決定する。つまり、ある画素に対して、3枚の参照画像42の内の2枚以上が評価値=0である場合には、3枚の参照画像42全体の評価値は0に設定される。また、ある画素に対して、3枚の参照画像42の内の2枚以上が評価値=1である場合には、3枚の参照画像42全体の評価値は1に設定される。このような多数決により、外れ値を除くことができるので、白とびだけでなく、画像上のノイズも低減することができる。
さらに、上述した評価値のマップ(白とびマップ)51,52、又は重みマップ53は、縮小された基準画像41と縮小された射影変換画像43とに基づいて算出されてもよい。その場合、合成画像算出部35は、縮小された基準画像41と縮小された射影変換画像43とを、これら縮小された画像41,43に基づく重みマップ53を用いて合成(重み付け加算)し、合成された画像に画素を補間することによって、画像を拡大し、反射軽減画像44を生成する。これにより、処理時間を短縮でき、また、反射軽減画像44上の境界(不連続)も抑制することができる。
次いで、図6のフローチャートを参照して、タブレットコンピュータ10によって実行される反射低減処理の手順の例を説明する。
まず、カメラモジュール109は、第1画像(基準画像)41を生成する(ブロックB101)。カメラモジュール109は、例えば、ユーザによって撮影が指示されたことに応じて第1画像41を生成する。切り出し範囲検出部31は、第1画像41から、出力画像として取得する範囲に対応する切り出し範囲412を検出する(ブロックB102)。切り出し範囲検出部31は、例えば、第1画像41内でホワイトボード(被写体)が写っている範囲を切り出し範囲412として検出することができる。
また、カメラモジュール109は、第2画像(参照画像)42を生成する(ブロックB103)。カメラモジュール109は、第1画像41と同様に、例えば、ユーザによって撮影が指示されたことに応じて第2画像42を生成する。なお、カメラモジュール109は、ブロックB102において、第1画像41から切り出し範囲を検出する処理と並行して、第2画像42を生成してもよい。これにより、全体の処理時間を短縮することができる。
対応点検出部32は、生成された第1画像41と第2画像42との対応点を検出する(ブロックB104)。位置合わせ部33は、検出された対応点に基づいて第2画像42を射影変換する(ブロックB105)。
次いで、重みマップ生成部34は、第1画像41を用いて第1白とびマップ51を生成し(ブロックB106)、第2画像42の射影変換画像43を用いて第2白とびマップ52を生成する(ブロックB107)。重みマップ生成部34は、生成された第1白とびマップ51と第2白とびマップ52とを用いて、重みマップ(アルファマップ)53を生成する(ブロックB108)。重みマップ53は、例えば、射影変換画像43と第1画像41とをアルファブレンディングするための重みαを含む。重みαは、例えば、0から1までの値である。
合成画像算出部35は、生成された重みマップ53に基づいて、第1画像41と第2画像42の射影変換画像43とを合成(アルファブレンディング)することによって、反射軽減画像(合成画像)44を生成する(ブロックB109)。合成画像算出部35は、例えば、重みαで重み付けされた射影変換画像43内の画素の画素値と、重み(1−α)で重み付けされた第1画像41内の対応する画素の画素値との和を算出することによって、反射軽減画像44を算出する。
歪み補正部36は、算出された反射軽減画像44から、切り出し範囲412に対応する画像を切り出す(ブロックB110)。そして、歪み補正部36は、切り出された画像に歪み補正(矩形補正)を施すことによって、写り込みが軽減され、且つ矩形に補正された画像45を取得する(ブロックB111)。
なお、上述した説明では、主に、被写体がホワイトボードである場合について述べたが、本実施形態は、ホワイトボードと同様に、反射による写り込みが発生するディスプレイの画面や光沢紙等のような様々な被写体に適用することができる。
以上説明したように、本実施形態によれば、画像に捉えられた、被写体上の写り込みを軽減することができる。位置合わせ部33は、被写体が撮影された基準画像41に、当該基準画像41とは異なる位置から被写体が撮影された参照画像42を位置合わせする。重みマップ生成部34は、基準画像41内の複数の画素に対応する第1評価値を算出し、位置合わせされた参照画像42内の画素に対応する第2評価値を算出し、第1評価値と第2評価値とに基づいて重みを算出する。合成画像算出部は、算出された重みに基づいて、基準画像41内の画素と位置合わせされた参照画像42内の画素とを重み付け加算することによって、合成画像を算出する。これにより、異なる位置から撮影された被写体の画像41,42を用いて、被写体上の写り込みが軽減された画像を取得することができる。
なお、本実施形態の反射低減処理の手順は全てソフトウェアによって実行することができる。このため、反射低減処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (8)

  1. 被写体が撮影された第1画像、当該第1画像とは異なる位置から前記被写体が撮影された第2画像とから対応点を検出し、検出された対応点に基づく変換係数を算出し、前記変換係数を用いて前記第2画像を変換することによって、前記第1画像に前記第2画像を位置合わせする位置合わせ手段と、
    前記第1画像内の画素が、白とびの画素であるか否かを示す第1評価値を算出し、前記位置合わせされた第2画像内の画素が、白とびの画素であるか否かを示す第2評価値を算出し、前記第1評価値と前記第2評価値とに基づいて重みを算出する重み算出手段と、
    前記重みに基づいて、前記第1画像内の画素と前記位置合わせされた第2画像内の画素とを重み付け加算することによって、合成画像を算出する合成画像算出手段とを具備する電子機器。
  2. 前記重み算出手段は、前記第1評価値が前記第2評価値よりも大きい場合、前記第1画像内の画素に対する重みを、前記第2画像内の画素に対する重みよりも大きくする請求項1記載の電子機器。
  3. 前記変換は、射影変換を含む請求項記載の電子機器。
  4. 前記第1評価値は、さらに、前記第1画像内の画素が、前記合成画像の算出に適している度合いを示し、
    前記第2評価値は、さらに、前記第2画像内の画素が、前記合成画像の算出に適している度合いを示し、
    前記重み算出手段は、さらに、前記第1画像内の画素の第1画素値が第1範囲内である場合、前記第1評価値に第1の値を設定し、当該第1画素値が前記第1範囲内でない場合、前記第1評価値に第1の値よりも大きい第2の値を設定し、前記第2画像内の画素の第2画素値が第2範囲内である場合、前記第2評価値に前記第1の値を設定し、当該第2画素値が前記第2範囲内でない場合、前記第2評価値に前記第2の値を設定する請求項1記載の電子機器。
  5. 前記第1評価値は、さらに、前記第1画像内の画素が、前記合成画像の算出に適している度合いを示し、
    前記第2評価値は、さらに、前記第2画像内の画素が、前記合成画像の算出に適している度合いを示し、
    前記重み算出手段は、さらに、前記第1画像内の画素の第1画素値が第1しきい値以上である場合、前記第1評価値に第1の値を設定し、当該第1画素値が前記第1しきい値未満である場合、前記第1評価値に第1の値よりも大きい第2の値を設定し、前記第2画像内の画素の第2画素値が第2しきい値以上である場合、前記第2評価値に前記第1の値を設定し、当該第2画素値が前記第2しきい値未満である場合、前記第2評価値に前記第2の値を設定する請求項1記載の電子機器。
  6. 前記第1画像内の切り出し範囲を検出する切り出し範囲検出手段と、
    前記合成画像から、前記切り出し範囲に対応する画像を切り出し、前記切り出し範囲を矩形に補正する補正手段とをさらに具備する請求項1記載の電子機器。
  7. 被写体が撮影された第1画像、当該第1画像とは異なる位置から前記被写体が撮影された第2画像とから対応点を検出し、検出された対応点に基づく変換係数を算出し、前記変換係数を用いて前記第2画像を変換することによって、前記第1画像に前記第2画像を位置合わせし、
    前記第1画像内の画素が、白とびの画素であるか否かを示す第1評価値を算出し、前記位置合わせされた第2画像内の画素が、白とびの画素であるか否かを示す第2評価値を算出し、前記第1評価値と前記第2評価値とに基づいて重みを算出し、
    前記重みに基づいて、前記第1画像内の画素と前記位置合わせされた第2画像内の画素とを重み付け加算することによって、合成画像を算出する画像処理方法。
  8. コンピュータにより実行されるプログラムであって、前記プログラムは、
    被写体が撮影された第1画像、当該第1画像とは異なる位置から前記被写体が撮影された第2画像とから対応点を検出し、検出された対応点に基づく変換係数を算出し、前記変換係数を用いて前記第2画像を変換することによって、前記第1画像に前記第2画像を位置合わせする手順と、
    前記第1画像内の画素が、白とびの画素であるか否かを示す第1評価値を算出し、前記位置合わせされた第2画像内の画素が、白とびの画素であるか否かを示す第2評価値を算出し、前記第1評価値と前記第2評価値とに基づいて重みを算出する手順と、
    前記重みに基づいて、前記第1画像内の画素と前記位置合わせされた第2画像内の画素とを重み付け加算することによって、合成画像を算出する手順とを前記コンピュータに実行させるプログラム。
JP2015511019A 2013-04-10 2013-04-10 電子機器および画像処理方法 Active JP6092371B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/060849 WO2014167676A1 (ja) 2013-04-10 2013-04-10 電子機器および画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2014167676A1 JPWO2014167676A1 (ja) 2017-02-16
JP6092371B2 true JP6092371B2 (ja) 2017-03-08

Family

ID=51689110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015511019A Active JP6092371B2 (ja) 2013-04-10 2013-04-10 電子機器および画像処理方法

Country Status (3)

Country Link
US (1) US20160035075A1 (ja)
JP (1) JP6092371B2 (ja)
WO (1) WO2014167676A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6067040B2 (ja) * 2015-01-30 2017-01-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10276210B2 (en) 2015-11-18 2019-04-30 International Business Machines Corporation Video enhancement
US10298864B2 (en) 2016-06-10 2019-05-21 Apple Inc. Mismatched foreign light detection and mitigation in the image fusion of a two-camera system

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10155109A (ja) * 1996-11-22 1998-06-09 Canon Inc 撮像方法及び装置並びに記憶媒体
JP3758655B2 (ja) * 2003-10-27 2006-03-22 コニカミノルタフォトイメージング株式会社 デジタルカメラ
JP2006293851A (ja) * 2005-04-13 2006-10-26 Sony Corp 画像合成装置及び方法、撮像装置並びに記録媒体
JP4356733B2 (ja) * 2006-11-09 2009-11-04 アイシン精機株式会社 車載用画像処理装置とその制御方法
JP5257044B2 (ja) * 2008-12-16 2013-08-07 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2011163766A (ja) * 2010-02-04 2011-08-25 Omron Corp 画像処理方法および画像処理システム
JP5146500B2 (ja) * 2010-08-18 2013-02-20 カシオ計算機株式会社 画像合成装置、画像合成方法、及びプログラム
US20120019686A1 (en) * 2010-07-23 2012-01-26 Casio Computer Co., Ltd. Image synthesizing device, image synthesizing method and computer readable medium
WO2012039043A1 (ja) * 2010-09-22 2012-03-29 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
JP5747474B2 (ja) * 2010-10-29 2015-07-15 カシオ計算機株式会社 撮像装置、撮像処理方法及びプログラム
JP2012169936A (ja) * 2011-02-15 2012-09-06 Canon Inc 撮像装置およびその画像処理方法
JP5791336B2 (ja) * 2011-04-01 2015-10-07 キヤノン株式会社 画像処理装置及びその制御方法
JP5901614B6 (ja) * 2011-04-08 2018-06-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像処理装置および画像処理方法
JP5967950B2 (ja) * 2011-04-20 2016-08-10 キヤノン株式会社 撮像素子及び撮像装置
JP5762142B2 (ja) * 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法

Also Published As

Publication number Publication date
WO2014167676A1 (ja) 2014-10-16
JPWO2014167676A1 (ja) 2017-02-16
US20160035075A1 (en) 2016-02-04

Similar Documents

Publication Publication Date Title
CN107197169B (zh) 一种高动态范围图像拍摄方法及移动终端
CN109691080B (zh) 拍摄图像方法、装置和终端
JP5776903B2 (ja) 画像処理装置及び画像処理方法並びにプログラム
US10317777B2 (en) Automatic zooming method and apparatus
US20160073035A1 (en) Electronic apparatus and notification control method
JP6448674B2 (ja) 文字認識可能な画像を撮影するためのガイド表示を行う、カメラ機能を有する携帯可能な情報処理装置、その表示制御方法、及びプログラム
WO2018184260A1 (zh) 文档图像的校正方法及装置
US20150187056A1 (en) Electronic apparatus and image processing method
JP6092371B2 (ja) 電子機器および画像処理方法
US9142007B2 (en) Electronic apparatus and image processing method
US10009545B2 (en) Image processing apparatus and method of operating the same
JP6290038B2 (ja) 電子機器、方法及びプログラム
US20160309086A1 (en) Electronic device and method
WO2013136602A1 (ja) プロジェクタ付き撮影装置及びその撮影制御方法
US20160035062A1 (en) Electronic apparatus and method
US9900516B2 (en) Method and electronic device for generating thumbnail image
JP2017162179A (ja) 情報処理装置、情報処理方法、及びプログラム
TW201714074A (zh) 使用手勢的拍照方法、系統與電子裝置
CN114429480A (zh) 图像处理方法与装置、芯片和电子设备
JP6103942B2 (ja) 画像データ処理装置及び画像データ処理プログラム
CN112561787A (zh) 图像处理方法、装置、电子设备及存储介质
KR20130003313A (ko) 영상표시부 테두리의 촬영영상을 이용한 터치스크린장치 및 그 방법
WO2015136697A1 (ja) 電子機器及び画像処理方法
US20150310829A1 (en) Electronic apparatus and image processing method
JP5929379B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170208

R151 Written notification of patent or utility model registration

Ref document number: 6092371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350