JP7496564B2 - 画像処理装置、画像処理方法、及び、プログラム - Google Patents

画像処理装置、画像処理方法、及び、プログラム Download PDF

Info

Publication number
JP7496564B2
JP7496564B2 JP2022553685A JP2022553685A JP7496564B2 JP 7496564 B2 JP7496564 B2 JP 7496564B2 JP 2022553685 A JP2022553685 A JP 2022553685A JP 2022553685 A JP2022553685 A JP 2022553685A JP 7496564 B2 JP7496564 B2 JP 7496564B2
Authority
JP
Japan
Prior art keywords
image data
partial
moving object
partial image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022553685A
Other languages
English (en)
Other versions
JPWO2022181048A1 (ja
Inventor
祐樹 岸田
拓 仮屋崎
省吾 佐々木
寿人 吉松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2022181048A1 publication Critical patent/JPWO2022181048A1/ja
Application granted granted Critical
Publication of JP7496564B2 publication Critical patent/JP7496564B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本開示は、画像処理装置、画像処理方法、及び、プログラムに関する。
特許文献1には、連写により得られた複数の原画像を合成してハイレゾ画像を生成する技術が開示されている。
特開2019-200559号公報
本開示は、複数の画像の合成結果を容易に確認することができる画像処理装置などを提供する。
本開示の一態様に係る画像処理装置は、カメラにより複数のタイミングで撮影されることで得られた複数の画像データを取得する取得部と、前記複数の画像データにおいて移動する物体が撮影された移動物体領域を検出する検出部と、(i)前記複数の画像データにおける、前記検出部において検出された移動物体領域以外の静止物体領域を合成することで第1部分画像データを生成し、(ii)前記複数の画像データのうちの一部の画像データの前記移動物体領域を用いて第2部分画像データを生成し、(iii)生成した前記第1部分画像データ及び前記第2部分画像データを含む合成画像データを生成する生成部と、前記合成画像データと、前記第1部分画像データ及び前記第2部分画像データを区別するための領域情報とを出力する出力部と、を備える。
また、本開示の一態様に係る画像処理方法は、カメラにより複数のタイミングで撮影されることで得られた複数の画像データを取得する取得ステップと、前記複数の画像データにおいて移動する物体が撮影された移動物体領域を検出する検出ステップと、(i)前記複数の画像データにおける、前記検出ステップにおいて検出された移動物体領域以外の静止物体領域を合成することで第1部分画像データを生成し、(ii)前記複数の画像データのうちの一部の画像データの前記移動物体領域を用いて第2部分画像データを生成し、(iii)生成した前記第1部分画像データ及び前記第2部分画像データを含む合成画像データを生成する生成ステップと、前記合成画像データと、前記第1部分画像データ及び前記第2部分画像データを区別するための領域情報とを出力する出力ステップと、を含む。
また、本開示の一態様に係るプログラムは、カメラにより複数のタイミングで撮影されることで得られた複数の画像データを取得する取得ステップと、前記複数の画像データにおいて移動する物体が撮影された移動物体領域を検出する検出ステップと、(i)前記複数の画像データにおける、前記検出ステップにおいて検出された移動物体領域以外の静止物体領域を合成することで第1部分画像データを生成し、(ii)前記複数の画像データのうちの一部の画像データの前記移動物体領域を用いて第2部分画像データを生成し、(iii)生成した前記第1部分画像データ及び前記第2部分画像データを含む合成画像データを生成する生成ステップと、前記合成画像データと、前記第1部分画像データ及び前記第2部分画像データを区別するための領域情報とを出力する出力ステップと、を含む画像処理方法を、コンピュータに実行させるためのプログラムである。
なお、これらの全般的または具体的な態様は、システム、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの非一時的な記録媒体で実現されてもよく、システム、集積回路、コンピュータプログラム及び非一時的な記録媒体の任意な組み合わせで実現されてもよい。
本開示における画像処理装置などは、複数の画像データの合成結果を容易に確認することができる。
図1は、実施の形態1に係る画像処理装置の一例を示す図である。 図2は、実施の形態1に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 図3は、実施の形態1に係る画像処理装置の機能構成の一例を示すブロック図である。 図4は、撮影部による撮影処理について説明するための図である。 図5は、生成部による合成処理について説明するための図である。 図6は、被写体に移動物体が含まれる場合に撮影される複数の画像データの一例を示す図である。 図7は、生成部により生成される合成画像データの一例を示す図である。 図8は、生成部により生成される出力画像データの一例を示す図である。 図9は、実施の形態2に係る画像処理装置による画像処理方法の一例を示すフローチャートである。 図10は、画像処理装置による画像処理方法の他の一例を示すフローチャートである。 図11は、出力画像データと共に表示するUI(User Interface)の一例を示す図である。 図12は、実施の形態2に係る画像処理装置の一例を示す図である。 図13は、実施の形態2に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 図14は、実施の形態2に係る画像処理装置の機能構成の一例を示すブロック図である。 図15は、実施の形態2に係る画像処理装置による画像処理方法の一例を示すフローチャートである。
(本開示の基礎となった知見)
本発明者は、「背景技術」の欄において記載した、画像処理装置に関し、以下の問題が生じることを見出した。
特許文献1の技術では、連写により得られた複数の原画像を合成してハイレゾ画像を生成する場合において、被写体の中に動体が含まれるとハイレゾ画像に残像が生じる。この技術では、この動体の残像を解消するために動体が検出された領域を1枚の画像からなる代表画像に置き換えている。
特許文献1のような従来技術では、複数の画像を用いて画質を向上させるための合成が行われた領域と、動体の残像を解消するために代表画像に置き換えられた領域とが混在する合成画像を生成する。このような合成画像を示す合成画像データでは、置き換えられた領域において画質を向上させるための合成が行われていないため、合成が行われた領域の部分画像データと置き換えられた領域の部分画像データとの間で画質に差が生じている。
しかしながら、ユーザは、合成が行われた領域の部分画像データと置き換えられた領域の部分画像データとを区別することが難しい。特に、カメラに搭載されているようなディスプレイは、ユーザが視認するのに十分なサイズではないため、ユーザは、このディスプレイにおいてこれらの2つの領域を区別することが難しい。このように、従来技術には、複数の画像データを用いて合成が行われた領域の部分画像データと、一部の画像データを用いて生成された領域の部分画像データとをユーザが容易に区別することが難しいという課題がある。
そこで、本開示は、複数の画像データの合成結果を容易に確認することができる画像処理装置などを提供する。
本開示の一態様に係る画像処理装置は、カメラにより複数のタイミングで撮影されることで得られた複数の画像データを取得する取得部と、前記複数の画像データにおいて移動する物体が撮影された移動物体領域を検出する検出部と、(i)前記複数の画像データにおける、前記検出部において検出された移動物体領域以外の静止物体領域を合成することで第1部分画像データを生成し、(ii)前記複数の画像データのうちの一部の画像データの前記移動物体領域を用いて第2部分画像データを生成し、(iii)生成した前記第1部分画像データ及び前記第2部分画像データを含む合成画像データを生成する生成部と、前記合成画像データと、前記第1部分画像データ及び前記第2部分画像データを区別するための領域情報とを出力する出力部と、を備える。
これによれば、複数の画像データを用いて合成が行われた第1部分画像データと、一部の画像データを用いて生成された第2部分画像データとを区別するための領域情報を出力する。このため、ユーザは、複数の画像データを用いて合成が行われた第1部分画像データと、一部の画像データを用いて生成された第2部分画像データとを容易に区別することができる。よって、ユーザは、複数の画像データの合成結果を容易に確認することができる。
また、前記領域情報は、前記第2部分画像データであることを示す領域画像データであり、前記生成部は、さらに、前記合成画像データの前記第2部分画像データに、前記領域画像データを重畳した出力画像データを生成し、前記出力部は、前記出力画像データを出力してもよい。
このため、ユーザは、表示された出力画像データを視認するだけで、複数の画像データの合成結果を容易に確認することができる。
また、前記検出部は、前記複数の画像データのうちの、第1画像データと、前記第1画像データ以外の複数の第2画像データのそれぞれとの間で、位置が互いに対応する画素が有する画素値同士の差分が所定の閾値以上である場合に、当該画素を含む領域を前記移動物体領域として検出してもよい。
このため、複数の画像データ間において所定の閾値以上の差分を有するような、高解像度化が難しい領域を検出して、複数の画像データを用いた合成を行わないため、合成後の画像データに残像が生じることを低減することができる。
また、さらに、ユーザからの入力を受け付ける受付部と、前記受付部により受け付けられた前記入力に応じて前記所定の閾値を変更する変更部と、を備え、前記検出部は、前記変更部により変更された前記所定の閾値を用いて、前記移動物体領域の検出を行ってもよい。
このため、ユーザは、移動物体領域を検出するための所定の閾値を容易に変更することができる。
また、前記生成部は、前記第2部分画像データの生成において、前記複数の画像データのうちの一つの画像データの前記移動物体領域の部分画像データを前記第2部分画像データとして決定してもよい。
また、前記生成部は、前記第2部分画像データの生成において、それぞれの画像データが示す画像が撮影されたときの前記カメラが備えるイメージセンサの位置に基づいて、前記第1画像データの移動物体領域の部分画像データと、前記複数の第2画像データのうちで前記第1画像データの移動物体領域の部分画像データとの前記差分が前記所定の閾値未満である1以上の第2画像データの前記移動物体領域の部分画像データを位置合わせして合成することで前記第2部分画像データを生成してもよい。
このため、移動物体領域においても、画素値の差分が所定の閾値未満である一部の画像データを合成することで、一枚の画像データのみを用いる場合よりも、第2部分画像データにおける画質を向上させることができる。
また、前記生成部は、前記第2部分画像データの生成に用いられた画像データの枚数に応じた表示態様の前記領域画像データを生成してもよい。
これによれば、第2部分画像データの生成に用いられた画像データの数に応じて領域画像データの表示態様を変更するため、ユーザは、第2部分画像データのうちで、生成に用いられた画像データの数毎の領域を容易に区別することができる。
また、前記複数の画像データは、前記カメラが備えるイメージセンサを前記イメージセンサの画素ピッチ以下の距離単位で移動させて移動させた位置毎に撮影することで得られ、前記生成部は、前記第1部分画像データの生成において、それぞれの画像データが示す画像が撮影されたときの前記イメージセンサの位置に基づいて、前記複数の画像データの前記静止物体領域の複数の部分画像データを位置合わせして合成してもよい。
このため、高解像度化した第1部分画像データを生成することができる。
また、本開示の一態様に係る画像処理方法は、カメラにより複数のタイミングで撮影されることで得られた複数の画像データを取得する取得ステップと、前記複数の画像データにおいて移動する物体が撮影された移動物体領域を検出する検出ステップと、(i)前記複数の画像データにおける、前記検出ステップにおいて検出された移動物体領域以外の静止物体領域を合成することで第1部分画像データを生成し、(ii)前記複数の画像データのうちの一部の画像データの前記移動物体領域を用いて第2部分画像データを生成し、(iii)生成した前記第1部分画像データ及び前記第2部分画像データを含む合成画像データを生成する生成ステップと、前記合成画像データと、前記第1部分画像データ及び前記第2部分画像データを区別するための領域情報とを出力する出力ステップと、を含む。
これによれば、複数の画像データを用いて合成が行われた第1部分画像データと、一部の画像データを用いて生成された第2部分画像データとを区別するための領域情報を出力するため、ユーザは、複数の画像データの合成結果を容易に確認することができる。
また、本開示の一態様に係るプログラムは、カメラにより複数のタイミングで撮影されることで得られた複数の画像データを取得する取得ステップと、前記複数の画像データにおいて移動する物体が撮影された移動物体領域を検出する検出ステップと、(i)前記複数の画像データにおける、前記検出ステップにおいて検出された移動物体領域以外の静止物体領域を合成することで第1部分画像データを生成し、(ii)前記複数の画像データのうちの一部の画像データの前記移動物体領域を用いて第2部分画像データを生成し、(iii)生成した前記第1部分画像データ及び前記第2部分画像データを含む合成画像データを生成する生成ステップと、前記合成画像データと、前記第1部分画像データ及び前記第2部分画像データを区別するための領域情報とを出力する出力ステップと、を含む画像処理方法を、コンピュータに実行させるためのプログラムである。
これによれば、複数の画像データを用いて合成が行われた第1部分画像データと、一部の画像データを用いて生成された第2部分画像データとを区別するための領域情報を出力するため、ユーザは、複数の画像データの合成結果を容易に確認することができる。
なお、これらの全般的または具体的な態様は、システム、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの非一時的な記録媒体で実現されてもよく、システム、集積回路、コンピュータプログラム及び非一時的な記録媒体の任意な組み合わせで実現されてもよい。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者は、当業者が本開示を十分に理解するために添付図面及び以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
(実施の形態1)
[1.構成]
図1は、実施の形態1に係る画像処理装置の一例を示す図である。
図1に示すように、画像処理装置100は、カメラである。画像処理装置100は、画像を撮影し、得られた画像データに対して画像処理を実行する。画像処理装置100は、具体的には、撮影により得られた画像データの画質を向上させるために、異なる複数のタイミングで撮影することで得られた複数の画像データを合成する画像処理を行う。例えば、複数の画像データは、連写により得られる。複数の画像データは、互いに画素位置が画素単位以下の距離でずれて撮影された被写体を含む。複数の画像データは、例えば、カメラが三脚に固定されるなどで静止した状態で、カメラが備えるイメージセンサをシフトさせながら連写することで得られる。
なお、このような複数の画像データは、カメラが備えるイメージセンサをシフトさせながら連写することで得られることに限らずに、カメラが備えるレンズをシフトさせながら連写することで得られてもよい。また、複数の画像データは、カメラが静止した状態で連写することで得られることに限らずに、ユーザが手持ちで、手ぶれ補正を利用して撮影することで得られてもよい。この場合の複数の画像データは、互いに画素位置が画素単位以下の距離でずれて撮影された被写体を含む。
図2は、実施の形態1に係る画像処理装置のハードウェア構成の一例を示すブロック図である。
図2に示すように、画像処理装置100は、ハードウェア構成として、イメージセンサ101と、アクチュエータ102と、プロセッサ103と、メインメモリ104と、ストレージ105と、通信IF(Interface)106と、入力IF(Interface)107と、ディスプレイ108とを備える。
イメージセンサ101は、図示しない光学系を介して、イメージセンサ101の受光面に結像された像の光による明暗の度合いを電荷の量に光電変換することで画像データを生成するためのセンサである。イメージセンサ101は、例えば、ベイヤー配列で並べられた複数の画素を有する。
アクチュエータ102は、イメージセンサ101を、イメージセンサ101の受光面に平行な方向に、イメージセンサ101の画素ピッチ以下の単位で移動させる。ここでは、画素ピッチは、イメージセンサ101が有する複数のサブピクセルを1画素としたときの画素ピッチであり、互いに隣接する2つのサブピクセルのピッチを示す。イメージセンサ101が有する複数のサブピクセルは、例えば、ベイヤー配列で並べられている。
プロセッサ103は、ストレージ105等に記憶されたプログラムを実行するCPU(Central Processing Unit)と、画像処理を行うハードウェアである画像処理回路とを含む。
メインメモリ104は、揮発性の記憶領域である。メインメモリ104は、イメージセンサ101により生成された画像データを一時的に記憶したり、プロセッサ103による処理の過程で生成されたデータを一時的に記憶させるために用いられたり、プロセッサ103がプログラムを実行するときに使用するワークエリアとして用いられたりする。プロセッサ103による処理の過程で生成されたデータには、例えば、プロセッサ103により生成された合成画像(後述参照)を示す合成画像データなどが含まれる。
ストレージ105は、プログラムなどの各種データを保持する不揮発性の記憶領域である。ストレージ105は、例えば、イメージセンサ101により生成された画像データ、プロセッサ103による処理の結果生成された各種データなどを記憶する。各種データには、合成画像データ、出力画像データ、領域情報などが含まれる。
通信IF106は、スマートフォン、タブレット、PC(Personal Computer)、サーバなどの外部機器との間でデータの伝送を行うための通信インタフェースである。通信IF106は、例えば、無線LANインタフェース、Bluetooth(登録商標)インタフェースなどの無線通信のためのインタフェースであってもよい。通信IF106は、USB(Universal Serial Bus)、有線LANインタフェースなどの有線通信のためのインタフェースであってもよい。なお、通信IF106は、上記に限らずに、通信ネットワークを介して外部機器との間でデータの伝送を行うための通信インタフェースであってもよい。また、通信IF106は、メモリカードなどの記録媒体から当該記録媒体に格納されているデータを読み出すリーダであってもよい。
入力IF107は、ユーザからの入力を受け付けるためのインタフェースである。入力IF107は、ボタン、ダイヤル、タッチパネルであってもよい。
ディスプレイ108は、液晶ディスプレイ、有機ELディスプレイなどである。ディスプレイ108は、イメージセンサ101により生成された画像データに基づく画像を表示する。ディスプレイ108は、プロセッサ103による処理結果を表示してもよい。
図3は、実施の形態1に係る画像処理装置の機能構成の一例を示すブロック図である。
図3に示すように、画像処理装置100は、撮影部111と、取得部112と、検出部113と、生成部114と、出力部115とを備える。画像処理装置100は、さらに、受付部116と、変更部117とを備えてもよい。
撮影部111は、複数のタイミングで撮影する、例えば、連写することで複数の画像データを生成する。撮影部111は、具体的には、第1画像データと、第1画像データで撮影された像が画素ピッチ以下の距離単位でずれて撮影された第2画像データとを含む複数の画像データを生成する。撮影部111は、イメージセンサ101をイメージセンサ101の画素ピッチ以下の距離単位でアクチュエータ102により移動させて、移動させた位置毎に撮影することで複数の画像データを得る。複数の画像データは、例えば、画素ピッチ単位で互いに上下左右の4方向にずれて撮影されることで得られた4つの画像データと、これらの4つの画像データの中心で撮影された1枚を含み、互いに上下左右の4方向にずれて撮影されることで得られた4つの画像データとを含む。
なお、撮影部111により生成される複数の画像データには、各画像データの画像が撮影されたイメージセンサ101の位置を特定するための位置情報が対応付けられていてもよい。位置情報は、イメージセンサ101の位置を示す情報(例えば、後述する位置P1~P8)であってもよいし、高解像度化のための合成処理に使用される最小の数(例えば8つ)単位の画像データのデータセットにおける撮影の順番を示す情報であってもよいし、撮影時刻(例えば、後述する時刻t1~t8)を示す情報であってもよい。
なお、撮影部111による撮影処理の具体例は、後述する。撮影部111は、例えば、プロセッサ103がストレージ105に格納されているプログラムを実行して、イメージセンサ101及びアクチュエータ102の動作を制御することで実現される。
取得部112は、撮影部111で撮影されることで得られた複数の画像データを取得する。本実施の形態において、取得部112による複数の画像の取得は、イメージセンサ101により生成された画像データをメインメモリ104に一時的に記憶させる処理である。言い換えると、取得部112による複数の画像の取得は、画像処理装置100がイメージセンサ101により生成された複数の画像データを取得する処理である。取得部112は、撮影部111で撮影されることで得られた複数の画像データを、所定数ずつ撮影される毎に取得してもよいし、1つずつ撮影される毎に取得してもよいし、所定期間において蓄積された複数の画像データを所定数単位で取得してもよい。なお、所定数は、後述する生成部114によって高解像度化のための合成処理に使用される画像データの最小の数(本実施の形態では8つ)である。取得部112は、例えば、メインメモリ104などにより実現される。
なお、検出部113及び生成部114は、高解像度化のための合成処理に使用される最小の数の画像データを含むデータセット単位で各処理を行う。つまり、検出部113及び生成部114は、各データセットに含まれる複数の画像毎に、以降で説明する処理を行う。
検出部113は、取得部112により取得された複数の画像データにおいて移動する物体が撮影された移動物体領域を検出する。具体的には、検出部113は、複数の画像データのうちの、第1画像データと、第1画像データ以外の複数の第2画像データのそれぞれとの間で、位置が互いに対応する画素が有する画素値同士の差分が所定の閾値以上であるか否かを判定する。
検出部113は、例えば、第1画像データの各画素について上記の判定を行い、少なくとも1枚の第2画像データとの間で所定の閾値以上となった画素の領域を移動物体領域であると判定してもよい。反対に、検出部113は、全ての第2画像データとの間で所定の閾値未満となった画素の領域を移動物体領域以外の静止物体領域であると判定してもよい。
また、検出部113は、例えば、第1画像データの各画素について上記の判定を行い、所定の閾値未満となった画素値を有する画素を含む第2画像データが所定の枚数未満であれば、当該画素の領域を移動物体領域であると判定してもよい。反対に、検出部113は、所定の閾値未満となった画素値を有する画素を含む第2画像データが所定の枚数以上であれば、当該画素の領域を静止物体領域であると判定してもよい。
また、検出部113は、例えば、第1画像データの各画素について上記の判定を行い、第1画像データと複数の第2画像データのそれぞれとの間で、位置が互いに対応する画素が有する画素値同士を比較することで複数の差分を算出し、複数の差分のうちの最大値が所定の閾値以上であれば、当該画素値を有する画素を含む領域を移動物体領域であると判定してもよい。本実施の形態では、検出部113は、高解像度化のための合成処理に使用される8つの画像データのうちの1つの画像データ(第1画像データ)と、残りの7つの画像データとの間で上記の比較を行うことで7つの差分を算出し、算出した7つの差分のうちの最大値が所定の閾値未満であれば、当該画素値を有する画素を含む領域を移動物体領域であると判定する。反対に、検出部113は、上記複数の差分のうちの最大値が所定の閾値以上であれば、当該画素値を有する画素を含む領域を静止物体領域であると判定してもよい。
また、検出部113は、例えば、第1画素の各画素について上記の判定を行い、第1画像データと複数の第2画像データのそれぞれとの間で、位置が互いに対応する画素が有する画素値同士を比較することで複数の差分を算出し、複数の差分のうちの最小値が所定の閾値以上であれば、当該画素値を有する画素を含む領域を移動物体領域であると判定してもよい。
また、検出部113は、画素毎に上記の判定を行うとしたが、これに限らずに、所定の数の画素で構成されるブロック単位で上記の判定を行ってもよい。この場合、比較対象としては、各ブロックにおける画素値の代表値が用いられてもよい。代表値は、例えば、各ブロックにおける固定の位置における画素の画素値、各ブロックにおける画素値の平均値、各ブロックにおける画素値の最大値、各ブロックにおける画素値の最小値、各ブロックにおける画素値の中央値などである。
なお、第1画像データの画素と位置が対応する第2画像データの画素の画素値は、イメージセンサ101の第1画像データの画素と同じ素子から得られた画素値であってもよい。第1画像データの画素と位置が対応する第2画像データの画素の画素値は、イメージセンサ101の位置ずれを考慮して第1画像データの画素の位置と同じ位置における画素値であって、第2画像データの画素値から補間して得られた画素値であってもよい。
また、検出部113は、例えば、この判定に用いる所定の閾値をストレージ105から取得してもよい。検出部113は、位置が互いに対応する画素が有する画素値同士の差分が所定の閾値以上である場合、当該画素を含む領域を移動物体領域として検出する。反対に、検出部113は、位置が互いに対応する画素が有する画素値同士の差分が所定の閾値未満である場合、当該画素を含む領域を静止物体領域として検出する。つまり、検出部113は、第1画像データと第2画像データとを比較して、互いに同じ位置の領域において異なる被写体が撮影されている領域を検出することで、移動物体領域及び静止物体領域を検出する。移動物体領域は、静止物体領域以外の領域である。検出部113は、例えば、プロセッサ103がストレージ105に格納されているプログラムを実行することで実現される。
生成部114は、複数の画像データにおいて、検出部113により移動物体領域が検出されたか否かを判定し、移動物体領域が検出された場合、複数の画像データに対して、静止物体領域と、移動物体領域とで異なる画像処理を行うことで、合成画像データを生成する。この場合、生成部114は、静止物体領域における第1部分画像データと、移動物体領域における第2部分画像データとを生成し、第1部分画像データ及び第2部分画像データを合成することで、第1部分画像データ及び第2部分画像データを含む合成画像データを生成する。ここで、静止物体領域及び移動物体領域は、例えば、合成画像データにおいて互いに異なる領域である。静止物体領域は、合成画像データにおける移動物体領域以外の領域である。なお、部分画像データとは、1枚の画像データの一部の領域における画像データを示し、当該一部の領域に含まれる複数の画素の集合である。
まず、生成部114は、取得部112により取得された複数の画像データの静止物体領域における複数の部分画像データを合成することで第1部分画像データを生成する。具体的には、生成部114は、複数の画像データが示す複数の画像が撮影された位置に基づいて、これらの複数の画像データの静止物体領域における複数の部分画像データを位置合わせして合成することで第1部分画像データを生成する。なお、複数の画像データが示す複数の画像が撮影された位置は、撮影部111により複数の画像データのそれぞれに対応付けられている位置情報で示される。生成部114は、例えば、複数の画像データのうちの一つの画像データの隣接する2つの画素の間の位置における画素の画素値を、他の画像データの画素値を用いて算出することで補間する。なお、隣接する2つの画素は、画像データにおいて、垂直方向に隣接していてもよいし、水平方向に隣接していてもよいし、垂直方向及び水平方向に交差する斜め方向(例えば、垂直方向及び水平方向に斜め45度、135度に交差する方向)に隣接していてもよい。これにより、生成部114は、複数の画像データのそれぞれよりも高解像度化した第1部分画像データを生成する。ここで、高解像度化とは、画素密度を向上させる処理のことである。
また、生成部114は、複数の画像データのうちの一部の画像データの移動物体領域を用いて第2部分画像データを生成する。具体的には、生成部114は、複数の画像データのうちの一つの画像データ(例えば、第1画像データ)の移動物体領域の部分画像データを抽出し、抽出した部分画像データを用いて第2部分画像データを生成する。例えば、生成部114は、複数の画像データのうちの一つの画像データの移動物体領域の部分画像データを、第1部分画像データの解像度(画素密度)に合わせて拡大することで第2部分画像データを生成する。なお、ここでいう「拡大する」とは、具体的には、一つの画像データの隣接する2つの画素の間の位置における画素の画素値を、隣接する2つの画素の画素値及びこれら2つの画素の周囲の画素の画素値の少なくとも一方を用いて算出することで補間することである。なお、隣接する2つの画素は、第1部分画像データの生成の説明と同様の画素である。そして、生成部114は、生成した第1部分画像データと、生成した第2部分画像データとを組み合わせることで合成画像データを生成する。
また、生成部114は、第1部分画像データ及び第2部分画像データを区別するための領域情報を生成する。領域情報は、例えば、第2部分画像データであることを示す領域画像データである。領域画像データは、例えば、第2部分画像データと同じサイズ及び同じ形状の画像データであり、合成画像データにおける、第2部分画像データと同じ位置に配置される画像データである。なお、画像データのサイズとは、ここでは、画素数で規定されるサイズであり、画像データの情報量とは異なる。そして、生成部114は、合成画像データの第2部分画像データに、領域画像データを重畳した出力画像データを生成する。
なお、生成部114によって生成される領域画像データは、例えば、第1部分画像データであることを示す画像データであってもよい。この場合の領域画像データは、例えば、第1部分画像データと同じサイズ及び同じ形状の画像データであり、合成画像データにおける、第1部分画像データと同じ位置に配置される画像データである。
また、生成部114は、移動物体領域が検出されない場合、複数の画像データが示す複数の画像が撮影された位置に基づいて、これらの複数の画像データを位置合わせして合成することで合成画像データを生成する。この処理は、第1部分画像データを生成する処理と同様の処理であり、処理対象が複数の画像データの全部である点が異なる。なお、生成部114は、第1部分画像データを生成する処理において、複数の画像データの全部を合成し、合成後に移動物体領域を抽出することで第1部分画像データを生成してもよい。
生成部114は、例えば、プロセッサ103がストレージ105に格納されているプログラムを実行することで実現される。
出力部115は、出力画像データを出力する。これにより、出力部115は、合成画像データと、領域情報とを出力する。例えば、出力部115は、出力画像データが示す出力画像をディスプレイ108に表示することで、出力画像データを出力してもよい。出力部115は、例えば、プロセッサ103がストレージ105に格納されているプログラムを実行して、ディスプレイ108の動作を制御することで実現される。
なお、出力部115は、出力画像データを、通信IF106を介して外部装置に出力してもよい。出力部115は、出力画像データを外部装置が備えるディスプレイに表示させてもよいし、出力画像データを外部装置に出力(送信)してもよい。
また、出力部115は、出力画像データを出力することで合成画像データ及び領域情報を出力するとしたが、1つの出力画像データとして出力することに限らずに、合成画像データと、領域情報とを出力してもよい。例えば、出力部115は、合成画像データ及び領域情報を外部装置に出力し、外部装置が備えるディスプレイに、領域情報が示す領域画像が合成画像に重畳された出力画像を表示させてもよい。
受付部116は、ユーザからの入力を受け付ける。具体的には、受付部116は、ユーザから検出部113による移動物体領域を検出するために用いる所定の閾値を変更するための入力を受け付ける。
受付部116は、例えば、入力IF107などにより実現される。
変更部117は、受付部116により受け付けられた、検出部113による移動物体領域を検出する基準となる所定の閾値を変更するための入力に応じて所定の閾値を変更する。変更部117は、例えば、変更後の所定の閾値をストレージ105に格納する。これにより検出部113は、変更部117により変更された所定の閾値を用いて、移動物体領域の検出を行うことになる。変更部117は、例えば、プロセッサ103がストレージ105に格納されているプログラムを実行することで実現される。
次に、撮影部111による撮影処理の具体例について図4を用いて説明する。
図4は、撮影部による撮影処理について説明するための図である。
図4の(a)は、複数の画像を撮影するときのイメージセンサ101の位置について説明するための図である。図4の(b)は、複数の画像を撮影するときのイメージセンサ101の1組の画素群121の位置について説明するための図である。
図4では、イメージセンサ101に含まれる1組の画素群121を基準として説明する。1組の画素群121は、例えば、1つの赤(R)のサブピクセル、2つの緑(G)のサブピクセル、及び、1つの青(B)のサブピクセルを含む。この図に示されるように、イメージセンサ101は、例えば、ベイヤー配列で並べられた複数の画素を有する。ここでは、画素ピッチは、サブピクセルを1画素としたときの画素ピッチであり、互いに隣接する2つのサブピクセルのピッチを示す。
撮影部111による撮影では、まず、最初の位置P1で撮影し、その後イメージセンサ101を画素ピッチ単位で異なる三方向に順に移動させる毎に、3つの位置P2、P3、P4で撮影する。例えば、イメージセンサ101は、図4の(a)における(1)の矢印、(2)の矢印、及び、(3)の矢印で示される方向に順に移動される。このように、位置P1を基準として異なる三方向にイメージセンサ101が移動される毎に撮影されることで、図4の(b)の時刻t1~t4に示されるように、画素ピッチ単位で互いに上下左右の4方向にずれて撮影される。なお、図4の(a)では、1組の画素群121に含まれる赤(R)のサブピクセルの中心の位置をイメージセンサ101の基準の位置としている。また、図4では、イメージセンサ101が位置P1に配置される場合における、1組の画素群121が位置する領域である基準領域B1が示されている。
次に、4つの位置P1~P4の中心の位置P5にイメージセンサ101を(4)の矢印で示されるように移動させて撮影し、その後イメージセンサ101を画素ピッチ単位で異なる三方向に順に移動させる毎に、3つの位置P6、P7、P8で撮影する。例えば、イメージセンサ101は、図4の(a)における(5)の矢印、(6)の矢印、及び、(7)の矢印で示される方向に順に移動される。このように、位置P5を基準として異なる三方向にイメージセンサ101が移動される毎に撮影されることで、図4の(b)の時刻t5~t8に示されるように、画素ピッチ単位で互いに上下左右の4方向にずれて撮影される。このように、撮影部111は、8枚の画像を示す8つの画像データを生成する。
次に、生成部114による合成処理の具体例について図5を用いて説明する。
図5は、生成部による合成処理について説明するための図である。
図5の(a)に示すように、互いに画素ピッチ単位以下で互いにずれた8つの位置で撮影された8つの画像データが得られることで、基準領域B1を基準とする8つの異なる位置における画素値が、4つのサブピクセルのそれぞれで取得される。生成部114は、4つのサブピクセルのそれぞれで取得される基準領域B1を基準とする8つの異なる位置における画素値を用いて、合成を行うことで、元の画像データの4倍の解像度の画像データを生成する。
図6は、被写体に移動物体が含まれる場合に撮影される複数の画像データの一例を示す図である。図7は、生成部により生成される合成画像データの一例を示す図である。図8は、生成部により生成される出力画像データの一例を示す図である。
高解像度化のために複数の画像データを連写で撮影すると、被写体に移動物体が含まれる場合に、移動物体とカメラとの間の相対的な位置が変化する。このため、図6に示す時刻t1~t8での撮影で得られた複数の画像データ131~138において、それぞれ異なる位置に移動物体141~148が撮影される。このように、異なる位置に移動物体141~148が撮影された場合、生成部114は、複数の画像データ131~138の全ての領域を用いて合成を行うと、移動物体141~148が含まれる移動物体領域152で移動物体の残像が生じてしまう。なお、移動物体領域152は、画像データ131と他の画像データ132~138いずれかの画像データとの間で画素値の差が所定の閾値以上である領域である。このため、移動物体領域152は、複数の画像データ131~138において移動物体141~148が少なくとも含まれる領域を加算した領域である。
このため、生成部114は、静止物体領域151では、複数の画像データ131~138の静止物体領域151の複数の部分画像データを合成して第1部分画像データを生成し、移動物体領域152では、画像データ131の移動物体領域152の部分画像データを拡大して第2部分画像データを生成する。そして、生成部114は、生成した第1部分画像データ及び第2部分画像データを組み合わせて、図7に示すような合成画像データ160を生成する。
そして、生成部114は、第2部分画像データを区別するための領域画像データ172を合成画像データ160の移動物体領域152に重畳することで、出力画像データ170を生成する。領域画像データ172は、例えば、図8に示すようなゼブラパターンであってもよいし、単色で塗りつぶしたパターンであってもよい。
なお、出力画像データは、静止物体領域と移動物体領域とで色合いが異なるように変更された画像データであってもよいし、静止物体領域と移動物体領域とで明るさが異なるように変更された画像データであってもよいし、静止物体領域と移動物体領域との一方の領域を白黒にし他方の領域をカラーにした画像データであってもよい。
[2.動作]
次に、画像処理装置100の動作について説明する。
図9は、実施の形態1に係る画像処理装置による画像処理方法の一例を示すフローチャートである。
まず、撮影部111は、イメージセンサ101を移動させながら複数のタイミングで撮影することで、複数の画像データを生成する(S11)。
次に、取得部112は、撮影部111により生成された複数の画像データ(本実施の形態では8つの画像データ)を取得する(S12)。ここで、複数の画像データは、検出部113及び生成部114における各処理の処理対象となるデータセットに含まれる。
次に、検出部113は、取得部112により取得されたデータセットに含まれる複数の画像データにおいて移動物体が撮影された移動物体領域を検出する(S13)。
次に、生成部114は、検出部113により移動物体領域が検出されたか否かを判定する(S14)。
生成部114は、移動物体領域が検出された場合(S14でYes)、データセットに含まれる複数の画像データを用いて、第1部分画像データ及び第2部分画像データを生成し、第1部分画像データ及び第2部分画像データを含む合成画像データを生成する(S15)。そして、生成部114は、合成画像データに領域画像データを重畳した出力画像データを生成する(S16)。
次に、出力部115は、出力画像データが示す出力画像をディスプレイ108に表示する(S17)。
一方で、生成部114は、移動物体領域が検出されない場合(S14でNo)、複数の画像データの全部を用いて重ねて合成することで全体を高解像度化した合成画像データを生成する(S18)。
出力部115は、合成画像データが示す合成画像をディスプレイ108に表示する(S19)。
なお、検出部113による移動物体領域を検出する基準となる所定の閾値を変更する場合には、次のような処理方法となる。
図10は、画像処理装置による画像処理方法の他の一例を示すフローチャートである。図11は、出力画像データが示す出力画像と共に表示するUI(User Interface)の一例を示す図である。
この例では、図9の例のステップS11~S19の後に、さらに、ステップS20及びS21を行う点が異なる。また、ステップS17及びS19で出力画像データが示す出力画像または合成画像データが示す合成画像をディスプレイ108に表示する場合、出力画像または合成画像と共に、所定の閾値を変更する入力を受け付けるためのUI180をディスプレイ108に表示させる点が異なる。
ステップS17またはS19の後で、受付部116は、UI180への入力を受け付けたか否かを判定する(S20)。
次に、受付部116がUI180への入力を受け付けた場合(S20でYes)、変更部117は、受付部116により受け付けられた入力に応じて所定の閾値を変更する(S21)。例えば、変更部117は、UI180で示されるスライダが右側に調整されるほど小さい値になるように所定の閾値を変更する。なお、変更部117は、上記とは反対に、UI180で示されるスライダが右側に調整されるほど大きい値になるように所定の閾値を変更してもよい。所定の閾値が変更されると、変更された所定の閾値を用いてステップS13が行われる。
これにより、検出部113による移動物体領域の検出結果が変わりうるため、出力画像データ170に含まれる領域画像データ172の形状及びサイズなども変わりうる。例えば、出力画像に含まれる領域画像データ172のサイズは、所定の閾値が小さくなるように変更されることで、所定の閾値を超える画素の数が増加しうるため、大きくなりうる。反対に、例えば、出力画像に含まれる領域画像データ172のサイズは、所定の閾値が大きくなるように変更されることで、所定の閾値を超える画素の数が減少しうるため、小さくなりうる。よって、ユーザは、UI180で示されるスライダを調整することで、ディスプレイ108に表示される領域画像データ172の形状及びサイズを変更することができる。なお、領域画像データのサイズとは、ここでは、画素数で示されるサイズであり、領域画像データの情報量とは異なる。
[3.効果など]
本実施の形態に係る画像処理装置100によれば、複数の画像データを用いて合成が行われた第1部分画像データと、一部の画像データを用いて生成された第2部分画像データとを区別するための領域情報を出力するため、ユーザは、第1部分画像データと第2部分画像データとを、容易に区別することができる。
また、本実施の形態に係る画像処理装置100において、領域情報は、第2部分画像データであることを示す領域画像データであり、生成部114は、合成画像データの第2部分画像データに、領域画像データを重畳した出力画像データを生成し、出力部115は、出力画像データを出力する。このため、ユーザは、例えばディスプレイ108に表示された出力画像を視認するだけで、複数の画像データの合成結果を容易に確認することができる。
また、本実施の形態に係る画像処理装置100において、検出部113は、複数の画像データのうちの、第1画像データと、第1画像データ以外の複数の第2画像データのそれぞれとの間で、位置が互いに対応する画素が有する画素値同士の差分が所定の閾値以上である場合に、当該画素を含む領域を移動物体領域として検出する。このため、複数の画像データ間において所定の閾値以上の差分を有するような、複数の画像データの合成処理による高解像度化が難しい領域を検出して、複数の画像データを用いた合成を行わないため、合成後の画像データに残像が生じることを低減することができる。
また、本実施の形態に係る画像処理装置100は、さらに、ユーザからの入力を受け付ける受付部116と、受付部116により受け付けられた入力に応じて所定の閾値を変更する変更部117と、を備える。検出部113は、変更部117により変更された所定の閾値を用いて、移動物体領域の検出を行う。このため、ユーザは、移動物体領域を検出するための所定の閾値を容易に変更することができる。
また、本実施の形態に係る画像処理装置100において、複数の画像データは、カメラが備えるイメージセンサをイメージセンサの画素ピッチよりも小さい距離単位で移動させて移動させた位置毎に撮影することで得られる。生成部114は、第1部分画像データの生成において、それぞれの画像データが撮影されたときのイメージセンサの位置に基づいて、複数の画像データの静止物体領域の複数の部分画像データを位置合わせして合成する。このため、高解像度化した第1部分画像データを生成することができる。
(実施の形態1の変形例)
上記実施の形態では、生成部114は、移動物体領域と判定された領域において、複数の画像データのうちの一つの画像データの移動物体領域の部分画像データを抽出し、抽出した部分画像データを用いて第2部分画像データを生成するとしたが、複数の画像データよりも少ない複数枚の画像データの移動物体領域の部分画像データを合成してもよい。つまり、生成部114は、第2部分画像データの生成において、それぞれの画像データが撮影されたときのイメージセンサ101の位置に基づいて、第1画像データの移動物体領域と、複数の第2画像データのうちで第1画像データの移動物体領域との差分が所定の閾値未満である1以上の第2画像データの移動物体領域の部分画像データを位置合わせして合成することで第2部分画像データを生成してもよい。このため、移動物体領域においても、画素値の差分が所定の閾値未満である一部の画像データを合成することで、一枚の画像データのみを用いる場合よりも、第2部分画像データにおける画質を向上させることができる。なお、一部の画像データは、第1部分画像データの生成に用いられる画像データの数よりも少ない数の画像データである。このため、第2部分画像データは、第1部分画像データよりも画質が低くなる。つまり、本変形例においても、第1部分画像データと第2部分画像データとの間には、画質に差が生じるため、これらの部分画像データを区別するための領域情報を出力することで、ユーザは、第1部分画像データと第2部分画像データとを容易に区別することができる。
また、生成部114は、第2部分画像データの生成に用いられた画像データの数に応じた表示態様の領域画像を示す領域画像データを生成してもよい。つまり、生成部114は、N枚(Nは自然数)の部分画像データで生成した第2部分画像データと、N枚とは異なるM枚(Mは自然数)の部分画像データで生成した第2部分画像データとを区別できるように、これらの第2部分画像データの領域毎に異なる表示態様の領域画像を示す領域画像データを生成してもよい。このように、第2部分画像データの生成に用いられた画像データの数に応じて領域画像データが示す領域画像の表示態様を変更するため、ユーザは、第2部分画像データのうちで、生成に用いられた画像データの数毎の領域を容易に区別することができる。
なお、生成部114は、第2部分画像データ内における動き信頼度に応じた表示態様の領域画像を示す領域画像データを生成してもよい。つまり、生成部114は、動き信頼度が所定の信頼度よりも高い領域と所定の信頼度以下の領域とで異なる表示態様の領域画像を示す領域画像データを生成してもよい。
(実施の形態2)
実施の形態1では、カメラが画像処理装置の機能を実現するとしたが、カメラとは異なるPCなどの情報処理装置が画像処理装置の機能を実現してもよい。実施の形態2は、カメラとは異なる情報処理装置が画像処理装置の機能を実現する例である。
図12は、実施の形態2に係る画像処理装置の一例を示す図である。
図12に示すように、画像処理装置200は、PCなどの情報処理装置である。画像処理装置200は、カメラ10により複数のタイミングで撮影されることで生成された複数の画像データ20を取得して、取得した複数の画像データ20に対して画像処理を実行する。画像処理装置200は、具体的には、撮影により得られた画像データの画質を向上させるために、異なる複数のタイミングで撮影することで得られた複数の画像データ20を合成する画像処理を行う。例えば、複数の画像データ20は、連写により得られる。
図13は、実施の形態2に係る画像処理装置のハードウェア構成の一例を示すブロック図である。
図13に示すように、画像処理装置200は、ハードウェア構成として、プロセッサ201と、メインメモリ202と、ストレージ203と、通信IF(Interface)204と、入力IF(Interface)205と、ディスプレイ206とを備える。
プロセッサ201は、ストレージ203等に記憶されたプログラムを実行するプロセッサである。
メインメモリ202は、揮発性の記憶領域である。メインメモリ202は、プロセッサ201による処理の過程で生成されたデータを一時的に記憶させるために用いられたり、プロセッサ201がプログラムを実行するときに使用するワークエリアとして用いられたり、通信IF204により受信されたデータを一時的に記憶するために用いられたりする。プロセッサ201による処理の過程で生成されたデータには、例えば、プロセッサ201により生成された合成画像(後述参照)を示す合成画像データなどが含まれる。通信IF204により受信されたデータには、例えば、カメラ10から取得した複数の画像データ20が含まれる。
ストレージ203は、プログラムなどの各種データを保持する不揮発性の記憶領域である。ストレージ203は、例えば、プロセッサ201による処理の結果生成された各種データ、通信IF204により受信された複数の画像データ20などを含むデータを記憶する。各種データには、合成画像データ、出力画像データ、領域情報などが含まれる。
通信IF204は、スマートフォン、タブレット、PC(Personal Computer)、サーバなどの外部機器との間でデータの伝送を行うための通信インタフェースである。通信IF204は、例えば、無線LANインタフェース、Bluetoothインタフェースなどの無線通信のためのインタフェースであってもよい。通信IF204は、USB(Universal Serial Bus)、有線LANインタフェースなどの有線通信のためのインタフェースであってもよい。なお、通信IF204は、上記に限らずに、通信ネットワークを介して外部機器との間でデータの伝送を行うための通信インタフェースであってもよい。また、通信IF204は、メモリカードなどの記録媒体から当該記録媒体に格納されているデータを読み出すリーダであってもよい。通信IF204は、例えば、カメラ10から、カメラ10により生成された複数の画像データ20を受信する。
入力IF205は、ユーザからの入力を受け付けるためのインタフェースである。入力IF205は、マウス、タッチパッド、タッチパネル、トラックボールなどのポインティングデバイスであってもよいし、キーボードであってもよい。
ディスプレイ206は、液晶ディスプレイ、有機ELディスプレイなどである。ディスプレイ206は、プロセッサ201による処理結果を表示してもよい。
図14は、実施の形態2に係る画像処理装置の機能構成の一例を示すブロック図である。
図14に示すように、画像処理装置200は、取得部211と、検出部212と、生成部213と、出力部214とを備える。画像処理装置200は、さらに、受付部215と、変更部216とを備えてもよい。検出部212、生成部213、出力部214、受付部215、及び、変更部216は、それぞれ、実施の形態1における検出部113、生成部114、出力部115、受付部116、及び、変更部117と同じ機能を有するため説明を省略する。
取得部211の機能は、実施の形態1の画像処理装置100が備える取得部112と同じであるが、通信IF204により実現される点が異なる。
次に、画像処理装置200の動作について説明する。
図15は、実施の形態2に係る画像処理装置による画像処理方法の一例を示すフローチャートである。
画像処理装置200では、取得部211がカメラ10から通信IF204を介して複数の画像データを取得する(S12a)。
ステップS13~S19は、実施の形態1と同様であるので同じ符号を付して説明を省略する。
このように、画像処理装置は、カメラで実現されなくてもよく、PCなどの情報処理装置で実現されてもよい。
(その他の実施の形態)
上記実施の形態では、複数の画像データは、イメージセンサ101をイメージセンサ101の画素ピッチ以下の距離単位で移動させて移動させた位置毎に撮影することで得られる画像データであり、上記実施の形態に係る画像処理装置は、複数の画像データに高解像度化のための合成を行うとしたが、これに限らない。
例えば、複数の画像データは、多重露出のために撮影された画像データであってもよく、画像処理装置は、複数の画像データの画素値の品質(つまり、画質)を向上させるための合成を行ってもよい。この場合、画像処理装置は、静止物体領域において画素値の品質を向上させるための合成を行い、移動物体領域において1枚の画像データを用いて静止物体領域において合成された画像データに合わせた画質調整を行ってもよい。
また、例えば、複数の画像データは、HDR(High Dynamic Range)合成のために撮影された画像データであってもよく、画像処理装置は、複数の画像データを用いてHDR(High Dynamic Range)合成を行ってもよい。この場合、画像処理装置は、静止物体領域においてHDR合成を行い、移動物体領域において1枚の画像データを用いて静止物体領域においてHDR合成された画像データに合わせた画質調整を行ってもよい。
また、上記実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
また、各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
また、本開示の全般的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの非一時的な記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及びコンピュータ読み取り可能な非一時的な記録媒体の任意な組み合わせで実現されてもよい。
例えば、本開示は、画像処理装置(コンピュータまたはDSP)が実行する画像処理方法として実現されてもよいし、上記画像処理方法をコンピュータまたはDSPに実行させるためのプログラムとして実現されてもよい。
また、上記実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、上記実施の形態において説明された走行音生成装置の動作における複数の処理の順序は、変更されてもよいし、複数の処理は、並行して実行されてもよい。
その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、または、本開示の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本開示に含まれる。
本開示は、複数の画像データの合成結果を容易に確認することができる画像処理装置、画像処理方法及びプログラムなどとして有用である。
10 カメラ
20 複数の画像データ
100、200 画像処理装置
101 イメージセンサ
102 アクチュエータ
103、201 プロセッサ
104、202 メインメモリ
105、203 ストレージ
106、204 通信IF
107、205 入力IF
108、206 ディスプレイ
111 撮影部
112、211 取得部
113、212 検出部
114、213 生成部
115、214 出力部
116、215 受付部
117、216 変更部
121 画素群
131~138 画像データ
141~148 移動物体
151 静止物体領域
152 移動物体領域
160 合成画像データ
170 出力画像データ
172 領域画像データ
180 UI
B1 基準領域
P1~P8 位置
t1~t8 時刻

Claims (9)

  1. カメラにより複数のタイミングで撮影されることで得られた複数の画像データを取得する取得部と、
    前記複数の画像データにおいて移動する物体が撮影された移動物体領域を検出する検出部と、
    (i)前記複数の画像データにおける、前記検出部において検出された移動物体領域以外の静止物体領域を合成することで第1部分画像データを生成し、(ii)前記複数の画像データのうちの一部の画像データの前記移動物体領域を用いて第2部分画像データを生成し、(iii)生成した前記第1部分画像データ及び前記第2部分画像データを含む合成画像データを生成する生成部と、
    前記合成画像データと、前記第1部分画像データ及び前記第2部分画像データを区別するための領域画像データとを出力する出力部と、を備え
    前記生成部は、前記第2部分画像データの生成に用いられた画像データの枚数に応じた表示態様の前記領域画像データを生成する
    画像処理装置。
  2. 前記領域画像データは、前記第2部分画像データであることを示
    前記生成部は、さらに、前記合成画像データの前記第2部分画像データに、前記領域画像データを重畳した出力画像データを生成し、
    前記出力部は、前記出力画像データを出力する
    請求項1に記載の画像処理装置。
  3. 前記検出部は、前記複数の画像データのうちの、第1画像データと、前記第1画像データ以外の複数の第2画像データのそれぞれとの間で、位置が互いに対応する画素が有する画素値同士の差分が所定の閾値以上である場合に、当該画素を含む領域を前記移動物体領域として検出する
    請求項2に記載の画像処理装置。
  4. さらに、
    ユーザからの入力を受け付ける受付部と、
    前記受付部により受け付けられた前記入力に応じて前記所定の閾値を変更する変更部と、を備え、
    前記検出部は、前記変更部により変更された前記所定の閾値を用いて、前記移動物体領域の検出を行う
    請求項3に記載の画像処理装置。
  5. 前記生成部は、前記第2部分画像データの生成において、前記複数の画像データのうちの一つの画像データの前記移動物体領域の部分画像データを前記第2部分画像データとして決定する
    請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記生成部は、前記第2部分画像データの生成において、それぞれの画像データが示す画像が撮影されたときの前記カメラが備えるイメージセンサの位置に基づいて、前記第1画像データの移動物体領域の部分画像データと、前記複数の第2画像データのうちで前記第1画像データの移動物体領域の部分画像データとの前記差分が前記所定の閾値未満である1以上の第2画像データの前記移動物体領域の部分画像データを位置合わせして合成することで前記第2部分画像データを生成する
    請求項3または4に記載の画像処理装置。
  7. 前記複数の画像データは、前記カメラが備えるイメージセンサを前記イメージセンサの画素ピッチ以下の距離単位で移動させて移動させた位置毎に撮影することで得られ、
    前記生成部は、前記第1部分画像データの生成において、それぞれの画像データが示す画像が撮影されたときの前記イメージセンサの位置に基づいて、前記複数の画像データの前記静止物体領域の複数の部分画像データを位置合わせして合成する
    請求項1からのいずれか1項に記載の画像処理装置。
  8. カメラにより複数のタイミングで撮影されることで得られた複数の画像データを取得する取得ステップと、
    前記複数の画像データにおいて移動する物体が撮影された移動物体領域を検出する検出ステップと、
    (i)前記複数の画像データにおける、前記検出ステップにおいて検出された移動物体領域以外の静止物体領域を合成することで第1部分画像データを生成し、(ii)前記複数の画像データのうちの一部の画像データの前記移動物体領域を用いて第2部分画像データを生成し、(iii)生成した前記第1部分画像データ及び前記第2部分画像データを含む合成画像データを生成する生成ステップと、
    前記合成画像データと、前記第1部分画像データ及び前記第2部分画像データを区別するための領域画像データとを出力する出力ステップと、を含み、
    前記生成ステップでは、前記第2部分画像データの生成に用いられた画像データの枚数に応じた表示態様の前記領域画像データを生成する
    画像処理方法。
  9. カメラにより複数のタイミングで撮影されることで得られた複数の画像データを取得する取得ステップと、
    前記複数の画像データにおいて移動する物体が撮影された移動物体領域を検出する検出ステップと、
    (i)前記複数の画像データにおける、前記検出ステップにおいて検出された移動物体領域以外の静止物体領域を合成することで第1部分画像データを生成し、(ii)前記複数の画像データのうちの一部の画像データの前記移動物体領域を用いて第2部分画像データを生成し、(iii)生成した前記第1部分画像データ及び前記第2部分画像データを含む合成画像データを生成する生成ステップと、
    前記合成画像データと、前記第1部分画像データ及び前記第2部分画像データを区別するための領域画像データとを出力する出力ステップと、を含み、
    前記生成ステップでは、前記第2部分画像データの生成に用いられた画像データの枚数に応じた表示態様の前記領域画像データを生成する
    画像処理方法を、コンピュータに実行させるためのプログラム。
JP2022553685A 2021-02-25 2021-12-28 画像処理装置、画像処理方法、及び、プログラム Active JP7496564B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021028201 2021-02-25
JP2021028201 2021-02-25
PCT/JP2021/048739 WO2022181048A1 (ja) 2021-02-25 2021-12-28 画像処理装置、画像処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JPWO2022181048A1 JPWO2022181048A1 (ja) 2022-09-01
JP7496564B2 true JP7496564B2 (ja) 2024-06-07

Family

ID=83048814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022553685A Active JP7496564B2 (ja) 2021-02-25 2021-12-28 画像処理装置、画像処理方法、及び、プログラム

Country Status (2)

Country Link
JP (1) JP7496564B2 (ja)
WO (1) WO2022181048A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008066978A (ja) 2006-09-06 2008-03-21 Casio Comput Co Ltd 撮像装置
JP2008301043A (ja) 2007-05-30 2008-12-11 Fujitsu Ltd 画像合成装置と画像合成方法および画像合成プログラム
JP2013236249A (ja) 2012-05-09 2013-11-21 Hitachi Kokusai Electric Inc 画像処理装置及び画像処理方法
WO2014126093A1 (ja) 2013-02-14 2014-08-21 株式会社日立国際電気 画像処理装置
JP2017005553A (ja) 2015-06-12 2017-01-05 リコーイメージング株式会社 撮影装置及び撮影方法、制御装置及び制御方法、並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008066978A (ja) 2006-09-06 2008-03-21 Casio Comput Co Ltd 撮像装置
JP2008301043A (ja) 2007-05-30 2008-12-11 Fujitsu Ltd 画像合成装置と画像合成方法および画像合成プログラム
JP2013236249A (ja) 2012-05-09 2013-11-21 Hitachi Kokusai Electric Inc 画像処理装置及び画像処理方法
WO2014126093A1 (ja) 2013-02-14 2014-08-21 株式会社日立国際電気 画像処理装置
JP2017005553A (ja) 2015-06-12 2017-01-05 リコーイメージング株式会社 撮影装置及び撮影方法、制御装置及び制御方法、並びにプログラム

Also Published As

Publication number Publication date
WO2022181048A1 (ja) 2022-09-01
JPWO2022181048A1 (ja) 2022-09-01

Similar Documents

Publication Publication Date Title
CN107409166B (zh) 摇摄镜头的自动生成
JP5744161B2 (ja) 画像処理装置
JP5687608B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
US8310553B2 (en) Image capturing device, image capturing method, and storage medium having stored therein image capturing program
KR101783229B1 (ko) 화상처리장치 및 그 제어 방법
JP6308748B2 (ja) 画像処理装置、撮像装置及び画像処理方法
JP5984493B2 (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
JP2007074578A (ja) 画像処理装置、撮影装置、及びプログラム
JPWO2019092844A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5212046B2 (ja) デジタルカメラおよび画像処理装置並びに画像処理プログラム
JP5970012B2 (ja) 画像処理装置およびその制御方法
US10116865B2 (en) Image processing apparatus and image processing method for calculating motion vector between images with different in-focus positions
JP6091727B1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6541501B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP7496564B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP6270423B2 (ja) 画像処理装置およびその制御方法
WO2018119787A1 (zh) 一种去马赛克方法及装置
JP5055571B2 (ja) 画像処理装置、電子カメラ、および画像処理プログラム
TWI345413B (en) Document camera and its method for sharpening partial image on projected image
JP2014086899A (ja) 画像処理装置、画像処理方法およびプログラム。
JP2017204787A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
EP3992901B1 (en) Image correction device
JP5539561B2 (ja) 画像処理装置およびその方法
JP7391502B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018190201A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240517

R150 Certificate of patent or registration of utility model

Ref document number: 7496564

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150