JP6841335B2 - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JP6841335B2
JP6841335B2 JP2019539403A JP2019539403A JP6841335B2 JP 6841335 B2 JP6841335 B2 JP 6841335B2 JP 2019539403 A JP2019539403 A JP 2019539403A JP 2019539403 A JP2019539403 A JP 2019539403A JP 6841335 B2 JP6841335 B2 JP 6841335B2
Authority
JP
Japan
Prior art keywords
image
index
composite image
information processing
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019539403A
Other languages
English (en)
Other versions
JPWO2019044608A1 (ja
Inventor
剛志 柴田
剛志 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019044608A1 publication Critical patent/JPWO2019044608A1/ja
Application granted granted Critical
Publication of JP6841335B2 publication Critical patent/JP6841335B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00161Viewing or previewing
    • H04N1/00164Viewing or previewing at a remote location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00167Processing or editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像の処理に関し、特に、複数の画像を用いた情報処理に関する。
撮像装置の廉価化、及び、画像処理の高機能化に伴い、画像を用いた処理が、広く用いられている。
また、撮像装置として、いろいろな用途に対応した撮像装置(例えば、カメラ又は画像センサ)が開発されている。
撮像装置には、撮影条件を変更できる撮像装置がある。例えば、一般的に、カメラは、露光量、及び、露光時間(シャッター速度)を変更できる。さらに、カメラは、撮影時にフラッシュを焚く、又は、焚かないかで、実質的に異なる画像を取得できる。
あるいは、可視光カメラ及び赤外線カメラのように、異なる波長領域に対する感度特性を備えたカメラがある。例えば、昼間時又は照明のある場所における人物などを監視するためには、可視光センサを用いた監視カメラが、広く普及している。一方、夜間における監視に対しては、近赤外線カメラ又は遠赤外線カメラなどの非可視光センサを用いたカメラが、広く普及している。あるいは、近紫外線カメラが、用いられる場合もある。あるいは、テラヘルツ波又は電波など赤外光の波長領域よりさらに長い波長をイメージングするデバイスが用いられる場合がある。
また、複数の画像を用いた処理(例えば、画像の合成)は、単一の画像を用いた処理における有用性に加え、さらなる有用性を提供できる。例えば、画像の合成は、ノイズ除去などを実現できる。そこで、各種の画像合成手法が開発されている(例えば、特許文献1、2、及び、非特許文献1)。
特許文献1に記載の画像処理装置は、複数の画像の合成時における、画像間の位置ずれの検出処理を高速化する。
特許文献2に記載の画像構成システムは、性質の異なる複数の画像を用いて、視認性を向上する。
非特許文献1には、複数のセンサから取得された複数の波長領域(バンド(band))、又は、性質(モード(mode))における画像を含む画像群から、各画像における視認性の高い領域を含む1枚の画像を合成する方法が開示されている。
特開2007−274213号公報 特開2016−032289号公報
Takeshi Shibata, Masayuki Tanaka, and Masatoshi Okutomi, "Visible and near-infrared image fusion based on visually salient area selection", SPIE Proceeding, Volume 9404, Digital Photography XI, 94040G (February 27, 2015)
動画像は、連続して撮影された異なる時間における複数の画像(以下、撮影時間を「フレーム」とも呼ぶ)を含む。動画像において所定の領域(例えば、視認性の高い領域)が重要となる。以下の説明では、重要となる所定の領域を「重要領域」とも呼ぶ。
一つの撮影対象に対して、複数の性質の動画像を用いて監視する場合がある。例えば、可視光の動画像と、赤外光の動画像とを用いて、対象領域の監視することが行われている。
しかし、監視者にとって、複数の動画像を同時に監視することは、難しい。そこで、複数の動画像を合成した合成画像の動画像を用いることが望まれている。複数の動画像を用いる場合、各フレームにおいて、複数の動画像における重要領域を抽出して合成した画像が用いられる(例えば、非特許文献1を参照)。
しかし、複数の動画像を用いる場合、重要領域が、各動画像において、異なる時間(フレーム)に現れる場合がある。以下、重要領域が複数の動画像において異なる時間(フレーム)に現れる場合を、「重要領域がフレームに点在する」と呼ぶ。動画像を用いて画像を合成する場合、フレームに点在する重要領域を用いた合成が必要となる。
同じフレームにおける複数の静止画像において、重要領域は、概ね同じ位置となる。しかし、人などの動体は、時間とともに位置が変化する。重要領域がフレームに点在する場合、重要領域を用いた画像合成は、異なるフレームにおける重要領域の位置の変化に対応する必要がある。
特許文献2及び非特許文献1に記載の発明は、複数の静止画像から、一枚の視認性の高い画像を合成する発明である。そのため、特許文献2及び非特許文献1に記載の発明は、フレームに点在する重要領域を用いて画像を合成することができない。
特許文献1に記載の発明は、位置ずれの検出処理を高速化する発明であり、上記問題を解決するものではない。
このように、特許文献1、2、及び、非特許文献1に記載の発明は、動画像において、フレームに点在する所定の領域(上記の例では、重要領域)を用いて画像を合成することができないという問題点があった。
本発明の目的は、上記問題点を解決し、動画像においてフレームに点在する所定の領域を用いて画像を合成する情報処理装置などを提供することにある。
本発明の一形態における情報処理装置は、画像の画素において、所定の領域を選択するための指標を算出する指標算出手段と、性質の異なる複数の動画像の第1の時刻における第1の画像と、第1の時刻より前の時刻である第2の時刻における第1の合成画像との間における位置ずれ量を算出する位置ずれ算出手段と、位置ずれ量を基に、第1の合成画像を変形して第2の合成画像を生成する画像変形手段と、第1の画像における第1の指標が所定の条件を満たす第1の領域と、第2の合成画像における第2の指標が所定の条件を満たす第2の領域とを示す第1の情報を生成する領域選択手段と、第1の画像と、第2の合成画像と、第1の情報とを基に、第1の時刻における第3の合成画像を合成する画像合成手段とを含む。
本発明の一形態における情報処理システムは、上記情報処理装置と、情報処理装置から第3の合成画像を受信して表示する表示装置とを含む。
本発明の一形態における情報処理方法は、画像の画素において、所定の領域を選択するための指標を算出し、性質の異なる複数の動画像の第1の時刻における第1の画像と、第1の時刻より前の時刻である第2の時刻における第1の合成画像との間における位置ずれ量を算出し、位置ずれ量を基に、第1の合成画像を変形して第2の合成画像を生成し、第1の画像における第1の指標が所定の条件を満たす第1の領域と、第2の合成画像における第2の指標が所定の条件を満たす第2の領域とを示す第1の情報を生成し、第1の画像と、第2の合成画像と、第1の情報とを基に、第1の時刻における第3の合成画像を合成する。
本発明の一形態におけるプログラムは、画像の画素において、所定の領域を選択するための指標を算出する処理と、性質の異なる複数の動画像の第1の時刻における第1の画像と、第1の時刻より前の時刻である第2の時刻における第1の合成画像との間における位置ずれ量を算出する処理と、位置ずれ量を基に、第1の合成画像を変形して第2の合成画像を生成する処理と、第1の画像における第1の指標が所定の条件を満たす第1の領域と、第2の合成画像における第2の指標が所定の条件を満たす第2の領域とを示す第1の情報を生成する処理と、第1の画像と、第2の合成画像と、第1の情報とを基に、第1の時刻における第3の合成画像を合成する処理とをコンピュータに実行させる

本発明に基づけば、動画像においてフレームに点在する所定の領域を用いて画像を合成するとの効果を奏することができる。
図1は、本発明における第1の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 図2は、第1の実施形態に係る情報処理装置の動作の一例を示すフローチャートである。 図3は、第1の実施形態における画像及び指標などの関係を示す図である。 図4は、第1の実施形態における合成画像を説明するための図である。 図5は、第1の実施形態の概要の構成の一例を示すブロック図である。 図6は、第1の実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 図7は、第1の実施形態に係る情報処理システムの構成の一例を示すブロック図である。
次に、本発明における実施形態について図面を参照して説明する。
各図面は、本発明の実施形態を説明するためのものである。ただし、本発明は、各図面の記載に限られるわけではない。また、各図面の同様の構成には、同じ番号を付し、その繰り返しの説明を、省略する場合がある。また、以下の説明に用いる図面において、本発明の説明に関係しない部分の構成については、記載を省略し、図示しない場合もある。
本発明の実施形態は、処理の対象として、同一の撮影対象に対して同時に撮影された、性質の異なる複数の動画像を用いる。以下の説明において、「m」は、動画像を区別するための識別子(ID:Identifier)である。「m」は1以上の整数とする。
「動画像」とは、所定の周期で撮影された「静止画像」を、連続的に含む画像群である。以下の説明において、各撮影時間を、「フレーム」とも呼ぶ。なお、撮影周期は、変化してもよい。
複数の動画像は、それぞれ、同一時刻(同一フレーム)の静止画像を含む。
ただし、本実施形態において、「同一時刻」とは、完全に同じ時刻の場合に限定されない。同一時刻の静止画像は、以下の説明において、同じ時刻の静止画像として処理可能な範囲となる所定の時間幅に含まれる静止画像でもよい。
これは、次のような要因を考慮しているためである。
実際の撮像装置において、撮影素子の性能、及び/又は、以下で説明する性質に関連して、必要となる露光時間が異なる。そのため、同一時刻に静止画像を撮影する場合でも、撮像装置は、それぞれ、厳密には異なる時刻における静止画像を撮影している。ただし、これらの静止画像は、実際の運用においては、同一時刻の静止画像として処理可能な静止画像である。
「現フレーム」は、処理対象となる静止画像の時刻である。以下の説明において、現フレームを、「第1の時刻」とも呼ぶ。
「対象画像」とは、現フレームの静止画像である。以下の説明において、「対象画像」を「第1の画像」とも呼ぶ。
「前フレーム」は、現フレームより前の時刻である。以下の説明において、前フレームを、「第2の時刻」とも呼ぶ。
「事前画像」とは、前フレームにおける静止画像である。以下の説明において、「事前画像」を「第2の画像」とも呼ぶ。
「後フレーム」は、現フレームより後の時刻である。以下の説明において、後フレームを、「第3の時刻」とも呼ぶ。
本発明の実施形態は、動画像に含まれる静止画像の一部を用いてもよい。例えば、本発明の実施形態は、所定の間隔で、静止画像を選択して処理してもよい。所定の間隔とは、例えば、一つ置き、又は、二つ置きである。あるいは、撮影間隔が30分の1秒の場合、本発明の実施形態は、1秒置きに(30フレーム当たり一つの)静止画像を選択して処理してもよい。
以下の説明において、動画像と静止画像とを区別する必要がない場合、単に「画像」と呼ぶ場合もある。
画像の「性質」とは、画像の撮影に関連する性質である。性質は、「モード」とも呼ばれる。
例えば、性質は、波長領域に対する感度特性である。波長領域の具体例は、赤外光、可視光、及び、紫外光の帯域である。例えば、画像には、可視光センサから取得された画像と、非可視光センサから取得された画像とが含まれていてもよい。あるいは、画像には、複数の非可視光センサ(例えば、近赤外線センサと近紫外線センサ)から取得された画像(複数の非可視光画像)が含まれていてもよい。あるいは、画像には、複数の可視光センサ(例えば、赤色センサと青色センサ)から取得された画像(複数の可視光画像)が含まれていてもよい。あるいは、画像には、露光量の異なる複数のカメラ、又は、シャッター速度の異なる複数のカメラから取得された画像が含まれていてもよい。
あるいは、画像には、撮影時のフラッシュの有無が異なる画像(例えば、フラッシュ画像とフラッシュなし画像)、又は、照明光が異なる画像が含まれていてもよい。この場合、各動画像における撮影時間が異なる場合もあるが、撮影時間の差は、後ほど説明する画像合成に影響しない程度の差であるとする。
あるいは、画像には、一般的なカメラなどを用いて撮影された画像に限られず、所定の情報を画像化した画像が含まれていてもよい。例えば、画像は、深度センサからの画像のように深度の情報を含んだ画像でもよい。あるいは、画像は、オプティカルフロー画像のような動きを情報化した画像、又は、ステレオ画像のように立体を情報化した画像でもよい。
あるいは、画像は、カメラなどが撮影した画像に限られず、コンピュータシミュレーション又はコンピュータグラフィックを用いて生成された画像のように、所定の処理を用いて生成又は修正された画像でもよい。
そして、本発明における実施形態は、動画像における各時刻(各フレーム)における静止画像(複数の静止画像)に対して一つの合成画像を生成する。ただし、本発明の実施形態は、複数の合成画像を生成してもよい。例えば、本発明の実施形態は、明度の変化(コントラスト)に注目した合成画像と、周波数の変化に注目した合成画像とを生成してもよい。以下の説明では、説明を明確にするため、本発明の実施形態は、一つの合成画像を生成する。
静止画像は、複数の「画素」を含む。本発明の実施形態において、画素の値は、所定の判断基準に沿った領域の選択に用いられる値(以下、「指標」と呼ぶ)の算出に用いられる。
より具体的には、画素の値は、例えば、画素の位置における光学的な値(例えば、輝度、又は、明度)である。あるいは、画素の値は、画像コントラスト、エッジの強度、又は、周波数の値である。あるいは、画素の値は、コントラストの値などを基に算出される値でもよい。画素は、複数の値を含んでもよい。
画素の値は、複数の種類の値を用いて算出されてもよい。例えば、画素の値は、コントラストと、エッジの強度とを、所定の重みを用いて結合した値でもよい。
判断基準は、任意であり、情報処理装置を用いる利用者が決定するものである。例えば、判断基準は、視認性、可読性、又は、判読性である。指標は、判断基準を基に決定された所定の計算式(画素の値を用いた計算式)を用いて算出される。
以下の説明では、一例として、判断基準に関連する指標として、視認性における重要度(例えば、コントラスト)を用いる。ただし、これは、本発明を限定するものではない。
以下の説明において、対象画像の画素を「対象画素」又は「第1の画素」とも呼ぶ。事前画像の画素を「事前画素」又は「第2の画素」とも呼ぶ。
さらに、以下の説明において、「対象画素」に対応する指標を「対象指標」又は「第1の指標」とも呼ぶ。「事前画素」に対応する指標を「事前指標」とも呼ぶ。
各静止画像及び合成画像は、同じ大きさ、つまり同じ数の画素を含む。例えば、n番目の画素は、各画像において同じ位置となる。そのため、画像を区別した説明が必要な場合を除き、以下の説明において、画素の位置としては、画像を区別しないで説明する。
例えば、後ほど詳細に説明するラベルは、画素毎に生成される情報である。これを詳細に説明すると、ラベルは、特定の画像の画素に対して生成される情報ではなく、画像間において共通である画素の各位置に対して生成される情報である。ラベルは、各画素の位置に対して一つ存在する情報である。
さらに、本発明における実施形態は、図示しない記憶部を含み、処理対象のデータ(画像など)をその記憶部(例えば、記録装置又はメモリ)に保存してもよい。この場合、以下の説明における各構成は、その記憶部から必要なデータを取得し、生成又は計算したデータを記憶部に保存すればよい。
あるいは、各構成は、データを必要とする構成にデータを送信してもよい。あるいは、各構成は、データを生成又は取得した構成から、必要となるデータを取得してもよい。このように、構成間におけるデータの送信及び受信は、任意である。そのため、以下の説明では、適宜、データの保存及び送受信に関連する説明を省略する。
<第1の実施形態>
図面を参照して、第1の実施形態について説明する。
[構成の説明]
まず、第1の実施形態に係る情報処理装置200の構成について、図面を参照して説明する。
図1は、本発明における第1の実施形態に係る情報処理装置200の構成の一例を示すブロック図である。
情報処理装置200は、指標算出部201と、領域選択部202と、指標合成部203と、画像合成部204と、位置ずれ算出部205と、画像変形部206と、指標変更部207と、画像取得部208と、画像出力部209とを含む。
画像取得部208は、図示しない撮像装置(例えば、カメラ又は測定用のセンサ)から、複数の動画像を取得する。
指標算出部201は、動画像に含まれる静止画像の画素毎の指標を算出する。例えば、指標算出部201は、対象画像における対象画素毎の対象指標を算出する。指標とは、例えば、視認性の高さにおける重要度である。指標算出部201は、後ほど説明する合成画像の画素毎の指標を算出してもよい。
本実施形態において、指標は、任意である。例えば、指標算出部201は、指標として、画像における画像コントラスト、エッジの強度、又は周波数などを基に指標を算出する算出式を用いて、指標を算出すればよい。
例えば、明暗の境となる画素は、コントラストが強い画素であり、視認性が高い画素である。指標が視認性における重要度の場合、指標算出部201は、算出式として、例えば、コントラストが強い画素に対して大きな値を算出する式を用いればよい。なお、この場合、指標算出部201は、予め、指標を算出するための算出式を保存している。
あるいは、指標算出部201は、予め実施した機械学習を用いて生成された算出式を用いて、指標(例えば、視認性における重要度)を算出してもよい。機械学習は、任意である。機械学習は、例えば、サポートベクトルマシン、ランダムフォレスト、又は、深層学習などを用いた機械学習である。例えば、指標算出部201は、予め、機械学習を実行し、機械学習の結果として、視認性の高い領域の画素に対して大きな値(例えば、重要度の値)を算出する算出式を保持しておく。
より具体的に機械学習の一例を説明すると、次のとおりである。まず、教師データとして、予め、所定の訓練画像(望ましくは、処理の対象となる画像に近い画像)と、その訓練画像における重要な領域(学習対象領域)を示すデータとを用意する。そして、機械学習として、指標算出部201は、その教師データを用いて、指標(例えば、重要度)を算出する算出式(例えば、回帰関数)を学習する。
なお、機械学習を実行する構成は、指標算出部201に限定されない。指標算出部201は、図示しない構成が実行した機械学習の結果として、算出式を取得してもよい。
領域選択部202は、対象指標と、変更指標とを基に、指標が特定の条件を満たす領域(例えば指標の値が高い領域)を選択する。
変更指標については、後ほど説明する。
そして、領域選択部202は、選択された領域における画素毎(画素の位置毎)に、所定の情報(以下、「ラベル」と呼ぶ)を生成する。
「ラベル」とは、画素毎に生成される情報であり、領域の選択に用いられた指標に対応した画素を含む画像を示す情報である。具体的には、その領域の各画素に対応する位置が、「対象指標を基に選択された」又は「変更指標を基に選択された」のどちらであるかを表す情報である。なお、以下の説明において、両方を用いて選択された画素の場合、ラベルは、対象指標を基に選択されたことを示す情報とする。ただし、両方を用いて選択された画素の場合、ラベルは、変更指標を基に選択されたことを示す情報としてもよい。あるは、ラベルは、両方の指標を基に選択されたことを示す情報でもよい。以下の説明において、ラベルを、「第1の情報」とも呼ぶ。
第1の実施形態において、ラベルの形式及び値は、任意である。例えば、領域選択部202は、ラベルとして、動画像のインデックス「m」を利用してもよい。例えば、領域選択部202は、ラベルとして、領域が「対象指標」を基に選択された場合には選択に用いられた対象画像を含む動画像のインデックス「m」を設定し、領域が「変更指標」を基に選択された場合には「0」を設定してもよい。
領域選択部202が領域を選択する手法は、任意である。例えば、領域選択部202は、対象指標及び変更指標の少なくともいずれかが、所定の閾値より高い領域を選択してもよい。なお、対象指標に対する閾値は、変更指標に対する閾値と同じでもよく、異なっていてもよい。あるいは、動画像ごとに、閾値が異なっていてもよい。
あるいは、領域選択部202は、指標が空間的に連続して高い領域を選択してもよい。この場合、領域選択部202は、各指標に対して、グラフカットなどの最適化計算を用いればよい。
指標合成部203は、対象指標と、変更指標と、ラベルとを基に、画素毎に、合成指標を設定する。より具体的には、指標合成部203は、ラベルを基に、合成指標として、領域の選択に用いられた指標(対象指標又は変更指標)の値を設定する。指標合成部203は、領域として選択されていない画素に対して、合成指標を設定しない。ただし、指標合成部203は、領域として選択されていない画素における合成指標として、所定の値(例えば、対象指標の値)を設定してもよい。
以下の説明において、合成指標を、「第3の指標」とも呼ぶ。
位置ずれ算出部205は、前フレームの合成画像と、対象画像との間の位置ずれ量を算出する。
前フレームの合成画像は、前フレームの処理において事前画像などを用いて合成された画像である。以下の説明において、前フレームの合成画像を「事前合成画像」又は「第1の合成画像」とも呼ぶ。
なお、動画像は、同一の撮影対象を撮影したものである。そのため、位置ずれ量は、同じフレームの対象画像のいずれにおいても、概ね同じ値となる。そこで、位置ずれ算出部205は、予め決めておいたいずれか一つ又は一部の対象画像と事前合成画像との位置ずれ量を算出してもよい。
位置ずれ算出部205が対象画像と事前合成画像間の位置ずれ量を算出する方法は、任意である。例えば、位置ずれ算出部205は、位置ずれ量として、対象画像と、事前合成画像とにおけるオプティカルフローを算出してもよい。より詳細には、例えば、位置ずれ算出部205は、ルーカス・金田法(Lucas−Kanade)、又は、ホーン−シャンク(Horn−Schunk)法などを用いて、対象画像と事前合成画像とのオプティカルフローを算出すればよい。
あるいは、例えば、位置ずれ算出部205は、より精緻なオプティカルフローを算出するために、前処理として、対象画像を基に簡易的な合成画像を生成する。そして、位置ずれ算出部205は、位置ずれ量として、この簡易的な合成画像と事前合成画像の位置ずれ量を基にしたオプティカルフローを算出してもよい。以下の説明において、簡易的な合成画像を「簡易合成画像」又は「第4の合成画像」とも呼ぶ。
例えば、情報処理装置200が、画像として、露光量が異なる複数の可視光画像、又は、可視光画像と非可視光画像とを取得した場合、位置ずれ算出部205は、簡易合成画像として、受信した画像からブレンディング画像を生成する。そして、位置ずれ算出部205は、生成したブレンディング画像(簡易合成画像の一例)と、事前合成画像との間の位置ずれ量を算出してもよい。
ブレンディング画像とは、複数の画像を、各画像に対して予め定めた係数を用いて合成した画像である。
画像合成部204は、対象画像と、変形画像と、ラベルとを基に、対象画像に対応した合成画像を生成する。
変形画像とは、後ほど説明する画像変形部206が、位置ずれ量を基に事前合成画像を変形した画像である。以下の説明において、変形画像を「第2の合成画像」とも呼ぶ。
また、以下の説明において、対象画像に対応した合成画像を「対象合成画像」又は「第3の合成画像」とも呼ぶ。
画像合成部204は、対象合成画像の画素値を、次のように設定する。
ラベルが対象指標を基に選択された情報の場合、画像合成部204は、対象合成画像の画素値として、対象画像の画素値を設定する。一方、ラベルが変更指標を基に選択された情報の場合、画像合成部204は、対象合成画像の画素値として、変形画像の画素値を設定する。
例えば、ラベルの情報が、領域が「対象指標」を基に選択された場合に選択された対象指標に対応した画素を含む動画像のインデックス(m)であり、領域が「変更指標」を基に選択された場合に「0」であるとする。
この場合、画像合成部204は、次のように動作する。ラベルが0より大きい値の場合(ラベル=mの場合)、画像合成部204は、対象合成画像の画素値に、ラベルの値(m)に対応する対象画像(m番目の動画像の対象画像)の画素値を設定する。一方、ラベルが0の場合、画像合成部204は、対象合成画像の画素値に、変形画像の画素値を設定する。
あるいは、画像合成部204は、対象画像を用いる場合、複数の対象画像を用いた画像(例えば、簡易合成画像)を用いて対象合成画像の画素値を設定してもよい。
あるいは、画像合成部204は、対象画像の画素値と、変形画像の画素値と、画素におけるラベルとを基に、ポアソン合成などの勾配ベースの方法を用いて、対象合成画像の画素値を算出してもよい。
画像変形部206は、位置ずれ量を基に、対象合成画像を変形する。
ここで、現フレームの対象画像は、後の時刻(後フレーム)の対象画像に対して、事前画像となる。そのため、ここで変形の対象となる対象合成画像は、後フレームの対象画像に対して、事前画像を基に合成された事前合成画像(前フレームの事前合成画像)となる。その結果、画像変形部206が変形して生成した画像は、後フレームの対象画像に対して、事前合成画像を位置ずれ量を基に変形して生成した変形画像となる。
画像変形部206が変形に用いる手法は、任意である。画像変形部206は、動画像処理において一般的に用いられている位置ずれ量に基づく変形手法を用いればよい。
指標変更部207は、位置ずれ量に基づいて、各画素における合成指標から、各画素における変更指標を算出する。より詳細には、指標変更部207は、合成指標を位置ずれ量に対応するように画素における位置を変化させて、変更指標を算出する。
ただし、情報処理装置200の動作は、上記に限定されない。例えば、情報処理装置200は、変更指標として、指標算出部201を用いて変形画像における指標を算出してもよい。この場合、情報処理装置200は、指標合成部203及び指標変更部207を含まなくてもよい。
以下の説明において、変更指標を、「第2の指標」とも呼ぶ。
ここで、現フレームの対象画像は、後の時刻(後フレーム)の対象画像に対して、事前画像となる。そのため、この時点における合成指標は、後フレームにおける対象画像に対して、事前画像に対応した事前指標を用いて合成された合成指標である。その結果、ここで算出された変更指標は、後フレームの対象画像に対して、事前画像の事前指標を用いて合成された合成指標を、位置ずれ量を基に変形した指標となる。
変形画像を基に算出された変更指標も、合成指標に対応する事前合成画像を位置ずれ量を基に変形した変形画像を基に算出された指標のため、位置ずれ量を基に合成指標を変形した指標に相当する。
指標変更部207が用いる手法は、任意である。指標変更部207は、動画像処理において一般的に用いられている位置ずれ量に基づく変形手法を用いればよい。
変更指標は、事前画像における指標(事前指標)を基に算出される値である。領域選択部202は、処理対象の静止画像(対象画像)に関連する指標(対象指標)に加え、過去の静止画像(事前画像)に関連する合成画像(事前合成画像)を位置ずれ量を基に変形した画像(変形画像)に関連する指標(変更指標)を用いて、領域を選択する。選択された領域は、対象指標が所定の値となる対象画像の領域に加え、変形画像における変更指標が所定の値となる領域を含む。そして、画像合成部204は、選択された領域を用いて、対象合成画像を生成する。そのため、情報処理装置200は、動画像において、指標が所定の値となる領域(例えば、重要領域)がフレームに点在しても、それらの領域を用いた合成画像を生成することができる。
画像出力部209は、画像合成部204が合成した合成画像を図示しない外部の装置(例えば、表示装置)に出力する。
[動作の説明]
次に、図面を参照して、第1の実施形態に係る情報処理装置200の動作を説明する。
図2は、第1の実施形態に係る情報処理装置200の動作の一例を示すフローチャートである。
情報処理装置200が最初の時刻(第1フレーム)の静止画像を処理する場合、前フレームが存在しない。そのため、情報処理装置200の動作は、「第1フレーム」と、「第2フレーム以降」とで異なる。そこで、第1フレームの動作と、第2フレーム以降の動作とを、分けて説明する。
なお、画像取得部208は、以下の動作に先立って、又は、並行して、複数の動画像を取得する。動画像は、複数の静止画像を含む。
第1フレームの動作を開始するときに、情報処理装置200は、第1フレームの動作であること示す情報を保持する。そして、情報処理装置200は、第1フレームの動作を開始する。各構成は、必要に応じて、この情報を参照する。
第1のフレームに関連する動作を説明する。
指標算出部201は、対象画像における対象指標を算出する(ステップS101)。
指標合成部203は、第1フレームの場合、対象指標を基に合成指標を算出する(ステップS102)。具体的には、第1フレームの場合、合成指標は、対象指標である。
情報処理装置200は、対象画像が第1フレームの画像か否かを判定する(ステップS103)。
今の場合、対象画像が第1フレームの画像なので(ステップS103でYes)、情報処理装置200は、ステップS106へ進む。つまり、位置ずれ算出部205及び画像変形部206は、第1フレームの場合、動作しない。
なお、位置ずれ算出部205は、第1フレームの場合、各画素の位置ずれ量として所定の値(例えば、位置ずれ量が「0」であることを示す値)を算出してもよい。この場合でも、画像変形部206は、変形画像を生成する必要はない。つまり、情報処理装置200は、ステップS103の判断を、ステップS104の後に実行してもよい。
指標変更部207は、第1フレームの場合、合成指標を基に変更指標を算出する(ステップS106)。具体的には、第1フレームの場合、変更指標は、合成指標、つまり、対象指標である。
領域選択部202は、対象指標と変更指標とを基に領域を選択し、さらにラベルを生成する(ステップS107)。ただし、第1フレームの場合、上記のとおり、変更指標は対象指標である。つまり、領域選択部202が、対象指標を基に領域を選択し、さらにラベルを生成する。なお、領域選択部202は、第1フレームの場合、ラベルを生成しなくてもよい。
画像合成部204は、第1フレームの場合、対象画像と対象指標とを基に対象合成画像を生成する(ステップS108)。
画像出力部209は、対象合成画像を出力する(ステップS109)。
ここまでが、第1フレームの動作である。
第1フレームの動作が終了すると、情報処理装置200は、第1フレームであることを示す情報を削除し、第2フレーム以降の動作であることを示す情報を保持する。各構成は、必要に応じて、この情報を参照する。
第1フレームにおいて作成された対象合成画像が、第2フレームの事前合成画像である。
次に、第2フレーム以降の動作を説明する。
指標算出部201が、対象画像における対象指標を算出する(ステップS101)。
指標合成部203が、対象指標と変更指標とを基に合成指標を算出する(ステップS102)。
情報処理装置200は、対象画像が第1フレームの画像か否かを判定する(ステップS103)。
今の場合、対象画像が第1フレームの画像ではないので(ステップS103でNo)、情報処理装置200は、ステップS104へ進む。
位置ずれ算出部205は、対象画像と事前合成画像との位置ずれ量を算出する(ステップS104)。
画像変形部206は、位置ずれ量を基に、事前合成画像を変形して、変形画像を生成する(ステップS105)。
指標変更部207は、位置ずれ量を基に、合成指標を変更して変更指標を算出する(ステップS106)。
領域選択部202が、対象指標と変更指標とを基に領域を選択し、さらにラベルを生成する(ステップS107)。
画像合成部204が、対象画像と、変形画像と、ラベルとを基に対象合成画像を生成する(ステップS108)。
画像出力部209は、対象合成画像を出力する(ステップS109)。
以後、情報処理装置200は、対象画像が終了するまで、ステップS101からS109までの動作を繰り返す。
情報処理装置200における動作の順番は上記に限定されない。
例えば、画像出力部209が対象合成画像を出力するタイミングは、上記に限定されない。例えば、情報処理装置200が図示しないバッファを含む場合、画像合成部204が対象合成画像をバッファに保存し、画像出力部209が所定の間隔で対象合成画像を出力してもよい。
なお、情報処理装置200は、動作に先立ち、変更指標などに所定の値を設定してから、動作を開始してもよい。例えば、情報処理装置200は、全ての変更指標に初期値(例えば、最低値)を設定し、事前合成画像及び変形画像に第1フレームの対象画像の簡易合成画像を設定してから、上記の動作を開始してもよい。この場合、第1フレームの動作と、第2フレーム以降の動作とが同じ動作となる。そのため、情報処理装置200は、ステップS103を含まず、第1フレームの動作を省略し、第2フレーム以降の動作から開始してもよい。
次に、図面を参照して、情報処理装置200の動作をさらに説明する。
図3は、第1の実施形態における画像及び指標などの関係を示す図である。図3において、点線より右側に示されている画像及び指標が、現フレームに関連する画像及び指標である。点線より左側に示されている画像及び指標が、前フレームに関連する画像及び指標である。点線上に示されている位置ずれ量及びラベルが、現フレームと前フレームとの両方から算出される情報である。
指標算出部201は、複数の動画像における現フレームの複数の対象画像に含まれる対象画素における対象指標を算出する。なお、前フレームの処理では、指標算出部201は、事前画像(前フレームの処理では対象画像)に含まれる事前画素における事前指標を算出している。
位置ずれ算出部205は、前フレームの事前画像を基に合成された事前合成画像と、対象画像との間の位置ずれ量を算出する。
画像変形部206は、位置ずれ量を基に事前合成画像を変形して変形画像を生成する。
指標合成部203は、事前画像に含まれる事前画素に対応した合成指標を基に算出される変更指標と、対象指標とを用いて合成指標を合成する。
指標変更部207は、位置ずれ量を基に、合成指標から新しい変更指標(対象画像に対応した変更指標)を算出する。
領域選択部202は、対象指標が所定の条件を満たす(例えば、閾値より大きい)画素の位置と、変更指標が所定の条件を満たす(閾値より大きい)画素の位置とを含む領域を選択する。図3は、領域の図示を省略している。領域については、後ほど、図4を参照して説明する。
領域選択部202は、領域が対象指標及び変更指標のいずれを用いて選択されたかを示す情報であるラベルを生成する。
画像合成部204は、領域において、変形画像と、対象画像と、ラベルとを基に、対象画像に対応する対象合成画像を合成する。
図4は、第1の実施形態における合成画像を説明するための図である。図4は、説明の参考として、第1に実施形態が生成する合成画像に加え、非特許文献1などの技術(以下、「関連技術」と呼ぶ)を用いた場合の合成画像を示す。
以下の説明において、指標に適用する所定の条件は、指標が所定の閾値より高いこととする。
説明の便宜のため、図4において、第1の動画像(以下、「動画像A」と呼ぶ)及び第2の動画像(以下、「動画像B」と呼ぶ)は、前フレームより前では指標が高い領域を含まないとする。また、図4は、位置ずれ量を基づく変形を省略している。つまり、図4において、変形画像は、事前合成画像と同じ画像となる。
まず、前フレームにおける合成画像について説明する。
動画像Aは、前フレームにおいて、指標が高い領域(以下、「領域A」と呼ぶ)を含む。一方、動画像Bは、前フレームにおいて、指標が高い領域を含まない。
この場合、前フレームにおける合成画像(事前合成画像)は、動画像Aにおける指標の高い領域(領域A)を含む画像となる。
関連技術の合成画像も、動画像Aにおける指標の高い領域(領域A)を含む画像となる。
次に、現フレームにおける合成画像について説明する。
動画像Aは、現フレームにおいて、指標が高い領域を含まない。一方、動画像Bは、現フレームにおいて、指標が高い領域(以下、「領域B」と呼ぶ)を含む。
この場合、関連技術の合成画像は、動画像Bにおける指標が高い領域(領域B)を含む画像となる。
一方、情報処理装置200は、図4に示されているように、これまで説明した動作を用いて、領域Bに加え、変形画像(事前合成画像)における指標が高い領域(領域Aに対応する領域)を合成画像に含ませる。このように、情報処理装置200は、動画像において、フレームに点在する所定の領域を用いて画像を合成することができる。
[効果の説明]
次に、第1の実施形態の効果を説明する。
第1の実施形態に係る情報処理装置200は、動画像においてフレームに点在する所定の領域を用いて画像を合成するとの効果を奏することができる。
その理由は、次のとおりである。
情報処理装置200は、指標算出部201と、領域選択部202と、画像合成部204と、位置ずれ算出部205と、画像変形部206とを含む。情報処理装置200は、性質の異なる複数の動画像を用いる。指標算出部201は、画像の画素において、所定の領域を選択するための指標を算出する。位置ずれ算出部205は、現フレーム(第1の時刻)における対象画像(第1の画像)と、現フレーム(第1の時刻)より前の時刻である前フレーム(第2の時刻)における事前合成画像(第1の合成画像)との間における位置ずれ量を算出する。画像変形部206は、位置ずれ量を基に、事前合成画像(第1の合成画像)を変形して変形画像(第2の合成画像)を生成する。領域選択部202は、対象画像(第1の画像)における対象指標(第1の指標)が所定の条件を満たす第1の領域と、変形画像(第2の合成画像)における変更指標(第2の指標)が所定の条件を満たす第2の領域とを示すラベル(第1の情報)を生成する。画像合成部204は、対象画像(第1の画像)と、変形画像(第2の合成画像)と、ラベル(第1の情報)とを基に、第1の時刻における対象合成画像(第3の合成画像)を合成する。
上記のように、指標算出部201が、画像の指標を算出する。
位置ずれ算出部205は、現フレームにおける対象画像と、前フレームにおける事前合成画像との位置ずれ量を算出する。
画像変形部206は、位置ずれ量を基に、事前合成画像を変形して変形画像を生成する。
領域選択部202は、対象画像に関連する対象指標に加え、変形画像に関連する変更指標を用いて領域を選択する。
変形画像は、位置ずれ量を考慮した前フレームに関連する合成画像である。変更指標は、位置ずれ量を考慮した事前画像(前フレームの画像)に関連する指標(事前指標)であり、変形画像に関連する指標である。
領域選択部202は、対象画像における指標(対象指標)に加え、変形画像に関連する指標(変更指標)を用いて領域を選択する。そのため、選択された領域は、対象指標が高い領域に加え、事前画像に関連する変更指標が高い領域を含む。指標が高い領域がフレームに点在していても、領域選択部202は、フレームに点在する領域(対象画像の領域と変形画像の領域)を含む領域を選択する。
そして、画像合成部204は、選択された領域において、対象画像に加え、変形画像を用いて合成画像を作成する。そのため、情報処理装置200は、動画像において、指標が所定の値となる領域(例えば、重要領域)がフレームに点在しても、それらの領域を用いた合成画像を生成することができる。
さらに、情報処理装置200は、指標合成部203と指標変更部207を含む。指標合成部203は、ラベルと、対象指標と、変更指標とを基に、合成指標を算出する。そして、指標変更部207は、位置ずれ量を基に、合成指標を変更して、後フレーム用の更新指標を算出する。情報処理装置200は、これらの構成を用いて、後フレームの動作に必要となる更新指標を算出する。ただし、情報処理装置200は、指標算出部201を用いて、変形画像から更新指標を算出してもよい。
さらに、情報処理装置200は、画像取得部208と、画像出力部209とを含む。情報処理装置200は、これらの構成を用いて、外部から動画像を取得し、所定の装置に合成画像を出力することができる。
ただし、情報処理装置200は、図示しない記憶部を含み、その記憶部から動画像を取得してもよく、対象合成画像をその記憶部に保存してもよい。この場合、情報処理装置200は、画像取得部208及び/又は画像出力部209を含まなくてもよい。
[実施形態の概要]
図面を参照して第1の実施形態の概要を説明する。
図5は、第1の実施形態の概要である情報処理装置250の構成の一例を示すブロック図である。
情報処理装置250は、指標算出部201と、領域選択部202と、画像合成部204と、位置ずれ算出部205と、画像変形部206とを含む。情報処理装置250は、性質の異なる複数の動画像を用いる。指標算出部201は、画像の画素において、所定の領域を選択するための指標を算出する。位置ずれ算出部205は、現フレーム(第1の時刻)における対象画像(第1の画像)と、現フレーム(第1の時刻)より前の時刻である前フレーム(第2の時刻)における事前合成画像(第1の合成画像)との間における位置ずれ量を算出する。画像変形部206は、位置ずれ量を基に、事前合成画像(第1の合成画像)を変形して変形画像(第2の合成画像)を生成する。領域選択部202は、対象画像(第1の画像)における対象指標(第1の指標)が所定の条件を満たす第1の領域と、変形画像(第2の合成画像)における変更指標(第2の指標)が所定の条件を満たす第2の領域とを示すラベル(第1の情報)を生成する。画像合成部204は、対象画像(第1の画像)と、変形画像(第2の合成画像)と、ラベル(第1の情報)とを基に、第1の時刻における対象合成画像(第3の合成画像)を合成する。
このように構成された情報処理装置250は、情報処理装置200と同様に、動画像においてフレームに点在する重要領域を用いて画像を合成するとの効果を奏する。
その理由は、情報処理装置250における構成が、上記のとおり動作し、情報処理装置200と同様に、動画像においてフレームに点在する所定の領域を用いて画像を合成するためである。
なお、情報処理装置250は、第1の実施形態の最小構成である。
[ハードウェアの説明]
情報処理装置200を参照して、情報処理装置200及び250のハードウェアの構成について説明する。
情報処理装置200は、次のように構成される。
例えば、情報処理装置200の各構成部は、ハードウェア回路で構成されてもよい。
あるいは、情報処理装置200において、各構成部は、ネットワークを介して接続した複数の装置を用いて、構成されてもよい。
あるいは、情報処理装置200において、複数の構成部は、1つのハードウェアで構成されてもよい。
あるいは、情報処理装置200は、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)とを含むコンピュータ装置として実現されてもよい。情報処理装置200は、上記構成に加え、さらに、入出力接続回路(IOC:Input and Output Circuit)を含むコンピュータ装置として実現されてもよい。情報処理装置200は、上記構成に加え、さらに、ネットワークインターフェース回路(NIC:Network Interface Circuit)を含むコンピュータ装置として実現されてもよい。
図6は、第1の実施形態に係る情報処理装置200のハードウェア構成の一例である情報処理装置600の構成を示すブロック図である。
情報処理装置600は、CPU610と、ROM620と、RAM630と、内部記憶装置640と、IOC650と、NIC680とを含み、コンピュータ装置を構成している。
CPU610は、ROM620からプログラムを読み込む。そして、CPU610は、読み込んだプログラムに基づいて、RAM630と、内部記憶装置640と、IOC650と、NIC680とを制御する。そして、CPU610を含むコンピュータは、これらの構成を制御し、図1に示されている、各構成としての各機能を実現する。各構成とは、指標算出部201と、領域選択部202と、指標合成部203と、画像合成部204と、位置ずれ算出部205と、画像変形部206と、指標変更部207と、画像取得部208と、画像出力部209とである。
あるいは、情報処理装置200は、ハードウェアとソフトウェア(プログラム)との組合せを用いて構成されてもよい。
そのプログラムは、コンピュータで読み取り可能にプログラムを記憶した記録媒体700に記録されて頒布されてもよい。この場合、CPU610は、記録媒体700が含むプログラムを、図示しない記録媒体読み取り装置を用いてRAM630又は内部記憶装置640に読み込み、読みこんだプログラムを基に動作すればよい。
記録媒体700は、例えば、オプティカルディスク、交換型磁気ディスク、又は、交換型半導体メモリである。
あるいは、CPU610は、NIC680を介して、図示しない外部の装置からプログラムを受け取り、RAM630又は内部記憶装置640に保存して、保存したプログラムを基に動作してもよい。
CPU610は、各機能を実現する際に、RAM630又は内部記憶装置640を、プログラムの一時記憶媒体として使用してもよい。
ROM620は、CPU610が実行するプログラム及び固定的なデータを記憶する。ROM620は、例えば、P−ROM(Programmable−ROM)又はフラッシュROMである。
RAM630は、CPU610が実行するプログラム及びデータを一時的に記憶する。RAM630は、例えば、D−RAM(Dynamic−RAM)である。
内部記憶装置640は、情報処理装置600が長期的に保存するデータ及びプログラムを記憶する。また、内部記憶装置640は、CPU610の一時記憶装置として動作してもよい。内部記憶装置640は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)、又はディスクアレイ装置である。
ここで、ROM620と内部記憶装置640は、不揮発性(non−transitory)の記録媒体である。一方、RAM630は、揮発性(transitory)の記録媒体である。そして、CPU610は、ROM620、内部記憶装置640、又は、RAM630に記憶されているプログラムを基に動作可能である。つまり、CPU610は、不揮発性記録媒体又は揮発性記録媒体を用いて動作可能である。
IOC650は、CPU610と、入力機器660及び表示機器670とのデータを仲介する。IOC650は、例えば、IOインターフェースカード又はUSB(Universal Serial Bus)カードである。さらに、IOC650は、USBのような有線に限らず、無線を用いてもよい。
入力機器660は、情報処理装置600の操作者からの入力指示を受け取る機器である。入力機器660は、例えば、キーボード、マウス又はタッチパネルである。情報処理装置600は、入力機器660を含んでもよい。この場合、入力機器660は、画像取得部208として動作してもよい。
表示機器670は、情報処理装置600の操作者に情報を表示する機器である。表示機器670は、例えば、液晶ディスプレイである。情報処理装置600は、表示機器670を含んでもよい。この場合、表示機器670は、画像出力部209として動作してもよい。
NIC680は、ネットワークを介した図示しない外部の装置とのデータのやり取りを中継する。NIC680は、例えば、LAN(Local Area Network)カードである。さらに、NIC680は、有線に限らず、無線を用いてもよい。NIC680は、画像取得部208及び/又は画像出力部209として動作してもよい。
このように構成された情報処理装置600は、情報処理装置200と同様の効果を得ることができる。
その理由は、情報処理装置600のCPU610が、プログラムに基づいて情報処理装置200と同様の機能を実現できるためである。
[システムの説明]
図面を参照して、情報処理装置200を含む情報処理システム300を説明する。
図7は、第1の実施形態に係る情報処理システム300の構成の一例を示すブロック図である。
情報処理システム300は、情報処理装置200と、画像表示装置310とを含む。
情報処理装置200は、外部の装置から動画像を取得する。そして、情報処理装置200は、上記の動作を基に合成画像を生成する。外部の装置は任意である。図7は、外部の装置の例示として、動画像を撮影する撮像装置、及び、動画像を保存している画像記録装置を示している。
そして、情報処理装置200は、生成した合成画像(対象合成画像)を画像表示装置310に送信する。
画像表示装置310は、受信した合成画像を表示する。
合成画像は、動画像においてフレームに点在する所定の領域(例えば、重要領域)を合成した画像である。そのため、重要領域がフレームに点在する場合でも、情報処理システム300の利用者は、画像表示装置310に表示された合成画像を用いて、動画像における重要領域を確認することができる。
なお、本発明の具体的な構成は前述の実施の形態に限られるものではなく、この発明の要旨を逸脱しない範囲の変更があってもこの発明に含まれる。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2017年 8月29日に出願された日本出願特願2017−164225を基礎とする優先権を主張し、その開示のすべてをここに取り込む。
200 情報処理装置
201 指標算出部
202 領域選択部
203 指標合成部
204 画像合成部
205 位置ずれ算出部
206 画像変形部
207 指標変更部
208 画像取得部
209 画像出力部
250 情報処理装置
300 情報処理システム
310 画像表示装置
600 情報処理装置
610 CPU
620 ROM
630 RAM
640 内部記憶装置
650 IOC
660 入力機器
670 表示機器
680 NIC
700 記録媒体

Claims (8)

  1. 画像の画素において、所定の領域を選択するための指標を算出する指標算出手段と、
    性質の異なる複数の動画像の第1の時刻における第1の画像と、前記第1の時刻より前の時刻である第2の時刻における第1の合成画像との間における位置ずれ量を算出する位置ずれ算出手段と、
    前記位置ずれ量を基に、前記第1の合成画像を変形して第2の合成画像を生成する画像変形手段と、
    前記第1の画像における第1の指標が所定の条件を満たす第1の領域と、前記第2の合成画像における第2の指標が所定の条件を満たす第2の領域とを示す第1の情報を生成する領域選択手段と、
    前記第1の画像と、前記第2の合成画像と、前記第1の情報とを基に、前記第1の時刻における第3の合成画像を合成する画像合成手段と
    を含む情報処理装置。
  2. 前記位置ずれ算出手段が、
    前記位置ずれ量として、1つ又は複数の前記第1の画像と前記第1の合成画像との間の前記位置ずれ量、又は、前記第1の画像を基に合成された第4の合成画像と前記第1の合成画像との間の前記位置ずれ量を算出する
    請求項1に記載の情報処理装置。
  3. 前記第1の画像における前記第1の指標と前記第2の指標とを基に第3の指標を合成する指標合成手段と
    前記位置ずれ量を基に、前記第3の指標を変更して、前記第1の時刻より後の時刻である第3の時刻における前記第2の指標を算出する指標変更手段と、
    をさらに含む請求項1又は2に記載の情報処理装置。
  4. 前記指標算出手段が、
    前記指標の算出において、所定の訓練画像と前記訓練画像における学習対象領域を示す情報とを用いた機械学習の結果を用いる
    請求項1ないし3のいずれか1項に記載の情報処理装置。
  5. 前記指標が、画像における視認性、判読性、又は、可読性に関連する画像コントラスト、エッジの強度、及び、周波数の少なくとも一つを含む
    請求項1ないし4のいずれか1項に記載の情報処理装置。
  6. 請求項1ないし5のいずれか1項に記載の前記情報処理装置と、
    前記情報処理装置から前記第3の合成画像を受信して表示する表示装置と
    を含む情報処理システム。
  7. 画像の画素において、所定の領域を選択するための指標を算出し、
    性質の異なる複数の動画像の第1の時刻における第1の画像と、前記第1の時刻より前の時刻である第2の時刻における第1の合成画像との間における位置ずれ量を算出し、
    前記位置ずれ量を基に、前記第1の合成画像を変形して第2の合成画像を生成し、
    前記第1の画像における第1の指標が所定の条件を満たす第1の領域と、前記第2の合成画像における第2の指標が所定の条件を満たす第2の領域とを示す第1の情報を生成し、
    前記第1の画像と、前記第2の合成画像と、前記第1の情報とを基に、前記第1の時刻における第3の合成画像を合成する
    を含む情報処理方法。
  8. 画像の画素において、所定の領域を選択するための指標を算出する処理と、
    性質の異なる複数の動画像の第1の時刻における第1の画像と、前記第1の時刻より前の時刻である第2の時刻における第1の合成画像との間における位置ずれ量を算出する処理と、
    前記位置ずれ量を基に、前記第1の合成画像を変形して第2の合成画像を生成する処理と、
    前記第1の画像における第1の指標が所定の条件を満たす第1の領域と、前記第2の合成画像における第2の指標が所定の条件を満たす第2の領域とを示す第1の情報を生成する処理と、
    前記第1の画像と、前記第2の合成画像と、前記第1の情報とを基に、前記第1の時刻における第3の合成画像を合成する処理と
    をコンピュータに実行させるプログラム
JP2019539403A 2017-08-29 2018-08-22 情報処理装置、情報処理方法、及び、プログラム Active JP6841335B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017164225 2017-08-29
JP2017164225 2017-08-29
PCT/JP2018/030930 WO2019044608A1 (ja) 2017-08-29 2018-08-22 情報処理装置、情報処理方法、及び、記録媒体

Publications (2)

Publication Number Publication Date
JPWO2019044608A1 JPWO2019044608A1 (ja) 2020-07-16
JP6841335B2 true JP6841335B2 (ja) 2021-03-10

Family

ID=65525429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019539403A Active JP6841335B2 (ja) 2017-08-29 2018-08-22 情報処理装置、情報処理方法、及び、プログラム

Country Status (3)

Country Link
US (1) US11055834B2 (ja)
JP (1) JP6841335B2 (ja)
WO (1) WO2019044608A1 (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4464360B2 (ja) * 2006-03-27 2010-05-19 富士フイルム株式会社 監視装置、監視方法、及びプログラム
JP4597087B2 (ja) 2006-03-30 2010-12-15 キヤノン株式会社 画像処理装置及び方法、及び撮像装置
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP5168097B2 (ja) * 2008-11-13 2013-03-21 ソニー株式会社 撮像装置、画像処理装置、撮像装置の制御方法およびプログラム
KR101665130B1 (ko) * 2009-07-15 2016-10-25 삼성전자주식회사 복수의 인물에 대한 이미지 생성 장치 및 방법
JP2011242134A (ja) * 2010-05-14 2011-12-01 Sony Corp 画像処理装置、画像処理方法、プログラム、及び電子装置
KR101926490B1 (ko) * 2013-03-12 2018-12-07 한화테크윈 주식회사 이미지 처리 장치 및 방법
JP2015104016A (ja) * 2013-11-26 2015-06-04 キヤノン株式会社 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体
JP6497579B2 (ja) 2014-07-25 2019-04-10 日本電気株式会社 画像合成システム、画像合成方法、画像合成プログラム
US10404969B2 (en) * 2015-01-20 2019-09-03 Qualcomm Incorporated Method and apparatus for multiple technology depth map acquisition and fusion

Also Published As

Publication number Publication date
US20200219241A1 (en) 2020-07-09
US11055834B2 (en) 2021-07-06
JPWO2019044608A1 (ja) 2020-07-16
WO2019044608A1 (ja) 2019-03-07

Similar Documents

Publication Publication Date Title
KR102480245B1 (ko) 패닝 샷들의 자동 생성
CN105611275B (zh) 执行电子装置的多照相机捕捉控制的方法及其设备
EP3107065A1 (en) Methods and systems for providing virtual lighting
CN100527789C (zh) 用于拍摄的装置和方法
KR101489048B1 (ko) 촬상 장치, 화상 처리 방법 및 프로그램을 기록하기 위한 기록 매체
US9749601B2 (en) Imaging device, image display method, and storage medium for displaying reconstruction image
JP2020535758A (ja) 画像処理方法、装置、及び、デバイス
US20150116529A1 (en) Automatic effect method for photography and electronic apparatus
KR20140004592A (ko) 3d 깊이 정보를 기반으로 한 이미지 블러
CN109146906B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP2015076717A5 (ja)
JP2016024489A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5713885B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
CN107493427A (zh) 移动终端的对焦方法、装置和移动终端
WO2016114897A1 (en) Event triggered by the depth of an object in the field of view of an imaging device
CN108259722A (zh) 成像方法、装置及电子设备
CN108053438A (zh) 景深获取方法、装置及设备
CN106709894A (zh) 一种图像实时拼接方法及系统
JP2020028096A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2015026880A (ja) 撮像装置
JP6841335B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US9094581B2 (en) Imaging device and distance information detecting method
US20150278600A1 (en) Displaying relative motion of objects in an image
US11184561B2 (en) Method for improved acquisition of images for photogrammetry
CN104793910A (zh) 一种信息处理的方法及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210201

R150 Certificate of patent or registration of utility model

Ref document number: 6841335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150