JP7249766B2 - 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム - Google Patents

情報処理装置、システム、情報処理装置の制御方法、及び、プログラム Download PDF

Info

Publication number
JP7249766B2
JP7249766B2 JP2018234705A JP2018234705A JP7249766B2 JP 7249766 B2 JP7249766 B2 JP 7249766B2 JP 2018234705 A JP2018234705 A JP 2018234705A JP 2018234705 A JP2018234705 A JP 2018234705A JP 7249766 B2 JP7249766 B2 JP 7249766B2
Authority
JP
Japan
Prior art keywords
image
image quality
area
quality
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018234705A
Other languages
English (en)
Other versions
JP2020095611A (ja
Inventor
英之 池上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018234705A priority Critical patent/JP7249766B2/ja
Priority to US16/705,661 priority patent/US11410286B2/en
Publication of JP2020095611A publication Critical patent/JP2020095611A/ja
Application granted granted Critical
Publication of JP7249766B2 publication Critical patent/JP7249766B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、情報処理装置、システム、情報処理装置の制御方法、及び、プログラムに関する。
近年ネットワークカメラでは特定の領域は高画質で、その他の領域は低画質で配信することで効率よくデータ量の削減を可能とするものが多くなってきている。これらの配信の例について図2(A)を参照して説明する。図2(A)において画像200は画角全体を同一の画質で撮影した場合の画像の一例を示している。画像200は、ドア201から出入りする人を主に監視するために設定したカメラにより撮影された画像である。画像210は、同一の画角において特定の領域を高画質で、その他の領域を低画質で撮影した画像の一例を示している。枠線211は高画質で撮影される特定の領域を示している。説明の便宜上点線で明確に示したが実際の画像には枠線は表示されていなくてもよい。このとき枠線211の枠内領域の画像212は高画質に、枠外領域の画像213は低画質になっている。
このように、監視目的において重要な領域を予め指定して画像を生成することで、重要な領域を高画質で、それ以外の領域は低画質で配信することが可能となり、配信する画像のデータ量を削減することが可能となる。このような機能のことを本明細書ではADSR(Area-specific Data Size Reduction:エリア固有データサイズ削減)と呼ぶこととする。このようなADSR機能を用いた画像を配信するネットワークカメラとして、特許文献1には顔領域を高画質で配信可能なネットワークカメラが記載されている。
特開2011-87090号公報
しかしながら、上述の技術についてデータ量削減の効果を追求しようとする場合、指定範囲外の領域の画像の画質をさらに低下させることとなり、高画質領域と低画質領域との差が拡大され、画像が見にくくなるという結果を招いてしまう。
そこで本発明は、ADSRにより生成された高画質領域と低画質領域とが含まれる画像について、画質差が大きい場合であっても見やすさを改善するための技術を提供する。
上記課題を解決するための発明は、情報処理装置であって、
第1の画質を有する第1の領域と、前記第1の画質よりも低い第2の画質を有する前記第1の領域以外の第2の領域とを含む処理対象画像について、前記第1の画質と前記第2の画質との画質の差が所定以上であるかを判定する判定手段と、
前記判定手段が、前記第1の画質と前記第2の画質との差が所定以上であると判定した場合に、前記第2の領域を前記第2の画質よりも高い第3の画質を有する画像に変換する変換手段と、
前記第3の画質を有する変換後の画像と、前記第1の領域の画像とを用いて合成画像を生成する合成手段と
前記第2の領域において動体を検出する検出手段と、を備え、
前記変換手段は、前記第2の領域のうち、検出された前記動体を含む一部の領域の画像を前記第3の画質を有する画像に変換し、
前記合成手段は、前記第3の画質を有する変換後の画像と、前記処理対象画像とを用いて前記合成画像を生成する。
本発明によれば、ADSRにより生成された高画質領域と低画質領域とが含まれる画像について、画質差が大きい場合であっても見やすさを改善するための技術を提供することができる。
発明の実施形態に対応する監視システム100の構成例を示す図。 ADSRを説明するための図、及び、発明の実施形態に対応する情報処理装置120のハードウェア構成の一例を示す図。 発明の実施形態に対応する、画質設定とデータ量削減率とに応じた特定領域内外の画質の割り当ての一例のテーブルを示す図。 発明の実施形態に対応するヘッダ情報のデータ構成の一例を示す図、及び、画像の構成の一例を説明するための図。 発明の実施形態に対応する学習データの一例を示す図。 発明の実施形態に対応する学習データの他の一例を示す図。 発明の実施形態に対応するDLシステム123における処理を説明するための図。 発明の実施形態1に対応する設定画面の一例を示す図。 発明の実施形態1に対応する合成画像の生成方法を説明するための図。 発明の実施形態1に対応する処理の一例を示すフローチャート。 発明の実施形態2に対応する設定画面の一例を示す図。 発明の実施形態2に対応する合成画像の生成方法を説明するための図。 発明の実施形態2に対応する処理の一例を示すフローチャート。
以下に、発明の実施形態を、添付の図面に基づいて詳細に説明する。図1は、発明の実施形態に対応する監視システムの構成を示すブロック図である。図1において、監視システム100は、ネットワークカメラ110、情報処理装置120がネットワーク130により接続されることにより構成されている。ネットワーク130に接続される各装置の数に制限はないが、説明の簡略化のため各々1台ずつと仮定する。
ネットワーク130に関しても、後で述べるカメラ制御信号、圧縮した画像信号を通すのに十分な帯域があるインターネットやイントラネット等のディジタルネットワークであればどのようなものでもよい。なお、ここではネットワークプロトコルとしてTCP/IP(UDP/IP)プロトコルを仮定し、以下アドレスといった場合にはIPアドレスを指すこととする。また、ネットワークカメラ110、情報処理装置120、共にIPアドレスを割り当てられているものとする。
ネットワークカメラ110は、例えば、撮影部111、可動雲台112、カメラ・雲台制御部113、通信制御部114、画像入力部115、画像圧縮部116、コマンド解釈部117、記憶部118及び認証部119を含むように構成される。当該構成に基づき、ネットワークカメラ110は、通信制御部114が、ネットワーク130を介して外部のクライアント装置から受信したコマンドに応じて監視対象となる所定の空間を撮影し、ネットワーク130を介して撮影画像を配信するともに、各種カメラ制御を実行する。
撮影部111は、例えば、静止画像のほかに、1秒間に30フレーム分の画像を取得して、監視領域の30fpsの動画像(ライブ映像)を取得することが可能である。撮影部111は、撮像面に結像された光像を光電変換してアナログ画像信号を出力するCMOS等の撮像素子、及び、アナログ画像信号をデジタル画像信号に変換するA/D変換器を含む。また、デジタル画像信号に対して、所定の現像処理を実行する現像処理部を含む。現像処理には、例えば、ディベイヤ処理、ホワイトバランス処理、階調変換処理、エッジ強調補正処理、キズ補正、ノイズ除去、拡大縮小処理、YCbCr形式への色変換などの処理を含むことができる。現像処理された画像は画像入力部115に出力される。
可動雲台112は、カメラ・雲台制御部113による制御に基づき撮影部111による撮影方向(パン・チルト角度)を変更することができる。カメラ・雲台制御部113は、情報処理装置120からコマンドで指定され、コマンド解釈部117により解釈された制御内容に応じて、可動雲台112により撮影部111のパン・チルト角度を制御する。通信制御部114は、ネットワーク130を介して情報処理装置120と通信するための通信インタフェースである。
画像入力部115は、撮影部111で撮影された画像を取得するための入力インタフェースであり、全体画像の場合は画像全体を、切り出し画像の場合には画像の一部を取り込む。画像圧縮部116は、画像入力部115から入力された画像を圧縮・符号化して、配信用の画像データを生成する。配信用の画像圧縮方式は、例えば、H.264、H.265、MJPEGまたはJPEGなどの規格に基づくことができる。さらに、mp4やavi形式などを含む任意の形式の画像データを生成しても良い。画像圧縮部116は、記憶部118から設定値を取得し、圧縮率の変更を行ったり、特定の領域は高画質に圧縮し、その他の領域は低画質に圧縮するような制御を行ったりする。本実施形態では、画像の圧縮形式としてH.264圧縮を想定するが、実施形態は当該圧縮形式に限定されるものではない。
コマンド解釈部117は、通信制御部114が情報処理装置120から受信したコマンドを解釈して、各ブロックの動作の制御を行う。記憶部118は、各種設定値およびデータを保持し、認証部119は、通信制御部114が情報処理装置120から受信した認証情報に基づき、認証を許可するか否かを判定する。本実施形態では、監視システム100のユーザには「ゲスト」と「管理者」という2種類が含まれるが、ゲストと管理者では許可される操作が異なっている。認証部119は、ユーザから入力された文字列とパスワードとに基づき管理者かゲストかを判定し、管理者についてのみ、管理者に認められている操作に基づく処理・機能の実行を許可する。
次に、情報処理装置120は、通信制御部121、学習制御部122、DL(Deep Learning)システム123、画像記録部124、操作部125、変換・再生制御部126、表示部127、動体検出部128を含むように構成される。情報処理装置120は、例えばパーソナルコンピュータ(PC)、携帯電話、スマートフォン、PDA、タブレット端末などの任意の情報処理端末、或いは、画像処理装置(画像生成装置、または、画像合成装置と呼ぶこともできる)として実現することもできる。
通信制御部121は、ネットワーク130を介してネットワークカメラ110と通信するための通信インタフェースである。学習制御部122は、後述するDL(Deep Leaning)システム123に学習データを渡すための処理を行う。Deep Leaningとは機械学習の一種でありニューラルネットワークを多層的構造にし、コンピュータ自らがデータに含まれる特徴をとらえ、正確で効率的な識別や生成処理を実現させる技術である。本実施形態ではDL略記する。
本実施形態では、機械学習手法についてDeep Learningを用いるがこれに限定するものではなく他の機械学習法も適用可能である。DLシステム123は、学習制御部122から提供される学習データに基づいて機械学習を行い、機械学習した結果(学習済みモデル)を用いて、本実施形態に対応する画像の画質変換処理を行う。本実施形態では、DLの具体的手法としてpix2pix用いることを想定している。pix2pixに関してはImage-to-Image Translation with Conditional Adversarial Networks 21 Nov 2016 Phillip Isola Jun-Yan Zhu Tinghui Zhou Alexei A. Efrosで詳細が述べられている。但し、DLシステムの実現手法はpix2pixに限定されるものではない。
画像記録部124は、通信制御部121を介してネットワークカメラ110から受信した画像(動画像、静止画像)を記録する。操作部125はユーザからの入力を受け付けるためのユーザインタフェースである。ユーザは操作部125を操作することにより、画像記録部124に対して録画の設定を行うことができるとともに、変換・再生制御部126に対して変換の処理に関わる設定を行うことができる。変換・再生制御部126は、操作部125から受け付けたユーザ入力情報に基づいて画像記録部124に記録された画像の画質を変換して表示部127に出力する。具体的には、画像記録部124に記録された画像をそのまま表示部127に出力する場合と、画像記録部124に記録された画像の高画質部分と、DLシステム123により高画質変換された低画質部分とを合成して表示部127に出力する場合とがある。動体検出部128は、画像記録部124に記録されている画像において動体を検出し、検出した動体に関する情報を変換・再生制御部126に通知する。
次に、図2(B)を参照して、発明の実施形態に対応する情報処理装置120のハードウェア構成の一例を説明する。図2(B)は、情報処理装置120のハードウェア構成の一例を示すブロック図である。上述した情報処理装置としてのネットワークカメラ110の撮影部111及び可動雲台112等を除く構成についても、同様或いは同等のハードウェア構成とすることができる。
図2(B)において、CPU210は、ハードディスク装置(以下、HDと呼ぶ)215に格納されているアプリケーションプログラム、オペレーティングシステム(OS)や制御プログラム等を実行し、RAM212にプログラムの実行に必要な情報、ファイル等を一時的に格納する制御を行う。また、DLシステム123として機能し、学習制御部122から提供される学習データに基づいて機械学習を行ったり、画像記録部124に記録されている画像について本実施形態に対応する画質変換処理を実行したりすることができる。さらには、インタフェース(I/F)218を介してネットワークカメラ110との通信を制御する。なお、後述する図10や図13のフローチャートにおける処理もCPU210が対応する処理プログラムを実行することにより装置全体を制御して実現される。
ROM211は、内部に基本I/Oプログラムの他、所定の処理を実行するアプリケーションプログラム等の各種データを記憶する。RAM212は各種データを一時記憶し、CPU210の主メモリ、ワークエリア等として機能する。また、ネットワークカメラ110から受信した情報を一時的に記憶する。
外部記憶ドライブ213は、記録媒体へのアクセスを実現するための外部記憶ドライブであり、メディア(記録媒体)214に記憶されたプログラム等を本コンピュータシステムにロードすることができる。尚、メディア214は、例えば、フロッピー(登録商標)ディスク(FD)、CD-ROM、CD-R、CD-RW、PCカード、DVD、Blu-ray(登録商標)、ICメモリカード、MO、メモリスティック等を利用することができる。
外部記憶装置215は、本実施形態では大容量メモリとして機能するHD(ハードディスク)を用いている。HD215には、アプリケーションプログラム、OS、制御プログラム、関連プログラム、ネットワークカメラ110から受信した画像等が格納される。なお、ハードディスクの代わりに、フラッシュ(登録商標)メモリ等の不揮発性記憶装置を用いても良い。
指示入力装置216は、キーボードやポインティングデバイス(マウス等)、タッチパネル等がこれに相当する。出力装置217は、指示入力装置216から入力されたコマンドや、それに対する情報処理装置120の応答出力等を出力する。出力装置217にはディスプレイ、スピーカ、ヘッドフォン端子等を含むことができる。システムバス219は、情報処理装置120内のデータの流れを司る。
インタフェース(以下、I/Fという)218は、外部装置とのデータのやり取りを仲介する役割を果たす。具体的に、I/F218は、無線通信モジュールを含むことができ、当該モジュールはアンテナシステム、RF送受信器、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュールカード、メモリなどを含む、周知の回路機構を含むことができる。また、有線接続のための有線通信モジュールを含むことができる。有線通信モジュールは1つ以上の外部ポートを介して他のデバイスとの通信を可能とする。また、データを処理する様々なソフトウェアコンポーネントを含むことができる。外部ポートは、イーサーネット、USBやIEEE1394等を介して、直接的に、又はネットワークを介して間接的に他のデバイスと結合する。尚、以上の各装置と同等の機能を実現するソフトウェアにより、ハードウェア装置の代替として構成することもできる。
本実施形態に対応する処理を実行するために対応するプログラムを動作させる度に、既にプログラムがインストールされているHD215からRAM212にロードするようにしてもよい。また、本実施形態に係るプログラムをROM211に記録しておき、これをメモリマップの一部をなすように構成し、直接CPU210で実行することも可能である。さらに、メディア214から対応プログラム及び関連データを直接RAM212にロードして実行させることもできる。
次に図3を参照して、本実施形態のネットワークカメラ110における画質設定の一例を説明する。本実施形態では、撮影部111が監視領域を撮影して得られた画像について、特定の一部の領域(以下、「特定領域」、あるいは、「第1の領域」という)を高画質に、その他の領域(以下、「特定領域外の領域」、あるいは、「第2の領域」という)は低画質で圧縮符号化し、情報処理装置120に送信する場合を説明する。図3は、処理対象の画像のうちで特定領域内と特定領域外の領域との画質(Q値)を、設定された画質及びデータ量の削減率について示すテーブルの一例である。本実施形態において、ユーザは情報処理装置120を利用して、処理対象の画像について設定された特定領域に属する画像の画質を、所定の設定画面を用いて設定することができる。
本実施形態では、処理対象画像のうちの特定領域内の画像の画質を、例えば、高画質、中画質、低画質の3段階で設定することができる。また、データ量の削減率についても、高、中、低の3段階で設定することができる。これにより、設定パターンは9通りとなる。テーブル300では、画質とデータ量削減率との各組み合わせについて、特定領域内の画質(第1の画質)と、特定領域外の画質(第2の画質)とが登録される。画質はQ値の値として登録され、画質が最高の場合のQ値を10、画質が最低の場合のQ値を50としている。ここでQ値とは、画質を示す数値で小さい値ほど高画質・低圧縮であることを表す。
テーブル300において、特定領域内の画質を高画質に設定した場合には、特定領域内のQ値は全て10に設定される。同様に中画質、低画質の場合にはそれぞれ同一の値25、40が設定される。本実施形態において特定領域内の画質は、領域内画質の設定内容に応じて決定される。
一方、特定領域外の画質は、データ量削減率と、領域内画質とに基づいて設定される。具体的には、データ量削減率が高の設定では特定領域外のQ値は最も低い画質を示す50に一律に設定される。また、データ量削減率が中、低については、上限値を50として、それぞれ特定領域内の画質に所定値を加算した値とすることができる。テーブル300では、データ量削減率が中の場合は20、低の場合は10をそれぞれ加算している。上記において、Q値の割り当てはあくまで一例であって、実施形態はこれに限定されるものではない。
次に、図4を参照して、ADSRを利用した配信において配信される画像のデータ構造について説明する。ネットワークカメラ110から情報処理装置に対しては、配信の開始に際して、図4(A)に示すようなヘッダ情報400が送信される。ヘッダ情報400は、ADSRの有無を示すフラグ401、ADSR領域、即ち、上記の特定領域の範囲を示す座標値402から405、高画質領域のQ値406、低画質領域のQ値407が含まれる。
フラグ401の値が1であれば、特定領域を高画質とし、特定領域外の他の領域を低画質とするADSRが実施されていることが分かる。フラグ401の値が0であれば、ADSRは実施されていないので、画質変換を行わずにそのまま表示することができる。座標値402から405は、画像における高画質の特定領域の位置、大きさを特定するための座標値であって、図4(B)に示すような画像410において、領域411は特定領域を示す。領域411の左上の点412の座標と右下の点413の座標とにより、領域411の画像410内における位置及び大きさを特定することができる。画像410に対しては、左上を原点として、水平方向にx軸、垂直方向にy軸が設定され、1画素を単位として座標値が決定される。
本実施形態では、x軸方向には1440画素が配置され、y軸方向には1080画素が配置される場合を想定している。また、図4(B)では、特定領域411は、(x、y)=(500、200)の画素と、(x、y)=(1100、600)画素とに基づき特定される場合を示している。図4(B)に示す例では、特定領域の大きさは600×400画素となる。
また、Q値406は、領域411内の画像の画質を示し、Q値407は、画像410のうち領域411外の領域の画質を示している。これらの値は、図3のテーブル300に示したいずれかの組み合わせの中から選択された値となる。
次に図5から図7を参照して本実施形態に対応するDLシステム123の動作を説明する。本実施形態ではDLシステム123はpix2pixを用いている。pix2pixは、二つの属性の画像、具体的には、生成元の属性の画像と生成したい属性の画像をペアで学習し、画質の変換手法を習得することで、生成元と同様の属性の画像を入力すれば生成したい属性の画像を生成できるようになるというものである。pix2pixによれば、例えば、航空写真から地図の生成、地図から航空写真の生成、線画から写真の生成、白黒写真からカラー写真の生成などが可能となる。本実施形態では、同一の被写体を撮影して得られた低画質の画像と高画質の画像とをペアとして学習を行うことで学習された学習済みモデルを用いて、低画質な画像部分から高画質な画像を生成することが可能なDLシステム123を構築する。当該低画質の画像は、例えば、高画質の画像を圧縮して低画質としたものを使用してもよい。このDLシステムによれば、特定領域外の低画質の画像を処理して高画質な画像を取得することが可能となる。
本実施形態においてDLシステム123は、低画質画像から高画質画像を生成可能とするために予め学習を行う。図5及び図6を参照してDLシステム123における学習の一例を説明する。図5及び図6は学習時に用いる学習データの一例を示す図である。これらの学習データは、ネットワークカメラ110により監視しようとする監視対象領域を実際に撮影して得られた画像を用いる。
図5において、画像501及び画像502は、同一の画角におけるペアの画像であって、画像501のQ値は50、画像502のQ値は10である。同様に、画像503及び504のペアは、Q値がそれぞれ45と10であり、画像505及び506のペアは、Q値がそれぞれ30と10である。ここで生成元の低画質の学習データ501、503及び505のQ値を50、45、30としたのは図3のテーブル300における低画質部を高画質化するためであり、生成用の高画質の学習データ502、504、506のQ値を10としたのは最高画質のQ値が10のためである。
一般に機械学習では、より多くの学習データを利用した方が学習精度が上がり、処理性能が向上する。そこで、図5に示した画角だけでなく様々な画角での画像を同様に学習してもよいし、同一の画角においても、複数の異なる撮影条件で学習を行うことができる。また、ネットワークカメラ110が複数台ネットワーク130に接続されている場合には、当該ネットワークカメラ110毎に学習を行ってもよい。
図6は、図5とは異なる画角で撮影を行った場合の学習用画像の一例を示している。図6において、画像601及び画像602は、同一の画角におけるペアの画像であって、画像601のQ値は50、画像602のQ値は10である。同様に、画像603及び604のペアは、Q値がそれぞれ45と10であり、画像605及び606のペアは、Q値がそれぞれ30と10である。
本実施形態では、図5及び図6で示した画角のみでなく100通りの画角で撮影した画像を学習データとして利用する場合を想定している。また、同じ画角でも時間により写っている人物等も異なることから同じ画角でさらに時間をずらして100回ずつ撮影している。これらの学習は設置時に、5時間程度で実施することが可能である。学習を実施するタイミングは設置時に限定されるものではなく、それ以前に事前に行ってもよい。なお、機械学習において精度の向上させるための手法は公知であるため、本実施形態においては更なる詳細の説明は省略する。
上記の説明においては学習データの低画質のQ値を、テーブル300に登録されているQ値と対応させたが、学習データに用いる画像の画質は、テーブル300に登録されている値と必ずしも一致していなくてもよい。
次に図7を参照して、本実施形態に対応するDLシステム123における画像生成の例を説明する。図7において画像701は、ネットワークカメラ110で撮影したQ値50の画像である。この画像を元に、上記で説明した学習後にDLシステム123により生成した画像の例が画像702である。本実施形態では、学習結果(学習済みモデル)に基づいてDLシステム123は低画質の画像701からより高画質の画像702を得ることができる。ここで、画像703は、ネットワークカメラ110が撮影したQ値10の画像であるが、画像702と画像703を比較すると、DLシステム123により生成された画像702の画質は、実際の撮影画像703と同等のレベルにはなっていない。全体の画像の画質のレベルは上がるが、被写体の詳細等を正確に再現することは困難となっている。これはImage-to-Image Translation with Conditional Adversarial Networks 21 Nov 2016 Phillip Isola Jun-Yan Zhu Tinghui Zhou Alexei A. Efrosで述べられている他の変換結果と同様である。
しかしながら、本実施形態では、解像度変換を行う対象の画像は、監視領域において重要な特定領域ではなく、その周辺の特定領域外の領域である。そして、特定領域の画質(第1の画質)と特定領域外の領域との画質(第2の画質)の差が大きい場合に、全体的に見づらくなる、或いは、視覚的な違和感を感ずることを解消することが目的である。従って、特定領域外の画像については画質を、元の画質(第2の画質)よりも高い画質(第3の画質)に向上させられれば、特定領域の画質(第1の画質)と完全に一致しなくても目的は達成され、局所的な精度は大きな問題にはならないとみなすことができる。
次に図8を参照して情報処理装置120において設定を行う際の設定画面の一例、及び、当該設定画面を利用したDLシステム123により変換を実行させるためのユーザ操作について説明する。図8(A)において、設定画面800には、画像表示領域801が含まれている。当該画像表示領域には、ネットワークカメラ110により撮影され、情報処理装置120に記録された画像が表示されている。このとき点線で囲む領域802は、高画質で表示されている特定領域に相当し、特定領域の外の領域は、低画質で表示されている。図8(A)では表示画像における特定領域の位置を点線で示しているが、実際の表示画面では点線は表示されていなくてもよい。
設定画面800には、低画質部の画質変換を行うか否かの指定を受付可能なチェックボックス803が表示されており、ユーザはチェックボックスにチェックを入れることにより、特定領域外の領域を高画質画像に変換して表示させることができる。チェックボックス803はADSRの機能が使われて配信している場合、即ち、記録されている動画像と関連付けられて保存されている図4のヘッダ情報400におけるADSR有無を示すフラグ401が1の値を示す場合に表示することができる。フラグ401が0の値を示す場合には、表示そのものを行わないか、或いは、グレーアウトするなどにより操作を受け付けないようにすることができる。図8(A)の状態ではチェックボックス803はオフ(未選択、或いは、未チェック)の状態となっているので、DLシステム123による画質の変換処理は行われない。このときに表示される画像は、画像記録部124に記録された画像そのままとなる。
これに対して図8(B)では、チェックボックス803がオン(選択済、或いは、チェック済)となっており、領域802の外側の画像がDLシステム123により処理されて、高画質の画像に変換されて表示される。領域802内の画像は、録画されたそのものの画像が表示される。
また、設定画面800には、動画が撮影された日付を示す日付表示領域804が含まれ、左右の三角形のマークを操作することで表示する動画の日付を切り替えることができる。右側のマークを操作することで日付が繰り上がり、左側のマークを操作することで日付が繰り下がる。また、時間帯表示領域805は、日付表示領域804で指定された日付において動画が撮影された時間帯を示している。スライドバー806は、表示領域801に表示される画像の時間的位置を示しており、スライドバー806を左右に移動させることにより、撮影された動画の任意の時間的位置における画像を表示領域801に表示させることができる。図8には示していないが、再生ボタンや停止ボタン、一時停止ボタン等を表示してもよい。
次に図9を参照して、本実施形態に対応する変換・再生制御部126における画像変換処理の一例を説明する。まず、画像900は、処理対象となる1フレーム分の画像であって、画像記録部124に記録されている動画像をデコードした後の1フレーム画像とみなすことができる。画像900には高画質領域901と低画質領域902とが含まれる。高画質領域901は上述の特定領域に相当し、低画質領域902は上述の特定領域外の領域に相当する。画像900における高画質領域901の位置及び大きさは、図4で示すヘッダ情報400におけるADSR領域の座標値402から405により特定される。
上述の図8の設定画面800において、チェックボックス803がオンに設定された場合、変換・再生制御部126は、低画質領域902の画質を向上させるために、DLシステム123に対して画像900のうち低画質領域902を含む部分を提供し、低画質領域902が高画質化された変換画像を受け取る。その際、DLシステム123では、以下のような手順により変換画像が生成される。
処理対象の画像900は、複数のブロックに分割される。当該ブロックのサイズは、DLシステムにおける処理サイズに対応させることができる。本実施形態では、画像900は縦横にそれぞれ3分割されるので、1つのブロックの大きさは480×360画素となる。ブロックによっては高画質領域901が含まれるものもあるが、合成時に高画質領域901の画像が優先されるので、問題はない。DLシステム123は、変換・再生制御部126から取得した各ブロックを処理して低画質画像から高画質画像に変換し、変換後のブロックを合成することにより変換画像904を生成し、変換・再生制御部126に提供する。変換・再生制御部126は、DLシステム123から提供された変換画像904と、元の処理対象画像900から切り出した高画質領域901の画像とを合成して、合成画像930を生成する。これにより、低画質領域902の画質を向上させて、見やすさが改善された再生画像を生成することが可能となる。
次に、図10のフローチャートを参照して本実施形態に対応する情報処理装置120における処理の流れを説明する。該フローチャートに対応する処理は、例えば、変換・再生制御部126及びDLシステム123として機能するCPU210を含む1以上のプロセッサが対応するプログラム(ROM211やHD215等に格納)を実行することにより実現できる。また、当該処理は、画像記録部124に記録されている画像を再生する際に開始される。
まず、S1001において変換・再生制御部126は、再生対象動画のヘッダ情報400を取得する。続くS1002において、変換・再生制御部126は、再生対象の動画像についてADSRが実施されているか否かを判定する。当該判定は、取得したヘッダ情報400のフラグ401の値に基づき行われ、フラグ401の値が1の場合にはADSR有りとして処理はS1003に進み、値が0の場合にはADSR無しとして処理はS1008に進む。
続くS1003において、変換・再生制御部126は、特定領域の画質と特定領域外の画質との差が所定以上であるかを判定する。具体的には、S1001で取得したヘッダ情報400から、低画質領域と高画質領域とのQ値406及び407の値をそれぞれ取得し、Q値の差分が所定値以上であるかにより判定する。本実施形態では所定値を20としている。当該所定値の値は、低画質領域と高画質領域との画質の差と、再生画像の見やすさとの関係に基づいて任意に設定することができる。差分が所定値以上と判定されると処理はS1004に進み、所定値未満と判定されると処理はS1008に進む。
S1004では、変換・再生制御部126は高画質化の指定を受け付けているか否かを判定する。当該判定は、図8に示した設定画面800においてチェックボックス803がオンに指定されているか否かに基づいて判定することができる。高画質化の指定を受け付けていると判定されると処理はS1005に進み、当該指定を受け付けていないと判定されると処理はS1008に進む。
続くS1005では、変換・再生制御部126は図9を参照して説明したように、処理対象画像を複数のブロックに分割し、低画質領域の画像を含むブロックをDLシステム123に提供してDLシステム123に画質変換処理を実行させ、変換画像を取得する。続くS1006では、変換・再生制御部126がDLシステム123から取得した変換画像と、元画像である処理対象画像の高画質領域の画像とを合成して合成画像を生成する。続くS1007では、変換・再生制御部126再生対象の画像を合成画像とし、S1008では、再生対象の画像を画質変換がなされていない元の画像とする。続くS1009において、変換・再生制御部126はS1008または1009で再生対象の画像に設定した画像を表示部127に出力して、表示部127に再生画像の表示を行わせる。続くS1010では変換・再生制御部126は、次に表示すべき画像、例えば、同じ動画像における次のフレーム画像があるかどうかを判定して、表示すべき画像がある場合にはS1002に戻って上述の処理を繰り返す。一方、表示すべき画像がない場合には本処理を終了する。
以上に説明した実施形態によれば、ADSRにより一部が高画質で、それ以外が低画質の画像について、低画質部分と高画質部分との画質差が大きいために見にくくなっている場合に、低画質部を高画質化することで見にくさを解消することができる。
[実施形態2]
以下、発明の第2の実施形態について説明する。上述の実施形態1では、特定領域外の領域の画像の全体を対象としてDLシステム123が画質変換処理を行った。これに対し本実施形態では、当該領域において検出された動体を含む領域を対象として画質変換処理を実施する。
本実施形態における監視システムについても、図1から図7との関連で説明した内容が当てはまる。その一方、図8で説明した設定画面のUIや、図9で説明した合成画像の生成方法、図10で説明した処理の流れについては本実施形態特有の部分があるので、以下、図11から図13を参照して説明する。
まず、図11は、本実施形態に対応する、情報処理装置120において設定を行う際の設定画面の一例を示す。図11(A)及び図11(B)において参照番号1100から1106までで示す各要素は図8の参照番号800から806までで示す各要素に対応するので説明は省略する。図11の画面では、高画質の画像が表示されている領域1102の外側の領域において検出された動体(ここでは、通行する人物)が点線1107で囲まれている。本実施形態では、領域1102の外側において検出された動体を含む領域1107を画質変換処理の対象領域とする。このように動体についてのみ高画質化を行うのは、動体が低画質な場合に特に高画質部との差が知覚され、見やすさが損なわれたり違和感を与えたりすることになるためである。そこで、本実施形態では、動体に焦点を当てて画質変換処理を施すことにより、当該低画質部と高画質部との画質の差を解消する。
図11(A)では、チェックボックス1103はオフの状態のため録画された画像のまま表示されている。このとき、点線1107で囲まれた領域の低画質のままである。一方、図11(B)ではチェックボックス1103がオンの状態となっており、これにおり点線1108で囲まれた領域がDLシステム123により画質変換されて高画質化されている。このとき、領域1102及び1108の外側の領域は録画された画像のまま低画質で表示される。このようにして本実施形態では低画質領域において検出された動体を含む領域を選択的に高画質化することで、効率よく画像の見にくさを解消することができる。
次に図12を参照して、本実施形態に対応する変換・再生制御部126における画像変換処理の一例を説明する。画像1200は、処理対象となる1フレーム分の画像であって、画像記録部124に記録されている画像をデコードした後の画像である。画像1200には高画質領域1201と低画質領域1202とが含まれる。また、低画質領域1202には動体検出部128により検出された動体を含む動体領域1203が含まれる。
上述の図11の設定画面1100において、チェックボックス1103がオンに設定された場合、変換・再生制御部126は、低画質領域1202において検出された動体領域1203の画質を向上させるために、DLシステム123に対して当該動体領域1203を含むブロック画像1204を提供し、高画質化された変換画像1205を受け取る。処理対象の画像1200は、実施形態1と同様に複数のブロックに分割され、動体領域を含むブロックのみがDLシステム123に提供される。検出された動体が単一のブロックに収まらない場合には、複数のブロック画像が提供される。変換・再生制御部126は、変換画像1205を取得すると、当該画像から動体領域に相当する部分1206を切り出して元画像1200と合成して、合成画像1207を生成する。これにより、低画質領域1202のうち動体領域の画質を向上させて、見やすさが改善された再生画像を生成することが可能となる。
図13のフローチャートを参照して、本実施形態に対応する情報処理装置120における処理の流れを説明する。該フローチャートに対応する処理は、例えば、変換・再生制御部126及びDLシステム123として機能するCPU210を含む1以上のプロセッサが対応するプログラム(ROM211やHD215等に格納)を実行することにより実現できる。また、当該処理は、画像記録部124に記録されている画像を再生する際に開始される。
図13のフローチャートは、図10のフローチャートと一部の処理を除いてほぼ同様の処理が実行される。そこで、図10に対応するステップについては同一の参照番号を付している。これらのステップにおける処理については実施形態1で説明しているので、ここでの説明は省略する。
S1004において変換・再生制御部126は高画質化の指定を受け付けていると判定すると、処理はS1301に進む。S1301では、変換・再生制御部126は処理対象の画像に動体が含まれているかの情報を動体検出部128から取得する。動体検出部128は、画像記録部124から変換・再生制御部126と並列に処理対象の画像を取得し、低画質領域における動体の存在を検出する。動体検出部128は、低画質領域において動体を検出すると、当該動体を含む領域を設定し、その位置情報を変換・再生制御部126に対して通知する。動体検出部128は時間的に隣接する画像間の差分を取るか、或いは、予め用意された背景画像と処理対象の画像との差分を取ることで動体を検出することができる。
低画質領域において動体が検出されたと判定されると、処理はS1302に進む。一方、動体が検出されていないと判定されると処理はS1008に進む。S1302において、変換・再生制御部126は図12を参照して説明したように、動体検出部128により検出された動体を含む動体領域に基づき、処理対象の画像をブロックに分割し、当該ブロックをDLシステム123に提供して、DLシステム123に画質変換処理を実行させ、変換画像を取得する。続くS1303では、変換・再生制御部126がDLシステム123から取得した動体領域を含むブロックの変換画像と、元画像とを合成して合成画像を生成する。その後、処理はS1007に移行する。
上記においては低画質領域における動体領域のみを高画質化する場合を説明した。これに対して、低画質領域における動体領域以外の領域が予め固定的な画像である場合、例えば、動き検出で用いた背景画像とみなせる場合には、当該背景画像を予め高解像度化しておくことができる。そして、S1302においてDLシステム123から動体領域の変換画像を取得した場合には、予め高解像度化しておいた背景画像と、動体領域の変換画像とを合成することにより低画質領域全体の変換画像を生成してもよい。この場合、背景画像については高解像度化された画像を一度生成しておけば繰り返し利用することができるので、処理負荷としては動体領域の変換画像と背景画像との合成のみが増えるだけで全体としては特に問題にはならない。
以上のように、本実施形態によれば低画質領域の全体について画質変換処理を行うことなく、動体のみを高画質化することで効率よく画像の見栄えを改善することができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:監視システム、110:ネットワークカメラ、120:情報処理装置、130:ネットワーク

Claims (11)

  1. 第1の画質を有する第1の領域と、前記第1の画質よりも低い第2の画質を有する前記第1の領域以外の第2の領域とを含む処理対象画像について、前記第1の画質と前記第2の画質との画質の差が所定以上であるかを判定する判定手段と、
    前記判定手段が、前記第1の画質と前記第2の画質との差が所定以上であると判定した場合に、前記第2の領域の画像を前記第2の画質よりも高い第3の画質を有する画像に変換する変換手段と、
    前記第3の画質を有する変換後の画像と、前記第1の領域の画像とを用いて合成画像を生成する合成手段と
    前記第2の領域において動体を検出する検出手段と、を備え、
    前記変換手段は、前記第2の領域のうち、検出された前記動体を含む一部の領域の画像を前記第3の画質を有する画像に変換し、
    前記合成手段は、前記第3の画質を有する変換後の画像と、前記処理対象画像とを用いて前記合成画像を生成する、
    ことを特徴とする情報処理装置。
  2. 前記変換手段による画像の変換を行う指定を受け付ける受付手段をさらに備え、
    前記受付手段が、前記指定を受け付けた場合に前記判定手段が前記判定を行うことを特徴とする請求項1に記載の情報処理装置。
  3. 前記合成画像は、
    前記第1の画質を有する前記第1の領域と、
    前記第2の領域であって、前記検出された動体を含む前記一部の領域が前記第3の画質を有し、かつ、前記一部の領域以外の領域が前記第2の画質を有する前記第2の領域と
    を含むことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記合成手段は、前記第3の画質を有する変換後の画像と、予め前記第3の画質に変換された背景画像と、前記第1の領域の画像とを用いて前記合成画像を生成することを特徴とする請求項1または2に記載の情報処理装置。
  5. 前記合成画像は、前記第1の画質を有する第1の領域と、前記第3の画質を有する前記第2の領域とを含むことを特徴とする請求項1、2及びのいずれか1項に記載の情報処理装置。
  6. 前記変換手段は、前記第1の画質を有する第1の画像と、前記第2の画質を有する第2の画像との組み合わせに基づいて機械学習により習得した前記第2の画像の画質を変換する方法を用いて、前記変換を行うことを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
  7. 前記機械学習は、pix2pixに基づくことを特徴とする請求項に記載の情報処理装置。
  8. 前記合成画像を出力する出力手段をさらに備えることを特徴とする請求項1からのいずれか1項に記載の情報処理装置。
  9. 所定の空間を撮影して得られた画像から、第1の画質を有する第1の領域と、前記第1の画質よりも低い第2の画質を有する前記第1の領域以外の第2の領域とを含む処理対象画像を生成する撮影装置と、
    前記処理対象画像を処理して合成画像を生成する請求項1からのいずれか1項に記載の情報処理装置と
    を備えることを特徴とするシステム。
  10. 情報処理装置の制御方法であって、
    判定手段が、第1の画質を有する第1の領域と、前記第1の画質よりも低い第2の画質を有する前記第1の領域以外の第2の領域とを含む処理対象画像について、前記第1の画質と前記第2の画質との画質の差が所定以上であるかを判定する判定工程と、
    前記判定工程において、前記第1の画質と前記第2の画質との差が所定以上であると判定された場合に、変換手段が前記第2の領域の画像を前記第2の画質よりも高い第3の画質を有する画像に変換する変換工程と、
    合成手段が、前記第3の画質を有する変換後の画像と、前記第1の領域の画像とを用いて合成画像を生成する合成工程と
    前記第2の領域において動体を検出する検出工程と、を含み、
    前記変換工程では、前記第2の領域のうち、検出された前記動体を含む一部の領域の画像を前記第3の画質を有する画像に変換し、
    前記合成工程では、前記第3の画質を有する変換後の画像と、前記処理対象画像とを用いて前記合成画像を生成する、
    ことを特徴とする情報処理装置の制御方法。
  11. コンピュータを、請求項1からのいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2018234705A 2018-12-14 2018-12-14 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム Active JP7249766B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018234705A JP7249766B2 (ja) 2018-12-14 2018-12-14 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
US16/705,661 US11410286B2 (en) 2018-12-14 2019-12-06 Information processing apparatus, system, method for controlling information processing apparatus, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018234705A JP7249766B2 (ja) 2018-12-14 2018-12-14 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2020095611A JP2020095611A (ja) 2020-06-18
JP7249766B2 true JP7249766B2 (ja) 2023-03-31

Family

ID=71072782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018234705A Active JP7249766B2 (ja) 2018-12-14 2018-12-14 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム

Country Status (2)

Country Link
US (1) US11410286B2 (ja)
JP (1) JP7249766B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017099616A (ja) * 2015-12-01 2017-06-08 ソニー株式会社 手術用制御装置、手術用制御方法、およびプログラム、並びに手術システム
JP6975205B2 (ja) 2019-06-25 2021-12-01 キヤノン株式会社 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
JP7316130B2 (ja) * 2019-07-16 2023-07-27 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、プログラム
JP7512724B2 (ja) * 2020-07-09 2024-07-09 コニカミノルタ株式会社 学習装置、推論装置、学習方法、推論方法、学習プログラム、推論プログラム
JP2022018905A (ja) * 2020-07-16 2022-01-27 キヤノン株式会社 情報処理装置及び方法、撮像装置、及び撮像システム
EP3961480B1 (en) * 2020-08-28 2022-06-29 Axis AB Method and device for determining authenticity of a video

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007049634A1 (ja) 2005-10-28 2007-05-03 Nikon Corporation 撮影装置、画像処理装置およびプログラム
JP2009253745A (ja) 2008-04-08 2009-10-29 Fujifilm Corp 画像処理システム、画像処理方法、およびプログラム
JP2009268062A (ja) 2008-03-31 2009-11-12 Fujifilm Corp 撮像システム、撮像方法、およびプログラム
JP2011087090A (ja) 2009-10-14 2011-04-28 Panasonic Corp 画像処理方法、画像処理装置、及び撮像システム
JP2011170456A (ja) 2010-02-16 2011-09-01 Fujifilm Corp 画像処理方法及び装置並びにプログラム
JP2012175631A (ja) 2011-02-24 2012-09-10 Mitsubishi Electric Corp 映像監視装置
JP2014158061A (ja) 2011-06-01 2014-08-28 Fujifilm Corp 撮像装置及びゴースト補正方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8155478B2 (en) * 2006-10-26 2012-04-10 Broadcom Corporation Image creation with software controllable depth of field
US20100259631A1 (en) * 2007-10-26 2010-10-14 Fujifilm Corporation Data compression apparatus, data compression program and image-taking apparatus
US8724919B2 (en) * 2012-09-21 2014-05-13 Eastman Kodak Company Adjusting the sharpness of a digital image
TWI566206B (zh) * 2015-09-09 2017-01-11 瑞昱半導體股份有限公司 寬動態範圍影像方法
US10147216B1 (en) * 2017-11-01 2018-12-04 Essential Products, Inc. Intelligent camera
US10917571B2 (en) * 2018-11-05 2021-02-09 Sony Corporation Image capture device control based on determination of blur value of objects in images

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007049634A1 (ja) 2005-10-28 2007-05-03 Nikon Corporation 撮影装置、画像処理装置およびプログラム
JP2009268062A (ja) 2008-03-31 2009-11-12 Fujifilm Corp 撮像システム、撮像方法、およびプログラム
JP2009253745A (ja) 2008-04-08 2009-10-29 Fujifilm Corp 画像処理システム、画像処理方法、およびプログラム
JP2011087090A (ja) 2009-10-14 2011-04-28 Panasonic Corp 画像処理方法、画像処理装置、及び撮像システム
JP2011170456A (ja) 2010-02-16 2011-09-01 Fujifilm Corp 画像処理方法及び装置並びにプログラム
JP2012175631A (ja) 2011-02-24 2012-09-10 Mitsubishi Electric Corp 映像監視装置
JP2014158061A (ja) 2011-06-01 2014-08-28 Fujifilm Corp 撮像装置及びゴースト補正方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
森山 達也,NNを用いた露出過度領域を含む単一LDR画像からの生成的HDR画像復元,第32回 画像符号化シンポジウム,日本,電子情報通信学会画像工学研究専門委員会 映像情報メディア学会メディア工学研究委員会 情報処理学会オーディオビジュアル複合情報処理研究会 電子情報通信学会信号処理研究専門委員会,2017年,30~31
高森 哲弥,映像監視システム向けインテリジェント圧縮技術の開発,富士フイルム研究報告 第57号,第57号,日本,富士フイルム株式会社,2012年,50~54

Also Published As

Publication number Publication date
US20200193585A1 (en) 2020-06-18
US11410286B2 (en) 2022-08-09
JP2020095611A (ja) 2020-06-18

Similar Documents

Publication Publication Date Title
JP7249766B2 (ja) 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
US10594988B2 (en) Image capture apparatus, method for setting mask image, and recording medium
JP5450739B2 (ja) 画像処理装置及び画像表示装置
US10212339B2 (en) Image generation method based on dual camera module and dual camera apparatus
US10003768B2 (en) Apparatus and methods for frame interpolation based on spatial considerations
RU2533689C2 (ru) Устройство и способ, программа обработки видео, и устройство формирования изображений, смонтированное с устройством обработки видео
US20130242127A1 (en) Image creating device and image creating method
JP5201203B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20160269639A1 (en) Video stabilization
US11463270B2 (en) System and method for operating an intelligent face framing management system for videoconferencing applications
JP2011119974A (ja) パノラマ画像合成装置、パノラマ画像合成方法、及びプログラム
JP7334470B2 (ja) 映像処理装置、ビデオ会議システム、映像処理方法、およびプログラム
JP2010072813A (ja) 画像処理装置および画像処理プログラム
KR20210036609A (ko) 영상 처리 장치 및 방법
CN114531564A (zh) 处理方法及电子设备
US20090324127A1 (en) Method and System for Automatic Red-Eye Correction
US11284094B2 (en) Image capturing device, distribution system, distribution method, and recording medium
US20230319234A1 (en) System and Methods for Enhanced Videoconferencing
JP4649640B2 (ja) 画像処理方法、画像処理装置、及びコンテンツ作成システム
CN114466145B (zh) 视频处理方法、装置、设备和存储介质
JP2021002808A (ja) 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
JP2020080479A (ja) 動画記録再生装置、動画伝送システムおよび方法
CN114286002B (zh) 图像处理电路、方法、装置、电子设备及芯片
JP7370769B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6577815B2 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R151 Written notification of patent or utility model registration

Ref document number: 7249766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151