JP6332833B2 - 画像処理システム、画像処理方法、及びプログラム - Google Patents

画像処理システム、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP6332833B2
JP6332833B2 JP2014528039A JP2014528039A JP6332833B2 JP 6332833 B2 JP6332833 B2 JP 6332833B2 JP 2014528039 A JP2014528039 A JP 2014528039A JP 2014528039 A JP2014528039 A JP 2014528039A JP 6332833 B2 JP6332833 B2 JP 6332833B2
Authority
JP
Japan
Prior art keywords
person
input
moving image
video camera
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014528039A
Other languages
English (en)
Other versions
JPWO2014021004A1 (ja
Inventor
祐介 ▲高▼橋
祐介 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2014021004A1 publication Critical patent/JPWO2014021004A1/ja
Application granted granted Critical
Publication of JP6332833B2 publication Critical patent/JP6332833B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

本発明に係るいくつかの態様は、画像処理システム、画像処理方法、及びプログラムに関する。
近年、複数のカメラからの映像を利用して広範囲にわたる監視を行うシステムが考えられている。例えば特許文献1は、カメラ間の連結関係情報を用いてカメラ間にまたがる人物の追尾(モニタリング)を適切に行うことのできる装置を開示している。この装置は、カメラ視野に出現した点(In点)と、カメラ視野から消失した点(Out点)における人物特徴量の類似度に応じて、人物の対応関係を求める。
特開2008−219570号公報
特許文献1記載の装置のように、類似度に応じて自動的に人物の対応関係を定める場合には、一定の確率で誤りが生じる。そこで、人間が関与する形で人物の対応付けを行うこともある。
しかしながら、監視に係る人間の関与度を高くすると、作業が煩雑になる可能性が高い。特に、監視対象の人物が複数名に及ぶ場合には、どの人物を対象に操作を行なっているのかをユーザが把握しづらくなったり、人物指定操作が複雑となったりしやすい。
本発明のいくつかの態様は前述の課題に鑑みてなされたものであり、人物追跡を行う際に、対象人物の特定に係る混乱を抑制することのできる画像処理システム、画像処理方法、及びプログラムを提供することを目的の1つとする。
本発明に係る1の画像処理システムは、複数のビデオカメラで撮像された動画像の入力を受ける入力手段と、前記入力手段から入力された動画像に映る人物を1以上登録可能な登録手段と、前記ビデオカメラから入力された動画像を、前記登録手段により登録された人物毎に、切換え可能に表示する表示制御手段とを備える。
本発明に係る画像処理方法は、複数のビデオカメラで撮像された動画像の入力を受けるステップと、前記入力された動画像に映る人物を1以上登録するステップと、前記ビデオカメラから入力された動画像を、前記登録された人物毎に、切換え可能に表示するステップとを画像処理システムが行う。
本発明に係るプログラムは、複数のビデオカメラで撮像された動画像の入力を受ける処理と、前記入力された動画像に映る人物を1以上登録する処理と、前記ビデオカメラから入力された動画像を、前記登録された人物毎に、切換え可能に表示する処理とをコンピュータに実行させる。
尚、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されても良い。
本発明によれば、人物追跡を行う際に、対象人物の特定に係る混乱を抑制することのできる画像処理システム、画像処理方法、及びプログラムを提供することができる。
第1実施形態に係る監視システムの概略構成を示す機能ブロック図である。 表示画面の具体例を示す図である。 表示画面の具体例を示す図である。 図1に示す情報処理サーバの処理の流れを示すフローチャートである。 図1に示す情報処理サーバを実装可能なハードウェア構成の機能構成を示すブロック図である。 第2実施形態に係る監視装置の概略構成を示す機能ブロック図である。 第3実施形態に係る表示画面の具体例を示す図である。 第4実施形態に係る表示画面の具体例を示す図である。 第4実施形態に係る表示画面の具体例を示す図である。 第5実施形態に係るモバイル端末の外観の具体例を示す図である。
以下に本発明の実施形態を説明する。以下の説明及び参照する図面の記載において、同一又は類似の構成には、それぞれ同一又は類似の符号が付されている。
(1.第1実施形態)
図1乃至図5は、第1実施形態を説明するための図である。以下、これらの図を参照しながら、以下の流れに沿って第1実施形態を説明する。まず「1.1」でシステム全体の機能構成を示すと共に、「1.2」で表示画面の具体例を示すことで、第1実施形態全体の概要を示す。その上で「1.3」で処理の流れを、「1,4」で実現可能なハードウェア構成の具体例を示す。最後に、「1.5」以降で、本実施形態に係る効果などを説明する。
(1.1 機能構成)
図1を参照しながら、本実施形態に係る情報処理システムである監視システム1の機能構成を説明する。図1は、監視システム1の機能構成を示すブロック図である。
監視システム1は、大きく分けて、情報処理サーバ100と、動画像を撮像する複数のビデオカメラ200(ビデオカメラ200A乃至200Nを総称してビデオカメラ200と呼ぶ。)とから構成される。
ビデオカメラ200は、動画像を撮像(撮影)する。またビデオカメラ200は、当該撮像した動画像内に人物が映っているか否かを判別すると共に、当該人物に係る動画像内の位置や特徴量等の情報を、撮影動画像と共に情報処理サーバ100へと送信する。また、ビデオカメラ200は、撮像した動画像内の人物追跡も行うことができる。
尚、人物の検出や人物の特徴量の抽出、カメラ内の人物追跡などの処理は、例えば情報処理サーバ100や、図示しない他の情報処理装置上で行なっても良い。
情報処理サーバ100は、ビデオカメラ200で撮像された動画像を解析することにより、人物の検出や、追跡する人物の登録、登録された人物の追跡などの各種処理を行う。
尚、以下ではビデオカメラ200により撮像されるリアルタイムの動画像を元に人物監視を行う場合を例に説明を行うが、これに限られるものではなく、例えば、ビデオカメラ200により撮像された、過去の動画像を対象に監視(分析)することも考えられる。
情報処理サーバ100は、カメラ制御部110、類似度算出部120、追跡人物登録部130、次カメラ予測部140、表示画面生成部150、入力装置160、表示装置170、及びデータベース(DB)180を含む。
ここで、情報処理サーバ100の機能は、例えばサーバとクライアント等の複数の装置により実現してもよく、例えばカメラの制御(カメラ制御部110)や追跡(監視)する人物の登録処理(追跡人物登録部130)、追跡対象人物が次に登場するビデオカメラ200の予測(次カメラ予測部140)、表示画面の生成(表示画面生成部150)、等の処理はサーバ側で、ユーザ(監視者)による入力(入力装置160)や表示画面出力(表示装置170)等の処理はクライアント側で行うようにしもて良い。このサーバ/クライアントによる処理の分担方法は種々考えることができる。
カメラ制御部110は、ビデオカメラ200を制御する。より具体的には、入力装置160から入力されたユーザ指示等に基づき、ズームインやズームアウト、撮影方向の上下左右への変更等を行うための命令を、ビデオカメラ200へと送信する。また、ビデオカメラ200から受信した動画像や人物検出情報を、撮影動画像181や検出人物情報183としてDB180へ登録する。
類似度算出部120は、ビデオカメラ200から入力された動画像に映る人物と、人物追跡情報185に登録された人物との類似度を算出することにより、被監視者の検出処理を行う。このとき、類似度算出部120は、登録された各人物に係る複数の人物画像(同一人物の複数のタイミングに係る人物画像)の中から、ビデオカメラ200から入力された動画像内の人物の画像と姿勢が類似する人物画像を選択した上で類似度を算出する。これにより、類似度算出の精度を上げることが可能となる。
ここで、類似する姿勢とは、具体的には、例えば、正面/背面/右/左のいずれを向いているか、屈んでいるか否か、他の人と重なっているか否か等の状態がそれぞれ同一又は類似と判別できる(これらを判別するためのパラメータが近似している)ものをいう。
追跡人物登録部130は、ビデオカメラ200から入力された撮影動画像に映っている人物を、入力装置160から入力されたユーザ指示等に基づき、追跡対象の被監視者(監視対象者/追跡対象者)としてDB180の人物追跡情報185へ登録する。また追跡人物登録部130は、ビデオカメラ200から入力された撮影動画像の中に映っている人物が、人物追跡情報185に既に登録された人物と同一人物であるとユーザに判定された場合には、その人物を人物追跡情報185に登録することもできる。
次カメラ予測部140は、あるビデオカメラ200に映っている(映っていた)人物が、次にどのビデオカメラ200に映るかを予測する。予測の方法は種々考えられるが、例えば、各ビデオカメラ200間の設置距離や建物の構造、人物の歩く速度等に基づいて算出することや、或いは、追跡人物が過去、どの程度の時間を置いてどのビデオカメラ200に登場したか、といった情報の統計的な処理により、確率的に予測すること等が考えられる。
表示画面生成部150は、表示装置170に表示させる、後述する図2や図3に例示するような表示画面を生成する。表示画面生成部150が生成する表示画面には、追跡対象の人物毎にウィンドウ21を表示すると共に、当該ウィンドウ21をタブ25で切換えられるようになっている。各ウィンドウ21には、追跡対象人物が映っている、若しくは近い将来映ると予測されるビデオカメラ200の動画像が配置される。また、表示画面生成部150は、当該動画像に映った人物を、追跡対象の人物として新たに登録するか否か、若しくは、既に登録済みの人物と同一人物として対応づけるか否か、等を登録可能なGUI(Graphical User Interface)を表示装置170に表示させる。
入力装置160は、ユーザ(監視者)が各種情報を入力するための装置である。例えば、マウスやタッチパッド、タッチパネル等のポインティングデバイスやキーボード等が入力装置160に該当する。上述の、追跡人物登録部130による対象人物の登録や、登録された人物との対応付け等の各種処理、タブ25の切換えといった各種処理は、入力装置160に対する操作に基づいてなされる。
表示装置170は、例えば、液晶や有機EL(Electro Luminescence)等に画像を表示するディスプレイである。表示画面生成部150が作成した表示画面は、表示装置170が表示する。
DB170は、例えば図示しないHDD(Hard Disk Drive)等の各種記憶装置上に構築される。DB180は、撮影動画像181、検出人物情報183、及び人物追跡情報185を管理する。
撮影動画像181は、ビデオカメラ200から入力された動画像である。尚、当該撮影動画像181は、例えば撮影後一定時間経過したものや、人物が映っていないと判別できる部分は削除するようにしても良い。
検出人物情報183は、ビデオカメラ200により検出された人物の特徴量や、撮影動画像181内での撮影時刻、人物画像等の情報である。
人物追跡情報185は、検出人物情報183として検出されている各人物のうち、追跡人物登録部130により追跡対象とされた人物の情報である。複数のビデオカメラ200の映像に映った人物が追跡人物登録部130により同一人物として対応付けられた場合には、その情報も人物追跡情報185に登録される。
(1.2 表示画面の具体例)
以下、図2及び図3を参照しながら、表示装置170が表示する表示画面の具体例を説明する。図2及び図3は、表示装置170が、人物監視のために表示する表示画面(以下、監視画面20ともいう。)の具体例を示す図である。まず、図2について説明する。
図2の監視画面20の例では、複数のビデオカメラ200から入力された撮影動画像を表示する動画像表示領域23A乃至23D(以下、総称して動画像表示領域23ともいう。)を含むウィンドウ21と、ウィンドウ21を切換るためのタブ25A乃至25C(以下、総称してタブ25ともいう。)とを含む。
ウィンドウ21上に配置される動画像表示領域23は、前述の通り複数のビデオカメラ200から入力されたマルチカメラ映像を表示する。ここで、それぞれの動画像表示領域23に表示されるビデオカメラ200の映像は随時切り換えても良い。例えば、監視対象の人物が表示領域から外れた後、当該人物の移動に併せて、次にその人物が現れると予測できる、若しくは現れたビデオカメラ200の映像に切り変えることが考えられる。
タブ25は、ウィンドウ21を切換えるためのものである。タブ25で切換え可能なウィンドウ21は、監視対象の人物に応じてそれぞれ設けられる。図2の例であれば、追跡人物登録部130により登録された3人の被監視者に対して、それぞれウィンドウ21(対応する動画像表示領域23を含む)が設定されており、それらをタブ25で切換えられるようになっている。
ここで、タブ25には、被監視者に対応する人物画像(サムネイル)25A1乃至25C1が配置される。これにより、監視者であるユーザは、それぞれのタブ25で切換可能なウィンドウ21が、どの被監視者に対応するものであるのかを認識することができる。図2の例であれば、人物画像25A1に対応する人物P1が、動画像表示領域23D上に映っている。
もし、ウィンドウ21としてユーザに提示している被監視者(図2の例では、人物画像25A1に対応する被監視者)以外の被監視者が、いずれかのビデオカメラ200からの動画像(映像)に映ったと検出された場合、若しくは近い将来映ると次カメラ予測部140が予測した場合には、ウィンドウ21の切換えを促す。図2の例では、タブ25Bの色が変化したり点滅したりすることにより、タブ25Bへの切換えをユーザに促している。
図3は、タブ25Bによりウィンドウ21を切り換えた場合の具体例である。図3に示すように、動画像表示領域23Cに、被監視者(図3の例では、人物画像25B1に対応する被監視者)である人物P2が映っている。
尚、図2の例では、タブ25の色の変化や点滅により、表示画面生成部150は監視者であるユーザに、被監視者に係る状態変化(新たな被監視者の検知、または近い将来の被監視者検知の予測)を通知しているが、これに限られるものではない。例えば、ウィンドウメッセージの表示や音声等により報知したりするようにしても良い。
或いは、新たな被監視者の検知、または被監視者検知の予測にともなって、ユーザ操作を経ずに、強制的にウィンドウ21を切り換えることも考えられる。
(1.3 処理の流れ)
次に、情報処理サーバ100の処理の流れを、図4を参照しながら説明する。図4は、本実施形態に係る情報処理サーバ100の処理の流れを示すフローチャートである。
尚、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して若しくは並列に実行することができ、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行することもでき、便宜上複数に分けて記載されているステップを1ステップとして実行することもできる。
類似度算出部120は、監視画面20上で表示しているウィンドウ21に係る異なる監視対象人物(被監視者)を検出したか否かを判別する(S401)。例えば、図2の例であれば、人物画像25B1及び25C1に係る被監視者を検出したか否かを、類似度算出部120は判別する。
その結果、もし、表示していないウィンドウ21に係る被監視者が検出された場合には(S401のYes)、表示画面生成部150は、タブ25の色を変化又は点等させることにより、ウィンドウ21の切換え(タブ25の切換え)を促す。
また、被監視者が検出されたわけではなくとも(S401のNo)、他のウィンドウ21に係る被監視者が、近い将来に(例えば5秒以内に)映ると次カメラ予測部140予測する場合には(S403のYes)、表示画面生成部150は、S405へ進んでウィンドウ21の切換えを促す。
このように、メイン表示していない追跡対象人物(被監視者)がビデオカメラ200の映像に出現している、若しくは近い将来に出現しそうだと予測できる場合には、表示画面生成部150はタブ25の色を変化させたり点滅させたりすることにより強調表示する。これにより、追跡対象人物が複数いる場合であっても、タブ25により人物毎に分けられた画面で人物を監視することができるため、混乱を防ぐことが可能となる。
(1.4 ハードウェア構成の具体例)
以下、図5を参照しながら、上述してきた情報処理サーバ100のハードウェア構成の一例を説明する。尚、前述の通り、情報処理サーバ100の機能は、複数の情報処理装置(例えば、サーバとクライアント)により実現することも可能である。
図5に示すように、情報処理サーバ100は、プロセッサ501、メモリ503、記憶装置505、入力インタフェース(I/F)507、データI/F509、通信I/F511、及び表示装置513を含む。
プロセッサ501は、メモリ503に記憶されているプログラムを実行することにより情報処理サーバ100における様々な処理を制御する。例えば、図1で説明したカメラ制御部110、類似度算出部120、追跡人物登録部130、次カメラ予測部140、及び表示画面生成部150に係る処理は、メモリ503に一時記憶された上で、主にプロセッサ501上で動作するプログラムとして実現可能である。
メモリ503は、例えばRAM(Random Access Memory)等の記憶媒体である。メモリ503は、プロセッサ501によって実行されるプログラムのプログラムコードや、プログラムの実行時に必要となるデータを一時的に記憶する。例えば、メモリ503の記憶領域には、プログラム実行時に必要となるスタック領域が確保される。
記憶装置505は、例えばHDD(Hard Disk Drive)やフラッシュメモリ等の不揮発性の記憶媒体である。記憶装置505は、オペレーティングシステムや、カメラ制御部110、類似度算出部120、追跡人物登録部130、次カメラ予測部140、及び表示画面生成部150を実現するための各種プログラムや、DB180として格納される撮影動画像181、検出人物情報183、及び人物追跡情報185を含む各種データなどを記憶する。記憶装置505に記憶されているプログラムやデータは、必要に応じてメモリ503にロードされることにより、プロセッサ501から参照される。
入力I/F507は、ユーザからの入力を受け付けるためのデバイスである。図1で説明した入力装置160は、入力I/F507により実現される。入力I/F507の具体例としては、キーボードやマウス、タッチパネル、各種センサ等がある。入力I/F507は、例えばUSB(Universal Serial Bus)等のインタフェースを介して情報処理サーバ100に接続されても良い。
データI/F509は、情報処理サーバ100の外部からデータを入力するためのデバイスである。データI/F509の具体例としては、各種記憶媒体に記憶されているデータを読み取るためのドライブ装置等がある。データI/F509は、情報処理サーバ100の外部に設けられることも考えられる。その場合、データI/F509は例えばUSB等のインタフェースを介して情報処理サーバ100へと接続される。
通信I/F511は、情報処理サーバ100の外部の装置、例えばビデオカメラ200等との間で有線又は無線によりデータ通信するためのデバイスである。通信I/F511は情報処理サーバ100の外部に設けられることも考えられる。その場合、通信I/F511は、例えばUSB等のインタフェースを介して情報処理サーバ100に接続される。
表示装置513は、例えば監視画面20等の各種情報を表示するためのデバイスであり、例えば、液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイ等である。表示装置513は、情報処理サーバ100の外部に設けられても良い。その場合、表示装置513は、例えばディスプレイケーブル等を介して情報処理サーバ100に接続される。
(1.5 本実施形態に係る効果)
以上説明したように、本実施形態に係る情報処理サーバ100は、複数のビデオカメラ200から入力される動画像を、監視対象者毎に生成されるウィンドウ21上に表示する。ウィンドウ21は、タブ25によりそれぞれ切換可能である。もし、メイン表示していない追跡対象人物(被監視者)がビデオカメラ200の映像に出現している、若しくは近い将来に出現しそうだと予測できる場合には、表示画面生成部150はタブ25の色を変化させたり点滅させたりすることにより強調表示する。これにより、追跡対象人物が複数いる場合であっても、タブ25により人物毎に分けられた画面で人物を監視することができるため、混乱を防ぐことが可能となる。
(2 第2実施形態)
以下、第2実施形態を図6を参照しながら説明する。図6は、画像処理システムである監視装置600の機能構成を示すブロック図である。図6に示すように、監視装置600は、入力部610と、登録部620と、表示制御部630とを含む。
入力部610は、複数のビデオカメラで撮像された動画像の入力を受ける。登録部620は、入力部610から入力された動画像に映る人物を1以上登録可能である。
表示制御部630は、ビデオカメラから入力された動画像を、登録部620により登録された人物毎に、切換え可能に表示する。
このように実装することで、本実施形態に係る監視装置600によれば、人物追跡を行う際に、対象人物の特定に係る混乱を抑制することができる。
(3 第3実施形態)
次に、第3実施形態に係る監視システム1について説明する。なお、以下の説明において、第1実施形態と同様の構成については同一の符号を付すとともに、説明を省略する。作用効果についても、第1実施形態と同様の点については、必要に応じて説明を省略している。この点、第4実施形態および第5実施形態においても同様である。
以下、第3実施形態に係る監視システム1と、第1実施携帯に係る監視システム1との差異を中心に説明する。
本実施形態に係る監視システム1の機能構成は、基本的には図1に示す第1実施形態に係るものと同様であるが、表示画面生成部150が生成し、表示装置170に表示させる表示画面が異なる。図7に、本実施形態に係る表示生成部150が生成する表示画面の具体例を示す。
図7に示す表示画面の例では、本実施形態に係る表示画面生成部150が生成する表示画面における各ウィンドウ31内に、追跡対象人物が映っている、若しくは近い将来映ると予測されるビデオカメラ200の動画像と、タイムチャート画像とが配置されている。
以下、図7及び図8を参照しながら、本実施形態において表示装置170が表示する表示画面の具体例を説明する。図7の表示画面の具体例では、人物監視のために表示する、タイムチャート画像が配置されている(以下、この表示画面を、監視画面30ともいう。)。
図7に示すように、監視画面30は、図2に示す監視画像20と比較して、動画像表示領域23が、動画像表示領域33A乃至33D(以下、総称して動画像表示領域33ともいう。)である点で異なる。この中でも特に、動画像表示領域33Dに、動画像ではなく、タイムチャート画像が配置されている点が、図2に係る監視画像とは異なる。当該タイムチャート画像は、タブ25Bに対応する人物P2が、各カメラのどの時間帯で検出されたかを示すものである。
図8は、動画像表示領域33Dに表示されるタイムチャート画像を拡大した図である。T1は、現在、表示されているウィンドウのタブに対応している人物が、各カメラのどの時間帯で検出されたかを示すタイムチャートである。このタイムチャートにおいて、図中左の列の数字はカメラの番号を表しており、T2は、時間軸を示している。例えば、T2において目盛の間隔が5秒であり、現在最も左の目盛が10時を表しているとする。その場合において、図8がタブ25Bに対応する人物P2の検出状況を表示しているとすると、T1は、人物P2が、カメラ1に10時0分5秒から10時0分10秒までの間映っていたことを表している。また、T1は、人物P2が、カメラ2に10時から10時0分10秒までの間映っていたことを表している。
T3は、T1全体及びT2を、右方向又は左方向(未来又は過去)にスライドするためのつまみである。T4は、図7における動画像表示領域33A乃至33Cに表示する監視画像を選択するためのボタンである。図7及び図8の例では、カメラ2、4及び6に対応する監視画像が、動画像表示領域33A、33B及び33Cに表示されている。T4におけるボタンの切換え処理は、入力装置160に対する操作に基づいてなされる。例えば入力装置160がマウスの場合、カーソルを該当するボタンの上に置いてクリックすることで、表示画像が切り替えられても良い。又は入力装置160がタッチパネルの場合、ユーザがボタンを直接タッチすることで、表示画像が切り替えられても良い。
なお、本実施形態に係る表示画面生成部150は、第1実施形態で説明したように、類似度算出部120、追跡人物登録部130、次カメラ予測部140、撮影動画像181、検出人物情報183及び人物追跡情報185等を利用して、タイムチャート画像を生成しても良い。
例えば、入力される撮影動画像181内において、追跡人物登録部130によって登録された人物又は予め登録された人物が類似度算出部120により検出されると、表示画面生成部150は、対応する人物のT1におけるその時間帯を塗りつぶすようにしても良い。
また、例えば、図8のT1において、表示画面生成部150は、右から2列目に現在の時間帯の検出状況を表示し、最も右の列は、次カメラ予測部140によって予測された状況を表示するようにしても良い。その場合、表示画面生成部150は、動画像表示領域33Dに、リアルタイムで時々刻々と右から左へ流れるようにT1を表示しても良い。または、表示画面生成部150は、リアルタイムの撮影動画像ではなく、蓄積された過去の撮影動画像(オフラインの動画像データ)を対象としてT1を生成しても良い。
以上説明したように、本実施形態に係る表示画面生成部150は、表示画面にタイムチャート画像を配置する。これにより、監視対象人物がどの時間帯にどのカメラで検出されたかを、一目で確認することができる。
また、本実施形態に係る表示画面生成部150は、どのカメラで撮影した監視画像を、動画像表示領域33に表示するかを切り替え可能なボタンを表示する。これにより、ユーザは、タイムチャートを確認しながら、表示したい画像を任意に切り替えることができる。
(4 第4実施形態)
次に、第4実施形態に係る監視システム1について説明する。本実施形態に係る監視システム1の機能構成は、基本的には図1に示す第1実施形態に係るものと同様であるが、表示画面生成部150が生成し、表示装置170に表示させる表示画面が異なる。図9に、本実施形態に係る表示生成部150が生成する表示画面の具体例を示す。
図9に示すように、本実施形態に係る表示画面生成部150が生成する表示画面(以下、監視画面40ともいう。)における各ウィンドウ41内には、追跡対象人物が映っている、若しくは近い将来映ると予測されるビデオカメラ200の動画像と共に、地図画像が配置されている。
監視画面40を、図2に示す監視画像20と比較すると、動画像表示領域23が、動画像表示領域43A乃至43D(以下、総称して動画像表示領域43ともいう。)である点が異なる。この中でも特に、動画像表示領域43Dに、動画像ではなく、地図画像が配置されている点が大きく異なる。当該地図画像は、タブ25A1に対応する人物と、タブ25B1に対応する人物の軌跡を示す。
本実施形態に係る表示画面生成部150は、検出及び追跡の結果に応じて、リアルタイムに地図画像を変化させる。なお、表示画面生成部150は、監視対象人物毎に、タブの色と、地図画像に表示する軌跡の色とを同系色の色で表示しても良い。例えば、タブ25Aと、地図画像におけるタブ25Aに対応する人物の軌跡の色と、を赤系統の色とし、タブ25Bと、地図画像におけるタブ25Bに対応する人物の軌跡の色と、を青系統の色としても良い。また、図9の例ではタブ25Cに対応する人物は地図画像上検出されていないが、例えばタブ25Cと、地図画像におけるタブ25Cに対応する人物の軌跡の色と、を黄系統の色としても良い。
更に、類似度算出部120が人物を検出すると、表示画面生成部150は、動画像上の人物を、対応する同系の色の矩形によって囲うことで、ユーザに人物の検出を報知しても良い。
以上説明したように、本実施形態に係る表示画面生成部150は、表示画面に地図画像を配置し、監視対象人物の移動の軌跡を表示する。これにより、ユーザは、監視対象人物の移動の軌跡を、一目で確認することができる。
また、本実施形態に係る表示画面生成部150は、監視対象人物毎に、タブの色と、地図画像に表示する軌跡の色とを同系の色で表示する。これにより、ユーザは、複数の監視対象人物の移動の軌跡を、一目でよりわかりやすく確認することができる。
(5 第5実施形態)
図10は、第5実施形態を説明するための図である。図10に示すように、本実施形態に係る監視システム1は、監視画面(図10の例では、第1実施形態に係る監視画面20と同様の表示画面)をモバイル端末1000上に表示する。ここで、モバイル端末1000は、ノートパソコン、タブレット端末、PDA、携帯電話、スマートフォン、携帯ゲーム機などを含む。本実施形態において、モバイル端末1000のディスプレイはタッチパネルで構成される。
本実施形態に係る監視システム1は、図1に示した情報処理サーバ100の機能のうち、少なくとも入力装置160及び表示装置170の機能を、モバイル端末1000上で実現するものである。情報処理サーバ100と当該モバイル端末1000との間を、適宜無線LAN(Local Area Network)等の無線通信で接続することにより、情報処理サーバ100と当該モバイル端末1000とが連携することができるので、第1実施形態と同様の機能を実現することが可能となる。
図10に示すようにモバイル端末を、入力装置160及び表示装置170として使用することで、例えば、ユーザが手でディスプレイを画面下部から画面上部(図中、矢印方向)へとなでることで、監視システム1はディスプレイ上の表示を、タブの順番に下の被監視者から上の被監視者へ、対応するウィンドウに切り替えるユーザインタフェースを実現することも考えられる。或いは、タブの切換えは、直接タブの画像領域にタッチすることで切り替えても良い。
本実施形態によれば、モバイル端末上に監視画面が表示されるので、例えば警備員が携帯することで、屋外で被監視者の追跡状況を確認することができる。
(6 付記事項)
尚、前述の実施形態の構成は、組み合わせたり或いは一部の構成部分を入れ替えたりしてもよい。また、本発明の構成は前述の実施形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えてもよい。
尚、前述の各実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
複数のビデオカメラで撮像された動画像の入力を受ける入力手段と、前記入力手段から入力された動画像に映る人物を1以上登録可能な登録手段と、前記ビデオカメラから入力された動画像を、前記登録手段により登録された人物毎に、切換え可能に表示する表示制御手段とを備える画像処理システム。
(付記2)
前記表示制御手段は、前記ビデオカメラから入力された動画像を、前記登録手段により登録された人物にそれぞれ対応付けられたウィンドウを切換え可能に表示する、付記1記載の画像処理システム。
(付記3)
前記表示制御手段は、前記ビデオカメラから入力された動画像に、前記登録手段により登録された人物が撮像されている場合に、前記ウィンドウの切換えを促す、付記2記載の画像処理システム。
(付記4)
前記表示制御手段は、前記ビデオカメラから入力された動画像に、前記登録手段により登録された人物が映ると予測できる場合に、前記ウィンドウの切換えを促す、付記2又は付記3記載の画像処理システム。
(付記5)
前記ウィンドウ上には、それぞれ、前記入力手段から入力された動画像が複数配置される、付記2又は付記3記載の画像処理システム。
(付記6)
ビデオカメラで撮像された動画像の入力を受ける入力手段と、前記ビデオカメラから入力された動画像を、登録された人物毎に、切換え可能に表示する表示制御手段とを備え、前記表示制御手段は、登録された人物毎に、当該人物を撮影したビデオカメラ及び撮影した時間に関する情報を表示する、画像処理システム。
(付記7)
ビデオカメラで撮像された動画像の入力を受ける入力手段と、前記ビデオカメラから入力された動画像を、登録された人物毎に、切換え可能に表示する表示制御手段とを備え、前記表示制御手段は、登録された人物毎の移動の軌跡を表した地図情報を表示する、画像処理システム。
(付記8)
前記表示制御手段は、タッチパネルをインタフェースとするモバイル端末に情報を表示する付記1乃至付記7のいずれか1項に記載の画像処理システム。
(付記9)
複数のビデオカメラで撮像された動画像の入力を受けるステップと、前記入力された動画像に映る人物を1以上登録するステップと、前記ビデオカメラから入力された動画像を、前記登録された人物毎に、切換え可能に表示するステップとを画像処理システムが行う画像処理方法。
(付記10)
前記ビデオカメラから入力された動画像を、登録された人物にそれぞれ対応付けられたウィンドウを切換え可能に表示する、付記9記載の画像処理方法。
(付記11)
前記ビデオカメラから入力された動画像に、前記登録手段により登録された人物が撮像されている場合に、前記ウィンドウの切換えを促す、付記10記載の画像処理方法。
(付記12)
前記ビデオカメラから入力された動画像に、前記登録手段により登録された人物が映ると予測できる場合に、前記ウィンドウの切換えを促す、付記10又は付記11記載の画像処理方法。
(付記13)
前記ウィンドウ上には、それぞれ、前記入力手段から入力された動画像が複数配置される、付記10又は付記11記載の画像処理方法。
(付記14)
ビデオカメラで撮像された動画像の入力を受けるステップと、前記ビデオカメラから入力された動画像を、登録された人物毎に、切換え可能に表示するステップとを画像処理システムが行い、画像処理システムは、登録された人物毎に、当該人物を撮影したビデオカメラ及び撮影した時間に関する情報を表示する、画像処理方法。
(付記15)
ビデオカメラで撮像された動画像の入力を受けるステップと、前記ビデオカメラから入力された動画像を、登録された人物毎に、切換え可能に表示するステップとを画像処理システムが行い、画像処理システムは、登録された人物毎の移動の軌跡を表した地図情報を表示する、画像処理方法。
(付記16)
タッチパネルをインタフェースとするモバイル端末に情報を表示する付記9乃至付記15のいずれか1項に記載の画像処理方法。
(付記17)
複数のビデオカメラで撮像された動画像の入力を受ける処理と、前記入力された動画像に映る人物を1以上登録する処理と、前記ビデオカメラから入力された動画像を、前記登録された人物毎に、切換え可能に表示する処理とをコンピュータに実行させるプログラム。
(付記18)
前記ビデオカメラから入力された動画像を、登録された人物にそれぞれ対応付けられたウィンドウを切換え可能に表示する、付記17記載のプログラム。
(付記19)
前記ビデオカメラから入力された動画像に、前記登録手段により登録された人物が撮像されている場合に、前記ウィンドウの切換えを促す、付記18記載のプログラム。
(付記20)
前記ビデオカメラから入力された動画像に、前記登録手段により登録された人物が映ると予測できる場合に、前記ウィンドウの切換えを促す、付記18又は付記19記載のプログラム。
(付記21)
前記ウィンドウ上には、それぞれ、前記入力手段から入力された動画像が複数配置される、付記18又は付記19記載の画像処理方法。
(付記22)
ビデオカメラで撮像された動画像の入力を受ける処理と、前記ビデオカメラから入力された動画像を、登録された人物毎に、切換え可能に表示する処理とをコンピュータに実行させ、登録された人物毎に、当該人物を撮影したビデオカメラ及び撮影した時間に関する情報を表示する、プログラム。
(付記23)
ビデオカメラで撮像された動画像の入力を受ける処理と、前記ビデオカメラから入力された動画像を、登録された人物毎に、切換え可能に表示する処理とをコンピュータに実行させ、登録された人物毎の移動の軌跡を表した地図情報を表示する、プログラム。
(付記24)
タッチパネルをインタフェースとするモバイル端末に情報を表示する付記17乃至付記22のいずれか1項に記載のプログラム。
この出願は、2012年7月31日に出願された日本出願特願2012−170406を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1・・・監視システム、20・・・監視画面、21・・・ウィンドウ、23A、23B、23C、23D・・・動画像表示領域、25A、25B、25C・・・タブ、25A1、25B1、25C1・・・人物画像、100・・・情報処理サーバ、110・・・カメラ制御部、120・・・類似度算出部、130・・・追跡人物登録部、140・・・次カメラ予測部、150・・・表示画面生成部、160・・・入力装置、170・・・表示装置、180・・・データベース(DB)、181・・・撮影動画像、183・・・検出人物情報、185・・・人物追跡情報、200・・・ビデオカメラ、P1、P2・・・人物

Claims (5)

  1. 複数のビデオカメラで撮像された動画像の入力を受ける入力手段と、
    前記入力手段から入力された動画像に映る人物を1以上登録可能な登録手段と、
    前記ビデオカメラから入力された動画像を、前記登録手段により登録された人物にそれぞれ対応付けられたウィンドウを切換え可能に表示する表示制御手段と
    を備え、
    前記表示制御手段は、前記ビデオカメラから入力された動画像に、前記登録手段により登録された人物が映ると予測できる場合に、前記ウィンドウの切換えを促す、
    画像処理システム。
  2. 前記表示制御手段は、前記ビデオカメラから入力された動画像に、前記登録手段により登録された人物が撮像されている場合に、前記ウィンドウの切換えを促す、
    請求項1記載の画像処理システム。
  3. 前記ウィンドウ上には、それぞれ、前記入力手段から入力された動画像が複数配置される、
    請求項1又は請求項2記載の画像処理システム。
  4. 複数のビデオカメラで撮像された動画像の入力を受けるステップと、
    前記入力された動画像に映る人物を1以上登録するステップと、
    前記ビデオカメラから入力された動画像を、前記登録された人物にそれぞれ対応付けられたウィンドウを切換え可能に表示するステップと、
    前記ビデオカメラから入力された動画像に、登録された人物が映ると予測できる場合に、前記ウィンドウの切換えを促すステップと
    を画像処理システムが行う画像処理方法。
  5. 複数のビデオカメラで撮像された動画像の入力を受ける処理と、
    前記入力された動画像に映る人物を1以上登録する処理と、
    前記ビデオカメラから入力された動画像を、前記登録された人物にそれぞれ対応付けられたウィンドウを切換え可能に表示する処理と、
    前記ビデオカメラから入力された動画像に、登録された人物が映ると予測できる場合に、前記ウィンドウの切換えを促す処理と
    をコンピュータに実行させるプログラム。
JP2014528039A 2012-07-31 2013-06-17 画像処理システム、画像処理方法、及びプログラム Active JP6332833B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012170406 2012-07-31
JP2012170406 2012-07-31
PCT/JP2013/066565 WO2014021004A1 (ja) 2012-07-31 2013-06-17 画像処理システム、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2014021004A1 JPWO2014021004A1 (ja) 2016-07-21
JP6332833B2 true JP6332833B2 (ja) 2018-05-30

Family

ID=50027694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014528039A Active JP6332833B2 (ja) 2012-07-31 2013-06-17 画像処理システム、画像処理方法、及びプログラム

Country Status (10)

Country Link
US (6) US10841528B2 (ja)
JP (1) JP6332833B2 (ja)
CN (1) CN104718749A (ja)
AR (1) AR091912A1 (ja)
BR (1) BR112015001949B1 (ja)
MX (1) MX2015001292A (ja)
MY (1) MY171395A (ja)
RU (1) RU2015106938A (ja)
SG (1) SG11201500693QA (ja)
WO (1) WO2014021004A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6415061B2 (ja) * 2014-02-19 2018-10-31 キヤノン株式会社 表示制御装置、制御方法及びプログラム
JP6573361B2 (ja) 2015-03-16 2019-09-11 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
JP6182171B2 (ja) * 2015-03-25 2017-08-16 東芝テック株式会社 需要予測装置及びプログラム
JP2017046192A (ja) * 2015-08-26 2017-03-02 株式会社リコー 情報処理装置、プログラム、情報処理方法
JP6835065B2 (ja) 2016-03-18 2021-02-24 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US20180176512A1 (en) * 2016-10-26 2018-06-21 Ring Inc. Customizable intrusion zones associated with security systems
US11532160B2 (en) 2016-11-07 2022-12-20 Nec Corporation Information processing apparatus, control method, and program
JP6873740B2 (ja) * 2017-02-24 2021-05-19 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡装置及びエッジ検出方法
EP3379471A1 (en) * 2017-03-21 2018-09-26 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and storage medium
CN110798653B (zh) * 2018-08-01 2021-09-14 华为技术有限公司 一种基于多机协作的图像处理方法和视频监控系统
JP6573346B1 (ja) * 2018-09-20 2019-09-11 パナソニック株式会社 人物検索システムおよび人物検索方法
CN110944109B (zh) * 2018-09-21 2022-01-14 华为技术有限公司 一种拍照方法、装置与设备
WO2021033703A1 (ja) * 2019-08-22 2021-02-25 日本電気株式会社 表示制御装置、表示制御方法、プログラム、および表示制御システム
CN112579593A (zh) * 2019-09-30 2021-03-30 华为技术有限公司 人口库分库方法和装置
US11954941B2 (en) * 2020-01-14 2024-04-09 EMC IP Holding Company LLC Facial recognition IOT application for multi-stream video using forecasting tools
JP7052833B2 (ja) * 2020-07-16 2022-04-12 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP7415848B2 (ja) 2020-08-17 2024-01-17 横河電機株式会社 装置、システム、方法およびプログラム
KR20220102401A (ko) * 2021-01-13 2022-07-20 삼성전자주식회사 전자 장치 및 그의 동작 방법

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3122002B2 (ja) 1995-02-16 2001-01-09 松下電器産業株式会社 対話型情報提供装置
US7304662B1 (en) * 1996-07-10 2007-12-04 Visilinx Inc. Video surveillance system and method
US6061055A (en) 1997-03-21 2000-05-09 Autodesk, Inc. Method of tracking objects with an imaging device
US20030025599A1 (en) * 2001-05-11 2003-02-06 Monroe David A. Method and apparatus for collecting, sending, archiving and retrieving motion video and still images and notification of detected events
US6720990B1 (en) * 1998-12-28 2004-04-13 Walker Digital, Llc Internet surveillance system and method
JP4270703B2 (ja) * 2000-02-24 2009-06-03 日本放送協会 自動人物インデックス発生装置
JP4672104B2 (ja) 2000-04-26 2011-04-20 パナソニック株式会社 監視用デジタル画像記録再生装置
JP4195991B2 (ja) * 2003-06-18 2008-12-17 パナソニック株式会社 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
AU2006338248B2 (en) * 2005-03-25 2011-01-20 Sensormatic Electronics, LLC Intelligent camera selection and object tracking
US7843491B2 (en) 2005-04-05 2010-11-30 3Vr Security, Inc. Monitoring and presenting video surveillance data
US9036028B2 (en) * 2005-09-02 2015-05-19 Sensormatic Electronics, LLC Object tracking and alerts
JP2007241377A (ja) 2006-03-06 2007-09-20 Sony Corp 検索システム、撮像装置、データ保存装置、情報処理装置、撮像画像処理方法、情報処理方法、プログラム
JP4881766B2 (ja) 2007-03-06 2012-02-22 パナソニック株式会社 カメラ間連結関係情報生成装置
JP4933354B2 (ja) 2007-06-08 2012-05-16 キヤノン株式会社 情報処理装置、及び情報処理方法
US20090153654A1 (en) 2007-12-18 2009-06-18 Enge Amy D Video customized to include person-of-interest
US8601494B2 (en) 2008-01-14 2013-12-03 International Business Machines Corporation Multi-event type monitoring and searching
WO2009121053A2 (en) * 2008-03-28 2009-10-01 On-Net Surveillance Systems, Inc. Method and systems for video collection and analysis thereof
JP5027759B2 (ja) 2008-08-19 2012-09-19 本田技研工業株式会社 車両の視覚支援装置
MX2012009579A (es) * 2010-02-19 2012-10-01 Toshiba Kk Sistema de rastreo de objetos en movimiento y metodo de rastreo de objetos en movimiento.
US9252897B2 (en) * 2010-11-10 2016-02-02 Verizon Patent And Licensing Inc. Multi-feed event viewing
GB2485969A (en) * 2010-11-12 2012-06-06 Sony Corp Video surveillance with anticipated arrival time of object in another camera view
US8908034B2 (en) 2011-01-23 2014-12-09 James Bordonaro Surveillance systems and methods to monitor, recognize, track objects and unusual activities in real time within user defined boundaries in an area
CN102170560A (zh) 2011-02-25 2011-08-31 李兆全 一种基于rfid的闭路电视系统和监控方法

Also Published As

Publication number Publication date
MX2015001292A (es) 2015-04-08
US20190199956A1 (en) 2019-06-27
BR112015001949A2 (pt) 2017-07-04
CN104718749A (zh) 2015-06-17
US20190199957A1 (en) 2019-06-27
BR112015001949B1 (pt) 2023-04-25
US20200344436A1 (en) 2020-10-29
US20190238786A1 (en) 2019-08-01
US20150208015A1 (en) 2015-07-23
AR091912A1 (es) 2015-03-11
US11343575B2 (en) 2022-05-24
WO2014021004A1 (ja) 2014-02-06
SG11201500693QA (en) 2015-04-29
US20220124410A1 (en) 2022-04-21
US10750113B2 (en) 2020-08-18
US10999635B2 (en) 2021-05-04
MY171395A (en) 2019-10-10
US10778931B2 (en) 2020-09-15
US10841528B2 (en) 2020-11-17
JPWO2014021004A1 (ja) 2016-07-21
RU2015106938A (ru) 2016-09-20

Similar Documents

Publication Publication Date Title
JP6332833B2 (ja) 画像処理システム、画像処理方法、及びプログラム
US9870684B2 (en) Information processing apparatus, information processing method, program, and information processing system for achieving a surveillance camera system
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
US9298987B2 (en) Information processing apparatus, information processing method, program, and information processing system
WO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
EP3021206B1 (en) Method and device for refocusing multiple depth intervals, and electronic device
US10623659B2 (en) Image processing system, image processing method, and program
JPWO2014045670A1 (ja) 画像処理システム、画像処理方法及びプログラム
JP2014170367A (ja) 物体検出装置、物体検出方法、物体検出システム及びプログラム
KR20210012634A (ko) 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180409

R150 Certificate of patent or registration of utility model

Ref document number: 6332833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180422