JP2014222825A - Video processing apparatus and video processing method - Google Patents

Video processing apparatus and video processing method Download PDF

Info

Publication number
JP2014222825A
JP2014222825A JP2013101554A JP2013101554A JP2014222825A JP 2014222825 A JP2014222825 A JP 2014222825A JP 2013101554 A JP2013101554 A JP 2013101554A JP 2013101554 A JP2013101554 A JP 2013101554A JP 2014222825 A JP2014222825 A JP 2014222825A
Authority
JP
Japan
Prior art keywords
video
priority
moving object
moving
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013101554A
Other languages
Japanese (ja)
Inventor
聡 仲摩
Satoshi Nakama
聡 仲摩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013101554A priority Critical patent/JP2014222825A/en
Publication of JP2014222825A publication Critical patent/JP2014222825A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform motion image photography in which a moving body is extracted from within wide-angle video and an object to be monitored is automatically selected.SOLUTION: A video processing apparatus includes: image pickup means of picking up wide-angle video; moving body extraction means of extracting a moving body from the wide-angle video picked up by the image pickup means; priority imparting means of imparting priority to the moving body extracted by the moving body extraction means; video segmentation means of segmenting the wide-angle video into video of a partial area; and video conversion means of converting the video into first video data and second video data. The video segmentation means achieves segmentation such that an area including a moving body with a top priority level among priority levels set by the priority imparting means has an aspect ratio for moving image display, and the video conversion means converts the area segmented by the video segmentation means and including the moving body with the top priority into the first video data and the remaining area into the second video data.

Description

本発明は映像処理装置および映像処理方法に関し、特に、広角レンズや全方位レンズを用いた広域監視カメラで撮影する領域内の動体を含む注目領域に対して、再生映像に適したサイズを自動的に選択するために用いて好適な技術に関するものである。   The present invention relates to a video processing apparatus and a video processing method, and in particular, automatically selects a size suitable for a playback video for a region of interest including moving objects in a region captured by a wide-area surveillance camera using a wide-angle lens or an omnidirectional lens. The present invention relates to a technique suitable for use in selection.

従来、広角レンズや魚眼レンズを用いて撮影する場合、広角映像内に複数の対象が存在することがあり、特定の対象を絞り込むために映像から一部を切り出す機能を搭載することが検討されている。広角映像から切り出した映像を圧縮して配信することにより、受信側で表示サイズに合わせた変換をかけることにより、切り出し映像を表示することができる方法も検討されている。   Conventionally, when shooting with a wide-angle lens or a fish-eye lens, there may be multiple objects in the wide-angle video, and it is considered to install a function to cut out a part of the video to narrow down a specific target. . A method that can display a cut-out video by compressing and distributing a video cut out from a wide-angle video and applying a conversion in accordance with the display size on the receiving side has been studied.

例えば、特許文献1では、広角映像内から画像を切り出す場合に、切り出した映像と広角映像における切り出し位置を対応付けておき、切り出し画像を一時的に保持して参照フレームとすることで、切り出した画像の圧縮率を高めることを開示している。   For example, in Patent Document 1, when an image is cut out from a wide-angle video, the cut-out video and the cut-out position in the wide-angle video are associated with each other, and the cut-out image is temporarily held and used as a reference frame. It discloses that the compression ratio of an image is increased.

例えば、特許文献2では、動きの大きな領域を主領域として切り出しておく。更に内部の動きの小さなものを低画質化し、補助領域から動きの大きなものを低画質化した部分に重ね合わせることで、広角映像内の動きのある部分を効率的に映像伝送する方法を開示している。   For example, in Patent Document 2, an area with a large movement is cut out as a main area. Also disclosed is a method for efficiently transmitting a moving part in a wide-angle video by lowering the image quality of a small internal movement and superimposing a large movement from the auxiliary area on the reduced quality part. ing.

特開2009−218851号公報JP 2009-218851 A 特開2004−363974号公報JP 2004-363974 A

しかしながら、前述の特許文献1に開示された従来技術では、広角映像から注目する対象を切り出す場合に、ユーザーが画面を見ながら切り出す範囲を指定する方法と共に、監視カメラなどで動体の部分を切り出すことが提示されている。したがって、切り出した映像以外は広角映像の一部として表示することとなり、全体の広角画像を基に受信側で見る必要がある。   However, in the conventional technique disclosed in Patent Document 1 described above, when a target object is cut out from a wide-angle video, a moving object portion is cut out by a monitoring camera or the like together with a method for specifying a range to be cut out while a user looks at the screen. Is presented. Therefore, the video other than the cut-out video is displayed as a part of the wide-angle video and needs to be viewed on the receiving side based on the entire wide-angle image.

また、特許文献2に開示された従来技術では、広角映像内の動体部分において重要領域と非重要領域を判断しているが、切り出す主領域のサイズについては言及しておらず、低画質化領域と子画面領域とが不一致のときは子画面領域を変形させて対応させている。主領域に対して表示画像を考慮した映像サイズの設定を行わずに、圧縮率とデータサイズを考慮して送信すると、映像データの変換にかかる負荷が高くなってしまい、配信映像サイズは抑えられるが映像配信側の処理に制限がかかってしまう問題点があった。   In the prior art disclosed in Patent Document 2, the important area and the non-important area are determined in the moving body portion in the wide-angle video, but the size of the main area to be cut out is not mentioned, and the image quality reduction area And the sub screen area do not match, the sub screen area is deformed to correspond. If the video size considering the display image is not set for the main area and the transmission is performed considering the compression rate and the data size, the load for converting the video data will increase, and the distribution video size will be suppressed. However, there is a problem that the processing on the video distribution side is limited.

本発明は前述の問題点に鑑み、広角映像内から動体を抽出し、監視対象を自動的に選択して動画撮影を行うことができるようにすることを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to extract moving objects from a wide-angle video and automatically select a monitoring target to perform moving image shooting.

本発明の映像処理装置は、広角映像を撮像する撮像手段と、前記撮像手段により撮像された広角映像から動体を抽出する動体抽出手段と、前記動体抽出手段によって抽出した動体に優先度を設ける優先度付与手段と、前記広角映像から一部の領域の映像を切り出す映像切り出し手段と、映像を第1の映像データと第2の映像データに変換する映像変換手段と、を有し、前記映像切り出し手段は、前記優先度付与手段によって設定された優先度のうち最も優先度の高い動体を含む領域を動画表示用のアスペクト比に切り出し、前記映像変換手段は、前記映像切り出し手段により切り出された最も優先度の高い動体を含む領域を第1の映像データに変換し、残りの領域を第2の映像データに変換することを特徴とする。   The video processing apparatus according to the present invention includes an imaging unit that captures a wide-angle video, a moving object extraction unit that extracts a moving object from the wide-angle image captured by the imaging unit, and a priority that gives priority to the moving object extracted by the moving object extraction unit. And a video conversion means for converting a video into a first video data and a second video data. The means cuts out an area including the moving body having the highest priority among the priorities set by the priority giving means into an aspect ratio for displaying a moving image, and the video converting means is the highest cut out by the video cutting means. A region including a moving object having a high priority is converted into first video data, and the remaining region is converted into second video data.

本発明によれば、広角画像から動体の多い部分を優先的に抽出し、表示装置に応じた映像サイズで動画撮影できると共に、優先度の低い部分は分けて配信することができる。   According to the present invention, a part with many moving objects can be preferentially extracted from a wide-angle image, and a moving image can be shot with a video size corresponding to the display device, and a part with low priority can be distributed separately.

本発明の実施形態を示し、動体を含む領域の抽出処理を説明する図である。It is a figure which shows embodiment of this invention and demonstrates the extraction process of the area | region containing a moving body. 実施形態を示し、全方位監視カメラの構成例を示すブロック図である。It is a block diagram which shows embodiment and shows the structural example of an omnidirectional monitoring camera. 実施形態を示し、全方位監視カメラの映像の一例を示す図である。It is a figure which shows embodiment and shows an example of the image | video of an omnidirectional monitoring camera. 実施形態を示し、動体抽出方法を実現する処理手順を説明するフローチャートである。It is a flowchart which shows embodiment and demonstrates the process sequence which implement | achieves the moving body extraction method. 実施形態を示し、最高優先度決定の手順を説明するフローチャートである。It is a flowchart which shows embodiment and demonstrates the procedure of the highest priority determination. 実施形態を示し、領域サイズを決定する手順を説明するフローチャートである。It is a flowchart which shows embodiment and demonstrates the procedure which determines area | region size. 実施形態を示し、映像変換処理の手順を説明するフローチャートである。It is a flowchart which shows embodiment and demonstrates the procedure of a video conversion process.

以下に、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。
先ず、図2を参照して、本発明の実施形態による、映像処理装置である全方位監視カメラの構成について説明する。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
First, the configuration of an omnidirectional monitoring camera that is a video processing apparatus according to an embodiment of the present invention will be described with reference to FIG.

本実施形態の映像処理装置は、例えば、ビデオカメラや、デジタルカメラや、監視カメラや、定点カメラなど、広く映像を処理する装置に適用可能である。また、本実施形態の映像処理装置においては、監視カメラ等のシステムにおいて、外部の機器において撮像された映像を入力し、処理する装置であってもよいものとする。   The video processing apparatus of the present embodiment can be applied to a wide range of video processing apparatuses such as a video camera, a digital camera, a surveillance camera, and a fixed point camera. Further, the video processing apparatus according to the present embodiment may be an apparatus that inputs and processes video captured by an external device in a system such as a surveillance camera.

図2に、全方位監視カメラの構成図の一例を示す。
全方位監視カメラは、レンズ201を通して入力された映像が、撮像部203によって撮像されデジタル映像データとして処理される。
FIG. 2 shows an example of a configuration diagram of the omnidirectional monitoring camera.
In the omnidirectional monitoring camera, an image input through the lens 201 is captured by the image capturing unit 203 and processed as digital image data.

レンズ201は、レンズ制御部202によってレンズの操作が行われ、フォーカスやズーム制御、アイリス調整などで被写体を最適な値によって撮影できるように制御される。撮像部203で撮影されたデジタル映像データは映像補正部204に出力され、映像補正部204において映像の歪などを取り除き監視目的として見やすい映像に補正される。   The lens 201 is controlled by the lens control unit 202 so that the subject can be photographed with an optimum value by focus, zoom control, iris adjustment, or the like. The digital video data captured by the imaging unit 203 is output to the video correction unit 204, and the video correction unit 204 removes distortion of the video and corrects the video for easy monitoring.

映像補正部204で補正された映像は動体抽出部205に出力され、動体抽出部205において映像内の背景部分との差分をとることによって動体が抽出される。抽出された各動体の位置と、大きさと、動体が検出されていた期間と、方向と、移動速度とを保持する。映像切り出し部206において、映像補正部204で補正された映像と、動体抽出部205により抽出された動体情報を基に、任意の位置の映像が切り出される。   The video corrected by the video correction unit 204 is output to the moving object extraction unit 205, and the moving object extraction unit 205 extracts the moving object by taking a difference from the background portion in the video. The extracted position, size, period during which the moving object is detected, direction, and moving speed are held. The video cutout unit 206 cuts out a video at an arbitrary position based on the video corrected by the video correction unit 204 and the moving body information extracted by the moving body extraction unit 205.

映像切り出し部206で切り出された映像は映像変換処理部207に出力され、通信に最適な符号化処理を施されて映像データに映像変換される。映像変換処理部207で符号化され映像変換された映像データは、通信部208によって外部のネットワークに送信される。通信部208では、クライアントからの制御要求や配信要求に応じて通信を制御している。   The video cut out by the video cutout unit 206 is output to the video conversion processing unit 207, subjected to an encoding process optimal for communication, and converted into video data. The video data encoded and converted by the video conversion processing unit 207 is transmitted to an external network by the communication unit 208. The communication unit 208 controls communication according to a control request or a distribution request from a client.

各ブロックは、内部バス209によって接続されており、CPU210によって制御信号を受けて動作を行う。また、映像データはRAM211に一時的に退避させ処理シーケンスを待つことに利用され、ユーザーからの設定情報やプログラムなどがロードされている。ROM212では、プログラムが保存されており、起動してからRAM211へロードされ、CPU210からの読み出しにより動作する。また、ユーザーからの設定情報はRAM211に一時的に保存されるものと、ROM212へ保存されて装置再起動後も有効になるものと存在する。   Each block is connected by an internal bus 209, and operates by receiving a control signal from the CPU 210. The video data is temporarily saved in the RAM 211 and used to wait for a processing sequence, and setting information, a program, and the like from the user are loaded. In the ROM 212, a program is stored, and after being activated, the program is loaded into the RAM 211, and operates by reading from the CPU 210. Further, setting information from the user may be temporarily stored in the RAM 211, or may be stored in the ROM 212 and become effective after the apparatus is restarted.

動体抽出部205は、CPU210によって抽出する動体の条件を変更することができる。抽出した動体情報はRAM211に一時的に保存され、CPU210によって抽出情報から計算され、広角映像から一部の領域の映像を切り出す際の切り出し位置やサイズとして映像切り出し部206に送信される。なお、CPU210は、ネットワーク上のクライアントに対し、RAM211およびROM212にある動体情報および設定値を、通信部208を介して送信制御する。   The moving object extraction unit 205 can change the conditions of moving objects extracted by the CPU 210. The extracted moving body information is temporarily stored in the RAM 211, calculated from the extracted information by the CPU 210, and transmitted to the video cutout unit 206 as the cutout position and size when cutting out a partial area video from the wide-angle video. Note that the CPU 210 controls transmission of moving body information and setting values in the RAM 211 and ROM 212 to the client on the network via the communication unit 208.

ここで、全方位監視カメラにより撮影される映像の一例を図3に示す。
図3は、魚眼レンズを用いて撮影した光学系を表す全方位画像(図3(a))と、その展開画像(図3(b))を模式的に示す図である。
Here, FIG. 3 shows an example of an image captured by the omnidirectional monitoring camera.
FIG. 3 is a diagram schematically showing an omnidirectional image (FIG. 3A) representing an optical system photographed using a fisheye lens and a developed image (FIG. 3B).

図3(a)に示す全方位画像301は、天井から真下に向かって撮影した状態であり、全体として302のように円環状をなす領域内に、方位ごとの被写体情報をその画像中心303から径方向に向かって放射状に持つ。方位角度Θ1とΘ2は、それぞれ中心ラインを304とする位置からラインL1とラインL2として表される。   An omnidirectional image 301 shown in FIG. 3A is a state taken directly from the ceiling, and subject information for each azimuth is obtained from the image center 303 in an annular region as a whole. Holds radially in the radial direction. The azimuth angles Θ1 and Θ2 are represented as a line L1 and a line L2 from a position where the center line is 304, respectively.

一方、図3(b)に示す展開画像は全体として矩形状であり、実空間の鉛直方向と対応する縦方向が全方位画像における径方向に対応するとともに、実空間の水平方向と対応する横方向が全方位画像における周方向と対応する。   On the other hand, the developed image shown in FIG. 3B has a rectangular shape as a whole, and the vertical direction corresponding to the vertical direction of the real space corresponds to the radial direction in the omnidirectional image and the horizontal direction corresponding to the horizontal direction of the real space. The direction corresponds to the circumferential direction in the omnidirectional image.

図3(a)における円形映像の中心303と中心から垂直におろした線304および垂直に伸ばした線305において、垂線305を基準として展開を行うと、図3(b)のように垂線304を中心とした矩形になる。   When the center 303 of the circular image in FIG. 3A, a line 304 perpendicular to the center and a line 305 extending vertically from the center are expanded on the basis of the perpendicular 305, the perpendicular 304 is obtained as shown in FIG. 3B. It becomes a rectangle with the center.

ここで、方位角度ごとの被写体情報を横方向に沿って並列上に持つように形成され、方位角度Θ1に対応したラインL1はL1’として表され、方位角度Θ2に対応したラインL2はL2’として展開される。
なお、図3(a)で示される領域を306a、307a、308aとして映像補正部204を介して展開すると、図3(b)にある306b、307b、308bのように垂線304を中心として横方向に展開されて補正される。
Here, the object information for each azimuth angle is formed in parallel along the horizontal direction, the line L1 corresponding to the azimuth angle Θ1 is represented as L1 ′, and the line L2 corresponding to the azimuth angle Θ2 is L2 ′. Expanded as.
When the areas shown in FIG. 3A are expanded as 306a, 307a, and 308a through the video correction unit 204, the horizontal direction is about the vertical line 304 as shown in 306b, 307b, and 308b in FIG. 3B. Is expanded and corrected.

本実施形態において、全方位カメラとして魚眼レンズを用いた全方位画像を用いている例を示した。この他に、魚眼レンズの撮影に限らず広角映像を撮影できる、ミラーを用いた光学式の360度撮影可能なレンズや、超広角の映像を撮影できるレンズなど、撮影する対象が広範囲にわたるものであっても、本実施形態の目的を満たすことができる。   In this embodiment, the example which uses the omnidirectional image which used the fisheye lens as an omnidirectional camera was shown. In addition to this, not only fish-eye lenses, but also wide-angle images can be taken, such as optical 360-degree lenses that use mirrors and lenses that can shoot ultra-wide-angle images. However, the object of the present embodiment can be satisfied.

ここで、図4のフローチャートを用いて動体抽出部205における動体抽出方法を実現する処理手順について説明する。
動体抽出部205では、入力される映像の背景映像を学習しており、入力される映像データと背景映像との差分を比較して動体を検出する。
Here, a processing procedure for realizing the moving object extraction method in the moving object extraction unit 205 will be described using the flowchart of FIG.
The moving object extraction unit 205 learns the background image of the input image, and detects the moving object by comparing the difference between the input image data and the background image.

処理が開始されると、S401で映像データを入力し、事前に学習した背景画像と入力映像データとの背景差分を比較する(S402)。S401の映像データは、初期起動時に必要数の映像データを入力することで背景を学習することが可能であり、ここでは起動してから十分に時間が経過しており、既に学習した背景映像が存在するものとする。   When the process is started, video data is input in S401, and the background difference between the background image learned in advance and the input video data is compared (S402). The video data in S401 can learn the background by inputting the required number of video data at the time of initial startup. Here, a sufficient amount of time has passed since the startup, and the background video already learned is It shall exist.

S402において、背景差分がある場合には動体として認識できる最低サイズの変化が発生したか確認する(S403)。
S402の背景差分とS403の最低サイズを超えない誤差は無視され、S401の映像データ入力に戻る。S403で動体最低サイズを超えた場合、動体の位置およびサイズの情報を更新する(S404)。
In S402, if there is a background difference, it is checked whether a change in the minimum size that can be recognized as a moving object has occurred (S403).
The background difference in S402 and the error not exceeding the minimum size in S403 are ignored, and the process returns to the video data input in S401. When the minimum moving object size is exceeded in S403, the information on the position and size of the moving object is updated (S404).

更に、過去の動体情報との相関があるか否かをS405で判断し、同一物体であると判断できた場合はS406に進み、動体の出現時間情報を更新する。
S405で相関が取れず同一物体でないと判断できた場合にはS407に進み、新規物体の出現として登録する。
Further, in S405, it is determined whether or not there is a correlation with past moving object information. If it is determined that they are the same object, the process proceeds to S406, and the appearance time information of the moving object is updated.
If it is determined in S405 that the correlation is not obtained and the objects are not the same, the process proceeds to S407 and is registered as the appearance of a new object.

S406で時間情報を更新した物体は、時間情報と位置およびサイズの比較により対象物体が移動しているか否かを判断する(S408)。
移動している物体であれば位置とサイズとの相関から速度情報を更新し(S409)、移動していない場合は静止物体として速度情報を0にリセットする(S410)。
The object whose time information has been updated in S406 determines whether or not the target object has moved by comparing the time information with the position and size (S408).
If it is a moving object, the speed information is updated from the correlation between the position and the size (S409), and if it is not moving, the speed information is reset to 0 as a stationary object (S410).

速度情報と新規物体のそれぞれで動体情報を更新し(S411)、全動体を抽出したか否かを確認する(S412)。全動体に対して更新が済んでいなければ、S405に戻り、各動体についての情報を更新し、全動体についての情報更新が終了すれば動体抽出処理を終える。   The moving object information is updated for each of the speed information and the new object (S411), and it is confirmed whether all moving objects have been extracted (S412). If all the moving objects have not been updated, the process returns to S405 to update the information about each moving object, and when the information update for all moving objects is completed, the moving object extraction process is completed.

なお、動体が存在しない場合、映像データ入力を繰り返すことになるが、この場合は映像補正部204から映像切り出し部206へ直接映像データが出力されるので、映像変換処理および外部クライアントへの通信を妨げることにはならない。   If there is no moving object, video data input is repeated. In this case, since video data is directly output from the video correction unit 204 to the video cutout unit 206, video conversion processing and communication with an external client are performed. It will not interfere.

本実施形態の中では、背景差分を用いた動体検出方式を用いて説明を行ったが、動体を検出できるものであれば目的を達することができる。例えば、フレーム間差分のような入力されてくる映像データをある一定周期のフレーム単位で処理することで動体を抽出する方式を用いてもよい。   In the present embodiment, the description has been made using the moving object detection method using the background difference, but the object can be achieved as long as the moving object can be detected. For example, a method may be used in which moving objects are extracted by processing input video data such as inter-frame differences in units of frames of a certain period.

動体抽出部205で抽出した動体について、各動体の中で最高優先度を決定する処理を図5のフローチャートを用いて説明する。
動体抽出処理を終えた動体のうち、指定距離内の動体を一つの物体として扱うようにマージする(S501)。
S501の動体マージ後に全動体情報をサイズ、存在時間、移動速度の順にソートする(S502)。
全動体のうち最大サイズが一致しているか否かを確認し(S503)、最大サイズが異なれば最大サイズのものを動体の最高優先度とする優先度付与処理を行う(S509)。
Processing for determining the highest priority among the moving objects extracted by the moving object extraction unit 205 will be described with reference to the flowchart of FIG.
Among the moving objects that have finished the moving object extraction process, the moving objects within the specified distance are merged so as to be handled as one object (S501).
After moving object merge in S501, all moving object information is sorted in the order of size, existing time, and moving speed (S502).
It is confirmed whether or not the maximum size is the same among all moving objects (S503), and if the maximum size is different, priority giving processing is performed in which the maximum size is the highest priority of the moving object (S509).

次に、最大サイズが一致していれば、動体が現れてからの存在時間を比較する(S504)。存在時間が一致していれば、動体の移動速度を比較し(S505)、それぞれ一致していない場合は動体の存在時間が最長のもの、動体の移動速度が最も高速のものを最高優先度とする優先度付与処理を行う(S509)。   Next, if the maximum sizes match, the existence time after the moving object appears is compared (S504). If there is a match, the moving speeds of the moving objects are compared (S505). If they do not match, the moving object has the longest moving time and the moving object having the fastest moving speed is the highest priority. Priority giving processing is performed (S509).

サイズ、存在時間、移動速度が一致している動体が複数ある場合、現在既に切り出し領域が存在しているか否かを判断し(S506)、存在する場合には現在の領域の中心位置から最も近い動体を選択する(S507)。   If there are a plurality of moving objects having the same size, existing time, and moving speed, it is determined whether or not a cutout area already exists (S506), and if it exists, it is closest to the center position of the current area. A moving object is selected (S507).

切り出し領域が存在せず、複数の候補動体が存在する場合は、予め定められているデフォルトの中心位置から最も近い動体を選択する(S508)。デフォルト領域としては、図3(b)に展開された画像の中心位置とする。この処理により、動体の中から最もサイズが大きく、存在時間が長く、移動速度が速いものを最高優先度として設定する優先度付与処理を行う(S509)。   When there is no cutout area and there are a plurality of candidate moving objects, the moving object closest to the predetermined default center position is selected (S508). The default area is the center position of the image developed in FIG. By this processing, priority assignment processing is performed for setting the highest priority among moving objects that has the largest size, the longest existence time, and the high moving speed (S509).

動体抽出部205によって最高優先度の動体と、その映像内の位置を算出することができるため、動体の位置情報とサイズに関する情報をRAM211へ保存することができる。CPU210は、動体の位置情報を基にレンズ制御部202に対して、優先度の最も高い動体に応じたシャッタースピードや明るさの設定を指示することができる。これにより、動体に合わせてレンズ制御を行い、動体に適した撮影パラメータによる撮影を継続することが可能となる。   Since the moving object extraction unit 205 can calculate the moving object having the highest priority and the position in the video, the position information and the size information of the moving object can be stored in the RAM 211. The CPU 210 can instruct the lens control unit 202 to set the shutter speed and the brightness according to the moving object having the highest priority based on the position information of the moving object. Accordingly, it is possible to perform lens control in accordance with the moving body and continue shooting with shooting parameters suitable for the moving body.

次に、映像切り出し部206において、最高優先度を持つ動体を含む領域の抽出処理を図1(A)〜(D)によって示す。
図1(A)は、図3(b)に示す展開画像の一例である。
動体抽出部205によって抽出された動体はサイズ順にM101、M102、M103、M104の4つ存在する。
Next, an extraction process of a region including a moving object having the highest priority in the video cutout unit 206 is shown in FIGS.
FIG. 1A is an example of the developed image shown in FIG.
There are four moving objects M101, M102, M103, and M104 in order of size, extracted by the moving object extraction unit 205.

前述した最高優先度の決定方法に従い、図1(B)のように各動体に対して動体間の距離とサイズによって優先度を定め、各動体を囲む外接矩形によって表すと、優先度の高い順に領域はR101、R102、R103となる。ここでは、複数の動体が密集している場合に、複数の動体を集合体として動体M102と動体M103を含む領域R101が対象となる。   In accordance with the method for determining the highest priority described above, priority is determined by the distance and size between moving objects for each moving object as shown in FIG. 1B, and expressed by a circumscribed rectangle surrounding each moving object. The areas are R101, R102, and R103. Here, when a plurality of moving bodies are densely packed, the region R101 including the moving body M102 and the moving body M103 is targeted.

領域R101は、高さHr、幅Wrの外接矩形によって表わされる。対象となる領域R101の高さが展開画像における高さに満たない場合、図1(C)のように展開画像の最大高H1まで広げ領域R104を設定する。   The region R101 is represented by a circumscribed rectangle having a height Hr and a width Wr. When the height of the target region R101 is less than the height of the developed image, the region R104 is set so as to extend to the maximum height H1 of the developed image as shown in FIG.

ここで、監視カメラの映像を表示するクライアントへの配信サイズを考慮し、アスペクト比が一定になるように、3:4もしくは9:16のビデオ映像サイズに適した領域を選択するよう領域R104を基準として映像変換処理における映像サイズを決める。   Here, in consideration of the distribution size to the client displaying the video of the surveillance camera, the region R104 is selected so as to select a region suitable for the video image size of 3: 4 or 9:16 so that the aspect ratio becomes constant. The video size in the video conversion process is determined as a reference.

領域R104の高さH1を基準とし、幅を設定する際、高さ対幅が3:4になるように幅を決める。図1(D)に示すように、高さH1に対しての3:4の幅W1を持つ領域R105を動体撮影の切り出し位置となるように定める。領域R105は高さH1、幅W1の矩形領域であり、映像切り出し部206において切り出す位置およびサイズは領域R105の中心位置と幅および高さを用いて行われる。   Using the height H1 of the region R104 as a reference, when setting the width, the width is determined so that the height vs. width is 3: 4. As shown in FIG. 1D, a region R105 having a width W1 of 3: 4 with respect to the height H1 is determined to be a cut-out position for moving body imaging. The region R105 is a rectangular region having a height H1 and a width W1, and the position and size to be cut out by the video cutout unit 206 are determined using the center position, width, and height of the region R105.

なお、動体抽出において、動体のサイズが大きい場合、複数の動体をマージして動体領域として抽出する際に、動画表示用のアスペクト比3:4に収まらない幅を持つ領域になる場合が想定される。   In moving object extraction, when the size of a moving object is large, when a plurality of moving objects are merged and extracted as a moving object region, a region having a width that does not fit in the aspect ratio 3: 4 for moving image display is assumed. The

動体サイズが大きい場合の一例を図1(E)に示し、領域サイズを決定するためのフローチャートを図6に示す。
図1(E)に示すように、動体M105と動体M106を持つ領域R106は高さHrと幅Wrを持つ。展開画像の高さをH1、H1に対するアスペクト比3:4の場合の幅をW1、アスペクト比9:16サイズの幅をW2、高さH1と幅W2の場合の領域は、領域R107とする。
An example when the moving object size is large is shown in FIG. 1E, and a flowchart for determining the region size is shown in FIG.
As shown in FIG. 1E, the region R106 having the moving body M105 and the moving body M106 has a height Hr and a width Wr. The height of the developed image is H1, the width when the aspect ratio is 3: 4 with respect to H1, the width is W1, the width when the aspect ratio is 9:16 is W2, and the region where the height is H1 and the width W2 is region R107.

まず、動体抽出の優先度を設定する処理を行い、動体M105と動体M106を持つ領域R106が最高優先度として選択される(S601)。
対象の領域R106の幅Wrが、展開画像の高さH1を基準にした3:4サイズの幅W1と比較して(S602)、WrとW1のうちW1が広い場合には、3:4の領域を切り出し領域として選択する(S603)。
First, processing for setting the priority of moving object extraction is performed, and the region R106 having the moving object M105 and the moving object M106 is selected as the highest priority (S601).
When the width Wr of the target region R106 is larger than the width W1 of the 3: 4 size based on the height H1 of the developed image (S602), when W1 is wide among Wr and W1, the width Wr is 3: 4. The area is selected as a cut-out area (S603).

S602の判断において、領域R106の幅Wrの方が広い場合はアスペクト比9:16サイズの幅W2を持つ領域R107を切り出し領域として選択する(S604)。
次に、領域R106の幅Wrと9:16サイズの幅W2との比較を行い(S605)、幅W2が広い場合は、外接矩形である領域R106の中心位置を切り出しの中心として設定する(S607)。同じように、3:4の領域に切り出した場合にも外接矩形の中心位置を切り出しの中心として設定する(S608)。
If it is determined in step S602 that the width Wr of the region R106 is wider, the region R107 having a width W2 having an aspect ratio of 9:16 is selected as a cutout region (S604).
Next, the width Wr of the region R106 is compared with the width W2 of 9:16 size (S605). If the width W2 is wide, the center position of the region R106 that is a circumscribed rectangle is set as the center of extraction (S607). ). Similarly, the center position of the circumscribed rectangle is set as the center of the cutout when cutting into the 3: 4 area (S608).

動体を含む領域R106の幅WrがW2よりも広い場合、表示用映像サイズとして表現できるサイズを超えてしまう。このため、領域サイズは維持したまま切り出し位置の中心を、含まれる動体の中で最もサイズの大きな動体に対しての中心位置を使用する(S606)。   When the width Wr of the region R106 including the moving object is wider than W2, the size that can be expressed as the display video size is exceeded. Therefore, the center position for the moving body having the largest size among the moving bodies included is used as the center of the cutout position while maintaining the region size (S606).

前述したように、切り出し位置のサイズは動画表示用のアスペクト比3:4、もしくは9:16のサイズによって設定され、切り出しの中心位置は動体を含む領域の中心位置もしくは最大サイズの動体の中心を用いて設定される。   As described above, the size of the cutout position is set according to the size of the aspect ratio 3: 4 or 9:16 for moving image display, and the center position of the cutout is the center position of the area including the moving object or the center of the moving object of the maximum size. Use to set.

映像切り出し部206によって決定された切り出し情報を基に映像変換処理部207における映像変換処理について、図7のフローチャートを用いて説明する。
切り出し情報として領域および位置とサイズの詳細情報を取得する(S701)。
次いで、切り出し領域情報を取得した時間を計測し(S702)、予め指定された生成タイミングにより切り出し領域を映像変換する(S703)。
A video conversion process in the video conversion processing unit 207 based on the cutout information determined by the video cutout unit 206 will be described with reference to the flowchart of FIG.
Detailed information on the area, position, and size is acquired as the cutout information (S701).
Next, the time when the cut-out area information is acquired is measured (S702), and the cut-out area is converted into an image at a generation timing specified in advance (S703).

時間計測はフレームレートや周期、タイミングなどの時間情報を入手することにより、映像データ間の入力時間間隔を測定し、一定の間隔で映像変換を行うために実行する。
S703の映像変換では、JPEG形式などによる静止画像(第2の映像データ)の連続生成や、H.264やMPEG4などの符号化方式を用いて動画像(第1の映像データ)としてクライアントに配信可能な変換を行う。
Time measurement is performed in order to measure input time intervals between video data by obtaining time information such as a frame rate, a cycle, and timing, and to perform video conversion at regular intervals.
In the video conversion in S703, continuous generation of still images (second video data) in JPEG format or the like, Using a coding method such as H.264 or MPEG4, conversion that can be distributed as a moving image (first video data) to the client is performed.

切り出し領域の映像変換が終了したら、予めパラメータとしてクライアントから設定されているフレームレートや周期、タイミングなどの時間間隔を超えているか否かを判断する(S704)。
指定時間が経過していれば、切り出し領域を除く全ての映像を映像変換する(S705)。S705の映像変換では、JPEG形式などの静止画像として扱うための映像変換を行い、一定周期で映像を取得することができるようにRAM211に保存する。切り出し領域を変換した動画像と、切り出し領域以外の映像を変換した静止画像の情報を更新し、映像変換処理を終える(S706)。
When the video conversion of the cutout region is completed, it is determined whether or not the time interval such as the frame rate, cycle, timing, etc., set in advance as a parameter by the client is exceeded (S704).
If the specified time has elapsed, all the images except the cut-out area are converted (S705). In the video conversion in S705, video conversion for handling as a still image such as JPEG format is performed, and the video is stored in the RAM 211 so that the video can be acquired at a constant cycle. Information on the moving image obtained by converting the cutout area and the still image obtained by converting the video other than the cutout area is updated, and the video conversion process ends (S706).

更新された映像情報はRAM211に保存されており、通信部208を介してクライアント要求があった場合に、最新情報を送信することで、現在の映像情報を配信することが可能である。
また、クライアントから映像取得要求が来た場合には、通信部208を介して一定間隔で配信する。クライアントは、フレームレートや周期情報といった時間間隔を指定することで、映像切り出し位置の動画像と、全体の中から切り出し領域を除く静止画像を取得することが可能である。
The updated video information is stored in the RAM 211, and when there is a client request via the communication unit 208, the latest video information can be transmitted to distribute the current video information.
In addition, when a video acquisition request is received from a client, it is distributed at regular intervals via the communication unit 208. The client can acquire a moving image at the video cutout position and a still image excluding the cutout region from the whole by specifying a time interval such as a frame rate and period information.

本実施形態の説明では、動画像と静止画像の映像変換処理について、JPEGおよびH.264やMPEG4などの符号化方式を用いて説明を行った。しかし、動画と静止画というカテゴリに含まれる符号化方式や圧縮方式であれば本実施の目的を満たせるため、符号化方式を限定するものではない。   In the description of the present embodiment, JPEG and H.264 video conversion processing for moving images and still images is performed. The description has been given using an encoding method such as H.264 or MPEG4. However, since the encoding method and the compression method included in the category of moving image and still image can satisfy the purpose of the present embodiment, the encoding method is not limited.

以上のように、本実施形態では、全方位画像を用いた映像から動きのある動体を抽出し、抽出した動体のうち最も優先度の高い動体を含む領域を常に動画撮影できるように、切り出し位置、切り出し映像サイズを決定する。そして、切り出す映像サイズは、動画表示用の、動画表示に適した表示用動画サイズのアスペクト比に合わせて設定する。   As described above, in the present embodiment, a moving object with a motion is extracted from a video using an omnidirectional image, and a region including a moving object with the highest priority among the extracted moving objects can be always captured with a moving image. The cutout video size is determined. The video size to be cut out is set in accordance with the aspect ratio of the moving image display size suitable for moving image display.

これにより、全方位画像から動画像のみを切り出すことができ、切り出した以外の画像を静止画像として保存することができ、注目部分の抽出が簡易にできると共に、撮影画像全体の状況を把握することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。
As a result, only a moving image can be cut out from an omnidirectional image, an image other than the cut-out image can be saved as a still image, and a target portion can be easily extracted and the state of the entire captured image can be grasped. Can do.
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

前述した本発明の実施形態における映像処理装置を構成する各手段、並びに制御方法の各ステップは、コンピュータのRAMやROM等に記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記録したコンピュータ読み取り可能な記憶媒体は本発明に含まれる。   Each means constituting the video processing apparatus and each step of the control method in the embodiment of the present invention described above can be realized by operating a program stored in a RAM, a ROM, or the like of a computer. This program and a computer-readable storage medium storing the program are included in the present invention.

また、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施形態も可能であり、具体的には、一つの機器からなる装置に適用してもよい。
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、装置に直接、または遠隔から供給する。そして、そのシステムまたは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。
Further, the present invention can be implemented as, for example, a system, apparatus, method, program, or recording medium, and may be applied to an apparatus composed of a single device.
Note that the present invention supplies a software program that implements the functions of the above-described embodiments directly or remotely to the apparatus. This includes the case where the system or the computer of the apparatus is also achieved by reading and executing the supplied program code.

M101、M102、M103、M104、M105、M106 動体
R101、R102、R103、R104、R105、R106、R107 領域
203 撮像部、204 映像補正部、205 動体抽出部、206 映像切り出し部、207 映像変換処理部、208 通信部、301 全方位画像、302 円環状の撮影領域、303 全方位画像の中心、304 展開画像の中心線、305 展開画像の分断線、306、307、308 動体領域
M101, M102, M103, M104, M105, M106 Moving objects R101, R102, R103, R104, R105, R106, R107 , 208 communication unit, 301 omnidirectional image, 302 toric imaging region, 303 center of omnidirectional image, 304 center line of developed image, 305 dividing line of developed image, 306, 307, 308 moving object region

Claims (16)

広角映像を撮像する撮像手段と、
前記撮像手段により撮像された広角映像から動体を抽出する動体抽出手段と、
前記動体抽出手段によって抽出した動体に優先度を設ける優先度付与手段と、
前記広角映像から一部の領域の映像を切り出す映像切り出し手段と、
映像を第1の映像データと第2の映像データに変換する映像変換手段と、
を有し、
前記映像切り出し手段は、前記優先度付与手段によって設定された優先度のうち最も優先度の高い動体を含む領域を動画表示用のアスペクト比に切り出し、
前記映像変換手段は、前記映像切り出し手段により切り出された最も優先度の高い動体を含む領域を第1の映像データに変換し、残りの領域を第2の映像データに変換することを特徴とする映像処理装置。
An imaging means for imaging a wide-angle image;
Moving object extraction means for extracting a moving object from a wide-angle video imaged by the imaging means;
Priority giving means for giving priority to the moving object extracted by the moving object extracting means;
Video cutout means for cutting out a video of a part of the area from the wide-angle video;
Video conversion means for converting video into first video data and second video data;
Have
The video cutout unit cuts out an area including a moving object having the highest priority among the priorities set by the priority giving unit into an aspect ratio for displaying a moving image,
The video conversion means converts the area including the moving body having the highest priority cut out by the video cut-out means into first video data, and converts the remaining area into second video data. Video processing device.
前記第1の映像データと第2の映像データは、少なくとも生成されるタイミング、周期、フレームレートが異なることを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the first video data and the second video data are different in at least a timing, a cycle, and a frame rate that are generated. 前記第1の映像データと第2の映像データでは、第1の映像データの方が早く生成されることを特徴とする請求項2に記載の映像処理装置。   The video processing apparatus according to claim 2, wherein the first video data is generated earlier than the first video data and the second video data. 前記動画表示用のアスペクト比に切り出す場合には、少なくともアスペクト比が3:4または9:16の映像サイズを含むことを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein when the aspect ratio for moving image display is cut out, the video processing apparatus includes at least an image size having an aspect ratio of 3: 4 or 9:16. 前記動画表示用のアスペクト比に切り出す場合には、前記映像変換手段で変換される領域の高さをアスペクト比の縦に合わせた映像サイズとすることを特徴とする請求項1に記載の映像処理装置。   The video processing according to claim 1, wherein, when the aspect ratio for moving image display is cut out, the height of the area converted by the video conversion means is set to a video size that matches the vertical length of the aspect ratio. apparatus. 前記優先度付与手段は、動体が密集している場合に複数の動体を集合体として高い優先度とすることを特徴とする請求項1〜5の何れか1項に記載の映像処理装置。   6. The video processing apparatus according to claim 1, wherein the priority assigning unit sets a plurality of moving objects as a high priority when the moving objects are dense. 前記優先度付与手段は、最大サイズが大きい動体を高い優先度とすることを特徴とする請求項1〜5の何れか1項に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the priority assigning unit sets a moving object having a large maximum size as a high priority. 前記優先度付与手段は、最大サイズが一致している場合には、存在時間が長い動体を高い優先度とすることを特徴とする請求項1〜5の何れか1項に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the priority assigning unit assigns a moving object having a long existence time to a high priority when the maximum sizes coincide with each other. . 前記優先度付与手段は、最大サイズ及び存在時間が一致している場合には、移動速度が速い動体を高い優先度とすることを特徴とする請求項1〜5の何れか1項に記載の映像処理装置。   6. The priority giving means according to claim 1, wherein when the maximum size and the existence time coincide with each other, the moving object having a high moving speed is given a high priority. Video processing device. 前記優先度付与手段は、最大サイズ、存在時間、及び移動速度が一致している場合には、切り出し領域が存在するか否かに応じて高い優先度を決定することを特徴とする請求項1〜5の何れか1項に記載の映像処理装置。   The priority assigning means determines a high priority according to whether or not a cutout area exists when the maximum size, the existing time, and the moving speed match. The video processing device according to any one of? 前記優先度付与手段は、切り出し領域が存在する場合には、現在の領域から最も近い動体を選択して高い優先度とすることを特徴とする請求項10に記載の映像処理装置。   11. The video processing apparatus according to claim 10, wherein, when a cutout area exists, the priority assigning unit selects a moving object closest to the current area and sets the priority to a high priority. 前記優先度付与手段は、切り出し領域が存在しない場合には、デフォルトの位置から最も近い動体を選択して高い優先度とすることを特徴とする請求項10に記載の映像処理装置。   The video processing apparatus according to claim 10, wherein when the cutout area does not exist, the priority assigning unit selects a moving object closest to a default position and sets the priority to a high priority. 前記撮像手段は、前記広角映像を撮像するためのレンズとして、全方位を撮影可能なレンズ、または360度撮影可能なレンズ、及び前記全方位を撮影可能なレンズ、または360度撮影可能なレンズにより撮影された円形映像から歪を取り除く補正を行う映像補正手段を有し、
前記動体抽出手段は、前記映像補正手段によって補正された映像内の背景部分との差分をとることによって動体を抽出することを特徴とする請求項1〜12の何れか1項に記載の映像処理装置。
The imaging means includes, as a lens for capturing the wide-angle image, a lens capable of photographing all directions, a lens capable of photographing 360 degrees, and a lens capable of photographing all directions, or a lens capable of photographing 360 degrees. Image correction means for correcting distortion from the captured circular image,
The video processing according to claim 1, wherein the moving object extraction unit extracts a moving object by taking a difference from a background portion in the video corrected by the video correction unit. apparatus.
広角映像を撮像する撮像工程と、
前記撮像工程において撮像された広角映像から動体を抽出する動体抽出工程と、
前記動体抽出工程において抽出した動体に優先度を設ける優先度付与工程と、
前記広角映像から一部の領域の映像を切り出す映像切り出し工程と、
映像を第1の映像データと第2の映像データに変換する映像変換工程と、
を有し、
前記映像切り出し工程は、前記優先度付与工程において設定された優先度のうち最も優先度の高い動体を含む領域を動画表示用のアスペクト比に切り出し、
前記映像変換工程は、前記映像切り出し工程において切り出された最も優先度の高い動体を含む領域を第1の映像データに変換し、残りの領域を第2の映像データに変換することを特徴とする映像処理方法。
An imaging process for imaging a wide-angle image;
A moving object extracting step of extracting a moving object from the wide-angle video imaged in the imaging step;
A priority providing step of setting priority to the moving object extracted in the moving object extraction step;
A video cutout step of cutting out an image of a partial area from the wide-angle video;
A video conversion step of converting the video into first video data and second video data;
Have
The video cutout step cuts out an area including the moving body having the highest priority among the priorities set in the priority assignment step into an aspect ratio for displaying a video,
In the video conversion step, the region including the moving body having the highest priority cut out in the video cutout step is converted into first video data, and the remaining region is converted into second video data. Video processing method.
広角映像を撮像する撮像手順と、
前記撮像手順において撮像された広角映像から動体を抽出する動体抽出手順と、
前記動体抽出手順において抽出した動体に優先度を設ける優先度付与手順と、
前記広角映像から一部の領域の映像を切り出す映像切り出し手順と、
映像を第1の映像データと第2の映像データに変換する映像変換手順と、
をコンピュータに実行させるプログラムであって、
前記映像切り出し手順は、前記優先度付与手順において設定された優先度のうち最も優先度の高い動体を含む領域を動画表示用のアスペクト比に切り出し、
前記映像変換手順は、前記映像切り出し手順において切り出された最も優先度の高い動体を含む領域を第1の映像データに変換し、残りの領域を第2の映像データに変換するようコンピュータを制御することを特徴とするプログラム。
An imaging procedure for imaging a wide-angle image;
A moving object extraction procedure for extracting a moving object from the wide-angle video imaged in the imaging procedure;
A priority assignment procedure for providing priority to the moving object extracted in the moving object extraction procedure;
A video cutout procedure for cutting out a part of the video from the wide-angle video;
A video conversion procedure for converting the video into first video data and second video data;
A program for causing a computer to execute
The video cutout procedure cuts out an area including a moving object having the highest priority among the priorities set in the priority assignment procedure into an aspect ratio for displaying a moving image,
The video conversion procedure controls the computer to convert the area including the moving body having the highest priority extracted in the video cutout procedure into first video data and convert the remaining area into second video data. A program characterized by that.
請求項15に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 15.
JP2013101554A 2013-05-13 2013-05-13 Video processing apparatus and video processing method Pending JP2014222825A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013101554A JP2014222825A (en) 2013-05-13 2013-05-13 Video processing apparatus and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013101554A JP2014222825A (en) 2013-05-13 2013-05-13 Video processing apparatus and video processing method

Publications (1)

Publication Number Publication Date
JP2014222825A true JP2014222825A (en) 2014-11-27

Family

ID=52122169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013101554A Pending JP2014222825A (en) 2013-05-13 2013-05-13 Video processing apparatus and video processing method

Country Status (1)

Country Link
JP (1) JP2014222825A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016166950A1 (en) 2015-04-14 2016-10-20 Sony Corporation Image processing apparatus, image processing method, and image processing system
JP2017208658A (en) * 2016-05-17 2017-11-24 キヤノン株式会社 Image processing apparatus, image processing method and program
JP2019009508A (en) * 2017-06-20 2019-01-17 キヤノン株式会社 Image processing apparatus, control method thereof, imaging apparatus, and monitoring system
JP2019193110A (en) * 2018-04-25 2019-10-31 キヤノン株式会社 Information processing apparatus, information processing method, and program
US10645278B2 (en) 2017-06-29 2020-05-05 Canon Kabushiki Kaisha Imaging control apparatus and control method therefor
CN111953870A (en) * 2019-05-14 2020-11-17 佳能株式会社 Electronic device, control method of electronic device, and computer-readable medium
JP2020188359A (en) * 2019-05-14 2020-11-19 キヤノン株式会社 Electronic device, control method of the same, program, and storage medium
JP7472553B2 (en) 2020-03-09 2024-04-23 株式会社リコー IMAGE PROCESSING SYSTEM, INFORMATION PROCESSING APPARATUS AND METHOD

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016166950A1 (en) 2015-04-14 2016-10-20 Sony Corporation Image processing apparatus, image processing method, and image processing system
JP2016201756A (en) * 2015-04-14 2016-12-01 ソニー株式会社 Image processing apparatus, image processing method, and image processing system
US10319099B2 (en) 2015-04-14 2019-06-11 Sony Corporation Image processing apparatus, image processing method, and image processing system
JP2017208658A (en) * 2016-05-17 2017-11-24 キヤノン株式会社 Image processing apparatus, image processing method and program
JP2019009508A (en) * 2017-06-20 2019-01-17 キヤノン株式会社 Image processing apparatus, control method thereof, imaging apparatus, and monitoring system
US10645278B2 (en) 2017-06-29 2020-05-05 Canon Kabushiki Kaisha Imaging control apparatus and control method therefor
JP2019193110A (en) * 2018-04-25 2019-10-31 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP7150462B2 (en) 2018-04-25 2022-10-11 キヤノン株式会社 Information processing device, information processing method and program
EP3739864A1 (en) * 2019-05-14 2020-11-18 Canon Kabushiki Kaisha Electronic apparatus, control method of electronic apparatus, program, and computer readable medium
JP2020188358A (en) * 2019-05-14 2020-11-19 キヤノン株式会社 Electronic device, control method of the same, program, and storage medium
JP2020188359A (en) * 2019-05-14 2020-11-19 キヤノン株式会社 Electronic device, control method of the same, program, and storage medium
CN111953870A (en) * 2019-05-14 2020-11-17 佳能株式会社 Electronic device, control method of electronic device, and computer-readable medium
US11523052B2 (en) 2019-05-14 2022-12-06 Canon Kabushiki Kaisha Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP7350510B2 (en) 2019-05-14 2023-09-26 キヤノン株式会社 Electronic equipment, electronic equipment control method, program, and storage medium
JP7350511B2 (en) 2019-05-14 2023-09-26 キヤノン株式会社 Electronic equipment, electronic equipment control method, program, and storage medium
JP7472553B2 (en) 2020-03-09 2024-04-23 株式会社リコー IMAGE PROCESSING SYSTEM, INFORMATION PROCESSING APPARATUS AND METHOD

Similar Documents

Publication Publication Date Title
JP2014222825A (en) Video processing apparatus and video processing method
JP5843454B2 (en) Image processing apparatus, image processing method, and program
JP7197981B2 (en) Camera, terminal device, camera control method, terminal device control method, and program
JP2019088025A (en) Display control apparatus, display control method, and program
WO2014187265A1 (en) Photo-capture processing method, device and computer storage medium
US20150334373A1 (en) Image generating apparatus, imaging apparatus, and image generating method
JP2014241505A (en) Photographing apparatus, photographing method, template generation apparatus, template generation method, and program
JP6381265B2 (en) Information processing apparatus, display method, and program
JP2006226965A (en) Image processing system, computer program and image processing method
CN110731076A (en) Shooting processing method and device and storage medium
CN108376243B (en) Information processing apparatus, image pickup apparatus, control methods therefor, and recording medium
CN113348489A (en) Image processing method and device
JP2015005925A (en) Image processing apparatus and image processing method
JP2022027804A (en) Information processing apparatus, information processing system, information processing method, and program
JP2019009508A (en) Image processing apparatus, control method thereof, imaging apparatus, and monitoring system
US20100085385A1 (en) Image processing apparatus and method for the same
CN109874000B (en) Image processing apparatus, information processing method, and storage medium
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
JP6071714B2 (en) Image processing apparatus and control method thereof
JP6362433B2 (en) Image processing apparatus, control method therefor, and program
US11790483B2 (en) Method, apparatus, and device for identifying human body and computer readable storage medium
JP6127399B2 (en) Stereo camera device and program
CN110087023B (en) Video image transmission device, information processing device, system, method, and medium
JP7195791B2 (en) Image processing device, information processing method and program
JP6335668B2 (en) Imaging apparatus, control method therefor, imaging system, and program