JP7299687B2 - Image processing device, imaging device, image processing method - Google Patents

Image processing device, imaging device, image processing method Download PDF

Info

Publication number
JP7299687B2
JP7299687B2 JP2018205713A JP2018205713A JP7299687B2 JP 7299687 B2 JP7299687 B2 JP 7299687B2 JP 2018205713 A JP2018205713 A JP 2018205713A JP 2018205713 A JP2018205713 A JP 2018205713A JP 7299687 B2 JP7299687 B2 JP 7299687B2
Authority
JP
Japan
Prior art keywords
code amount
image
attribute
image processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018205713A
Other languages
Japanese (ja)
Other versions
JP2020072395A (en
JP2020072395A5 (en
Inventor
卓矢 豊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018205713A priority Critical patent/JP7299687B2/en
Priority to US16/667,339 priority patent/US11645763B2/en
Publication of JP2020072395A publication Critical patent/JP2020072395A/en
Publication of JP2020072395A5 publication Critical patent/JP2020072395A5/ja
Application granted granted Critical
Publication of JP7299687B2 publication Critical patent/JP7299687B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像の符号化技術に関するものである。 The present invention relates to image coding technology.

ユーザが注目している物体の画質を維持しつつ、映像を転送する際のビットレートを低減させる技術として動的ROI(Region Of Interest)が知られている。この技術では、検出した物体に対して領域を設定する。そして、ユーザが注目する物体が存在する領域(注目領域)には多くの符号量を設定して画質を上げ、ユーザが注目しない物体が存在する領域(非注目領域)には少ない符号量を設定して画質を下げてデータ量を削減することでビットレート低減を実現している。 A dynamic ROI (Region Of Interest) is known as a technique for reducing the bit rate when transferring video while maintaining the image quality of an object that the user is paying attention to. In this technique, a region is set for the detected object. Then, a large amount of code is set for an area where an object that the user pays attention to (area of interest) to improve image quality, and a small amount of code is set for an area where an object that the user does not pay attention to (non-attention area) exists. The bit rate is reduced by lowering the image quality and reducing the amount of data.

しかしROIの設定によっては注目物体の視認性が低下する場合がある。特許文献1には、注目領域と背景領域との画質の差によって視認性が低下する問題に対し、注目領域と背景領域との間の境界領域にも異なる符号量を設定することによって視認性の低下を防ぐ方法が開示されている。また、非ROIの符号化頻度がROIより少ないときにROIに動きがあるとゴーストが生じてしまうという問題に対し、特許文献2には、次のような技術が開示されている。つまり、特許文献2には、前回フレームのROIのうち現フレームのROIと重なっていない領域を非ROIと同じ符号量で符号化してゴーストを防ぐことで視認性の低下を防ぐ方法が開示されている。 However, depending on the ROI settings, the visibility of the object of interest may decrease. In Japanese Patent Laid-Open No. 2004-100003, in order to solve the problem that the visibility deteriorates due to the difference in image quality between the attention area and the background area, the visibility is improved by setting different code amounts for the boundary area between the attention area and the background area. Methods are disclosed to prevent degradation. In addition, Patent Literature 2 discloses the following technique to address the problem of ghosts occurring when the ROI moves when the encoding frequency of the non-ROI is lower than that of the ROI. In other words, Patent Document 2 discloses a method of preventing decrease in visibility by encoding a region of the ROI of the previous frame that does not overlap with the ROI of the current frame with the same code amount as that of the non-ROI to prevent ghosting. there is

特開2009-27457号公報JP-A-2009-27457 特開2013-187769号公報Japanese Patent Application Laid-Open No. 2013-187769

特許文献1及び特許文献2に記載の手法では、異なる符号量が設定されたROI同士が重なり合った場合の視認性の低下が考慮されていない。これは動的ROIで抽出した物体の特徴量を元に検出した物体に対して領域を設定するため、物体同士が重なり合って背後の物体の特徴量が減ることでその物体を検出できず、領域の設定ができなくなる。これによって、背後の物体が前面の物体と同じ領域で同じ符号量の設定となることで背後の物体の視認性が低下する。例えば低符号量が設定された木の領域の背後を高符号量が設定された人の領域が通過する際に、木の枝や幹、葉の隙間から人を視認できるにも関わらず、人のROI設定は木のROI設定と同様になってしまうことで視認性が低下してしまう。本発明では、画像中で互いに重なり合っている物体の視認性を考慮した画像符号化技術を提供する。 The methods described in Patent Literature 1 and Patent Literature 2 do not take into account the decrease in visibility when ROIs set with different code amounts overlap each other. In this method, a region is set for the detected object based on the feature value of the object extracted by the dynamic ROI. cannot be set. As a result, the background object is set to the same region and the same code amount as the front object, thereby reducing the visibility of the background object. For example, when a human area with a high code amount passes behind a tree area with a low code amount, even though the person can be seen through the gaps between the branches, trunk, and leaves of the tree, the human The ROI setting of will be the same as the ROI setting of the tree, which will reduce the visibility. The present invention provides an image coding technique that considers the visibility of objects overlapping each other in an image.

本発明の一様態は、画像中で互いに重なり合っている物体のうち背面の物体の属性に対して予め設定されている設定符号量が、該互いに重なり合っている物体のうち前面の物体の属性に対して予め設定されている設定符号量よりも大きい場合には、前記背面の物体に対して予め設定されている設定符号量を、前記前面の物体に対する符号量として設定する設定手段と、
前記前面の物体の領域を、該物体について前記設定手段が設定した符号量で符号化する符号化手段と
を備えることを特徴とする。
According to one aspect of the present invention, the set code amount preset for the attribute of the back object among the objects overlapping each other in the image is set to the attribute of the front object among the overlapping objects. a setting means for setting the set code amount preset for the back object as the code amount for the front object when the set code amount is larger than a preset code amount;
encoding means for encoding the region of the object in front with the code amount set by the setting means for the object.

本発明の構成によれば、画像中で互いに重なり合っている物体の視認性を考慮した画像符号化技術を提供することができる。 According to the configuration of the present invention, it is possible to provide an image coding technique that considers the visibility of objects overlapping each other in an image.

動的ROIシステムの機能構成例を示すブロック図。FIG. 2 is a block diagram showing a functional configuration example of a dynamic ROI system; 動的ROI装置A1002が行う処理のフローチャート。10 is a flowchart of processing performed by the dynamic ROI device A1002; 画像D1を示す図。The figure which shows the image D1. 画像D101を示す図。The figure which shows the image D101. 画像D201を示す図。The figure which shows the image D201. 画像D301を示す図。The figure which shows the image D301. 画像D401を示す図。The figure which shows the image D401. 画像D401中の物体領域を示す図。The figure which shows the object area|region in the image D401. コンピュータ装置のハードウェア構成例を示すブロック図。FIG. 2 is a block diagram showing a hardware configuration example of a computer device; 動的ROI装置A1002が行う処理のフローチャート。10 is a flowchart of processing performed by the dynamic ROI device A1002; 画像D601を示す図。The figure which shows the image D601. 画像D701を示す図。The figure which shows the image D701.

以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の1つである。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the embodiment described below is an example of a specific implementation of the present invention, and is one of the specific embodiments of the configuration described in the claims.

[第1の実施形態]
先ず、本実施形態に係る動的ROIシステムの機能構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係る動的ROIシステムA1000は、映像を取得する映像取得装置A1001、該映像の各フレームの画像を符号化して出力する動的ROI装置A1002、符号化された各フレームの画像を復号して表示する表示装置A1003、を有する。
[First embodiment]
First, a functional configuration example of a dynamic ROI system according to this embodiment will be described using the block diagram of FIG. As shown in FIG. 1, the dynamic ROI system A1000 according to this embodiment includes an image acquisition device A1001 that acquires an image, a dynamic ROI device A1002 that encodes and outputs an image of each frame of the image, and an encoded It has a display device A1003 that decodes and displays an image of each frame.

映像取得装置A1001と動的ROI装置A1002との間は、無線および/又は有線のネットワークを介して接続されている。また、動的ROI装置A1002と表示装置A1003との間は、無線および/又は有線のネットワークを介して接続されている。 The image acquisition device A1001 and the dynamic ROI device A1002 are connected via a wireless and/or wired network. Also, the dynamic ROI device A1002 and the display device A1003 are connected via a wireless and/or wired network.

先ず、映像取得装置A1001について説明する。映像取得装置A1001は、映像(動画像)を取得し、該映像を構成する各フレームの画像を動的ROI装置A1002に供給する装置である。映像取得装置A1001による映像の取得形態、供給形態については特定の取得形態、供給形態に限らない。 First, the image acquisition device A1001 will be described. The video acquisition device A1001 is a device that acquires a video (moving image) and supplies an image of each frame that constitutes the video to the dynamic ROI device A1002. The acquisition form and supply form of the image by the image acquisition apparatus A1001 are not limited to a specific acquisition form and supply form.

例えば映像取得装置A1001は、自身若しくは外部が保持する映像を取得し、該取得した映像における各フレームの画像を順次、動的ROI装置A1002に供給するようにしても良い。また映像取得装置A1001は、映像を撮像し、該撮像した映像における各フレームの画像を取得して順次、動的ROI装置A1002に供給するようにしても良い。 For example, the image acquisition device A1001 may acquire an image held by itself or an external device, and sequentially supply the image of each frame in the acquired image to the dynamic ROI device A1002. Also, the image acquisition device A1001 may capture an image, acquire an image of each frame in the imaged image, and sequentially supply the image to the dynamic ROI device A1002.

次に、動的ROI装置A1002(画像処理装置)について説明する。動的ROI装置A1002は、映像取得装置A1001から供給された各フレームの画像を符号化するが、その際、該画像中の各物体の領域を適切な符号量で符号化する。そして動的ROI装置A1002は、符号化した各フレームの画像を表示装置A1003に対して出力する。 Next, the dynamic ROI device A1002 (image processing device) will be described. The dynamic ROI apparatus A1002 encodes the image of each frame supplied from the image acquisition apparatus A1001, and at that time, encodes each object area in the image with an appropriate code amount. Then, the dynamic ROI device A1002 outputs the encoded image of each frame to the display device A1003.

映像取得部A1004は、映像取得装置A1001から供給される各フレームの画像を取得する。 The video acquisition unit A1004 acquires an image of each frame supplied from the video acquisition device A1001.

領域分割部A1005は、映像取得部A1004が取得した画像に対して領域分割を行って、該画像中の物体の領域(物体領域)を検出し、該領域内の物体の属性(物体の種類など)を特定する。領域分割には、領域splitやSuper-parsing、DeepLearningによるfully CNN(Convolutional Neural Network)などの様々な手法が知られている。本実施形態では、高精度に領域分割できることからfully CNNを用いることを想定しているが、どの手法を用いてもよい。領域splitやSuper-parsing、fully CNNなどは公知の技術であることから、これらの領域分割技術に係る説明は省略する。そして領域分割部A1005は、画像から検出した物体領域ごとに、該画像における該物体領域を特定するための情報(例えば物体領域の左上隅および右下隅の座標位置)と、該物体領域内の物体の属性と、を含む物体情報を生成する。 The area dividing unit A1005 performs area division on the image acquired by the video acquisition unit A1004, detects an object area (object area) in the image, and determines the attributes of the object (object type, etc.) in the area. ). Various methods are known for region segmentation, such as region split, super-parsing, and fully CNN (Convolutional Neural Network) based on Deep Learning. In the present embodiment, it is assumed that fully CNN is used because it can divide regions with high precision, but any method may be used. Since area splitting, super-parsing, fully CNN, and the like are well-known techniques, descriptions of these area division techniques will be omitted. Then, for each object region detected from the image, the region dividing unit A1005 divides the information for specifying the object region in the image (for example, the coordinate positions of the upper left corner and the lower right corner of the object region) and the object region in the object region. Generate object information including the attributes of

比較部A1006は、領域分割部A1005が現フレームの画像について生成した物体情報と、記録部A1007に記録されている「過去のフレームの物体情報」と、を用いて、現フレームの画像上で重なり合っている物体間の前後関係や隠蔽関係を判断する。そして比較部A1006は、領域分割部A1005が現フレームの画像について生成した物体情報を出力するが、現フレームの画像上で互いに重なり合っている物体の物体情報は、物体間の前後関係や隠蔽関係を表す情報を付加してから出力する。 The comparison unit A1006 uses the object information generated for the current frame image by the area division unit A1005 and the “past frame object information” recorded in the recording unit A1007 to overlap on the current frame image. determine the fore-and-aft and obscuring relationships between objects The comparison unit A1006 outputs the object information generated for the image of the current frame by the area dividing unit A1005. Output after adding the information to represent.

比較部A1006の動作について、具体例を挙げて説明する。図3に示す画像D1は、(f-2)フレーム目(fは3以上の整数)の画像であり、該画像D1からは人の物体領域P2と建物の物体領域P1とが検出されている。人の物体領域P2については、該物体領域P2内の物体の属性「人」と、画像D1における該物体領域P2を特定するための情報(例えば物体領域P2の左上隅および右下隅の座標位置)と、を含む物体情報が生成される。同様に、建物の物体領域P1については、該物体領域P1内の物体の属性「建物」と、画像D1における該物体領域P1を特定するための情報(例えば物体領域P1の左上隅および右下隅の座標位置)と、を含む物体情報が生成される。図3に示す如く、画像D1では、人および建物のうち一方が他方に重なる状況は発生していない。 The operation of the comparison unit A1006 will be described with a specific example. An image D1 shown in FIG. 3 is an image of the (f-2)th frame (f is an integer of 3 or more), and an object region P2 of a person and an object region P1 of a building are detected from the image D1. . For the human object region P2, the attribute "person" of the object in the object region P2 and information for specifying the object region P2 in the image D1 (for example, the coordinate positions of the upper left corner and lower right corner of the object region P2) and object information is generated. Similarly, for the object region P1 of a building, the attribute "building" of the object in the object region P1 and information for specifying the object region P1 in the image D1 (for example, the upper left and lower right corners of the object region P1 coordinate position) and object information is generated. As shown in FIG. 3, in the image D1, there is no situation where one of the person and the building overlaps the other.

図4に示す画像D101は、(f-1)フレーム目の画像(図3の画像D1より1フレーム後の画像)であり、該画像D101からは人の物体領域P102と建物の物体領域P101とが検出されている。人の物体領域P102については、該物体領域P102内の物体の属性「人」と、画像D101における該物体領域P102を特定するための情報(例えば物体領域P102の左上隅および右下隅の座標位置)と、を含む物体情報が生成される。同様に、建物の物体領域P101については、該物体領域P101内の物体の属性「建物」と、画像D101における該物体領域P101を特定するための情報(例えば物体領域P101の左上隅および右下隅の座標位置)と、を含む物体情報が生成される。図4に示す如く、画像D101では、画像D1から人が建物の背後に移動して、人の一部が建物に重なっている。 The image D101 shown in FIG. 4 is the (f−1)-th frame image (the image one frame after the image D1 in FIG. 3). is detected. For the human object region P102, the attribute "person" of the object in the object region P102 and information for specifying the object region P102 in the image D101 (for example, the coordinate positions of the upper left corner and lower right corner of the object region P102) and object information is generated. Similarly, for the object region P101 of a building, the attribute “building” of the object in the object region P101 and information for specifying the object region P101 in the image D101 (for example, the upper left and lower right corners of the object region P101 coordinate position) and object information is generated. As shown in FIG. 4, in the image D101, the person moves behind the building from the image D1, and part of the person overlaps the building.

比較部A1006は、画像D101における人および建物の物体情報を領域分割部A1005から取得した場合、画像D101における人および建物の物体情報と、記録部A1007に記録されている「画像D1における人および建物の物体情報」と、を用いて、人と建物との前後関係や隠蔽関係を判断する。図3,4に示す如く、画像D101における人の物体領域P102は、建物の物体領域P101と隣接した状態で、その前のフレームにおける人の物体領域P2よりもサイズが小さくなっている。これは、人が建物の背後に移動したことで該人の一部が建物と重なっている(人は背面の物体、建物は前面の物体)ことを意味する。よって比較部A1006は、人の物体領域P102が建物の物体領域P101と隣接した状態で、その前のフレームにおける人の物体領域P2よりサイズが小さくなった場合、「人は建物と重なっている(人は背面の物体、建物は前面の物体)」と判断する。そして比較部A1006は、人の物体情報に「建物の背後に位置している」ことを表す情報(背面情報)を付加し、建物の物体情報に「人の前面に位置している」ことを表す情報(前面情報)を付加する。 When the object information of the person and the building in the image D101 is acquired from the area dividing unit A1005, the comparison unit A1006 compares the object information of the person and the building in the image D101 with the "person and building in the image D1" recorded in the recording unit A1007. By using the "object information of", the front-back relationship and concealment relationship between people and buildings are determined. As shown in FIGS. 3 and 4, the human object region P102 in the image D101 is adjacent to the building object region P101 and is smaller in size than the human object region P2 in the previous frame. This means that a person has moved to the back of a building so that part of the person overlaps with the building (the person is the back object and the building is the front object). Therefore, when the human object region P102 is adjacent to the building object region P101 and is smaller in size than the human object region P2 in the previous frame, the comparison unit A1006 determines that "the person overlaps the building ( A person is an object in the back, a building is an object in the front)”. Then, the comparison unit A1006 adds information (rear information) indicating that the person is "located behind a building" to the object information of the person, and adds information indicating "located in front of the person" to the object information of the building. Adds the information (front information) to represent.

図5に示す画像D201は、fフレーム目の画像(図4の画像D101より1フレーム後の画像)である。画像D201では、人が建物に隠蔽されていることから(建物に隠蔽されている人を点線で示している)、建物の物体領域P201は検出されるものの、人の物体領域は検出されない。また、人が建物に完全に隠蔽されてはないが、画像から人として検出されなかった場合(若しくは検出精度が閾値未満である場合)も同様に、人の物体領域は検出されない。よって、人の物体情報は生成されず、建物の物体領域P201については、該物体領域P201内の物体の属性「建物」と、画像D201における該物体領域P201を特定するための情報(例えば物体領域P201の左上隅および右下隅の座標位置)と、を含む物体情報が生成される。 An image D201 shown in FIG. 5 is an f-th frame image (an image one frame after the image D101 in FIG. 4). In image D201, since the person is hidden by the building (the person hidden by the building is indicated by a dotted line), the object area P201 of the building is detected, but the object area of the person is not detected. Similarly, when a person is not completely hidden by a building but is not detected as a person from the image (or when the detection accuracy is less than the threshold), the object region of the person is not detected. Therefore, the object information of the person is not generated, and for the object region P201 of the building, the attribute "building" of the object in the object region P201 and information for specifying the object region P201 in the image D201 (for example, object region P201) are generated. The coordinate positions of the upper left corner and the lower right corner of P201) are generated.

比較部A1006は、画像D101で建物と重なっている(建物の背後に位置している)と判断していた人の物体領域が、画像D201から検出できなかった場合には、「人は建物に隠蔽された(人は背面の物体、建物は前面の物体である)」と判断する。そして比較部A1006は、「人は建物に隠蔽された(人は背面の物体、建物は前面の物体である)」と判断した場合、建物の物体情報に「人の前面に位置している(背後に人が位置している)」ことを表す前面情報を付加する。 If the object area of the person, which was determined to overlap with the building (located behind the building) in the image D101, cannot be detected from the image D201, the comparison unit A1006 determines that the object area of the person is not detected in the image D201. Concealed (a person is an object in the back, a building is an object in the front)". When the comparison unit A 1006 determines that "the person is hidden by the building (the person is the object behind the building, and the building is the object in front)", the object information of the building is "located in front of the person ( A person is positioned behind)” is added.

このように比較部A1006は、一方の物体の物体領域が他方の物体領域と隣接している状態から、時間の経過と共に一方の物体の物体領域のサイズが小さくなっている間は、一方の物体の物体情報に「他方の物体の背後に位置している」ことを表す背面情報を付加し、他方の物体の物体情報に「一方の物体の前面に位置している」ことを表す前面情報を付加する。そしてその後、時間の経過と共にサイズが小さくなっていく一方の物体の物体領域が直前のフレームまでは検出されていたものの現フレームの画像からは検出されなくなった場合には、比較部A1006は、一方の物体は他方の物体に隠蔽されている状態であると判断し、他方の物体の物体情報に「一方の物体の前面に位置している」ことを表す前面情報を付加する。 As described above, the comparison unit A1006 determines that the size of the object region of one object is reduced over time from the state in which the object region of one object is adjacent to the object region of the other object. Add back information indicating that the object is located behind the other object to the object information of Append. After that, when the object region of one of the objects whose size decreases with the lapse of time was detected up to the immediately preceding frame but is no longer detected from the image of the current frame, the comparison unit A1006 It is determined that the other object is hidden by the other object, and front information representing "located in front of the one object" is added to the object information of the other object.

なお、現フレームの画像上で重なっている物体間の前後関係および隠蔽関係を判断するための方法は上記の方法に限らず、様々な方法を適用することができる。また、重なっている物体や隠蔽関係にある物体を表す情報やその管理形態については上記の例に限らない。 It should be noted that the method for determining the anteroposterior relation and the concealment relation between objects overlapping on the image of the current frame is not limited to the above method, and various methods can be applied. Further, the information representing the overlapping objects and the objects in the hidden relationship and the management mode thereof are not limited to the above examples.

記録部A1007は、過去の各フレームの画像中の物体の物体情報を記録する。 The recording unit A1007 records the object information of the object in the image of each past frame.

判定部A1008は、現フレームにおけるそれぞれの物体の物体情報を比較部A1006から取得する。そして判定部A1008は、比較部A1006から取得した物体情報のうち、前面情報が付加されている物体情報があるか否かを判定する(現フレームの画像で重なっている物体が存在するか否かを判定する)。以下では、前面情報が付加されている物体情報を、前面物体情報と称する。 The determination unit A1008 acquires the object information of each object in the current frame from the comparison unit A1006. Then, the determination unit A1008 determines whether or not there is object information to which front surface information is added among the object information acquired from the comparison unit A1006 (whether or not there is an object overlapping in the image of the current frame). judgment). Object information to which front surface information is added is hereinafter referred to as front surface object information.

判定部A1009は、現フレームの画像において重なっている物体のうち、重なってからの経過時間が規定時間を超える物体があるか否かを判断する。例えば判定部A1009は、前面物体情報に対応する物体(前面となる物体)を対象物体とする。そして判定部A1009は、該対象物体の物体情報に最初に前面情報が付加されてからの経過時間が規定時間以下であるのか否かを判断する。図3~5の例では、人が建物と重なってからの経過時間が規定時間以下であるのか否かを判断する。この判断の結果、経過時間が規定時間を超えた場合には、判定部A1009は、前面物体情報から前面情報を削除する。経過時間の計時は判定部A1009が行う。 The determination unit A1009 determines whether or not there is an object whose elapsed time after overlapping exceeds a specified time, among the overlapping objects in the image of the current frame. For example, the determination unit A1009 determines an object (an object serving as the front surface) corresponding to the front object information as the target object. Then, the determination unit A1009 determines whether or not the elapsed time since the front surface information was first added to the object information of the target object is equal to or less than a specified time. In the examples of FIGS. 3 to 5, it is determined whether or not the elapsed time since the person overlapped with the building is less than or equal to a specified time. As a result of this determination, if the elapsed time exceeds the specified time, the determining unit A1009 deletes the front surface information from the front surface object information. The determination unit A1009 measures the elapsed time.

比較部A1010は、現フレームにおけるそれぞれの物体の物体情報と、物体の属性ごとに設定符号量が登録されている符号量テーブルA1012と、を用いて、重なり合っているそれぞれの物体(前面の物体と背面の物体)の設定符号量を比較する。符号量テーブルA1012には、物体の属性ごとに、該属性を有する物体の領域の符号量として予め設定された設定符号量が登録されている。 The comparing unit A1010 uses object information of each object in the current frame and a code amount table A1012 in which the set code amount is registered for each attribute of the object, and compares each overlapping object (an object in front and an object in front). object on the back) are compared. The code amount table A1012 registers, for each attribute of an object, a preset code amount that is set in advance as the code amount of an area of an object having that attribute.

比較部A1010は、前面物体情報に含まれている「物体の属性」に対応する設定符号量を、「前面物体に対する設定符号量」として符号量テーブルA1012から取得する。また比較部A1010は、前面物体情報に付加されている前面情報が「物体Bの前面に位置している」ことを表す場合、物体Bの物体情報に含まれている属性に対応する設定符号量を「背面物体に対する設定符号量」として符号量テーブルA1012から取得する。そして比較部A1010は、「前面物体に対する設定符号量」と「背面物体に対する設定符号量」との大小比較を行う。そしてこの大小比較の結果、「前面物体に対する設定符号量」>「背面物体に対する設定符号量」の場合には、比較部A1010は、前面物体情報に付加されている前面情報を削除する。一方、この大小比較の結果、「前面物体に対する設定符号量」<「背面物体に対する設定符号量」の場合には、比較部A1010は、前面物体情報を後段の符号量変更部A1011に対して送出する。 The comparison unit A1010 acquires the set code amount corresponding to the "attribute of the object" included in the foreground object information from the code amount table A1012 as the "set code amount for the foreground object". Further, when the foreground information added to the foreground object information indicates that "it is located in front of the object B", the comparison unit A1010 sets the set code amount corresponding to the attribute included in the object information of the object B. is acquired from the code amount table A1012 as the "set code amount for the back object". Then, the comparison unit A1010 compares the "set code amount for the front object" and the "set code amount for the back object". As a result of this magnitude comparison, if “set code amount for front object”>“set code amount for back object”, the comparison unit A1010 deletes the front information added to the front object information. On the other hand, as a result of this size comparison, if "set code amount for front object"<"set code amount for back object", comparison unit A1010 sends front object information to code amount change unit A1011 in the subsequent stage. do.

比較部A1010の動作について、具体例を挙げて説明する。図6に示す画像D301には、木の物体領域P301、バスの物体領域P302、人の物体領域P303,P304が含まれている。符号量テーブルA1012には図6の場合、物体の属性「木」、「バス」、「人」、のそれぞれに対する設定符号量が登録されている。ここで、符号量テーブルA1012に登録されている木の設定符号量、人の設定符号量、バスの設定符号量、の大小関係は、木の設定符号量<人の設定符号量<バスの設定符号量であるものとする。 The operation of the comparison unit A1010 will be described with a specific example. An image D301 shown in FIG. 6 includes a tree object region P301, a bus object region P302, and human object regions P303 and P304. In the code amount table A1012, in the case of FIG. 6, set code amounts for each of the object attributes "tree", "bus", and "person" are registered. Here, the magnitude relationship among the set code amount for tree, the set code amount for person, and the set code amount for bus registered in the code amount table A1012 is: set code amount for tree<set code amount for person<bus setting. It shall be the code amount.

なお、より大きい符号量が設定されている物体領域は、より高画質で符号化され、より小さい符号量が設定されている物体領域は、より低画質で符号化される。「より高画質で符号化する」とは、「復号後の画質がより高画質となるように符号化する」ことであり、例えば、符号化に使用する量子化ステップをより小さくする。一方、「より低画質で符号化する」とは、「復号後の画質がより低画質となるように符号化する」ことであり、例えば、符号化に使用する量子化ステップをより大きくする。 An object region set with a larger code amount is encoded with higher image quality, and an object region with a smaller code amount set is encoded with lower image quality. “Encoding with higher image quality” means “encoding such that the image quality after decoding is higher”, and for example, the quantization step used for encoding is made smaller. On the other hand, "encoding with lower image quality" means "encoding so that the image quality after decoding becomes lower image quality", and for example, the quantization step used for encoding is increased.

本実施形態では、画像中のそれぞれの物体領域には、該物体領域中の物体の属性に対応する設定符号量が設定されるが、重なり合っている物体の物体領域の符号量については、該重なり合っている物体の属性に応じて変更する。図6の画像D301では、木、バス、人の何れも互いに重なり合っていないので、それぞれの物体の物体領域には、該物体の属性に対応する設定符号量が設定される。 In this embodiment, for each object region in an image, a set code amount corresponding to the attribute of the object in the object region is set. It changes according to the attributes of the object being held. In the image D301 of FIG. 6, since none of the tree, bus, and person overlap each other, the set code amount corresponding to the attribute of the object is set in the object region of each object.

図7に示す画像D401は、画像D301から数フレーム後の画像であり、画像D301から人が移動したことによって、人P403は木P401の背面に隠れており、人P404はバスP402の背面に隠れている。画像D401からは木P401は検出されたものの人P403は検出されず、その結果、木P401の物体領域として図8の物体領域P501が検出されたものとする。また、画像D401からはバスP402は検出されたものの人P404は検出されず、その結果、バスP402の物体領域として図8の物体領域P502が検出されたものとする。このような物体領域P501,P502のそれぞれの符号量は、次のようにして設定する。 An image D401 shown in FIG. 7 is an image several frames after the image D301. Due to the movement of the person from the image D301, the person P403 is hidden behind the tree P401 and the person P404 is hidden behind the bus P402. ing. It is assumed that although the tree P401 is detected from the image D401, the person P403 is not detected, and as a result, the object region P501 in FIG. 8 is detected as the object region of the tree P401. It is also assumed that the bus P402 is detected from the image D401 but the person P404 is not detected, and as a result, the object region P502 in FIG. 8 is detected as the object region of the bus P402. The respective code amounts of such object regions P501 and P502 are set as follows.

比較部A1010は、バスP402の背後に位置する物体(人P404)を、バスP402の物体情報に付加されている前面情報から特定する。そして比較部A1010は、バスP402について符号量テーブルA1012に登録されている設定符号量と、人P404について符号量テーブルA1012に登録されている設定符号量と、の大小比較を行う。この大小比較の結果、前面の物体であるバスP402の設定符号量>背面の物体である人P404の設定符号量、であるので、比較部A1010は、前面の物体であるバスP402の物体情報に付加されている前面情報を削除する。 The comparison unit A1010 identifies the object (person P404) positioned behind the bus P402 from the front information added to the object information of the bus P402. The comparison unit A1010 compares the set code amount registered in the code amount table A1012 for the bus P402 and the set code amount registered in the code amount table A1012 for the person P404. As a result of this size comparison, it is found that the set code amount of the bus P402, which is the object in front>the set code amount of the person P404, which is the object in the back. Delete the attached front information.

また、比較部A1010は、木P401の背後に位置する物体(人P403)を、木P401の物体情報に付加されている前面情報から取得する。そして比較部A1010は、木P401について符号量テーブルA1012に登録されている設定符号量と、人P403について符号量テーブルA1012に登録されている設定符号量と、の大小比較を行う。この大小比較の結果、前面の物体である木P401の設定符号量<背面の物体である人P403の設定符号量、であるので、比較部A1010は、前面の物体である木P401の物体情報を符号量変更部A1011に対して送出する。 The comparison unit A1010 also acquires the object (person P403) positioned behind the tree P401 from the front information added to the object information of the tree P401. Then, the comparison unit A1010 compares the set code amount registered in the code amount table A1012 for the tree P401 and the set code amount registered in the code amount table A1012 for the person P403. As a result of this size comparison, the set code amount of the tree P401 that is the object in front<the set code amount of the person P403 that is the object in the back. It is sent to the code amount changing unit A1011.

符号量変更部A1011は、比較部A1010から受けた前面物体情報に付加されている前面情報が「物体Bの前面に位置している」ことを表す場合、物体Bの物体情報に含まれている属性に対応する設定符号量を符号量テーブルA1012から取得する。そして符号量変更部A1011は、該取得した設定符号量を、前面物体情報に対応する物体領域の符号量として設定する。つまり符号量変更部A1011は、互いに重なり合っている物体のうち背面の物体の設定符号量が前面の物体に対する設定符号量よりも大きい場合には、背面の物体の設定符号量を前面の物体に対する符号量として設定する。 If the foreground information added to the foreground object information received from the comparison unit A1010 indicates that "it is located in front of the object B", the code amount change unit A1011 is included in the object information for the object B. The set code amount corresponding to the attribute is acquired from the code amount table A1012. Then, the code amount changing unit A1011 sets the acquired set code amount as the code amount of the object region corresponding to the front object information. That is, if the set code amount of the object on the back side among the overlapping objects is larger than the set code amount for the object on the front side, the code amount changing unit A1011 changes the set code amount for the object on the back side to the code amount for the object on the front side. Set as quantity.

図8の例では、木P401の物体領域P501の符号量として、木P401の背後に位置している人P403に対応する設定符号量が設定される。また、バスP402の物体領域P502の符号量は変わらない。物体領域P501では木P401の符号量を設定すると人P403の視認性が低下してしまうため、背後にいる人P403に対応する符号量を設定することで人の視認性を向上させる。また、物体領域P502ではバスP402の符号量を設定しても人P404の視認性は低下しないため、符号量の設定を変更しない。 In the example of FIG. 8, the set code amount corresponding to the person P403 positioned behind the tree P401 is set as the code amount of the object region P501 of the tree P401. Also, the code amount of the object region P502 of the bus P402 does not change. In the object region P501, if the code amount of the tree P401 is set, the visibility of the person P403 is lowered. In the object area P502, even if the code amount of the bus P402 is set, the visibility of the person P404 does not decrease, so the code amount setting is not changed.

符号量設定部A1013は、未だ符号量が設定されていない物体領域の物体情報中の属性に対応する設定符号量を符号量テーブルA1012から取得し、該取得した設定符号量を該物体領域の符号量として設定する。また符号量設定部A1013は、領域分割部A1005、比較部A1006、判定部A1008、判定部A1009、比較部A1010を経て得られる現フレームの物体情報を、記録部A1007に記録する。 The code amount setting unit A1013 acquires from the code amount table A1012 the set code amount corresponding to the attribute in the object information of the object area for which the code amount has not yet been set, and sets the acquired set code amount to the code of the object area. Set as quantity. Also, the code amount setting unit A1013 records the object information of the current frame obtained through the region division unit A1005, comparison unit A1006, determination unit A1008, determination unit A1009, and comparison unit A1010 in the recording unit A1007.

符号化部A1014は、現フレームの画像を符号化するのであるが、該画像における物体領域については、該物体領域に対して上記の処理にて設定された符号量でもって符号化する。 The encoding unit A1014 encodes the image of the current frame, and encodes the object region in the image with the code amount set for the object region in the above process.

映像出力部A1015は、符号化部A1014によって符号化された画像(符号化画像)を表示装置A1003に対して出力する。なお、符号化画像の出力先は表示装置A1003に限らず、動的ROI装置A1002の内部若しくは外部のメモリ装置を出力先としても良いし、動的ROI装置A1002と通信可能な外部装置を出力先としても良い。 The video output unit A1015 outputs the image (encoded image) encoded by the encoding unit A1014 to the display device A1003. Note that the output destination of the encoded image is not limited to the display device A1003, and the output destination may be a memory device inside or outside the dynamic ROI device A1002, or an external device capable of communicating with the dynamic ROI device A1002. It is good as

次に、表示装置A1003について説明する。表示装置A1003は、映像出力部A1015から出力された符号化画像を復号して表示する。表示装置A1003は、復号した画像を液晶画面やタッチパネル画面に表示しても良いし、投影面に投影させても良い。図1では、表示装置A1003は動的ROI装置A1002とは別個の装置としているが、動的ROI装置A1002と表示装置A1003とを一体化させて1つの装置としても良い。 Next, the display device A1003 will be described. The display device A1003 decodes and displays the encoded image output from the video output unit A1015. The display device A1003 may display the decoded image on a liquid crystal screen or a touch panel screen, or may project it on a projection surface. Although the display device A1003 is separate from the dynamic ROI device A1002 in FIG. 1, the dynamic ROI device A1002 and the display device A1003 may be integrated into one device.

次に、動的ROI装置A1002が1フレーム分の画像を符号化して出力するために行う処理について、同処理のフローチャートを示す図2を用いて説明する。動的ROI装置A1002は、図2のフローチャートに従った処理を、映像取得装置A1001から取得する各フレームの画像について行う。また、図2のフローチャートに従った処理の終了条件は特定の条件に限らず、例えば、「ユーザが動的ROI装置A1002の不図示の電源スイッチをOFFにした」であっても良い。 Next, processing performed by the dynamic ROI apparatus A 1002 to encode and output an image of one frame will be described with reference to FIG. 2 showing the flowchart of the processing. The dynamic ROI device A1002 performs processing according to the flowchart of FIG. 2 for each frame image acquired from the image acquisition device A1001. Further, the end condition of the processing according to the flowchart of FIG. 2 is not limited to a specific condition, and may be, for example, "the user turned off the power switch (not shown) of the dynamic ROI apparatus A1002".

ステップS201では、映像取得部A1004は、映像取得装置A1001から供給された画像を取得する。ステップS202では、領域分割部A1005は、ステップS201で取得した画像中の各物体の物体領域を検出し、物体領域ごとに物体情報を生成する。 In step S201, the video acquisition unit A1004 acquires the image supplied from the video acquisition device A1001. In step S202, the region dividing unit A1005 detects an object region of each object in the image acquired in step S201, and generates object information for each object region.

ステップS203では、比較部A1006は、ステップS201で取得した画像上で互いに重なっている物体があるか否かを判断する。この判断の結果、ステップS201で取得した画像上で互いに重なっている物体がある場合には、処理はステップS204に進み、ステップS201で取得した画像上で互いに重なっている物体が無い場合には、処理はステップS210に進む。 In step S203, the comparison unit A1006 determines whether or not there are objects overlapping each other on the image acquired in step S201. As a result of this determination, if there are objects overlapping each other on the image acquired in step S201, the process proceeds to step S204. Processing proceeds to step S210.

比較部A1006は、一方の物体の物体領域が他方の物体の物体領域と隣接した状態で、その前のフレームにおける一方の物体領域よりサイズが小さくなった場合には、ステップS201で取得した画像上で互いに重なっている物体があると判断する。このときステップS204では比較部A1006は、一方の物体情報に「他方の物体の背後に位置している」ことを表す背面情報を付加し、他方の物体情報に「一方の物体の前面に位置している」ことを表す前面情報を付加する。 If the object region of one object is adjacent to the object region of the other object and the size of the object region is smaller than that of the one object region in the previous frame, the comparison unit A1006 determines that the size of the object region is smaller than that of the object region of the other object in the image acquired in step S201. determine that there are objects overlapping each other. At this time, in step S204, the comparison unit A1006 adds to the information of one object back surface information indicating that it is "located behind the other object", and to the information of the other object "is located in front of the one object". Add front information indicating that the

また比較部A1006は、直前のフレームまでは一方の物体と重なっていると判断していた他方の物体の物体領域が、ステップS201で取得した画像から検出できなかった場合、ステップS201で取得した画像上で互いに重なっている物体があると判断する。このときステップS204では比較部A1006は、一方の物体の物体情報に「他方の物体の前面に位置している」ことを表す前面情報を付加する。 If the object area of the other object, which was determined to overlap with the other object until the previous frame, cannot be detected from the image acquired in step S201, the comparison unit A1006 Assume that there are objects on top of each other. At this time, in step S204, the comparison unit A1006 adds to the object information of one object front surface information indicating that the object is "located in front of the other object".

ステップS205では、判定部A1008は、前面物体情報に対応する物体を対象物体とし、判定部A1009は、該対象物体の物体情報に最初に前面情報が付加されてからの経過時間Tが規定時間θ以下であるのか否かを判断する。 In step S205, the determination unit A1008 sets the object corresponding to the front object information as the target object, and the determination unit A1009 sets the elapsed time T after the front surface information is first added to the object information of the target object as the specified time θ Determine whether:

この判断の結果、経過時間Tが規定時間θ以下であれば、処理はステップS207に進み、経過時間Tが規定時間θを超えている場合には、処理はステップS206に進む。ステップS206では、判定部A1009は、前面物体情報から前面情報を削除する。 As a result of this determination, if the elapsed time T is equal to or less than the specified time θ, the process proceeds to step S207, and if the elapsed time T exceeds the specified time θ, the process proceeds to step S206. In step S206, the determination unit A1009 deletes the front surface information from the front object information.

ステップS207では、比較部A1010は、「前面物体に対する設定符号量」と「背面物体に対する設定符号量」との大小比較を行う。そしてこの大小比較の結果、「前面物体に対する設定符号量」>「背面物体に対する設定符号量」の場合には、処理はステップS206に進む。一方、この大小比較の結果、「前面物体に対する設定符号量」<「背面物体に対する設定符号量」の場合には、処理はステップS208に進む。 In step S207, the comparison unit A1010 compares the "set code amount for the front object" and the "set code amount for the back object". As a result of this size comparison, if "set code amount for front object">"set code amount for rear object", the process proceeds to step S206. On the other hand, if the result of this size comparison is "set code amount for front object"<"set code amount for rear object", the process proceeds to step S208.

ステップS208では、比較部A1010は、前面物体情報を後段の符号量変更部A1011に対して送出する。符号量変更部A1011は、該前面物体情報に付加されている前面情報が「物体Bの前面に位置している」ことを表す場合、物体Bの属性に対応する設定符号量を、前面物体情報に対応する物体領域の符号量として設定する。上記のステップS204~S208の処理は、互いに重なっていると判断された物体ごとに行われる。 In step S208, the comparison unit A1010 sends the front object information to the subsequent code amount change unit A1011. If the foreground information added to the foreground object information indicates that "it is located in front of the object B", the code amount changing unit A1011 changes the set code amount corresponding to the attribute of the object B to the foreground object information. It is set as the code amount of the object area corresponding to . The above steps S204 to S208 are performed for each object determined to be overlapping each other.

ステップS209では、符号量設定部A1013は、未だ符号量が設定されていない物体領域の物体情報中の属性に対応する設定符号量を符号量テーブルA1012から取得し、該取得した設定符号量を該物体領域の符号量として設定する。また符号量設定部A1013は、ステップS208の時点における現フレームの物体情報を、記録部A1007に記録する。 In step S209, the code amount setting unit A1013 acquires the set code amount corresponding to the attribute in the object information of the object region for which the code amount has not yet been set, from the code amount table A1012, and sets the acquired set code amount to the Set as the code amount of the object area. The code amount setting unit A1013 also records the object information of the current frame at the time of step S208 in the recording unit A1007.

ステップS210では、符号化部A1014は、現フレームの画像を符号化するのであるが、該画像における物体領域については、該物体領域に対して上記の処理にて設定された符号量でもって符号化する。ステップS211では、映像出力部A1015は、ステップS210で符号化部A1014によって符号化された符号化画像を、表示装置A1003に対して出力する。 In step S210, the encoding unit A1014 encodes the image of the current frame, and the object region in the image is encoded with the code amount set for the object region in the above process. do. In step S211, the video output unit A1015 outputs the encoded image encoded by the encoding unit A1014 in step S210 to the display device A1003.

このように、本実施形態によれば、低い符号量が設定された物体の背後に高い符号量が設定された物体が位置する場合には、前面の物体の符号量を背面の物体に設定される符号量と同様にすることによって、背面の物体の視認性を向上させることができる。 As described above, according to the present embodiment, when an object with a high code amount is positioned behind an object with a low code amount, the code amount of the front object is set to the back object. The visibility of the object on the back side can be improved by making the code amount the same as the code amount on the back side.

なお、必要に応じてステップS205,S206は削除しても良く、その場合、重なってからの経過時間が規定時間を超える物体であっても、ステップS207以降の処理の対象とする。 Note that steps S205 and S206 may be deleted as necessary, and in that case, even an object whose elapsed time after being overlapped exceeds the specified time is treated as a target for processing from step S207 onward.

また、「前面物体に対する設定符号量」と「背面物体に対する設定符号量」との大小比較の結果だけでなく、これらの差の大きさをも参酌して、設定する符号量を変更するようにしても良い。例えば、「前面物体に対する設定符号量」<「背面物体に対する設定符号量」の場合には、これらの設定符号量の差が大きいほどより大きい符号量を前面の物体に対して設定する。 Also, change the code amount to be set by taking into consideration not only the result of comparing the "set code amount for the front object" and the "set code amount for the back object" but also the size of the difference between them. can be For example, in the case of "set code amount for front object"<"set code amount for back object", the greater the difference between these set code amounts, the larger the code amount is set for the front object.

[第2の実施形態]
本実施形態を含む以下の各実施形態では、第1の実施形態との差分について説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。本実施形態では、比較部A1010は、前面物体情報に含まれている「物体の属性」が、「該物体の背後に位置する物体の一部若しくは全部が視認可能な物体の属性」(視認属性)であるのか否かを判断する。そして比較部A1010は、前面物体情報に含まれている「物体の属性」が視認属性であれば、前面物体情報を後段の符号量変更部A1011に対して送出する。一方、比較部A1010は、前面物体情報に含まれている「物体の属性」が視認属性でなければ、前面物体情報に付加されている前面情報を削除する。
[Second embodiment]
In each of the following embodiments, including the present embodiment, differences from the first embodiment will be explained, and the same as the first embodiment unless otherwise specified. In the present embodiment, the comparison unit A1010 determines that the "attribute of the object" included in the front object information is the "attribute of the object in which part or all of the object positioned behind the object is visible" (visibility attribute ). Then, if the "attribute of the object" included in the foreground object information is the visibility attribute, the comparison unit A1010 sends the foreground object information to the subsequent code amount changing unit A1011. On the other hand, if the "attribute of object" included in the foreground object information is not the visibility attribute, the comparison unit A1010 deletes the foreground information added to the foreground object information.

本実施形態に係る比較部A1010の動作について、具体例を挙げて説明する。図11に示す画像D601には、建物の物体領域P601、木の物体領域P602、人の物体領域P603,P604が含まれている。建物の物体領域P601、木の物体領域P602、人の物体領域P603,P604のそれぞれには設定符号量が設定済みであるものとする。 The operation of the comparison unit A1010 according to this embodiment will be described with a specific example. An image D601 shown in FIG. 11 includes a building object region P601, a tree object region P602, and human object regions P603 and P604. It is assumed that the set code amount has already been set for each of the building object region P601, the tree object region P602, and the human object regions P603 and P604.

図12に示す画像D701は、画像D601から数フレーム後の画像であり、画像D601から人が移動したことによって、人P703は建物P701の背面に隠れており、人P704は木P702の背面に隠れている。ここで、建物P701の背後に位置する物体を建物P701を介して視認することはできないが、木P702は、その背後に隠れている物体を木の葉や枝の隙間を通して視認することができる。よって、この場合、符号量テーブルA1012の代わりに、物体の属性ごとに、該属性が視認属性であるのか否かが登録された視認属性テーブルを利用する。図11,12の場合、視認属性テーブルには、建物P701の属性は視認属性として登録されておらず、木P702の属性は視認属性として登録されていることになる。 An image D701 shown in FIG. 12 is an image several frames after the image D601. Due to the movement of the person from the image D601, the person P703 is hidden behind the building P701 and the person P704 is hidden behind the tree P702. ing. Here, an object located behind the building P701 cannot be seen through the building P701, but an object hidden behind the tree P702 can be seen through gaps between leaves and branches of the tree. Therefore, in this case, instead of the code amount table A1012, a visibility attribute table in which whether or not the attribute is a visibility attribute is registered for each attribute of an object is used. 11 and 12, the attribute of the building P701 is not registered as the visibility attribute in the visibility attribute table, but the attribute of the tree P702 is registered as the visibility attribute.

よって本実施形態の場合、比較部A1010は、視認属性テーブルを参照して、前面物体情報に含まれている物体の属性が視認属性として視認属性テーブルに登録されているか否かを判断する。この判断の結果、前面物体情報に含まれている物体の属性が視認属性として視認属性テーブルに登録されている場合には、比較部A1010は、前面物体情報を後段の符号量変更部A1011に対して送出する。一方、この判断の結果、前面物体情報に含まれている物体の属性が視認属性として視認属性テーブルに登録されていない場合には、比較部A1010は、前面物体情報に付加されている前面情報を削除する。 Therefore, in the case of this embodiment, the comparison unit A1010 refers to the visual attribute table and determines whether or not the attribute of the object included in the front object information is registered as the visual attribute in the visual attribute table. As a result of this determination, if the attribute of the object included in the front object information is registered as the visibility attribute in the visibility attribute table, the comparison unit A1010 sends the front object information to the subsequent code amount change unit A1011. to be sent out. On the other hand, as a result of this determination, if the attribute of the object included in the front object information is not registered as the visibility attribute in the visibility attribute table, the comparison unit A1010 determines the front surface information added to the front object information. delete.

次に、本実施形態に係る動的ROI装置A1002が1フレーム分の画像を符号化して出力するために行う処理について、同処理のフローチャートを示す図10を用いて説明する。動的ROI装置A1002は、図10のフローチャートに従った処理を、映像取得部A1004から取得する各フレームの画像について行う。また、図10のフローチャートに従った処理の終了条件については特定の条件に限らず、例えば、「ユーザが動的ROI装置A1002の不図示の電源スイッチをOFFにした」であっても良い。 Next, processing performed by the dynamic ROI apparatus A 1002 according to this embodiment to encode and output an image of one frame will be described with reference to FIG. 10 showing a flowchart of the processing. The dynamic ROI apparatus A1002 performs processing according to the flowchart of FIG. 10 for each frame image acquired from the image acquisition unit A1004. Further, the condition for ending the processing according to the flowchart of FIG. 10 is not limited to a specific condition, and may be, for example, "the user turned off the power switch (not shown) of the dynamic ROI apparatus A1002".

ステップS1001では、比較部A1010は、視認属性テーブルを参照し、前面物体情報に含まれている物体の属性が視認属性として視認属性テーブルに登録されているか否かを判断する。この判断の結果、前面物体情報に含まれている物体の属性が視認属性として視認属性テーブルに登録されている場合には、処理はステップS208に進む。一方、この判断の結果、前面物体情報に含まれている物体の属性が視認属性として視認属性テーブルに登録されていない場合には、処理はステップS206に進む。 In step S1001, the comparison unit A1010 refers to the visual attribute table and determines whether or not the attribute of the object included in the front object information is registered as the visual attribute in the visual attribute table. As a result of this determination, if the attribute of the object included in the front object information is registered in the visibility attribute table as the visibility attribute, the process proceeds to step S208. On the other hand, if the attribute of the object included in the front object information is not registered in the visibility attribute table as the visibility attribute as a result of this determination, the process proceeds to step S206.

このように、本実施形態によれば、物体同士が重なっても、前面の物体を通して背後の物体を視認できる場合には、前面の物体の符号量を背面の物体に対応する符号量と同様にすることによって、背面の物体の視認性を向上させることができる。 As described above, according to the present embodiment, even if objects overlap each other, if the object behind can be visually recognized through the object in front, the code amount of the object in front is the same as the code amount corresponding to the object in back. By doing so, the visibility of the object on the back side can be improved.

[第3の実施形態]
図1に示した各機能部はハードウェアで実装しても良いが、一部をソフトウェアで実装しても良い。例えば、記録部A1007をメモリで実装し、符号量テーブルA1012や視認属性テーブルをデータとして実装し、それ以外の機能部をコンピュータプログラムで実装しても良い。この場合、記録部A1007としてのメモリを有し、符号量テーブルA1012や視認属性テーブルをデータとして有し、それ以外の機能部として実装したコンピュータプログラムを実行可能なコンピュータ装置は、動的ROI装置A1002に適用可能である。
[Third Embodiment]
Although each functional part shown in FIG. 1 may be implemented by hardware, a part may be implemented by software. For example, the recording unit A1007 may be implemented as a memory, the code amount table A1012 and the visibility attribute table may be implemented as data, and other functional units may be implemented as computer programs. In this case, the computer device that has a memory as the recording unit A1007, has the code amount table A1012 and the visibility attribute table as data, and can execute the computer program implemented as other functional units is the dynamic ROI device A1002. applicable to

動的ROI装置A1002に適用可能なコンピュータ装置のハードウェア構成例について、図9のブロック図を用いて説明する。このようなコンピュータ装置には、PC(パーソナルコンピュータ)、タブレット型端末装置、スマートフォン、などの装置が適用可能である。 A hardware configuration example of a computer device applicable to the dynamic ROI device A1002 will be described with reference to the block diagram of FIG. Devices such as PCs (personal computers), tablet-type terminal devices, and smart phones are applicable to such computer devices.

CPU901は、RAM902やROM903に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU901は、コンピュータ装置全体の動作制御を行うと共に、動的ROI装置A1002が行うものとして上述した各処理を実行若しくは制御する。 The CPU 901 executes various processes using computer programs and data stored in the RAM 902 and ROM 903 . As a result, the CPU 901 controls the operation of the entire computer apparatus, and executes or controls each of the processes described above as those performed by the dynamic ROI apparatus A 1002 .

RAM902は、ROM903や外部記憶装置906からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。さらにRAM902は、I/F(インターフェース)907を介して外部から受信したデータ(例えば、映像取得装置A1001から受信した各フレームの画像)を格納するためのエリアを有する。またRAM902は、CPU901が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM902は、各種のエリアを適宜提供することができる。ROM903には、コンピュータ装置の設定データや起動プログラムなどが格納されている。 The RAM 902 has areas for storing computer programs and data loaded from the ROM 903 and the external storage device 906 . Furthermore, the RAM 902 has an area for storing data received from the outside via an I/F (interface) 907 (for example, images of each frame received from the image acquisition device A 1001). The RAM 902 also has a work area used when the CPU 901 executes various processes. Thus, the RAM 902 can provide various areas as appropriate. The ROM 903 stores setting data, a boot program, and the like of the computer device.

操作部904は、キーボード、マウス、タッチパネルなどのユーザインターフェースにより構成されており、ユーザが操作することで、各種の指示をCPU901に対して入力することができる。 An operation unit 904 includes user interfaces such as a keyboard, a mouse, and a touch panel, and can input various instructions to the CPU 901 by the user's operation.

表示部905は、液晶画面やタッチパネルなどにより構成されており、CPU901による処理結果を画像や文字などでもって表示することができる。なお、表示部905は、画像や文字を投影するプロジェクタなどの投影装置であっても良い。 A display unit 905 is configured by a liquid crystal screen, a touch panel, or the like, and can display the processing result of the CPU 901 in the form of images, characters, or the like. Note that the display unit 905 may be a projection device such as a projector that projects images and characters.

外部記憶装置906は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置906には、OS(オペレーティングシステム)、図1において記録部A1007、符号量テーブルA1012や視認属性テーブルを除く各機能部の機能をCPU901に実現させるためのコンピュータプログラムが保存されている。また、外部記憶装置906には、符号量テーブルA1012や視認属性テーブルのデータ、上記の説明で既知の情報としたもの(規定時間など)、が保存されている。外部記憶装置906に保存されているコンピュータプログラムやデータは、CPU901による制御に従って適宜RAM902にロードされ、CPU901による処理対象となる。 The external storage device 906 is a large-capacity information storage device represented by a hard disk drive. An external storage device 906 stores an OS (operating system) and a computer program for causing the CPU 901 to implement the functions of the functional units except for the recording unit A1007, the code amount table A1012, and the visibility attribute table in FIG. The external storage device 906 also stores the data of the code amount table A1012 and the visibility attribute table, as well as the information known in the above description (specified time, etc.). Computer programs and data stored in the external storage device 906 are appropriately loaded into the RAM 902 under the control of the CPU 901 and are processed by the CPU 901 .

I/F907は、外部の機器との間のデータ通信を行うためのインターフェースとして機能するものであり、例えば、このI/F907には、上記の映像取得装置A1001や表示装置A1003を接続することができる。 The I/F 907 functions as an interface for performing data communication with external devices. can.

CPU901、RAM902、ROM903、操作部904、表示部905、外部記憶装置906、I/F907は、バス908に接続されている。なお、動的ROI装置A1002に適用可能なコンピュータ装置のハードウェア構成は図9に示した構成に限らない。 CPU 901 , RAM 902 , ROM 903 , operation unit 904 , display unit 905 , external storage device 906 and I/F 907 are connected to bus 908 . Note that the hardware configuration of the computer device applicable to the dynamic ROI device A1002 is not limited to the configuration shown in FIG.

また、上記の各実施形態では、映像取得装置A1001、動的ROI装置A1002、表示装置A1003のそれぞれは別個の装置としたが、このうち2つ以上を1つの装置に統合させても良い。例えば、上記の動的ROI装置A1002をカメラとしての映像取得装置A1001に組み込んでも良い。この場合、映像取得装置A1001は、自身が撮像した画像における各物体領域の符号量を設定し、該物体領域を該符号量に従って符号化してから出力する撮像装置として機能することになる。 Further, in each of the above embodiments, the video acquisition device A1001, the dynamic ROI device A1002, and the display device A1003 are separate devices, but two or more of them may be integrated into one device. For example, the dynamic ROI device A1002 may be incorporated into the video acquisition device A1001 as a camera. In this case, the video acquisition device A1001 functions as an imaging device that sets the code amount of each object region in the image captured by itself, encodes the object region according to the code amount, and outputs the encoded data.

以上説明した各実施形態やその変形例の一部若しくは全部を適宜組み合わせても構わない。また、以上説明した各実施形態やその変形例の一部若しくは全部を選択的に使用しても構わない。 A part or all of the embodiments and modifications thereof described above may be appropriately combined. Also, a part or all of the embodiments and modifications thereof described above may be selectively used.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

A1004:映像取得部 A1005:領域分割部 A1006:比較部 A1007:記録部 A1008:判定部 A1009:判定部 A1010:比較部 A1011:符号量変更部 A1012:符号量テーブル A1013:符号量設定部 A1014:符号化部 A1015:映像出力部 A1004: video acquisition unit A1005: area division unit A1006: comparison unit A1007: recording unit A1008: determination unit A1009: determination unit A1010: comparison unit A1011: code amount change unit A1012: code amount table A1013: code amount setting unit A1014: code conversion unit A1015: video output unit

Claims (9)

画像中で互いに重なり合っている物体のうち背面の物体の属性に対して予め設定されている設定符号量が、該互いに重なり合っている物体のうち前面の物体の属性に対して予め設定されている設定符号量よりも大きい場合には、前記背面の物体に対して予め設定されている設定符号量を、前記前面の物体に対する符号量として設定する設定手段と、
前記前面の物体の領域を、該物体について前記設定手段が設定した符号量で符号化する符号化手段と
を備えることを特徴とする画像処理装置。
A set code amount that is set in advance for the attribute of the object in the back among the objects overlapping each other in the image is set in advance for the attribute of the object in the front among the objects that overlap each other in the image. setting means for setting a preset code amount for the back object as the code amount for the front object when the code amount is larger than the code amount;
An image processing apparatus, comprising: encoding means for encoding the area of the object in front with the code amount set for the object by the setting means.
画像中で互いに重なり合っている物体のうち前面の物体の属性が、背面を視認が可能な物体の属性として予め設定されている属性であれば、前記画像中で互いに重なり合っている物体のうち背面の物体の属性に対して予め設定されている設定符号量を、前記前面の物体に対する符号量として設定する設定手段と、
前記前面の物体の領域を、該物体について前記設定手段が設定した符号量で符号化する符号化手段と
を備えることを特徴とする画像処理装置。
If the attribute of the front object among the objects overlapping each other in the image is an attribute preset as an attribute of the object whose back surface is visible, the rear surface of the objects overlapping each other in the image is determined. setting means for setting a code amount preset for an attribute of an object as a code amount for the front object;
encoding means for encoding the region of the object in front with the code amount set by the setting means for the object;
An image processing device comprising :
前記設定手段は、前記画像中で互いに重なり合っていない物体、前記画像中で互いに重なり合っている物体のうち背面の物体、のそれぞれに対し、該物体の属性に対して予め設定されている設定符号量を設定することを特徴とする請求項1または2に記載の画像処理装置。 The setting means is configured to set code amounts preset for attributes of objects that do not overlap each other in the image and objects that are on the back of objects that overlap each other in the image. 3. The image processing apparatus according to claim 1 or 2 , characterized in that it sets . 更に、
前記画像中で互いに重なり合っている物体を検出する手段を備えることを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
Furthermore,
4. An image processing apparatus according to claim 1 , further comprising means for detecting objects overlapping each other in said image.
更に、
前記符号化手段によって符号化された画像を出力する手段を備えることを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
Furthermore,
5. The image processing apparatus according to claim 1 , further comprising means for outputting the image encoded by said encoding means.
前記画像を取得する手段と、
請求項1乃至の何れか1項に記載の画像処理装置と
を備えることを特徴とする撮像装置。
means for acquiring said image;
An imaging apparatus comprising: the image processing apparatus according to any one of claims 1 to 5 .
画像処理装置が行う画像処理方法であって、
前記画像処理装置の設定手段が、画像中で互いに重なり合っている物体のうち背面の物体の属性に対して予め設定されている設定符号量が、該互いに重なり合っている物体のうち前面の物体の属性に対して予め設定されている設定符号量よりも大きい場合には、前記背面の物体に対して予め設定されている設定符号量を、前記前面の物体に対する符号量として設定する設定工程と、
前記画像処理装置の符号化手段が、前記前面の物体の領域を、該物体について前記設定工程で設定した符号量で符号化する符号化工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing device,
The setting means of the image processing apparatus presets the code amount preset for the attribute of the back object among the overlapping objects in the image, and the attribute of the front object among the overlapping objects. a setting step of setting the code amount preset for the object on the back side as the code amount for the object on the front side when the code amount is larger than the code amount preset for the object;
An image processing method, wherein the encoding means of the image processing apparatus encodes the area of the object in front with the code amount set for the object in the setting step.
画像処理装置が行う画像処理方法であって、An image processing method performed by an image processing device,
前記画像処理装置の設定手段が、画像中で互いに重なり合っている物体のうち前面の物体の属性が、背面を視認が可能な物体の属性として予め設定されている属性であれば、前記画像中で互いに重なり合っている物体のうち背面の物体の属性に対して予め設定されている設定符号量を、前記前面の物体に対する符号量として設定する設定工程と、If the setting means of the image processing device determines that the attribute of the front object among the objects overlapping each other in the image is an attribute preset as the attribute of the object whose back surface can be visually recognized, in the image a setting step of setting, as a code amount for the front object, a set code amount preset for attributes of a back object among objects overlapping each other;
前記画像処理装置の符号化手段が、前記前面の物体の領域を、該物体について前記設定工程で設定した符号量で符号化する符号化工程とan encoding step in which the encoding means of the image processing apparatus encodes the area of the object in front with the code amount set for the object in the setting step;
を備えることを特徴とする画像処理方法。An image processing method comprising:
コンピュータを、請求項1乃至の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 5 .
JP2018205713A 2018-10-31 2018-10-31 Image processing device, imaging device, image processing method Active JP7299687B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018205713A JP7299687B2 (en) 2018-10-31 2018-10-31 Image processing device, imaging device, image processing method
US16/667,339 US11645763B2 (en) 2018-10-31 2019-10-29 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018205713A JP7299687B2 (en) 2018-10-31 2018-10-31 Image processing device, imaging device, image processing method

Publications (3)

Publication Number Publication Date
JP2020072395A JP2020072395A (en) 2020-05-07
JP2020072395A5 JP2020072395A5 (en) 2021-11-25
JP7299687B2 true JP7299687B2 (en) 2023-06-28

Family

ID=70548150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018205713A Active JP7299687B2 (en) 2018-10-31 2018-10-31 Image processing device, imaging device, image processing method

Country Status (1)

Country Link
JP (1) JP7299687B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001177827A (en) 1999-12-21 2001-06-29 Canon Inc Image processing device and method and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002016911A (en) * 2000-06-29 2002-01-18 Toshiba Corp Object video encoding device
JP4897600B2 (en) * 2007-07-19 2012-03-14 富士フイルム株式会社 Image processing apparatus, image processing method, and program
JP5531327B2 (en) * 2007-09-10 2014-06-25 富士フイルム株式会社 Image processing apparatus, image processing method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001177827A (en) 1999-12-21 2001-06-29 Canon Inc Image processing device and method and storage medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
THANG, Truong Cong et al.,Improvements of Scalability Information SEI Message,JVT-Q075,ITU,2005年10月11日,pp.1-9,[online],[retrieved on 2023-05-12],Retrieved from the Internet: <URL: https://www.itu.int/wftp3/av-arch/jvt-site/2005_10_Nice/>,JVT-Q075.doc

Also Published As

Publication number Publication date
JP2020072395A (en) 2020-05-07

Similar Documents

Publication Publication Date Title
US11100655B2 (en) Image processing apparatus and image processing method for hiding a specific object in a captured image
US9560271B2 (en) Removing unwanted objects from photographed image
CN109767453B (en) Information processing apparatus, background image update method, and non-transitory computer-readable storage medium
US10863185B2 (en) Systems and methods for hybrid video encoding
WO2017202170A1 (en) Method and device for video compression and electronic device
US10713797B2 (en) Image processing including superimposed first and second mask images
US20150160730A1 (en) Method, interactive device, and computer readable medium storing corresponding instructions for recognizing user behavior without user touching on input portion of display screen
US10936876B2 (en) Content recognition method, system and storage medium thereof
US9285875B2 (en) Information processing apparatus and information processing method
US9842260B2 (en) Image processing apparatus and image processing method of performing image segmentation
US20190166299A1 (en) Image processing apparatus, control method thereof, and non-transitory computer-readable storage medium
US10650242B2 (en) Information processing apparatus, method, and storage medium storing a program that obtain a feature amount from a frame in accordance with a specified priority order
JP7299687B2 (en) Image processing device, imaging device, image processing method
US11645763B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US11941904B2 (en) Computer-implemented method for extracting content from a physical writing surface
US9942448B2 (en) Display control apparatus and method for controlling the same
KR102372711B1 (en) Image photographing apparatus and control method thereof
JP2015032261A (en) Display device and control method
US10346680B2 (en) Imaging apparatus and control method for determining a posture of an object
JP2021013145A (en) Video transmission device and video transmission method
US11276186B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and non-transitory computer-readable storage medium
US10885348B2 (en) Information processing device, information processing method, and storage medium
KR102203884B1 (en) Imaging apparatus and controlling method thereof
US20230177705A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US11222414B2 (en) Image processing apparatus that specifies a block to be encoded

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230616

R151 Written notification of patent or utility model registration

Ref document number: 7299687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151