JP2018139058A - Information processor and information processing method and program - Google Patents
Information processor and information processing method and program Download PDFInfo
- Publication number
- JP2018139058A JP2018139058A JP2017033639A JP2017033639A JP2018139058A JP 2018139058 A JP2018139058 A JP 2018139058A JP 2017033639 A JP2017033639 A JP 2017033639A JP 2017033639 A JP2017033639 A JP 2017033639A JP 2018139058 A JP2018139058 A JP 2018139058A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- unit
- information processing
- imaging
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
画像から人物や車等の特定のオブジェクト又は、その一部の領域を検出する技術が知られている。また、画像から特定のオブジェクトが映る領域を検出する際に、誤検出を低減するための技術が知られている。例えば、特許文献1には、オブジェクトが検出された領域が重複していた際、それらの重複状態から、それぞれの検出結果が誤検出か否かを判断する方法が開示されている。また特許文献2には、頭部が検出された領域から所定距離以内に、他の頭部が検出された領域が存在した場合、いずれかの検出結果を無効とする方法が開示されている。 A technique for detecting a specific object such as a person or a car or a partial area thereof from an image is known. In addition, a technique for reducing erroneous detection when detecting a region where a specific object appears from an image is known. For example, Patent Document 1 discloses a method for determining whether or not each detection result is a false detection from the overlapping state when regions where objects are detected overlap. Patent Document 2 discloses a method of invalidating one of the detection results when an area where another head is detected is present within a predetermined distance from the area where the head is detected.
しかしながら、特許文献1に開示された技術では、オブジェクトが検出された二つ以上の領域が重複していなければ、オブジェクトが検出された領域を誤検出か否か判断できないという課題があった。したがって、領域が重複していない場合は、その領域にオブジェクトが含まれていない場合であっても誤検出と判断することができない。また、特許文献2に開示された技術では、注目している検出頭部領域から所定の範囲内の検出頭部領域は誤検出とみなすため、前述の所定の範囲内に存在する正しい検出頭部領域が誤検出と判断される可能性があるという課題があった。以上のように従来の技術では、オブジェクトの誤検出を正確に判断できない場合があった。
本発明は、オブジェクトの誤検出をより正確に判断できるようにすることを目的とする。
However, the technique disclosed in Patent Document 1 has a problem in that it is impossible to determine whether or not an area where an object is detected is erroneously detected unless two or more areas where the object is detected overlap. Therefore, if the areas do not overlap, it cannot be determined that the detection is false even if no object is included in the area. Further, in the technique disclosed in Patent Document 2, since a detected head region within a predetermined range from the detection head region of interest is regarded as a false detection, a correct detected head existing within the predetermined range described above There was a problem that the area may be determined to be erroneously detected. As described above, in the conventional technique, there is a case where it is not possible to accurately determine erroneous detection of an object.
An object of the present invention is to make it possible to more accurately determine erroneous detection of an object.
本発明の情報処理装置は、撮像手段により撮影された撮影画像からオブジェクトを検出する検出手段と、前記検出手段により検出されたオブジェクトの特徴量と、前記撮像手段に対する前記オブジェクトの方向と、に基づいて、前記検出手段による前記オブジェクトの検出の結果を評価する評価手段と、を有する。 The information processing apparatus according to the present invention is based on a detection unit that detects an object from a captured image captured by the imaging unit, a feature amount of the object detected by the detection unit, and a direction of the object with respect to the imaging unit. Evaluation means for evaluating the detection result of the object by the detection means.
本発明によれば、オブジェクトの誤検出をより正確に判断することができる。 According to the present invention, it is possible to more accurately determine erroneous detection of an object.
以下に、本発明の好ましい実施の形態を、図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
<実施形態1>
本実施形態では、検出システムは、以下のような処理を行う。即ち、検出システムは、撮像装置から見た被写体であるオブジェクトの方向と、その方向に映るオブジェクトを検出した結果、検出された領域から得られる特徴量がどの程度の値であるかを予測する。その後、実際に検出した検出された領域の特徴量の値が、前述の予測値から逸脱しているか否かを判断し、判断した結果に基づいて検出された各領域が誤検出か否かを決定する。本実施形態では、特徴量として検出された領域のサイズを使用する。しかしながらこの限りでは無く、サイズ以外の特徴量を用いても良い。
図1は、本実施形態の検出システムのシステム構成の一例を示す図である。
検出システムは、撮像装置110、クライアント装置120を含む。撮像装置110、クライアント装置120は、ネットワーク150を介して、相互に通信可能に接続されている。クライアント装置120は、入力装置130と表示装置140とに接続されている。
撮像装置110は、撮像を行うネットワークカメラ等の撮像装置である。クライアント装置120は、撮像装置110の駆動、撮像画像の取得、取得した画像に対してのオブジェクトの検出、解析等を行うパーソナルコンピュータ、サーバ装置、タブレット装置等の情報処理装置である。入力装置130は、マウスやキーボード等から構成される入力装置である。表示装置140は、クライアント装置120が出力した画像を表示するモニタ等の表示装置である。本実施形態では、クライアント装置120と入力装置130と表示装置140とは、各々独立した装置とする。しかし、例えば、クライアント装置120と表示装置140とが、一体化されていてもよいし、入力装置130と表示装置140とが一体化されていてもよい。また、クライアント装置120と入力装置130と表示装置140とが、一体化されていてもよい。
ネットワーク150は、撮像装置110とクライアント装置120とを接続するネットワークである。ネットワーク150は、例えばEthernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等から構成される。本実施形態では、ネットワーク150は、撮像装置110とクライアント装置120との間の通信を行うことができるものであればよく、その通信規格、規模、構成を問わない。例えば、ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。
<Embodiment 1>
In the present embodiment, the detection system performs the following processing. That is, the detection system predicts the value of the feature amount obtained from the detected area as a result of detecting the direction of the object as the subject viewed from the imaging apparatus and the object reflected in the direction. Thereafter, it is determined whether or not the feature value of the detected area actually detected deviates from the predicted value, and whether or not each detected area is erroneously detected based on the determined result. decide. In the present embodiment, the size of the detected area is used as the feature amount. However, the present invention is not limited to this, and feature quantities other than the size may be used.
FIG. 1 is a diagram illustrating an example of a system configuration of a detection system according to the present embodiment.
The detection system includes an
The
The
図2(a)は、撮像装置110のハードウェア構成の一例を示す図である。
撮像装置110は、CPU211、主記憶装置212、補助記憶装置213、駆動部214、撮像部215、ネットワークI/F216を含む。各要素は、システムバス217を介して、相互に通信可能に接続されている。
CPU211は、撮像装置110の動作を制御する中央演算装置である。主記憶装置212は、CPU211のワークエリア、データの一時的な記憶場所として機能するRandom Access Memory(RAM)等の記憶装置である。補助記憶装置213は、各種プログラム、各種設定データ等を記憶するハードディスクドライブ(HDD)、Read Only Memory(ROM)、ソリッドステートドライブ(SSD)等の記憶装置である。
駆動部214は、撮像装置110を駆動し、撮像装置110の姿勢等を変更させ、撮像部215の撮影方向及び画角を変更する駆動部である。撮像部215は、撮像素子と光学系とを有し、光学系の光軸と撮像素子との交点を撮像中心として被写体の像を撮像素子上に結像する撮像部である。撮像素子には、CMOS(ComplementaryMetal−Oxide Semiconductor)、CCD(Charged Coupled Device)等がある。ネットワークI/F216は、クライアント装置120等の外部の装置とのネットワーク150を介した通信に利用されるインターフェースである。
CPU211が、補助記憶装置213に記憶されたプログラムに基づき処理を実行することによって、図3で後述する撮像装置110の機能及び撮像装置110の処理が実現される。
FIG. 2A is a diagram illustrating an example of a hardware configuration of the
The
The
The
The
図2(b)は、クライアント装置120のハードウェア構成の一例を示す図である。
クライアント装置120は、CPU221、主記憶装置222、補助記憶装置223、入力I/F224、出力I/F225、ネットワークI/F226を含む。各要素は、システムバス227を介して、相互に通信可能に接続されている。
CPU221は、クライアント装置120の動作を制御する中央演算装置である。主記憶装置222は、CPU221のワークエリア、データの一時的な記憶場所として機能するRAM等の記憶装置である。補助記憶装置223は、各種プログラム、各種設定データ等を記憶するHDD、ROM、SSD等の記憶装置である。
入力I/F224は、入力装置130等からの入力を受付ける際に利用されるインターフェースである。出力I/F225は、表示装置140等への情報の出力に利用されるインターフェースである。ネットワークI/F216は、撮像装置110等の外部の装置とのネットワーク150を介した通信に利用されるインターフェースである。
CPU221が、補助記憶装置223に記憶されたプログラムに基づき処理を実行することによって、図3で後述するクライアント装置120の機能及び図4で後述するフローチャートの処理等のクライアント装置120の処理が実現される。
FIG. 2B is a diagram illustrating an example of a hardware configuration of the
The
The
The input I /
The
図3(a)は、撮像装置110の機能構成の一例を示す図である。
撮像装置110は、撮像制御部311、信号処理部312、駆動制御部313、通信制御部314を含む。
撮像制御部311は、撮像部215を介して、周囲の環境を撮影する。信号処理部312は、撮像制御部311によって撮影された画像の処理を行う。信号処理部312は、例えば、撮像制御部311によって撮影された画像の符号化を行う。静止画の場合は、信号処理部312は、例えば、JPEG(Joint Photographic Experts Group)等の符号化方式を用いて、画像の符号化を行う。また、動画の場合は、信号処理部312は、H.264/MPEG−4 AVC(以下では、H.264)、HEVC(High Efficiency Video Coding符号化方式)等の符号化方式を用いて、画像の符号化を行う。また、信号処理部312は、予め設定された複数の符号化方式の中から、例えば撮像装置110の操作部を介してユーザにより選択された符号化方式を用いて、画像の符号化を行うようにしてもよい。
駆動制御部313は、駆動部214を介して、撮像制御部311の撮影方向及び画角を変更させる制御を行う。しかし、駆動制御部313は、撮像制御部311による撮影方向と画角とのうちの何れか1つを変更することとしてもよい。また、撮像制御部311の撮影方向及び画角は、固定であってもよい。通信制御部314は、信号処理部312により処理された撮像制御部311により撮影された画像を、ネットワークI/F216を介して、クライアント装置120に送信する。また、通信制御部314は、ネットワークI/F216を介して、クライアント装置120から撮像装置110に対する制御命令を受信する。
FIG. 3A is a diagram illustrating an example of a functional configuration of the
The
The
The
図3(b)は、クライアント装置120の機能構成の一例を示す図である。
クライアント装置120は、入力情報取得部321、通信制御部322、画像取得部323、検出部324、予測部325、評価部326、表示制御部327を含む。
入力情報取得部321は、入力装置130を介したユーザによる入力を受け付ける。通信制御部322は、撮像装置110から送信された画像を、ネットワーク150を介して受信する。また、通信制御部322は、撮像装置110への制御命令を、ネットワーク150を介して送信する。画像取得部323は、通信制御部322を介して、撮像装置110から、撮像装置110により撮影された画像を、オブジェクトの検出処理の対象である画像として取得する。また、画像取得部323は、補助記憶装置223に記憶されている画像を、オブジェクトの検出処理の対象である画像として取得してもよい。
検出部324は、画像取得部323により取得された画像から、検出対象のオブジェクトの検出処理を行う。予測部325は、画像中で検出され得るオブジェクトの特徴量の予測を行う。評価部326は、予測部325により予測された画像中で検出され得るオブジェクトの特徴量と、検出部324により検出されたオブジェクトの特徴量と、に基づいて、検出部324の検出結果が誤検出か否かを判定する。表示制御部327は、CPU221からの指示にしたがって画像を表示装置140へ出力する。表示制御部327は、例えば、検出部324により検出されたオブジェクトのうち、評価部326により誤検出と判定されたものを除いたものを示す画像を、表示装置140へ出力する。
FIG. 3B is a diagram illustrating an example of a functional configuration of the
The
The input
The
図4は、オブジェクトの検出処理の一例を示すフローチャートである。図4を用いて、クライアント装置120が撮像装置110から画像を取得し、取得した画像中のオブジェクトを検出し、検出された各領域それぞれに対して、検出結果が誤検出か否かを判定する処理を説明する。
S400において、画像取得部323は、通信制御部322を介して、撮像装置110から、撮像装置110により撮影された画像を、オブジェクトの処理の対象の画像として取得する。以下では、S400で取得された撮像装置110により撮影された画像を、撮影画像とする。本実施形態では、検出対象のオブジェクトは、人体であるとする。
図5は、本実施形態における、撮像装置110により撮影される撮影環境の一例を示す図である。図5で、撮像装置110から延びる実線で囲まれる範囲は、撮像装置110の可視範囲を示す。また、オブジェクト501〜503は、本実施形態における検出対象のオブジェクトである人体を示す。本実施形態では、検出システムは、人体を検出するが、自動車、荷物、ドローン、動物等の人体以外のオブジェクトを検出することとしてもよい。
FIG. 4 is a flowchart illustrating an example of an object detection process. Using FIG. 4, the
In S <b> 400, the
FIG. 5 is a diagram illustrating an example of an imaging environment in which the
図6は、図5に示す撮影環境において、撮像装置110により撮影された撮影画像の一例を示す図である。画像600は、撮像装置110により図5の撮影環境が撮影された撮影画像を示す。図6では、オブジェクト501〜503は、図5中のオブジェクト501〜503と同じオブジェクトである。
また、本実施形態では、クライアント装置120は、撮像装置110からリアルタイムで撮影されたライブ映像を受信して、当該受信したライブ映像(動画)の各フレームに対し図4の処理を行う。しかしながら、クライアント装置120は、例えば、撮像装置110内の補助記憶装置213に記憶されている静止画、又は動画の各フレームに対して図4の処理を行ってもよい。また、クライアント装置120は、クライアント装置120内の補助記憶装置223に記憶されている静止画、又は動画の各フレームに対して図4の処理を行ってもよい。また、クライアント装置120は、外部の録画サーバにアクセスし、録画サーバ内に記憶されている静止画、又は動画の各フレームに対して図4に示す処理を行ってもよい。
また、本実施形態では、クライアント装置120は、図4の処理を行う前に予め撮像装置110により撮影された撮影画像の任意の座標(x、y)が、撮像装置110からどの方向に存在するかを求める。
FIG. 6 is a diagram illustrating an example of a photographed image photographed by the
In the present embodiment, the
In the present embodiment, the
撮像装置110の視点(撮像部215が撮影対象の環境を見るときの立脚点)を原点として、原点を通る水平な平面上に原点を通り直行するWx軸及びWy軸と、原点を通り垂直な方向に伸びるWz軸と、を想定する。このWx軸、Wy軸、Wz軸の3つの軸で特定される3次元座標を、ワールド座標系とする。
ワールド座標系上の座標は、例えば、(x、y、z)のように、3軸上のそれぞれの位置を並べる形式で示すことができる。また、ワールド座標系上の座標は、例えば、(φ、θ、r)のように、球面座標で表すこともできる。ここで、φは、Wx軸と、Wx軸とWy軸とを含む平面にその座標が投影された点と原点とを通る直線と、がなす角度を示す。また、θは、Wz軸と、原点とその座標とを通る直線と、がなす角度である。また、rは、原点からその座標までの長さである。
ここで、球面座標で表示されたワールド座標系上の座標におけるφ及びθは、撮像装置110に対してその座標がどの方向に存在するかを示す情報である。本実施形態では、クライアント装置120は、撮影画像中のオブジェクトの位置に対応するスクリーン座標系上の座標から、ワールド座標系上の座標におけるθとφとを求めることで、撮像装置110に対するオブジェクトの方向を特定する。
The Wx axis and Wy axis that go straight through the origin on a horizontal plane passing through the origin, and the direction perpendicular to the origin, with the viewpoint of the imaging device 110 (the pedestal point when the
The coordinates on the world coordinate system can be shown in a form in which the respective positions on the three axes are arranged, for example, (x, y, z). The coordinates on the world coordinate system can also be expressed by spherical coordinates, for example (φ, θ, r). Here, φ indicates an angle formed by the Wx axis, a straight line passing through the origin and a point where the coordinates are projected on a plane including the Wx axis and the Wy axis. Θ is an angle formed by the Wz axis and a straight line passing through the origin and its coordinates. R is the length from the origin to the coordinates.
Here, φ and θ in coordinates on the world coordinate system displayed in spherical coordinates are information indicating in which direction the coordinates exist with respect to the
また、撮像装置110の視点を原点として、原点を通る撮像装置110の撮影方向(光軸方向)に伸びるVz軸と、原点を通り撮像装置110により撮影される画像における水平方向に伸びるVx軸と、を想定する。また、原点を通り撮像装置110により撮影される画像における垂直方向に伸びるVy軸を想定する。このVx軸、Vy軸、Vz軸の3つの軸で特定される3次元座標を、ビュー座標系とする。
また、撮像装置110により撮影される画像の中央を原点として、原点を通り、その画像における水平方向に伸びるSx軸と、原点を通り、その画像における垂直方向に伸びるSy軸と、を想定する。このSx軸、Sy軸の2つの軸で特定される2次元座標を、スクリーン座標系とする。
Also, with the viewpoint of the
Further, an Sx axis that passes through the origin and extends in the horizontal direction in the image and an Sy axis that passes through the origin and extends in the vertical direction are assumed with the center of the image captured by the
図7は、ワールド座標系と、ビュー座標系と、スクリーン座標系と、の関係の一例を説明する図である。また、Sx、Syに接する矩形が撮像装置110により撮影される画像(スクリーン)を示す。図7中のSwは、スクリーンの横幅の半分の長さ(撮影画像の半分の長さ)を示す。また、図7中のdは、ビュー座標系、及びワールド座標系の原点からスクリーンまでの距離を示す。また、図7中の(x、y)は、スクリーン座標上の1点を示す。(φ、θ、r)は、点(x、y)の座標を球面座標で表現した座標である。
つまり、クライアント装置120は、撮像装置110により撮影された画像のスクリーン座標系における任意の座標(x、y)から、方向(φ、θ)を求めるためには、以下のような処理を行う。即ち、クライアント装置120は、スクリーン座標系からビュー座標系へ変換を行い、ビュー座標系からワールド座標系へ変換を行った後、ワールド座標系上の点を球面座標の表現に変換すればよい。
スクリーン座標系からワールド座標系へ変換する方法について説明する。まず、クライアント装置120は、ビュー座標系原点から、スクリーンまでの距離dを以下の式(1)に基づいて、求める。
FIG. 7 is a diagram illustrating an example of the relationship among the world coordinate system, the view coordinate system, and the screen coordinate system. A rectangle in contact with Sx and Sy indicates an image (screen) photographed by the
That is, the
A method of converting from the screen coordinate system to the world coordinate system will be described. First, the
式(1)中のφmaxは、撮像装置110の水平画角を示す。クライアント装置120は、撮像装置110の画角等の撮影の際の条件の情報を、撮像装置110から取得することができる。撮像装置110は、クライアント装置120からの要求に応じて、例えば、補助記憶装置213に記憶された撮像装置110の画角等の撮影の際の条件の情報をクライアント装置120に送信する。
スクリーン座標系の任意の点(x、y)は、ビュー座標系上では、(x、y、d)で表すことができる。クライアント装置120は、ビュー座標系からワールド座標系へ変換する変換行列を、上記ビュー座標系の点(x、y、d)に適用することで、ビュー座標系からワールド座標系へ変換することができる。本実施形態では、クライアント装置120は、四元数による変換行列を用いてスクリーン座標系からワールド座標系へ変換を行う。しかし、クライアント装置120は、例えば、x、y、zの各軸周り回転行列を用いてもよい。
ビュー座標系からワールド座標系へ変換するためには、撮像装置110の光軸方向の情報が必要である。本実施形態では、クライアント装置120は、撮像装置110内のジャイロセンサから出力される情報に基づいて、撮像装置110の姿勢を求める。また、撮像装置110が、撮像装置110内のジャイロセンサから出力される情報に基づいて、撮像装置110の姿勢を求め、求めた姿勢の情報をクライアント装置120に送信してもよい。また、クライアント装置120は、例えば、入力装置130を介したユーザの操作に基づいて、撮像装置110の姿勢の情報の入力を受付けることで、撮像装置110の姿勢の情報を取得してもよい。また、クライアント装置120は、撮像装置110が行ったパン、チルト駆動の情報を取得して、取得したパン、チルト駆動の情報から撮像装置110の姿勢の情報を取得してもよい。また、クライアント装置120は、床の上に置かれたテストチャートに基づいて、撮像装置110のカメラ校正を行ってもよい。
Φmax in Expression (1) indicates a horizontal angle of view of the
An arbitrary point (x, y) in the screen coordinate system can be represented by (x, y, d) on the view coordinate system. The
In order to convert from the view coordinate system to the world coordinate system, information on the optical axis direction of the
S401において、検出部324は、S400で取得されたた撮影画像から、検出対象として設定されたオブジェクトである人体を検出する検出処理を行う。
本実施形態では、検出部324は、まず、S400で取得された撮影画像に対し、様々なサイズでスケーリングを行うことで、複数の撮影画像の拡大・縮小画像(以下では、スケール画像)を取得する。検出部324は、取得した複数の撮影画像の拡大・縮小画像に対して、オブジェクトの検出処理を行うことで、様々なサイズのオブジェクトを検出可能である。
次に、検出部324は、撮像画像の各スケール画像に対して、特定のサイズの検出窓を用いてラスタースキャンする。補助記憶装置223は、予め学習データを用いて計算された検出対象のオブジェクトの特徴量を記憶しておく。そして、検出部324は、スキャンの際に検出窓内から計算される特徴量と、補助記憶装置223に記憶された学習データに基づく特徴量と、の誤差が設定された閾値よりも小さい場合に、撮影画像中の検出窓の領域をオブジェクトであると判定する。この閾値の情報は、予め補助記憶装置223に記憶されている。また、検出部324は、検出したオブジェクトの領域の中心座標から、撮像装置110に対する検出したオブジェクトの方向を求めておく。より具体的には、検出部324は、検出したオブジェクトの領域の中心座標から、ワールド座標系における検出したオブジェクトの方向(φ、θ)を求める。
In S401, the
In the present embodiment, the
Next, the
図8は、撮影画像に対する検出部324による検出処理の結果の一例を示す図である。図8において、領域801〜803は、それぞれ、オブジェクト501〜503が検出された領域を示す。また、領域804、805は、オブジェクトではなく、誤検出された領域を示す。領域804は、内部に、検出対象のオブジェクトに近い特徴をもつ部分があり、誤検出となって現れた結果を示す。また、領域805は、密集した複数のオブジェクトを含む領域が検出対象のオブジェクトに近い特徴を持ち、誤検出となって現れた結果を示す。
以下では、S401で検出されたN(1≦N)個の領域を、検出領域n(n=1〜N)とする。
FIG. 8 is a diagram illustrating an example of a result of detection processing performed by the
Hereinafter, the N (1 ≦ N) areas detected in S401 are referred to as detection areas n (n = 1 to N).
S402において、予測部325は、撮影画像の各部に写るオブジェクトの検出領域のサイズの予測値を更新するか否かを判定する。本実施形態では、予測部325は、図4の処理が初めて実行される場合、又は、前回の図4の処理から一定期間経過した場合、撮影画像の各部に写るオブジェクトの検出領域のサイズの予測値を更新すると判定し、S403の処理に進む。また、予測部325は、図4の処理が初めて実行されるわけではない場合、かつ、前回の図4の処理から一定期間経過していない場合、撮影画像の各部に写るオブジェクトの検出領域のサイズの予測値を更新しないと判定し、S404の処理に進む。
S403において、予測部325は、各検出領域に基づき、各検出領域の方向におけるオブジェクトのサイズの予測値を更新する。本実施形態では、予測部325は、S401で検出した検出領域の方向、及びサイズに基づき、球面調和関数を用いた補間を行い、各方向に映るオブジェクトの検出領域のサイズの予測を行う。そのため、予測部325は、以下の式(2)に基づき球面調査関数の基底の係数cを計算する。
In S402, the
In S403, the
式(2)中のφn、θnは、それぞれS401で検出された検出領域n(n=1〜N)の方向を表す。Yは、球面調和関数の基底関数を表し、第一引数が次数、第二引数が位数、第三、第四引数が検出領域の方向である。また、snは、検出領域nのサイズを表す。予測部325は、式(2)を用いて、球面調和関数Y(l、m、φ、θ)の係数c(l、m)を、得ることができる。そして、予測部325は、任意の方向(φ、θ)における検出領域のサイズの予測値s(φ、θ)を、以下の式(3)に基づき計算する。
In the equation (2), φn and θn each represent the direction of the detection region n (n = 1 to N) detected in S401. Y represents the basis function of the spherical harmonic function, the first argument is the order, the second argument is the order, and the third and fourth arguments are the directions of the detection region. Sn represents the size of the detection region n. The
本実施形態では、次数lは、できる限り小さな値を用いる。これにより、領域804、805のような、周りとサイズが顕著に異なる検出領域を用いて球面調和関数の係数を計算しても、高周波をカットした補間が可能になり、それらを外れ値とみなすことができる。
また、球面調和関数の各基底は、位数が0の場合、θの値にのみ依存し、φの値に依存しない。そのため、本実施形態では、オブジェクトの領域のサイズは、撮像装置110からオブジェクトまでのワールド座標系における俯角のみに依存し、方位角には依存しないと仮定し、位数mを0とする。
このように、予測部325は、球面調和関数を用いて、オブジェクトの検出領域のサイズの予測値を求める。予測部325は、球面調和関数を用いることで、ワールド座標系における撮像装置110からの方向に応じた予測値を求めることができる。
例えば、撮像装置110のパンチルト駆動が発生し、撮像装置110の視野が変化したとする。しかし、撮像装置110とオブジェクトとのワールド座標系における位置関係は、変化しない。そのため、クライアント装置120は、ワールド座標系において、球面調和関数を用いて求められたオブジェクトの検出領域のサイズの予測値を、撮像装置110の視野の変更前でも変更後でも、同様に利用できる。そのため、予測部325は、球面調和関数を用いることで、撮像装置110の視野が変化する度に、各方向についてオブジェクトの検出領域のサイズの予測値を計算しなくてもよくなり、計算の処理の負担を軽減できる。また、予測部325は、球面調和関数以外の放射基底関数等のワールド座標系における撮像装置110からの方向に基づき検出領域のサイズを近似できる関数を用いて、オブジェクトの検出領域のサイズの予測値を求めても、同様の効果を得ることができる。
In the present embodiment, the order l is as small as possible. As a result, even if the spherical harmonic function coefficients are calculated using detection regions that are remarkably different in size from the surroundings, such as
In addition, each base of the spherical harmonic function depends only on the value of θ when the order is 0, and does not depend on the value of φ. Therefore, in this embodiment, it is assumed that the size of the object region depends only on the depression angle in the world coordinate system from the
As described above, the
For example, it is assumed that the pan / tilt drive of the
S404において、評価部326は、検出領域nのリストを作成し、補助記憶装置223等に記憶する。評価部326は、作成するリスト内の各ノードに、各検出領域のサイズ、中心座標、及び方向を格納する。図7の例では、評価部326は、リストに領域801〜805それぞれの矩形のサイズ、中心座標、及び中心座標から計算された方向の情報を格納する。
次に、評価部326は、S404で作成したリストを走査しながら、リスト内の各検出領域が誤検出か否かを判定する。誤検出か否かを判定する処理の流れは、以下の通りである。
S405において、評価部326は、S404で作成したリストから、先頭の検出領域を選択する。以下、現在選択されている検出領域を、検出領域iとする。
In S404, the
Next, the
In S405, the
S406において、評価部326は、S405又は後述するS410で選択した検出領域の特徴量であるサイズと、S405又はS410で選択した検出領域の方向と、に基づいて、以下の処理を行う。即ち、評価部326は、S405又はS410で選択した検出領域が誤検出されたものであるか否かを判定する処理を行う。評価部326は、例えば、検出領域iのサイズs'(φi、θi)と、検出領域iの方向(φi、θi)に対応するオブジェクトの検出領域のサイズの予測値s(φi、θi)と、を比較することにより、検出領域iについて、検出の結果を評価する。
本実施形態では、評価部326は、検出領域iについてのオブジェクトの検出が誤検出であるか否か決定することで、検出領域iに係る検出の結果を評価する。しかし、評価部326は、例えば、検出領域iについて、検出領域iがオブジェクトある確からしさを示す設定された尤度を求めることで、検出領域iに係る検出の結果を評価することとしてもよい。
評価部326は、検出領域iのサイズs'(φi、θi)が、検出領域iの方向(φi、θi)から予測部325により予測されたサイズの予測値s(φi、θi)からどの程度逸脱しているかの度合いに基づいて、検出領域iに係る検出の結果を評価する。本実施形態では、評価部326は、検出領域iのサイズs'(φi、θi)が、以下の式(4)に示す条件を満たす場合には、検出領域iに係るオブジェクトの検出の結果が誤検出ではないと決定する。一方、評価部326は、検出領域iのサイズs'(φi、θi)が式(4)の条件を満たさない場合、検出領域iに係るオブジェクトの検出の結果が誤検出であると決定する。
In S406, the
In the present embodiment, the
The
本実施形態では、式(4)中のα(φi、θi)及びβ(φi、θi)の値は、どちらもs(φi、θi)の10%の値とする。しかしながら、評価部326は、例えば、α、βの値を、球面調和関数を用いて求めてもよい。その際、評価部326は、α、βの係数の計算として、α、βの係数をランダムに変化させ、予め誤検出か否かが判別されている検出領域のデータの幾つかを式(4)で判断させ、正しく誤検出と判断できた検出領域の数が最も多い係数の値を採用してもよい。
このように、評価部326は、検出領域iのサイズの予測値に対する逸脱の度合いに基づいて誤検出か否か決定する。
本実施形態では、予測部325は、撮影画像に対するオブジェクトの検出の結果、得られた検出領域を利用して、予測値の生成を行う。しかしながら、予測部325は、例えば、撮影画像から検出されたオブジェクトの数が設定された閾値よりも少なければ、過去の撮影画像に対して行った検出結果を利用してもよい。予測部325は、過去の撮影画像について検出された検出領域について、それぞれのサイズ、中心座標、及び撮像装置110からの方向を補助記憶装置223等に記憶しておくことにより、過去の撮影画像を利用できる。
In the present embodiment, the values of α (φi, θi) and β (φi, θi) in equation (4) are both 10% of s (φi, θi). However, the
In this way, the
In the present embodiment, the
S407において、評価部326は、検出領域iが誤検出であることを示す情報を、S404で作成されたリストに記憶する。
S408において、評価部326は、検出領域iが誤検出で無いことを示す情報を、S404で作成されたリストに記憶する。
S409において、評価部326は、検出領域iがS404で作成されたリストの末尾の検出領域であるか否かを判定する。評価部326は、検出領域iがS404で作成されたリストの末尾の検出領域であると判定した場合、S411の処理に進む。また、評価部326は、検出領域iがS404で作成されたリストの末尾の検出領域でないと判定した場合、S410の処理に進む。
In S407, the
In S408, the
In S409, the
S410において、評価部326は、S404で作成されたリストにおける現在の検出領域iの次の検出領域を、新たな検出領域iとして選択し、S406の処理に進む。こうして、評価部326は、リストに登録されている検出領域について、誤検出か否かを順次に決定する。
S411において、表示制御部327は、撮影画像である画像400を、検出対象の被写体の検出結果とともに表示装置140に表示することで、検出結果を出力する。表示制御部327は、例えば、評価部326により誤検出でないと決定された各検出領域を示す枠を撮影画像に重畳して表示する。例えば、表示制御部327は、図8の画面から、領域804〜805の矩形枠を除いた画面を表示する。なお、表示制御部327は、検出領域を示す枠として、矩形以外の楕円等の形状の枠を表示してもよい。
In S410, the
In S411, the
以上、本実施形態では、クライアント装置120は、撮像装置110により撮影された画像からオブジェクトを検出し、検出された各検出領域について、以下の処理を行うこととした。即ち、クライアント装置120は、画像中における検出領域のサイズと、撮像装置110に対する検出領域の方向に応じて設定された検出領域のサイズの予測値と、に基づいて、その検出領域が誤検出か否かを決定した。
これにより、検出システムは、誤検出の可能性を低減することができる。また、検出システムは、複数のオブジェクトが密集している場合でも、誤検出でない検出領域の近辺の検出領域を誤検出とするわけではない。このように、検出システムは、オブジェクトの誤検出をより正確に判断できる。
As described above, in the present embodiment, the
Thereby, the detection system can reduce the possibility of erroneous detection. Further, even when a plurality of objects are densely populated, the detection system does not mean that a detection area near a detection area that is not erroneously detected is erroneously detected. As described above, the detection system can more accurately determine the erroneous detection of the object.
本実施形態では、検出システムは、オブジェクトの特徴量として、検出領域のサイズを利用した。しかし、検出システムは、例えば、オブジェクトの特徴量として、検出領域の平均の明度を利用してもよい。例えば、撮像装置110が撮影する撮影環境が日陰の領域と、照明の当たっている領域と、が含まれるとする。その場合、検出対象のオブジェクトが日陰の領域に存在する場合、画像中における検出領域の平均明度は、オブジェクトが証明の当たっている領域に存在する場合に比べて、低くなると想定できる。
そこで、評価部326は、検出領域の方向が、日陰領域を示す方向を向いている場合、検出領域の平均明度が設定された閾値以上である場合、誤検出と決定し、設定された閾値未満である場合、誤検出でないと決定してもよい。また、評価部326は、検出領域の方向が、照明の当たっている領域を示す方向を向いている場合、検出領域の平均明度が設定された閾値未満である場合、誤検出と決定し、設定された閾値以上である場合、誤検出でないと決定してもよい。
In the present embodiment, the detection system uses the size of the detection area as the feature amount of the object. However, the detection system may use, for example, the average brightness of the detection area as the feature amount of the object. For example, it is assumed that the shooting environment in which the
Therefore, the
<実施形態2>
実施形態1では、予測部325は、任意の方向に映るオブジェクトの検出領域のサイズの予測値を、図4の処理を初めて実行した場合、又は、前回の更新から一定期間経過していた場合に更新していた。また、予測部325は、オブジェクトの検出領域のサイズがワールド座標系における撮像装置110の俯角のみに依存し、方位角には依存しないと仮定し、オブジェクトの検出領域の予測に用いる球面調和関数の位数mを0に限定していた。本実施形態では、オブジェクトの検出領域のサイズが、ワールド座標系における撮像装置110の方位角にも依存する例について説明する。また、本実施形態では、オブジェクトの検出領域のサイズの方位角への依存が確認でき次第、検出領域のサイズの予測値を更新する処理について説明する。
本実施形態の検出システムのシステム構成は、実施形態1と同様である。また、撮像装置110、及びクライアント装置120のハードウェア構成及び機能構成は、実施形態1と同様である。
本実施形態におけるクライアント装置120の処理は、実施形態1と同様に、図4に示す処理である。
<Embodiment 2>
In the first embodiment, the
The system configuration of the detection system of the present embodiment is the same as that of the first embodiment. The hardware configurations and functional configurations of the
The processing of the
オブジェクトの検出領域のサイズがワールド座標系における撮像装置110の方位角に依存する撮影環境として、例えば、撮影された画像に階段が映り、階段を利用している人体が存在する場合や、床にしゃがみこんだ人体が存在する場合がある。図9、図10を用いてこのような場合の例を説明する。
図9は、撮像装置110から同じ俯角の方向に複数のオブジェクトが存在する撮影環境の一例を示す図である。図9の例では、三つのオブジェクト901〜903が存在している。オブジェクト901は、床にしゃがみ込んでいる。オブジェクト902は、階段下に直立している。また、オブジェクト903は、階段上に直立している。この際、撮像装置110により図10に示す画像1000が撮影される。
As a shooting environment in which the size of the detection area of the object depends on the azimuth angle of the
FIG. 9 is a diagram illustrating an example of a shooting environment in which a plurality of objects exist in the same depression direction from the
図10は、図9の撮影環境が撮像装置110により撮影された画像の一例を示す図である。図10内のオブジェクト901〜903は、それぞれ図9の撮影環境のオブジェクト901〜903を示す。各オブジェクトは、撮像装置110から同じ俯角の方向に存在するにも関わらず、サイズにばらつきが見られることが図10から分かる。この場合、実施形態1の処理では、オブジェクト901〜903の何れかが誤検出とみなされる可能性がある。
そこで、本実施形態では、クライアント装置120は、以下のような処理を行う。
クライアント装置120は、図4の処理を繰り返し、撮影画像の設定された部分で誤検出が頻発し、その誤検出された検出領域のサイズのばらつきが設定された閾値よりも低い場合、次のような処理を行う。即ち、クライアント装置120は、図9のように、オブジェクトの検出領域のサイズが方位角にも依存する撮影環境であると判断し、任意の方向に映るオブジェクトの検出領域のサイズの予測値を生成し直す。
例えば、評価部326は、図2の処理の繰り返しの際に、撮影画像を任意の数の領域に分割し、それぞれの領域内で誤検出が連続して発生したフレームをカウントし、カウント数を補助記憶装置223に記憶しておく。また、評価部326は、その際発生している誤検出された検出領域のサイズの情報を、補助記憶装置223に記憶しておく。そして、予測部325は、S202で、評価部326により補助記憶装置223に記憶されたカウント数と、誤検出された検出領域のサイズの情報と、に基づいて、オブジェクトの検出領域のサイズの予測値を更新するか否か判定する。予測部325は、例えば、そのカウント数が設定された閾値以上、かつ、連続して発生していた複数の誤検出に係る検出流域のサイズの分散の値が設定された閾値以下の場合、オブジェクトの検出領域のサイズの予測値を更新すると判定する。予測部325は、それ以外の場合、オブジェクトの検出領域のサイズの予測値を更新しないと判定する。この際、予測部325は、球面調和関数の位数mが0で無い基底も使用し、実施形態1のように位数mの限定を解除する。これにより、本実施形態では、予測部325は、局所的にサイズが異なる、任意の方向に映るオブジェクトの検出領域のサイズの予測値を生成することができる。
FIG. 10 is a diagram illustrating an example of an image captured by the
Therefore, in the present embodiment, the
When the
For example, the
以上、本実施形態では、クライアント装置120は、過去に発生した誤検出の位置、及び誤検出された検出領域のサイズに基づいて、想定されている仮定の正当性を判断した。そして、クライアント装置120は、想定していた仮定が誤っていれば、他の仮定に基づいて、撮影画像中におけるオブジェクトの検出領域のサイズの予測値を生成し直し、生成し直した予測値に基づいて、検出されたオブジェクトの評価を行うこととした。即ち、クライアント装置120は、評価部326による過去の評価結果に基づいて、オブジェクトの検出領域のサイズの予測値を生成し直すこととした。これにより、クライアント装置120は、実施形態1と比べて、更に、オブジェクトの検出の精度を向上できる。
As described above, in the present embodiment, the
<実施形態3>
実施形態1、2では、クライアント装置120は、撮像装置110により撮影された撮影画像に対しオブジェクトの検出を実行した。そして、クライアント装置120は、その検出結果に基づいて、撮影画像中で任意の方向に映るオブジェクトの検出領域のサイズの予測値を生成していた。本実施形態では、クライアント装置120は、撮像装置110の設置位置に基づいて、任意の方向に映るオブジェクトの検出領域のサイズの予測値を生成する処理について説明する。
本実施形態の検出システムのシステム構成は、実施形態1と同様である。また、撮像装置110、及びクライアント装置120のハードウェア構成及び機能構成は、実施形態1と同様である。
本実施形態におけるクライアント装置120の処理は、実施形態1と同様に、図4に示す処理である。
<Embodiment 3>
In the first and second embodiments, the
The system configuration of the detection system of the present embodiment is the same as that of the first embodiment. The hardware configurations and functional configurations of the
The processing of the
本実施形態では、予測部325は、S203で、オブジェクトの検出領域のサイズの予測値を生成する際、撮像装置110の設置位置の情報を用いる。
図11は、オブジェクトと撮像装置との位置関係の一例を示す図である。図11の撮影環境は、撮像装置110が設置されている空間に、オブジェクト1101が存在している撮影環境を示す。図11中のwp1(x1、y1、z1)は、オブジェクト1101の最上部のワールド座標系における座標を示す。また、wp2(x2、y2、z2)は、オブジェクト901の最下部のワールド座標系における座標を示す。この場合、z2は、撮像装置110の設置高さから求まる。z1は、オブジェクトの高さから求まる。例えば、二つの点wp1、wp2を、ワールド座標系からビュー座標系上の座標vp1、vp2へ変換する。その後、ビュー座標系からスクリーン座標系上の点sp1、sp2へ変換する。この際、クライアント装置120は、撮像画像上の点sp1とsp2との距離を計算し、計算した距離に基づいて、ワールド座標系上の点wp2に存在する被写体を検出した際のサイズを計算することができる。
In the present embodiment, the
FIG. 11 is a diagram illustrating an example of a positional relationship between an object and an imaging apparatus. The shooting environment in FIG. 11 shows a shooting environment in which the
本実施形態では、予測部325は、初めて図4の処理を行う際、以下の処理を行う。撮像装置110は、オブジェクト1101が存在する場所を変えながら図11の撮影環境を撮影し、図11の撮影環境の撮影画像を複数パターン用意する。予測部325は、撮像装置110により撮影された複数パターンの撮影画像それぞれについて、オブジェクト1101のサイズを求める。そして、予測部325は、求めたサイズに基づいて、撮影画像中で任意の方向に映るオブジェクトの検出領域のサイズの予測値を生成する。これにより、予測部325は、オブジェクトの検出処理の実行前に、オブジェクトの検出領域のサイズの予測値を生成することができる。
本実施形態では、予測部325は、初めて図2の処理が行われる際にのみ、予測値を生成するとしたが、動的に予測値の更新を行ってもよい。
また、本実施形態では、実施形態1同様、予測部325は、使用する球面調和関数の基底を位数mが0の物に限定する。しかしながら予測部325は、実施形態2と同様に、動的に制限を解除してもよい。
In the present embodiment, the
In the present embodiment, the
In the present embodiment, as in the first embodiment, the
以上、本実施形態では、予測部325は、撮像装置110の設置位置に基づいて、撮像装置110により撮影された撮影画像中のオブジェクトの検出領域のサイズの予測値を生成することとした。これにより、クライアント装置120は、撮像装置110に対するオブジェクトの方向でなく、撮像装置110の位置に基づいて、オブジェクトの検出領域のサイズの予測値を生成できる。
As described above, in the present embodiment, the
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
例えば、上述した検出システムの機能構成の一部又は全てをハードウェアとして撮像装置110又はクライアント装置120に実装してもよい。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した各実施形態を任意に組み合わせてもよい。
For example, a part or all of the functional configuration of the above-described detection system may be implemented in the
As mentioned above, although preferable embodiment of this invention was explained in full detail, this invention is not limited to the specific embodiment which concerns. You may combine each embodiment mentioned above arbitrarily.
110 撮像装置
120 クライアント装置
221 CPU
110
Claims (11)
前記検出手段により検出されたオブジェクトの特徴量と、前記撮像手段に対する前記オブジェクトの方向と、に基づいて、前記検出手段による前記オブジェクトの検出の結果を評価する評価手段と、
を有する情報処理装置。 Detecting means for detecting an object from a photographed image photographed by the imaging means;
Evaluation means for evaluating the detection result of the object by the detection means based on the feature amount of the object detected by the detection means and the direction of the object with respect to the imaging means;
An information processing apparatus.
前記評価手段は、前記特徴量と、前記生成手段により生成された前記方向に応じた前記予測値と、に基づいて、前記検出手段による前記オブジェクトの検出の結果を評価する請求項4記載の情報処理装置。 Further comprising generating means for generating the predicted value;
The information according to claim 4, wherein the evaluation unit evaluates a detection result of the object by the detection unit based on the feature amount and the predicted value corresponding to the direction generated by the generation unit. Processing equipment.
撮像手段により撮影された撮影画像からオブジェクトを検出する検出ステップと、
前記検出ステップで検出されたオブジェクトの特徴量と、前記撮像手段に対する前記オブジェクトの方向と、に基づいて、前記検出ステップでの前記オブジェクトの検出の結果を評価する評価ステップと、
を含む情報処理方法。 An information processing method executed by an information processing apparatus,
A detection step of detecting an object from a captured image captured by the imaging means;
An evaluation step for evaluating a result of detection of the object in the detection step based on a feature amount of the object detected in the detection step and a direction of the object with respect to the imaging unit;
An information processing method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017033639A JP2018139058A (en) | 2017-02-24 | 2017-02-24 | Information processor and information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017033639A JP2018139058A (en) | 2017-02-24 | 2017-02-24 | Information processor and information processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018139058A true JP2018139058A (en) | 2018-09-06 |
JP2018139058A5 JP2018139058A5 (en) | 2020-04-02 |
Family
ID=63450854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017033639A Withdrawn JP2018139058A (en) | 2017-02-24 | 2017-02-24 | Information processor and information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018139058A (en) |
-
2017
- 2017-02-24 JP JP2017033639A patent/JP2018139058A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6687204B2 (en) | Projection image generation method and apparatus, and mapping method between image pixels and depth values | |
JP6115335B2 (en) | Information processing apparatus, information processing method, and program | |
JP6755713B2 (en) | Tracking device, tracking method and program | |
CN109211277B (en) | State determination method and device of visual inertial odometer and electronic equipment | |
JP6793151B2 (en) | Object tracking device, object tracking method and object tracking program | |
WO2011013299A1 (en) | Mobile body detection apparatus and mobile body detection method | |
JP2018522348A (en) | Method and system for estimating the three-dimensional posture of a sensor | |
JP7272024B2 (en) | Object tracking device, monitoring system and object tracking method | |
US9295141B2 (en) | Identification device, method and computer program product | |
JPWO2013111229A1 (en) | Camera calibration apparatus, camera calibration method, and camera calibration program | |
JP7059054B2 (en) | Image processing equipment, image processing methods and programs | |
JP6526955B2 (en) | Sensor information integration method and device thereof | |
US20190079158A1 (en) | 4d camera tracking and optical stabilization | |
EP2372652B1 (en) | Method for estimating a plane in a range image and range image camera | |
JP2020024142A (en) | Measurement calibration device, measurement calibration method and program | |
JP2013242728A (en) | Image monitoring device | |
WO2019093457A1 (en) | Information processing device, information processing method and program | |
JP7280385B2 (en) | Visual positioning method and related apparatus, equipment and computer readable storage medium | |
JP2019211337A (en) | Information processor, system, method for processing information, and program | |
JP2008146583A (en) | Attitude detector and behavior detector | |
JP2008148237A (en) | Posture detecting device | |
CN109754419B (en) | Position estimation system | |
JP6525934B2 (en) | Image processing apparatus and control method | |
JP6625654B2 (en) | Projection device, projection method, and program | |
JP2018139058A (en) | Information processor and information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200219 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200219 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20200708 |