JP2021174537A - Image processing device, image processing method, and machine-readable storage medium - Google Patents

Image processing device, image processing method, and machine-readable storage medium Download PDF

Info

Publication number
JP2021174537A
JP2021174537A JP2021063377A JP2021063377A JP2021174537A JP 2021174537 A JP2021174537 A JP 2021174537A JP 2021063377 A JP2021063377 A JP 2021063377A JP 2021063377 A JP2021063377 A JP 2021063377A JP 2021174537 A JP2021174537 A JP 2021174537A
Authority
JP
Japan
Prior art keywords
model
objects
image processing
key point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021063377A
Other languages
Japanese (ja)
Inventor
斐 李
Bi Yi
ヤン・ジン
Jing Yang
リィウ・ルゥジエ
Rujie Liu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202010349099.1A external-priority patent/CN113569591B/en
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2021174537A publication Critical patent/JP2021174537A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches

Abstract

To provide an image processing device, an image processing method, and a machine-readable storage medium.SOLUTION: An image processing device includes a detection unit configured to detect 2D key points relating to a plurality of objects in an area including the plurality of objects in an image, in which the objects partially overlap with each other; a candidate key point set selection unit configured to select a candidate key point set for one object of the plurality of objects from the 2D key points; an estimation unit configured to estimate 3D models of the one object based on the candidate key point set; a 3D model selection unit configured to select an optimized 3D model from among the estimated 3D models; and an acquisition unit configured to project the optimized 3D model onto a plane of the image to obtain the one object separated.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理の技術分野に関し、特に、対象分離のための画像処理装置、画像処理方法及びマシン可読記憶媒体に関する。 The present invention relates to the technical field of image processing, and more particularly to an image processing apparatus for object separation, an image processing method, and a machine-readable storage medium.

ビデオ又は画像における対象(例えば、人間の手、人体など)に対しての分析がコンピュータビジョン分野の重要なタスクの1つである。ビデオ又は画像の中の複数の対象が互いにオーバーラップする場合が多いため、対象分離のタスクは非常に困難であり、また、分析結果に影響を与えることもある。 Analysis of objects in video or images (eg, human hand, human body, etc.) is one of the important tasks in the field of computer vision. The task of object separation is very difficult and can affect the results of the analysis, as multiple objects in a video or image often overlap each other.

例えば、手部動作分析では、良く用いられている方法の1つとして、まず、ビデオフレームにおける各々の手の位置及び姿勢情報、例えば、セグメンテーション(分割)領域、手部キーポイントなどを取得し、その後、特徴や設計ルールを取得して動作の分類を行うことがある。しかし、多くの実際の応用では、分析待ちの動作は2つの手で連携して完成する必要がある。よって、キャプチャされたビデオフレームにおいて2つの手が互いにオーバーラップすることが多いから、手部の分離が難しくなり、両手の対応する領域を正確且つ完全にセグメンテーションすることができたとしても、手部の分離は依然として困難である。 For example, in hand motion analysis, as one of the commonly used methods, first, the position and posture information of each hand in a video frame, for example, a segmentation area, a hand key point, etc. are acquired. After that, features and design rules may be acquired to classify the operation. However, in many practical applications, the operation waiting for analysis needs to be completed in cooperation with two hands. Therefore, in the captured video frame, the two hands often overlap each other, which makes it difficult to separate the hands, and even if the corresponding areas of both hands can be accurately and completely segmented, the hands Is still difficult to separate.

従来の方法では、手部キーポイント情報を用いてこのような問題の解決を試みた。“下(底)から上へ”の思想に基づいて、これらの方法は、まず、手部領域中のキーポイントを検出し、その後、幾つかのポリシーに従って各々の手の対応するキーポイントを1組に分けるのである。一般的に言えば、キーポイントの検出結果が比較的正確なものであるが、2つの手の外観が非常に類似しているので、どのようなポリシーを採用してもキーポイント分けの結果は満足のいくものではなく、言い換えれば、画像の中の2つの手をうまく分離することができない。 In the conventional method, an attempt was made to solve such a problem by using the hand key point information. Based on the idea of "bottom (bottom) to top", these methods first detect keypoints in the hand area and then 1 corresponding keypoints for each hand according to some policies. Divide into groups. Generally speaking, the keypoint detection results are relatively accurate, but the appearance of the two hands is so similar that no matter what policy is adopted, the keypoint division results will be. It's unsatisfactory, in other words, it doesn't separate the two hands in the image well.

よって、如何に複数の対象を含む画像において或る対象を正確に分離するか、例えば、複数の人間の手を含む画像において1つの手を正確に分離するかは、この分野で重要な研究課題の一つである。 Therefore, how to accurately separate an object in an image containing a plurality of objects, for example, how to accurately separate one hand in an image containing a plurality of human hands is an important research subject in this field. one of.

本発明の目的は、複数の対象を含む画像において1つの対象を分離し得る画像処理装置、画像処理方法及びマシン可読記憶媒体を提供することにある。 An object of the present invention is to provide an image processing apparatus, an image processing method, and a machine-readable storage medium capable of separating one object in an image containing a plurality of objects.

本発明の一側面によれば、画像処理装置が提供され、それは、
画像中の複数の対象を含む領域において前記複数の対象に関する2次元2Dキーポイントを検出する検出ユニットであって、そのうち、前記複数の対象は一部オーバーラップする、もの;
前記2Dキーポイントのうちから前記複数の対象のうちの1つの対象についての候補キーポイントセットを選択する候補キーポイントセット選択ユニット;
前記候補キーポイントセットに基づいて前記1つの対象の3次元3Dモデルを推定する推定ユニット;
推定された3Dモデルのうちから最適化3Dモデルを選択する3Dモデル選択ユニット;及び
前記最適化3Dモデルを前記画像の平面に投影することで、分離された前記1つの対象を得る取得ユニットを含む。
According to one aspect of the invention, an image processing apparatus is provided, which
A detection unit that detects two-dimensional 2D key points related to the plurality of objects in a region including a plurality of objects in an image, of which the plurality of objects partially overlap;
Candidate key point set selection unit that selects a candidate key point set for one of the plurality of objects from the 2D key points;
An estimation unit that estimates a 3D model of the one object based on the candidate key point set;
A 3D model selection unit that selects an optimized 3D model from among the estimated 3D models; and an acquisition unit that obtains the one object separated by projecting the optimized 3D model onto the plane of the image. ..

本発明の他の側面によれば、画像処理方法が提供され、それは、
画像中の複数の対象を含む領域において前記複数の対象に関する2次元2Dキーポイントを検出するステップであって、そのうち、前記複数の対象は一部オーバーラップする、ステップ;
前記2Dキーポイントのうちから前記複数の対象のうちの1つの対象についての候補キーポイントセットを選択するステップ;
前記候補キーポイントセットに基づいて、前記1つの対象の3次元3Dモデルを推定すするステップ;
推定された3Dモデルのうちから最適化3Dモデルを選択するステップ;及び
前記最適化3Dモデルを前記画像の平面に投影することで、分離された前記1つの対象を得るステップを含む。
According to another aspect of the invention, an image processing method is provided, which is:
A step of detecting a two-dimensional 2D key point relating to the plurality of objects in a region including a plurality of objects in an image, wherein the plurality of objects partially overlap.
A step of selecting a candidate key point set for one of the plurality of objects from the 2D key points;
A step of estimating a 3D 3D model of the one object based on the candidate key point set;
It includes a step of selecting an optimized 3D model from the estimated 3D models; and a step of projecting the optimized 3D model onto the plane of the image to obtain the one object separated.

本発明の他の側面によれば、マシン可読記憶媒体が提供され、その中には、マシン可読指令コードが記憶されているプログラムプロダクトがキャリー(carry)され、そのうち、前記指令コードは、コンピュータにより読み取られて実行されるときに、前記コンピュータに、本発明による画像処理方法を実現させることができる。 According to another aspect of the present invention, a machine-readable storage medium is provided, in which a program product in which a machine-readable command code is stored is carried, in which the command code is stored by a computer. When read and executed, the computer can realize the image processing method according to the present invention.

本発明による画像処理装置、画像処理方法及びマシン可読記憶媒体により、画像に含まれる複数の対象のうちの1つの対象に対して3Dモデルを構築することで複数の対象を含む画像のうちからこの1つの対象を分離することができる。 By constructing a 3D model for one of a plurality of objects included in an image by using the image processing apparatus, the image processing method, and the machine-readable storage medium according to the present invention, the image including the plurality of objects can be selected. One object can be separated.

本発明の実施例に係る画像処理装置の構成のブロック図である。It is a block diagram of the structure of the image processing apparatus which concerns on embodiment of this invention. 本発明の他の実施例に係る画像処理装置の構成のブロック図である。It is a block diagram of the structure of the image processing apparatus which concerns on other Examples of this invention. 本発明の実施例に係る画像処理装置における3Dモデル選択ユニットの構成のブロック図である。It is a block diagram of the structure of the 3D model selection unit in the image processing apparatus which concerns on embodiment of this invention. 本発明の他の実施例に係る画像処理装置の構成のブロック図である。It is a block diagram of the structure of the image processing apparatus which concerns on other Examples of this invention. 本発明の実施例に係る画像処理方法のフローチャートである。It is a flowchart of the image processing method which concerns on embodiment of this invention. 本発明の他の実施例に係る画像処理方法のフローチャートである。It is a flowchart of the image processing method which concerns on other Examples of this invention. 本発明の実施例に係る画像処理装置及び方法を実現し得る汎用パソコンの例示的な構成のブロック図である。It is a block diagram of an exemplary configuration of a general-purpose personal computer that can realize the image processing apparatus and method according to the embodiment of the present invention.

以下、添付した図面を参照しながら、本発明を実施するための好適な形態を詳細に説明する。なお、このような実施形態は、例示に過ぎず、本発明を限定するものでない。 Hereinafter, preferred embodiments for carrying out the present invention will be described in detail with reference to the attached drawings. It should be noted that such an embodiment is merely an example and does not limit the present invention.

また、本文に言及されている対象は通常、複数の関節部位を有し、且つ複数の関節部位は柔軟な相対運動を行うことで、異なる姿勢を形成することができる。具体的には、対象は、人間の手部、人体などである。例えば、人間の1つの手について言えば、複数の関節部位は中手指節関節、指節間関節、放射手根関節などを含んでも良い。また、例えば、人体について言えば、複数の関節部位は人体の肩関節、肘関節、手首関節、股関節、膝関節、足首関節などを含んでも良い。また、本文に言及されているキーポイントは通常、上述の複数の関節部位に対応するが、キーポイントは対象のすべての複数の関節部位のうちの全部又は一部に対応しても良い。また、キーポイントはビデオフレーム又は画像において2Dキーポイントと称されても良い。対象の2Dキーポイントにより対象の3Dモデルを構築することができ、そのうち、3Dモデルは対象の複数の関節部位の空間における相対位置により限定することができる。また、キーポイントは3Dモデルにおいて3Dキーポイントと称されても良い。 In addition, the subject referred to in the text usually has a plurality of joint parts, and the plurality of joint parts can form different postures by performing flexible relative movements. Specifically, the target is a human hand, a human body, or the like. For example, with respect to one human hand, the plurality of joint sites may include a metacarpophalangeal joint, an interphalangeal joint, a radial carpal joint, and the like. Further, for example, with respect to the human body, the plurality of joint parts may include a shoulder joint, an elbow joint, a wrist joint, a hip joint, a knee joint, an ankle joint, and the like of the human body. Also, the key points mentioned in the text usually correspond to the plurality of joint parts described above, but the key points may correspond to all or a part of all the plurality of joint parts of interest. Also, keypoints may be referred to as 2D keypoints in video frames or images. The 3D model of the target can be constructed by the 2D key points of the target, and the 3D model can be limited by the relative positions of the plurality of joint parts of the target in space. Further, the key point may be referred to as a 3D key point in the 3D model.

以下、図1を参照しながら、本発明の実施例に係る画像処理装置が如何に複数の対象を含む画像において1つの対象を分離するかを説明する。 Hereinafter, with reference to FIG. 1, how the image processing apparatus according to the embodiment of the present invention separates one object in an image including a plurality of objects will be described.

図1は、本発明の実施例に係る画像処理装置100の構成のブロック図である。図1に示すように、本発明の実施例に係る画像処理装置100は検出ユニット110、候補キーポイントセット選択ユニット120、推定ユニット130、3Dモデル選択ユニット140及び取得ユニット150を含んでも良い。 FIG. 1 is a block diagram of the configuration of the image processing apparatus 100 according to the embodiment of the present invention. As shown in FIG. 1, the image processing apparatus 100 according to the embodiment of the present invention may include a detection unit 110, a candidate key point set selection unit 120, an estimation unit 130, a 3D model selection unit 140, and an acquisition unit 150.

検出ユニット110は、画像中の複数の対象を含む領域において複数の対象に関する2Dキーポイントを検出することができる。画像では、複数の対象が一部互いにオーバーラップする。ここで、複数の対象が一部互いにオーバーラップするとは、画像中の分離する必要のある複数の対象のうちの各々の対象と、他の対象のうちの少なくとも1つとが一部互いにオーバーラップすることを指す。 The detection unit 110 can detect 2D key points relating to a plurality of objects in a region including the plurality of objects in the image. In the image, multiple objects partially overlap each other. Here, when a plurality of objects partially overlap each other, each object of the plurality of objects that need to be separated in the image and at least one of the other objects partially overlap each other. Point to that.

さらに、候補キーポイントセット選択ユニット120は、2Dキーポイントから複数の対象のうちの1つの対象についての候補キーポイントセットを選択することができる。ここで、候補キーポイントセットは、特定対象の3Dモデルを推定することができる2Dキーポイントの集合を指示する。 Further, the candidate key point set selection unit 120 can select a candidate key point set for one of a plurality of targets from the 2D key points. Here, the candidate key point set indicates a set of 2D key points that can estimate a 3D model of a specific target.

さらに、推定ユニット130は、候補キーポイントセットに基づいて、該1つの対象の3Dモデルを推定することができる。 Further, the estimation unit 130 can estimate the 3D model of the one object based on the candidate key point set.

さらに、3Dモデル選択ユニット140は、推定された3Dモデルのうちから最適化3Dモデルを選択することができる。 Further, the 3D model selection unit 140 can select an optimized 3D model from the estimated 3D models.

さらに、取得ユニット150は、最適化3Dモデルを画像の平面に投影して、分離された該1つの対象を得ることができる。 In addition, the acquisition unit 150 can project the optimized 3D model onto the plane of the image to obtain the one object separated.

これにより、本発明の実施例に係る画像処理装置100は、画像に含まれる複数の対象のうちの1つの対象に対して3Dモデルを構築することで、複数の対象を含む画像において該1つの対象を分離することができる。 As a result, the image processing apparatus 100 according to the embodiment of the present invention constructs a 3D model for one object among the plurality of objects included in the image, thereby forming the one object in the image including the plurality of objects. The object can be separated.

好ましくは、検出ユニット110は深層学習の方法により複数の対象の2Dキーポイントを検出するができ、また、候補キーポイントセット選択ユニット120は深層学習の検出結果に基づいて候補キーポイントセットのための2Dキーポイントを選択することができる。例えば、ニューラルネットワークが出力したヒートマップに基づいて対象の各キーポイントの位置を確定することができる。また、画像中の複数の対象が一部互いにオーバーラップするので、複数の対象のキーポイントも互いにオーバーラップする可能性があり、言い換えれば、或る位置のキーポイントが複数の対象に属する場合がある。よって、対象のキーポイントを適切に選択することで、該対象の候補キーポイントセットを生成する必要がある。例えば、2つの対象を分離するときに、或る位置の2Dキーポイントについて、複数の対象を含む領域全体に2つの検出結果があれば、そのうちの任意の1つを生成された集合に入れることができ;1つのみの検出結果があれば、それを生成された集合に入れることができるが、入れなくても良く;検出結果が無ければ、生成された集合には対応位置のキーポイントが含まれてない。 Preferably, the detection unit 110 can detect a plurality of target 2D key points by a method of deep learning, and the candidate key point set selection unit 120 is for a candidate key point set based on the detection result of deep learning. 2D key points can be selected. For example, the position of each target key point can be determined based on the heat map output by the neural network. Also, since a plurality of objects in the image partially overlap each other, the key points of the plurality of objects may also overlap each other, in other words, the key point at a certain position may belong to the plurality of objects. be. Therefore, it is necessary to generate the target candidate key point set by appropriately selecting the target key point. For example, when separating two objects, if there are two detection results in the entire area containing multiple objects for a 2D key point at a certain position, any one of them should be included in the generated set. If there is only one detection result, it can be included in the generated set, but it is not necessary to include it; if there is no detection result, the generated set has the key point of the corresponding position. Not included.

また、候補キーポイントセット選択ユニット120はさらに、該1つの対象に関する幾何制約を用いて候補キーポイントセットの数を減少させることができる。これにより、不合理な候補キーポイントセットを削除し、分離する必要のある対象についての候補キーポイントセットの数を効率的に減少させることができる。 In addition, the candidate key point set selection unit 120 can further reduce the number of candidate key point sets by using geometric constraints on the one object. This makes it possible to remove irrational candidate keypoint sets and effectively reduce the number of candidate keypoint sets for objects that need to be separated.

好ましくは、推定ユニット130は、該1つの対象に関して事前定義された汎用モデルを用いて、ニューラルネットワークにより深度学習を行うことで又は最適化することで3Dモデルを推定することができる。該処理は、従来の方法により実現することができる。具体的には、対象は、形状パラメータ及び姿勢パラメータにより表現することができる。3Dモデルは、事先定義された汎用モデル及び具体的なモデルに対応する形状パラメータ及び姿勢パラメータによりモデリング化し、その後、カメラパラメータに基づいてビデオフレーム又は画像に投影することができる。なお、上述のすべてのパラメータは、深度学習の方法に基づいて計算することにより得ることができ、最適化問題を解くことにより取得することもできる。対象の候補キーポイントセットに基づいてすべてのパラメータの値を推定した後に、対応する3Dモデルを構築することができる。 Preferably, the estimation unit 130 can estimate the 3D model by performing deep learning with a neural network or by optimizing using a general-purpose model predefined for the one object. The process can be realized by a conventional method. Specifically, the object can be represented by a shape parameter and a posture parameter. The 3D model can be modeled with shape and orientation parameters corresponding to the pre-defined general purpose model and the concrete model, and then projected onto a video frame or image based on the camera parameters. All the above parameters can be obtained by calculating based on the method of deep learning, and can also be obtained by solving the optimization problem. After estimating the values of all parameters based on the candidate key point set of interest, the corresponding 3D model can be constructed.

好ましくは、図2に示すように、本発明の他の実施例に係る画像処理装置200はさらにセグメンテーションユニット260を含んでも良い。図2に示す検出ユニット210、候補キーポイントセット選択ユニット220、推定ユニット230、3Dモデル選択ユニット240及び取得ユニット250は、図1に示す検出ユニット110、候補キーポイントセット選択ユニット120、推定ユニット130、3Dモデル選択ユニット140及び取得ユニット150に対する。よって、ここではその詳しい説明を省略する。 Preferably, as shown in FIG. 2, the image processing apparatus 200 according to another embodiment of the present invention may further include a segmentation unit 260. The detection unit 210, the candidate key point set selection unit 220, the estimation unit 230, the 3D model selection unit 240, and the acquisition unit 250 shown in FIG. 2 are the detection unit 110, the candidate key point set selection unit 120, and the estimation unit 130 shown in FIG. For 3D model selection unit 140 and acquisition unit 150. Therefore, the detailed description thereof will be omitted here.

セグメンテーションユニット260は、ビデオ中の各フレーム、即ち、画像について、その中の複数の対象を含む領域をセグメンテーションすることができる。異なる方法により複数の対象を含む領域のセグメンテーションを実現することができる。例えば、セグメンテーションユニット260は、深層学習の方法により、画像において複数の対象を含む領域をセグメンテーションすることができる。代替として、セグメンテーションユニット260は、他の方法により、複数の対象を含む領域をセグメンテーションすることができ、例えば、画像中の複数の対象を含む部分の色特徴に基づいてセグメンテーションすることができる。 The segmentation unit 260 can segment each frame in the video, that is, an area containing a plurality of objects in the image. Segmentation of an area containing a plurality of objects can be realized by different methods. For example, the segmentation unit 260 can segment a region containing a plurality of objects in an image by a method of deep learning. Alternatively, the segmentation unit 260 can segment the region containing the plurality of objects by other methods, for example, based on the color characteristics of the portion containing the plurality of objects in the image.

例えば、ビデオ中の各フレームに対してその中の手部領域をセグメンテーションするときに、入力されたビデオフレームの中の主なシーンが人間の手部であれば、ビデオフレームにおいて皮膚の色を有する領域を直接見つけることで手部領域セグメンテーションのタスクを完了することができ、また、より複雑なシーンの場合、手部領域セグメンテーションは、深層学習の方法を採用して実現することができる。 For example, when segmenting the hand region within each frame in the video, if the main scene in the input video frame is the human hand, then the video frame will have skin color. The task of hand region segmentation can be completed by directly finding the region, and for more complex scenes, hand region segmentation can be achieved by adopting a method of deep learning.

続いて、セグメンテーションユニット260は、セグメンテーションされた複数の対象を含む領域を検出ユニット210に提供して2次元キーポイントを検出してもらうことができる。 Subsequently, the segmentation unit 260 can provide the detection unit 210 with an area including a plurality of segmented objects so that the two-dimensional key point can be detected.

これにより、本発明の実施例に係る画像処理装置200は、分離する必要のある複数の対象のみを含む領域を抽出することで、複数の対象の2Dキーポイントをより正確に検出することができる。これは、複数の対象を含む画像から1つの対象を分離するに役立つことができる。 Thereby, the image processing apparatus 200 according to the embodiment of the present invention can more accurately detect the 2D key points of the plurality of objects by extracting the area including only the plurality of objects that need to be separated. .. This can help separate one object from an image that contains multiple objects.

好適な例として、図3は、本発明の実施例に係る画像処理装置における3Dモデル選択ユニットの構成を示している。図3に示す3Dモデル選択ユニット300は、図1に示す3Dモデル選択ユニット140及び図2に示す3Dモデル選択ユニット240に対応する。図3に示すように、3Dモデル選択ユニット300は、第一選択ユニット310及び第二選択ユニット320を含み得る。 As a preferred example, FIG. 3 shows the configuration of a 3D model selection unit in the image processing apparatus according to the embodiment of the present invention. The 3D model selection unit 300 shown in FIG. 3 corresponds to the 3D model selection unit 140 shown in FIG. 1 and the 3D model selection unit 240 shown in FIG. As shown in FIG. 3, the 3D model selection unit 300 may include a first selection unit 310 and a second selection unit 320.

第一選択ユニット310は、分離する必要のある該1つの対象に関する幾何制約により、推定された3Dモデルの数を減少させることができる。具体的には、第一選択ユニット310は、各3Dモデルについて、幾つかの幾何制約を用いて該モデルが合理的であるかを判断することができる。その後、第一選択ユニット310は、3Dモデルのうち不合理な3Dモデルを削除することができる。 The first choice unit 310 can reduce the estimated number of 3D models due to geometric constraints on the one object that needs to be separated. Specifically, the first choice unit 310 can use some geometric constraints on each 3D model to determine if the model is reasonable. After that, the first selection unit 310 can delete an irrational 3D model among the 3D models.

さらに、第二選択ユニット310は、次のようなものうちの少なくとも1つに基づいて、推定された3Dモデルの有効性スコアを計算することができ、即ち、1)候補キーポイントセットの中の2Dキーポイントと、3Dモデルの中の対応する3Dキーポイントとの画像の平面上の投影位置の間の距離;及び2)推定された3Dモデルの画像の平面における投影と、複数の対象を含む領域とのオーバーラップ面積である。 In addition, the second-choice unit 310 can calculate the estimated effectiveness score of the 3D model based on at least one of the following, i.e. 1) in the candidate keypoint set. The distance between the 2D keypoint and the corresponding 3D keypoint in the 3D model at the projection position on the plane of the image; and 2) the projection of the estimated 3D model image on the plane and multiple objects. The area of overlap with the area.

これにより、本発明の実施例に係る3Dモデル選択ユニット300は、推定された3Dモデルのうちから最適化3Dモデルを選択することができる。 Thereby, the 3D model selection unit 300 according to the embodiment of the present invention can select the optimized 3D model from the estimated 3D models.

本発明の技術案をより良く理解するために、以下、本発明の画像処理装置についてより詳しく説明する。 In order to better understand the technical proposal of the present invention, the image processing apparatus of the present invention will be described in more detail below.

ここで、画像中の人間の2つの手の分離を好適的な実施例として、検出ユニット110及び210、候補キーポイントセット選択ユニット120及び220、推定ユニット130及び230、3Dモデル選択ユニット140、240及び300、並びに取得ユニット150及び250により実行され得る処理を詳細に説明する。なお、便宜のため、以下の説明では、検出ユニット110、候補キーポイントセット選択ユニット120、推定ユニット130、3Dモデル選択ユニット140及び取得ユニット150のみを用いる可能性がある。また、理解すべきは、これらの処理は同様に、検出ユニット210、候補キーポイントセット選択ユニット220、推定ユニット230、3Dモデル選択ユニット240及び300、並びに取得ユニット250に適用することができる。 Here, the separation of the two human hands in the image is a preferred embodiment, the detection units 110 and 210, the candidate key point set selection units 120 and 220, the estimation units 130 and 230, and the 3D model selection units 140, 240. And 300, and the processing that can be performed by the acquisition units 150 and 250 will be described in detail. For convenience, in the following description, only the detection unit 110, the candidate key point set selection unit 120, the estimation unit 130, the 3D model selection unit 140, and the acquisition unit 150 may be used. Also, it should be understood that these processes can be similarly applied to the detection unit 210, the candidate key point set selection unit 220, the estimation unit 230, the 3D model selection units 240 and 300, and the acquisition unit 250.

まず、検出ユニット110は、画像の中の手部分割(セグメンテーション)領域において、2つの手に関する2Dキーポイントを検出し、そして、検出した2Dキーポイントを候補キーポイントセット選択ユニット120に送信することができる。2D手部キーポイントの検出は、通常、深層学習の方法を採用して、ニューラルネットワークが出力したヒートマップに基づいて、手部の各キーポイントの位置を確定することもできる。手部セグメンテーション領域に2つの手が存在する場合、各キーポイントについて、最大で2つの検出結果を得ることができる。 First, the detection unit 110 detects 2D key points for two hands in the hand segmentation region in the image, and transmits the detected 2D key points to the candidate key point set selection unit 120. Can be done. For the detection of 2D hand key points, a deep learning method is usually adopted, and the position of each key point of the hand can be determined based on the heat map output by the neural network. When there are two hands in the hand segmentation area, a maximum of two detection results can be obtained for each key point.

その後、候補キーポイントセット選択ユニット120は、同じ手に対応する候補キーポイントセットを生成する。手部の或る位置のキーポイントについて、手部セグメンテーション領域全体に2つの検出結果がある場合、その中の任意の1つを生成された集合に入れることができ;1つのみの検出結果がある場合、それを生成された集合に入れることができるが、入れなくても良く;検出結果が無い場合、生成された集合には、対応位置のキーポイントが含まれない。 After that, the candidate key point set selection unit 120 generates a candidate key point set corresponding to the same hand. If there are two detection results in the entire hand segmentation area for a key point at a certain position on the hand, any one of them can be included in the generated set; only one detection result In some cases, it can be included in the generated set, but it is not necessary; if there is no detection result, the generated set does not include the key points of the corresponding positions.

よって、もし、予め各々の手のために定義されたキーポイントがトータルでN個ある場合、生成された、同じ手に対応する候補キーポイントセットには、最大でN個のキーポイント検出結果が含まれる。また、各集合に含まれるキーポイント検出結果の数の最小値を限定することで、次のステップで3D手部モデルの推定を正確に行うことができる。さらに、手部の幾何制約に基づいて不合理なキーポイント集合を除去することができ、例えば、2Dキーポイントに基づいて記述(表現)される各手指が1つのみの方向に弯曲するなどの制約を使用することができる。 Therefore, if there are a total of N keypoints defined in advance for each hand, the generated candidate keypoint set corresponding to the same hand will contain a maximum of N keypoint detection results. included. Further, by limiting the minimum value of the number of key point detection results included in each set, the 3D hand model can be accurately estimated in the next step. Furthermore, an irrational set of key points can be removed based on the geometric constraints of the hand, for example, each finger described (represented) based on a 2D key point bends in only one direction. Constraints can be used.

これにより、候補キーポイントセット選択ユニット120は、同じ手に対応する候補キーポイントセットを取得し、そして、それを推定ユニット130に提供することができる。 Thereby, the candidate key point set selection unit 120 can acquire the candidate key point set corresponding to the same move and provide it to the estimation unit 130.

続いて、推定ユニット130は、与えられる1つの手部2D候補キーポイントセットに基づいて、対応する手部3Dモデルを推定することができる。1つの具体的な手部3Dモデルは、事先定義された汎用手部モデル及び具体的な手部モデルに対応する形状パラメータ及び姿勢パラメータに基づいて記述及びモデリング化を行うことができ、そして、カメラパラメータに基づいてビデオフレームに投影することができる。なお、上述のすべてのパラメータは、深層学習の方法により算出することができ、また、最適化問題を解くことにより得ることもできる。手部2次元キーポイントセットに基づいてすべてのパラメータの値を推定した後に、対応する手部3Dモデルを構築することができ、そして、N個の手部3Dキーポイントの位置を計算することができる。 Subsequently, the estimation unit 130 can estimate the corresponding hand 3D model based on one given hand 2D candidate key point set. One concrete hand 3D model can be described and modeled based on the shape and orientation parameters corresponding to the pre-defined general hand model and the concrete hand model, and the camera. It can be projected onto a video frame based on the parameters. All the above parameters can be calculated by the method of deep learning, and can also be obtained by solving the optimization problem. After estimating the values of all parameters based on the hand 2D keypoint set, the corresponding hand 3D model can be constructed and the positions of N hand 3D keypoints can be calculated. can.

続いて、3Dモデル選択ユニット140は、推定された手部3Dモデルのうちから最適化3Dモデルを選択し、そして、最適化3Dモデルを取得ユニット150に提供することができる。 Subsequently, the 3D model selection unit 140 can select an optimized 3D model from the estimated hand 3D models and provide the optimized 3D model to the acquisition unit 150.

例えば、第一選択ユニット310は、幾つかの手部の幾何制約に基づいて、該モデルが合理的であるかを判断することができる。採用され得る制約は、次のようなものを含んでも良く、即ち、a)モデルが異なる部分の間に大きい範囲のオーバーラップが存在すべきでなく;b)同じ手指上の3次元キーポイントが同一平面に位置すべきであり;c)3次元キーポイントに基づいて記述される各手指が1つのみの方向に弯曲するなどである。 For example, the first choice unit 310 can determine if the model is reasonable based on some hand geometric constraints. The constraints that can be adopted may include the following: a) there should be no large range of overlap between different parts of the model; b) 3D key points on the same finger It should be co-planar; c) Each finger described based on a 3D keypoint bends in only one direction, and so on.

続いて、例えば、第二選択ユニット310は各合理的な手部3Dモデルのために1つの有効性スコアを定義し、該スコアは2つの側面の情報に基づいて算出され得る。一側面では、第二選択ユニット310は、各検出された2Dキーポイントと、その対応する3Dキーポイントとのビデオフレームにおける投影点の間の距離を計算し、すべての検出されたキーポイントに対応する上述の距離の平均値が小さいほど、3Dモデルの有効性スコアが高い。もう1つの側面では、第二選択ユニット310は、手部セグメンテーション領域全体及び3D手部モデルのビデオフレームにおける投影領域を比較し、理想的な場合、投影領域は手部セグメンテーション領域全体のサブセットであり、且つ投影領域と、手部セグメンテーション領域全体とは一部の境界が重なり合う。2つの領域のオーバーラップ面積が大きいほど、境界が長く、3Dモデルの有効性スコアが高い。最後には、第二選択ユニット310は、計算された有効性スコアに基づいて、最優的な3Dモデルを確定する。 Subsequently, for example, the second selection unit 310 may define one effectiveness score for each rational hand 3D model, which score can be calculated based on information from the two aspects. On one side, the second selection unit 310 calculates the distance between each detected 2D keypoint and its corresponding 3D keypoint and the projected point in the video frame and corresponds to all detected keypoints. The smaller the average value of the above-mentioned distances, the higher the effectiveness score of the 3D model. In another aspect, the second selection unit 310 compares the entire hand segmentation area with the projected area in the video frame of the 3D hand model, and ideally the projected area is a subset of the entire hand segmentation area. Moreover, a part of the boundary between the projection area and the entire hand segmentation area overlaps. The larger the overlapping area of the two regions, the longer the boundary and the higher the effectiveness score of the 3D model. Finally, the second choice unit 310 determines the best 3D model based on the calculated effectiveness score.

続いて、取得ユニット150は、最適化3Dモデルをビデオフレーム又は画像の平面に投影し、分離された1つの手を取得する。最適化3D手部モデルは、ビデオフレーム上の投影領域において1つの手に対応し、手部セグメンテーション領域全体の他の部分は、もう1つの手に対応する。このような方法により、ビデオフレーム又は画像における2つの手をうまく分離することができる。 The acquisition unit 150 then projects the optimized 3D model onto the plane of the video frame or image to acquire one separated hand. The optimized 3D hand model corresponds to one hand in the projected area on the video frame, and the other part of the entire hand segmentation area corresponds to the other hand. In such a way, the two hands in the video frame or image can be successfully separated.

これにより、本発明の実施例に係る画像処理装置によれば、手部分離には3Dモデルが導入されている。同様に、“下(底)から上へ”の思想に基づいて、まず、2つの手の対応領域の中のすべてのキーポイントを検出する。続いて、各々の同じ手に対応する候補キーポイントセットのために3次元手部モデルを構築し、且つ多くのモデルのうちから最適な1つを選択する。最優化3次元手部モデルは、ビデオフレーム上の投影領域において1つの手に対応し、手部領域全体の他の部分は、もう1つの手に対応する。3次元モデルにより提供される有効な情報を用いることで、より正確な手部分離結果を得ることができる。 As a result, according to the image processing apparatus according to the embodiment of the present invention, a 3D model has been introduced for hand separation. Similarly, based on the idea of "bottom (bottom) to top", first, all key points in the corresponding area of the two hands are detected. Subsequently, a three-dimensional hand model is constructed for the candidate key point set corresponding to each same hand, and the optimum one is selected from many models. The most dominant 3D hand model corresponds to one hand in the projected area on the video frame, and the other part of the entire hand area corresponds to the other hand. By using the valid information provided by the 3D model, more accurate hand separation results can be obtained.

なお、該実施例は、人間の2つの手の分離に係るものであるが、画像中の2つの人体の分離にも適用することができる。相違点は、両者のキーポイント位置、汎用モデルなどを具体的なケースに基づいて変換する必要があることにある。 Although the embodiment relates to the separation of two human hands, it can also be applied to the separation of two human bodies in an image. The difference is that it is necessary to convert the key point positions of both, the general-purpose model, etc. based on a specific case.

以下、図4を参照しながら、本発明の他の実施例に係る画像処理装置の構成を説明する。図4に示す画像処理装置400は、検出ユニット410、候補キーポイントセット選択ユニット420、推定ユニット430、3Dモデル選択ユニット440、取得ユニット450及び判定ユニット460を含む。検出ユニット410、候補キーポイントセット選択ユニット420、推定ユニット430、3Dモデル選択ユニット440及び取得ユニット450は、検出ユニット110及び210、候補キーポイントセット選択ユニット120及び220、推定ユニット130及び230、3Dモデル選択ユニット140、240及び300、並びに取得ユニット150及び250と類似した処理を実行する。そのため、ここではその詳しい説明を省略する。また、図4における画像処理装置400は、図2中のセグメンテーションユニット260と類似したセグメンテーションユニットを含んでも良い。 Hereinafter, the configuration of the image processing apparatus according to another embodiment of the present invention will be described with reference to FIG. The image processing device 400 shown in FIG. 4 includes a detection unit 410, a candidate key point set selection unit 420, an estimation unit 430, a 3D model selection unit 440, an acquisition unit 450, and a determination unit 460. The detection unit 410, the candidate key point set selection unit 420, the estimation unit 430, the 3D model selection unit 440 and the acquisition unit 450 are the detection units 110 and 210, the candidate key point set selection units 120 and 220, the estimation units 130 and 230, and 3D. Performs processing similar to model selection units 140, 240 and 300, and acquisition units 150 and 250. Therefore, the detailed description thereof will be omitted here. Further, the image processing device 400 in FIG. 4 may include a segmentation unit similar to the segmentation unit 260 in FIG.

図1中の画像処理装置100に関する説明のように、取得ユニット450は、複数の対象(n個の対象があるとする)を含む画像において1番目の対象を分離することができる。 As described with respect to the image processing apparatus 100 in FIG. 1, the acquisition unit 450 can separate the first object in an image including a plurality of objects (assuming there are n objects).

複数の対象の数nは次のように確定することができ、即ち、検出ユニット410が画像中の複数の対象に関する2Dキーポイントを検出するときに、異なるキーポイント位置について、検出されたキーポイントの数が最多の数を対象の数と確定する。例えば、画像に5つの人体があり、且つこの5つの人体の胴体が互いにブロッキングするが、頭部が互いにブロッキングしない場合、頭部位置に関する5つのキーポイントを検出することができる。この場合、検出された胴体の他の部位の位置に関するキーポイントの個数が5個よりも小さければ、画像にトータルで5つの対象があると確定することができる。代替として、予め、動作分析を行う必要のあるビデオフレーム又は画像中の対象の数を確定した場合、対象の数は人為的に指定することもできる。 The number n of the plurality of objects can be determined as follows, that is, when the detection unit 410 detects 2D key points for the plurality of objects in the image, the detected key points for different key point positions. The number with the largest number of is determined as the target number. For example, if there are five human bodies in the image and the torso of the five human bodies block each other, but the heads do not block each other, then five key points with respect to the head position can be detected. In this case, if the number of detected key points relating to the positions of other parts of the body is less than 5, it can be determined that there are a total of 5 objects in the image. Alternatively, if the number of objects in the video frame or image for which motion analysis needs to be performed is determined in advance, the number of objects can be artificially specified.

前の実施例に比べて、本実施例は、3つ又はより多くの対象の場合に関するものであるので、画像処理装置400は判定ユニット460をさらに含んでも良い。それは、画像中のすべての対象が分離されたかを判定することができる。判定ユニット460により、すべての対象が分離されてないと判定した場合、候補キーポイントセット選択ユニット420は、画像における2番目の対象について候補キーポイントセットを選択することができる。さらに、推定ユニット430は、2番目の対象の候補キーポイントセットに基づいて、2番目の対象の3Dモデルを推定することができ、且つ3Dモデル選択ユニット440は、推定された3Dモデルのうちから2番目の対象の最適化3Dモデルを選択することができる。 Since this embodiment relates to the case of three or more objects as compared to the previous embodiment, the image processing apparatus 400 may further include a determination unit 460. It can determine if all the objects in the image have been separated. When the determination unit 460 determines that all the objects are not separated, the candidate key point set selection unit 420 can select the candidate key point set for the second object in the image. Further, the estimation unit 430 can estimate the 3D model of the second target based on the candidate key point set of the second target, and the 3D model selection unit 440 can estimate the 3D model of the second target from among the estimated 3D models. An optimized 3D model of the second object can be selected.

その後、取得ユニット450は、2番目の対象の最適化3Dモデルの画像の平面上の投影と、複数の対象を含む領域から、分離された第一対象を除いた(差し引いた)後の部分との共通部分を得ることで、分離された2番目の対象を取得することができる。 After that, the acquisition unit 450 is projected on the plane of the image of the optimized 3D model of the second object, and the part after removing (subtracting) the separated first object from the region containing the plurality of objects. By obtaining the intersection of, the second separated object can be obtained.

これにより、画像においてさらに2番目の対象を分離することができる。 This allows the second object to be further separated in the image.

このような方法により、継続して画像から3番目の対象乃至n−1番目の対象を分離することができ、最後に、複数の対象を含む領域において残されたものはn番目の対象である。なお、取得ユニット450は、i番目の対象の最適化3Dモデルの画像の平面上の投影と、複数の対象を含む領域から、その前に分離されたi−1個の対象を除いた後の部分との共通部分を得ることで、分離されたi番目の対象を取得することができる。 By such a method, the third object to the n-1th object can be continuously separated from the image, and finally, what is left in the area containing the plurality of objects is the nth object. .. In addition, the acquisition unit 450 is after the projection of the image of the optimized 3D model of the i-th object on the plane and the i-1 object separated before the projection from the region including the plurality of objects. By obtaining the intersection with the part, the separated i-th object can be obtained.

これにより、本発明の実施例に係る画像処理装置400は、画像に含まれる複数の対象を一つずつ分離することができる。 Thereby, the image processing apparatus 400 according to the embodiment of the present invention can separate a plurality of objects included in the image one by one.

以下、図5を参照しながら、本発明の実施例に係る画像処理方法を説明する。 Hereinafter, the image processing method according to the embodiment of the present invention will be described with reference to FIG.

図5に示すように、本発明の実施例に係る画像処理方法はステップS110でスタートする。ステップS110では、画像中の複数の対象を含む領域において複数の対象に関する2次元2Dキーポイントを検出し、そのうち、複数の対象は一部互いにオーバーラップする。 As shown in FIG. 5, the image processing method according to the embodiment of the present invention starts in step S110. In step S110, two-dimensional 2D key points relating to a plurality of objects are detected in a region including the plurality of objects in the image, and the plurality of objects partially overlap each other.

続いて、ステップS120において、2Dキーポイントのうちから複数の対象のうちの1つの対象に関する候補キーポイントセットを選択する。 Subsequently, in step S120, a candidate key point set for one of the plurality of targets is selected from the 2D key points.

続いて、ステップS130において、候補キーポイントセットに基づいて、該1つの対象の3次元3Dモデルを推定する。 Subsequently, in step S130, a three-dimensional 3D model of the one object is estimated based on the candidate key point set.

続いて、ステップS140において、推定された3Dモデルのうちから最適化3Dモデルを選択する。 Subsequently, in step S140, the optimized 3D model is selected from the estimated 3D models.

続いて、ステップS150において、最適化3Dモデルを画像の平面に投影することで、分離された1つの対象を取得する。その後、プロセスを完了する。 Subsequently, in step S150, the optimized 3D model is projected onto the plane of the image to acquire one separated object. Then complete the process.

本発明の実施例によれば、該方法はさらに、深層学習の方法により、画像において複数の対象を含む領域をセグメンテーションすることを含んでも良い。 According to the examples of the present invention, the method may further include segmenting a region containing a plurality of objects in an image by a method of deep learning.

本発明の実施例によれば、深層学習の方法により、複数の対象の2Dキーポイントを検出することができる。 According to the embodiment of the present invention, the 2D key points of a plurality of objects can be detected by the method of deep learning.

本発明の実施例によれば、候補キーポイントセットの選択ステップは、深層学習の検出結果に基づいて、候補キーポイントセットのための2Dキーポイントを選択することを含む。 According to an embodiment of the present invention, the step of selecting a candidate key point set includes selecting a 2D key point for the candidate key point set based on the detection result of deep learning.

本発明の実施例によれば、候補キーポイントセットの選択ステップは、1つの対象に関する幾何制約を用いて、候補キーポイントセットの数を減少させることを含む。 According to an embodiment of the present invention, the step of selecting a candidate key point set involves reducing the number of candidate key point sets using geometric constraints on one object.

本発明の実施例によれば、3Dモデルの推定ステップは、1つの対象に関する事前定義の汎用モデルを用いて、ニューラルネットワークにより深層学習を行い又は最適化を行うことで、3Dモデルを推定することを含む。 According to the embodiment of the present invention, the estimation step of the 3D model is to estimate the 3D model by performing deep learning or optimization by a neural network using a predefined general-purpose model for one object. including.

本発明の実施例によれば、最適化3Dモデルの選択ステップは、1つの対象に関する幾何制約を用いて、推定された3Dモデルの数を減少させることを含む。 According to an embodiment of the present invention, the step of selecting an optimized 3D model involves reducing the estimated number of 3D models using geometric constraints on one object.

本発明の実施例によれば、最適化3Dモデルの選択ステップは、次のようなものうちの少なくとも1つに基づいて、推定された3Dモデルの有効性スコアを計算することを含み、即ち、1)候補キーポイントセットの中の2Dキーポイントと、3Dモデルの中の対応する3Dキーポイントとの画像の平面の投影位置の間の距離;及び、2)推定された3Dモデルの画像の平面上の投影と、複数の対象を含む領域とのオーバーラップ面積である。 According to an embodiment of the present invention, the step of selecting an optimized 3D model comprises calculating an estimated effectiveness score of the 3D model based on at least one of the following: 1) The distance between the 2D keypoint in the candidate keypoint set and the projected position of the image plane between the corresponding 3D keypoint in the 3D model; and 2) the estimated plane of the 3D model image. The area of overlap between the above projection and the area containing multiple objects.

これにより、本発明の実施例に係る画像処理方法によれば、画像に含まれる複数の対象のうちの1つの対象に対して3Dモデルを構築することで、複数の対象を含む画像において該1つの対象を分離することができる。 As a result, according to the image processing method according to the embodiment of the present invention, by constructing a 3D model for one of a plurality of objects included in the image, the image including the plurality of objects is described as 1 Two objects can be separated.

以下、図6に基づいて、本発明の他の実施例に係る画像処理方法を説明する。 Hereinafter, the image processing method according to another embodiment of the present invention will be described with reference to FIG.

図6に示すように、本発明の実施例に係る画像処理方法はステップS210でスタートする。ステップS210では、画像中の複数の対象を含む領域において複数の対象に関する2Dキーポイントを検出し、そのうち、複数の対象は一部互いにオーバーラップする。 As shown in FIG. 6, the image processing method according to the embodiment of the present invention starts in step S210. In step S210, 2D key points relating to a plurality of objects are detected in a region including the plurality of objects in the image, and the plurality of objects partially overlap each other.

続いて、ステップS220において、2Dキーポイントのうちから複数の対象のうちの1つの対象についての候補キーポイントセットを選択する。 Subsequently, in step S220, a candidate key point set for one of a plurality of targets is selected from the 2D key points.

続いて、ステップS230において、候補キーポイントセットに基づいて、該1つの対象の3Dモデルを推定する。 Subsequently, in step S230, the one target 3D model is estimated based on the candidate key point set.

続いて、ステップS240において、推定された3Dモデルのうちから最適化3Dモデルを選択する。 Subsequently, in step S240, the optimized 3D model is selected from the estimated 3D models.

続いて、ステップS250において、最適化3Dモデルを画像の平面に投影することで、分離された1つの対象を取得する。具体的には、該対象の最適化3Dモデルの画像の平面上の投影と、複数の対象を含む領域から、その前に分離されたすべての対象を除いた後の部分との共通部分を得ることで、分離された該対象を取得することができる。 Subsequently, in step S250, one separated object is acquired by projecting the optimized 3D model onto the plane of the image. Specifically, the intersection of the projection of the image of the optimized 3D model of the object on the plane and the part after excluding all the objects separated before the region containing the plurality of objects is obtained. This makes it possible to obtain the separated object.

続いて、ステップS260において、すべての対象が分離されたかを判断する。すべての対象が分離されていないと判断した場合、ステップS220に戻り、引き続き次の1つの対象について候補キーポイントセットを選択する。その後、次の1つの対象に対してステップS230、S240及びS250における処理を実行する。 Subsequently, in step S260, it is determined whether all the objects have been separated. If it is determined that all the targets are not separated, the process returns to step S220, and the candidate key point set is continuously selected for the next one target. After that, the processing in steps S230, S240 and S250 is executed for the next one target.

ステップS260において、すべての対象が分離されたと判断した後に、プロセスを終了する。 In step S260, the process is terminated after it is determined that all the objects have been separated.

れにより、本発明の実施例に係る画像処理方法は、画像に含まれる複数の対象を一つずつ分離することができる。 Thereby, the image processing method according to the embodiment of the present invention can separate a plurality of objects included in the image one by one.

なお、本発明の実施例に係る画像処理方法における上述のステップの各種の具体的な実施方については、前に既に詳細に説明されたので、ここではその詳しい説明を省略する。 Since various specific methods of carrying out the above-mentioned steps in the image processing method according to the embodiment of the present invention have already been described in detail above, the detailed description thereof will be omitted here.

もちろん、本発明の画像処理方法の各操作プロセスは、各種のマシン可読記憶媒体に記憶されているコンピュータ実行可能なプログラムにより実現することもできる。 Of course, each operation process of the image processing method of the present invention can also be realized by a computer-executable program stored in various machine-readable storage media.

また、本発明の目的は、次のような方式で実現されても良く、即ち、上述の実行可能なプログラムコードを記憶した記憶媒体を直接又は間接的にシステム又は装置に提供し、該システム又は装置の中のコンピュータ又は中央処理ユニット(CPU)は、上述のプログラムコードを読み出して実行することである。このときに、該システム又は装置は、プログラムを実行し得る機能を有すれば、本発明の実施方式は、プログラムに限られず、また、該プログラムは、任意の形式、例えば、オブジェクト指向プログラム、インタプリタ実行可能なプログラム又はOSに提供するスクリプトプログラムなどであっても良い。 Further, an object of the present invention may be realized by the following method, that is, a storage medium storing the above-mentioned executable program code is directly or indirectly provided to the system or device, and the system or device is provided. The computer or central processing unit (CPU) in the device reads and executes the above-mentioned program code. At this time, the embodiment of the present invention is not limited to a program as long as the system or device has a function capable of executing a program, and the program may be in any form, for example, an object-oriented program or an interpreter. It may be an executable program or a script program provided to the OS.

また、上述の一連の処理は、ソフトウェア及び/又はファームウェアにより実現されても良い。ソフトウェア及び/又はファームウェアにより実現される場合、記憶媒体又はネットワークから、専用ハードウェア構造を有するコンピュータ、例えば、図7に示す汎用マシン1300(例えば、コンピュータ)に、該ソフトウェアを構成するプログラムをインストールし、該コンピュータは、各種のプログラムがインストールされているときに、各種の機能などを実行することができる。 Further, the above-mentioned series of processes may be realized by software and / or firmware. When realized by software and / or firmware, a program constituting the software is installed on a computer having a dedicated hardware structure, for example, a general-purpose machine 1300 (for example, a computer) shown in FIG. 7 from a storage medium or a network. , The computer can perform various functions and the like when various programs are installed.

図7は、本発明の実施例に係る画像処理装置及び方法を実現し得る汎用パソコンの例示的な構成のブロック図。 FIG. 7 is a block diagram of an exemplary configuration of a general-purpose personal computer capable of realizing the image processing apparatus and method according to the embodiment of the present invention.

図7では、中央処理装置(CPU)1301は、ROM1302に記憶されているプログラム又は記憶部1308からRAM1303にロッドされているプログラムに基づいて各種の処理を行う。RAM1303では、ニーズに応じて、CPU1301が各種の処理を行うときに必要なデータなどを記憶することもできる。CPU1301、ROM1302及びRAM1303は、バス1304を経由して互いに接続される。入力/出力インターフェース1305もバス1304に接続される。 In FIG. 7, the central processing unit (CPU) 1301 performs various processes based on the program stored in the ROM 1302 or the program rodged from the storage unit 1308 to the RAM 1303. The RAM 1303 can also store data and the like required when the CPU 1301 performs various processes according to the needs. The CPU 1301, ROM 1302 and RAM 1303 are connected to each other via bus 1304. The input / output interface 1305 is also connected to bus 1304.

また、入力/出力インターフェース1305には、さらに、次のような部品が接続され、即ち、キーボードなどを含む入力部1306、液晶表示器(LCD)などのような表示器及びスピーカーなどを含む出力部1307、ハードディスクなどを含む記憶部1308、ネットワークインターフェースカード、例えば、LANカード、モデムなどを含む通信部1309である。通信部1309は、例えば、インターネット、LANなどのネットワークを経由して通信処理を行う。 Further, the following components are further connected to the input / output interface 1305, that is, an input unit 1306 including a keyboard and the like, an output unit including a display such as a liquid crystal display (LCD), and a speaker. 1307, a storage unit 1308 including a hard disk and the like, and a communication unit 1309 including a network interface card such as a LAN card and a modem. The communication unit 1309 performs communication processing via a network such as the Internet or LAN.

ドライブ1310は、ニーズに応じて、入力/出力インターフェース1305に接続されても良い。取り外し可能な媒体711、例えば、半導体メモリなどは、必要に応じて、ドライブ1310にセットされることにより、その中から読み取られたコンピュータプログラムを記憶部1308にインストールすることができる。 Drive 1310 may be connected to input / output interface 1305, if desired. The removable medium 711, for example, a semiconductor memory, is set in the drive 1310 as needed, and the computer program read from the medium can be installed in the storage unit 1308.

本発明は、さらに、プログラムを記憶したコンピュータ記憶媒体に関し、該プログラムは、実行されるときに上述の実施例における方法を実現することができり。 The present invention further relates to a computer storage medium in which the program is stored, the program being able to realize the method of the above-described embodiment when executed.

また、本発明は、さらに、マシン可読指令コードを含むプログラムプロダクトを提供する。このような指令コードは、マシンにより読み取られて実行されるときに、上述の本発明の実施形態における方法を実行することができる。それ相応に、このようなプログラムプロダクトをキャリー(carry)する、例えば、磁気ディスク(フロッピーディスク(登録商標)を含む)、光ディスク(CD−ROM及びDVDを含む)、光磁気ディスク(MD(登録商標)を含む)、及び半導体記憶器などの各種の記憶媒体も、本発明に含まれる。 The present invention also provides a program product that includes a machine-readable command code. When such a command code is read and executed by the machine, the method according to the embodiment of the present invention described above can be executed. Correspondingly, carry such program products, such as magnetic disks (including floppy disks (registered trademarks)), optical disks (including CD-ROMs and DVDs), magneto-optical disks (MD (registered trademarks)). ), And various storage media such as semiconductor storage devices are also included in the present invention.

上述の記憶媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体記憶器などを含んでも良いが、これらに限定されない。 The above-mentioned storage medium may include, but is not limited to, for example, a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor storage device, and the like.

また、上述の方法における各操作(処理)は、各種のマシン可読記憶媒体に記憶されているコンピュータ実行可能なプログラムの方式で実現することもできる。 Further, each operation (process) in the above method can be realized by a method of a computer-executable program stored in various machine-readable storage media.

また、以上の実施例などに関し、さらに以下のように付記として開示する。 In addition, the above examples will be further disclosed as additional notes as follows.

(付記1)
画像処理装置であって、
画像中の複数の対象を含む領域において前記複数の対象に関する2次元2Dキーポイントを検出する検出ユニットであって、前記複数の対象は一部互いにオーバーラップする、もの;
前記2Dキーポイントのうちから前記複数の対象のうちの1つの対象についての候補キーポイントセットを選択する候補キーポイントセット選択ユニット;
前記候補キーポイントセットに基づいて、前記1つの対象の3次元3Dモデルを推定する推定ユニット;
推定された3Dモデルのうちから最適化3Dモデルを選択する3Dモデル選択ユニット;及び
前記最適化3Dモデルを前記画像の平面に投影して、分離された前記1つの対象を得る取得ユニットを含む、装置。
(Appendix 1)
It is an image processing device
A detection unit that detects two-dimensional 2D key points relating to the plurality of objects in a region including a plurality of objects in an image, wherein the plurality of objects partially overlap each other;
Candidate key point set selection unit that selects a candidate key point set for one of the plurality of objects from the 2D key points;
An estimation unit that estimates a 3D model of the one object based on the candidate key point set;
A 3D model selection unit that selects an optimized 3D model from among the estimated 3D models; and an acquisition unit that projects the optimized 3D model onto the plane of the image to obtain the one object separated. Device.

(付記2)
付記1に記載の画像処理装置であって、
深層学習の方法により、前記画像において前記複数の対象を含む前記領域をセグメンテーションするセグメンテーションユニットをさらに含む、装置。
(Appendix 2)
The image processing apparatus according to Appendix 1.
An apparatus further comprising a segmentation unit for segmenting the region containing the plurality of objects in the image by a method of deep learning.

(付記3)
付記1に記載の画像処理装置であって、
前記検出ユニットは、深層学習の方法により、前記複数の対象の2Dキーポイントを検出する、装置。
(Appendix 3)
The image processing apparatus according to Appendix 1.
The detection unit is a device that detects a plurality of target 2D key points by a method of deep learning.

(付記4)
付記3に記載の画像処理装置であって、
前記候補キーポイントセット選択ユニットは、深層学習の検出結果に基づいて、前記候補キーポイントセットのための2Dキーポイントを選択する、装置。
(Appendix 4)
The image processing apparatus according to Appendix 3,
The candidate key point set selection unit is a device that selects a 2D key point for the candidate key point set based on the detection result of deep learning.

(付記5)
付記1に記載の画像処理装置であって、
前記候補キーポイントセット選択ユニットは、前記1つの対象に関する幾何制約を用いて、前記候補キーポイントセットの数を減少させる、装置。
(Appendix 5)
The image processing apparatus according to Appendix 1.
The candidate key point set selection unit is a device that reduces the number of the candidate key point sets by using geometric constraints on the one object.

(付記6)
付記1に記載の画像処理装置であって、
前記推定ユニットは、前記1つの対象に関して事前定義された汎用モデルを用いて、ニューラルネットワークにより、深層学習を行い又は最適化することで、前記3Dモデルを推定する、装置。
(Appendix 6)
The image processing apparatus according to Appendix 1.
The estimation unit is an apparatus that estimates the 3D model by performing deep learning or optimization by a neural network using a general-purpose model defined in advance for the one object.

(付記7)
付記1に記載の画像処理装置であって、
前記3Dモデル選択ユニットは、前記1つの対象に関する幾何制約を用いて、推定された3Dモデルの数を減少させる、装置。
(Appendix 7)
The image processing apparatus according to Appendix 1.
The 3D model selection unit is a device that reduces the estimated number of 3D models using geometric constraints on the one object.

(付記8)
付記1に記載の画像処理装置であって、
前記3Dモデル選択ユニットは、以下のもののうちの少なくとも1つに基づいて、前記推定された3Dモデルの有効性スコアを計算し、即ち、
1)前記候補キーポイントセットの中の2Dキーポイントと、3Dモデルの中の対応する3Dキーポイントとの前記画像の平面上の投影位置の間の距離;及び
2)前記推定された3Dモデルの前記画像の平面上の投影と、前記複数の対象を含む前記領域とのオーバーラップ面積である、装置。
(Appendix 8)
The image processing apparatus according to Appendix 1.
The 3D model selection unit calculates the estimated effectiveness score of the 3D model based on at least one of the following, i.e.
1) The distance between the 2D keypoint in the candidate keypoint set and the corresponding 3D keypoint in the 3D model at the projected position on the plane of the image; and 2) of the estimated 3D model. An apparatus that is an overlapping area between a projection of the image on a plane and the region including the plurality of objects.

(付記9)
画像処理方法であって、
画像中の複数の対象を含む領域において前記複数の対象に関する2次元2Dキーポイントを検出し、前記複数の対象は一部互いにオーバーラップし;
前記2Dキーポイントのうちから前記複数の対象のうちの1つの対象についての候補キーポイントセットを選択し;
前記候補キーポイントセットに基づいて、前記1つの対象の3次元3Dモデルを推定し;
推定された3Dモデルのうちから最適化3Dモデルを選択し;及び
前記最適化3Dモデルを前記画像の平面に投影して、分離された前記1つの対象を取得することを含む、方法。
(Appendix 9)
It is an image processing method
Two-dimensional 2D keypoints relating to the plurality of objects are detected in a region containing the plurality of objects in the image, and the plurality of objects partially overlap each other;
Select a candidate keypoint set for one of the plurality of objects from the 2D keypoints;
Estimate a 3D 3D model of the one object based on the candidate key point set;
A method comprising selecting an optimized 3D model from among the estimated 3D models; and projecting the optimized 3D model onto the plane of the image to obtain the one object separated.

(付記10)
付記9に記載の方法であって、
深層学習の方法により前記画像において前記複数の対象を含む前記領域をセグメンテーションすることをさらに含む、方法。
(Appendix 10)
The method described in Appendix 9
A method further comprising segmenting the region containing the plurality of objects in the image by a method of deep learning.

(付記11)
付記9に記載の方法であって、
深層学習の方法により前記複数の対象の2Dキーポイントを検出する、方法。
(Appendix 11)
The method described in Appendix 9
A method of detecting 2D key points of the plurality of objects by a method of deep learning.

(付記12)
付記11に記載の方法であって、
前記候補キーポイントセットの選択ステップは、深層学習の検出結果に基づいて、前記候補キーポイントセットのための2Dキーポイントを選択する、方法。
(Appendix 12)
The method according to Appendix 11,
The method of selecting a candidate key point set is a method of selecting a 2D key point for the candidate key point set based on the detection result of deep learning.

(付記13)
付記9に記載の方法であって、
前記候補キーポイントセットの選択ステップは、前記1つの対象に関する幾何制約を用いて、前記候補キーポイントセットの数を減少させることを含む、方法。
(Appendix 13)
The method described in Appendix 9
A method, wherein the selection step of the candidate key point set comprises reducing the number of the candidate key point sets using geometric constraints on the one object.

(付記14)
付記9に記載の方法であって、
前記3Dモデルの推定ステップは、前記1つの対象に関して事前定義される汎用モデルを用いてニューラルネットワークにより深層学習を行い又は最適化することで前記3Dモデルを推定する、方法。
(Appendix 14)
The method described in Appendix 9
The 3D model estimation step is a method of estimating the 3D model by performing deep learning or optimization by a neural network using a general-purpose model defined in advance for the one object.

(付記15)
付記9に記載の方法であって、
前記最適化3Dモデルの選択ステップは、前記1つの対象に関する幾何制約を用いて、推定された3Dモデルの数を減少させる、方法。
(Appendix 15)
The method described in Appendix 9
The optimized 3D model selection step is a method of reducing the estimated number of 3D models using geometric constraints on the one object.

(付記16)
付記9に記載の方法であって、
前記最適化3Dモデルの選択ステップは、以下のもののうちの少なくとも1つに基づいて、前記推定された3Dモデルの有効性スコアを計算し、
1)前記候補キーポイントセットの中の2Dキーポイントと、3Dモデルの中の対応する3Dキーポイントとの前記画像の平面上の投影位置の間の距離;及び
2)前記推定された3Dモデルの前記画像の平面上の投影と、前記複数の対象を含む前記領域とのオーバーラップ面積である、方法。
(Appendix 16)
The method described in Appendix 9
The optimized 3D model selection step calculates the estimated effectiveness score of the 3D model based on at least one of the following:
1) The distance between the 2D keypoint in the candidate keypoint set and the corresponding 3D keypoint in the 3D model at the projected position on the plane of the image; and 2) of the estimated 3D model. A method, which is an area of overlap between the projection of the image on a plane and the region including the plurality of objects.

(付記17)
付記9−16のうちの任意の1項に記載の方法であって、
前記1つの対象は形状パラメータ及び姿勢パラメータにより表現される、方法。
(Appendix 17)
The method according to any one of Appendix 9-16.
A method in which the one object is represented by a shape parameter and a posture parameter.

(付記18)
付記9に記載の方法であって、
前記1つの対象は人間の手又は人体である、方法。
(Appendix 18)
The method described in Appendix 9
A method in which the one object is a human hand or body.

(付記19)
付記9に記載の方法であって、
前記複数の対象の数は2つである、方法。
(Appendix 19)
The method described in Appendix 9
The method, wherein the number of the plurality of objects is two.

(付記20)
マシン可読記憶媒体であって、
マシン可読指令コードを含むプログラムが記憶されており、前記指令コードは、コンピュータにより読み出されて実行されるときに、前記コンピュータに、付記9−19に記載の画像処理方法を実行させることができる。
(Appendix 20)
A machine-readable storage medium
A program including a machine-readable command code is stored, and when the command code is read and executed by a computer, the computer can be made to execute the image processing method described in Appendix 9-19. ..

以上、本発明の好ましい実施形態を説明したが、本発明はこの実施形態に限定されず、本発明の趣旨を離脱しない限り、本発明に対するあらゆる変更は、本発明の技術的範囲に属する。 Although the preferred embodiment of the present invention has been described above, the present invention is not limited to this embodiment, and any modification to the present invention belongs to the technical scope of the present invention unless the gist of the present invention is deviated.

Claims (10)

画像処理装置であって、
画像中の複数の対象を含む領域において前記複数の対象に関する2D(二次元)キーポイントを検出する検出ユニットであって、前記複数の対象は一部オーバーラップする、検出ユニット;
前記2Dキーポイントから前記複数の対象のうちの1つの対象についての候補キーポイントセットを選択する候補キーポイントセット選択ユニット;
前記候補キーポイントセットに基づいて、前記1つの対象の3D(三次元)モデルを推定する推定ユニット;
推定された3Dモデルのうちから最適化3Dモデルを選択する3Dモデル選択ユニット;及び
前記最適化3Dモデルを前記画像の平面に投影して、分離された前記1つの対象を得る取得ユニットを含む、装置。
It is an image processing device
A detection unit that detects 2D (two-dimensional) key points relating to the plurality of objects in a region including a plurality of objects in an image, wherein the plurality of objects partially overlap.
Candidate key point set selection unit that selects a candidate key point set for one of the plurality of objects from the 2D key points;
An estimation unit that estimates a 3D (three-dimensional) model of the one object based on the candidate key point set;
A 3D model selection unit that selects an optimized 3D model from among the estimated 3D models; and an acquisition unit that projects the optimized 3D model onto the plane of the image to obtain the one object separated. Device.
請求項1に記載の画像処理装置であって、
深層学習の方法により、前記画像において前記複数の対象を含む前記領域をセグメンテーションするセグメンテーションユニットをさらに含む、装置。
The image processing apparatus according to claim 1.
An apparatus further comprising a segmentation unit for segmenting the region containing the plurality of objects in the image by a method of deep learning.
請求項1に記載の画像処理装置であって、
前記検出ユニットは、深層学習の方法により前記複数の対象の2Dキーポイントを検出する、装置。
The image processing apparatus according to claim 1.
The detection unit is a device that detects a plurality of target 2D key points by a method of deep learning.
請求項3に記載の画像処理装置であって、
前記候補キーポイントセット選択ユニットは、深層学習の検出結果に基づいて、前記候補キーポイントセットのための2Dキーポイントを選択する、装置。
The image processing apparatus according to claim 3.
The candidate key point set selection unit is a device that selects a 2D key point for the candidate key point set based on the detection result of deep learning.
請求項1に記載の画像処理装置であって、
前記候補キーポイントセット選択ユニットは、前記1つの対象に関する幾何制約を用いて、前記候補キーポイントセットの数を減少させる、装置。
The image processing apparatus according to claim 1.
The candidate key point set selection unit is a device that reduces the number of the candidate key point sets by using geometric constraints on the one object.
請求項1に記載の画像処理装置であって、
前記推定ユニットは、前記1つの対象に関して事前定義された汎用モデルを用いてニューラルネットワークにより深層学習を行い又は最適化することで前記3Dモデルを推定する、装置。
The image processing apparatus according to claim 1.
The estimation unit is an apparatus that estimates the 3D model by performing deep learning or optimization by a neural network using a general-purpose model defined in advance for the one object.
請求項1に記載の画像処理装置であって、
前記3Dモデル選択ユニットは、前記1つの対象に関する幾何制約を用いて、推定された3Dモデルの数を減少させる、装置。
The image processing apparatus according to claim 1.
The 3D model selection unit is a device that reduces the estimated number of 3D models using geometric constraints on the one object.
請求項1に記載の画像処理装置であって、
前記3Dモデル選択ユニットは、
1)前記候補キーポイントセットの中の2Dキーポイントと、3Dモデルの中の対応する3Dキーポイントとの前記画像の平面上の投影位置の間の距離;及び
2)推定された前記3Dモデルの前記画像の平面上の投影と、前記複数の対象を含む前記領域とのオーバーラップ面積
のうちの少なくとも1つに基づいて、推定された前記3Dモデルの有効性スコアを計算する、装置。
The image processing apparatus according to claim 1.
The 3D model selection unit is
1) The distance between the 2D keypoint in the candidate keypoint set and the corresponding 3D keypoint in the 3D model at the projected position on the plane of the image; and 2) the estimated 3D model. An apparatus for calculating an estimated effectiveness score of the 3D model based on at least one of a planar projection of the image and an overlapping area of the region containing the plurality of objects.
画像処理方法であって、
画像中の複数の対象を含む領域において前記複数の対象に関する2D(二次元)キーポイントを検出し、前記複数の対象は一部オーバーラップし;
前記2Dキーポイントのうちから前記複数の対象のうちの1つの対象についての候補キーポイントセットを選択し;
前記候補キーポイントセットに基づいて、前記1つの対象の3D(三次元)モデルを推定し;
推定された3Dモデルのうちから最適化3Dモデルを選択し;及び
前記最適化3Dモデルを前記画像の平面に投影して、分離された前記1つの対象を取得することを含む、方法。
It is an image processing method
A 2D (two-dimensional) key point for the plurality of objects is detected in an area containing the plurality of objects in the image, and the plurality of objects partially overlap;
Select a candidate keypoint set for one of the plurality of objects from the 2D keypoints;
Estimate a 3D (three-dimensional) model of the one object based on the candidate key point set;
A method comprising selecting an optimized 3D model from among the estimated 3D models; and projecting the optimized 3D model onto the plane of the image to obtain the one object separated.
コンピュータに、請求項9に記載の画像処理方法を実行させるためのプログラム。 A program for causing a computer to execute the image processing method according to claim 9.
JP2021063377A 2020-04-28 2021-04-02 Image processing device, image processing method, and machine-readable storage medium Pending JP2021174537A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010349099.1 2020-04-28
CN202010349099.1A CN113569591B (en) 2020-04-28 Image processing apparatus, image processing method, and machine-readable storage medium

Publications (1)

Publication Number Publication Date
JP2021174537A true JP2021174537A (en) 2021-11-01

Family

ID=78157981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021063377A Pending JP2021174537A (en) 2020-04-28 2021-04-02 Image processing device, image processing method, and machine-readable storage medium

Country Status (1)

Country Link
JP (1) JP2021174537A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115527050A (en) * 2022-11-29 2022-12-27 南方科技大学 Image feature matching method, computer device and readable storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115527050A (en) * 2022-11-29 2022-12-27 南方科技大学 Image feature matching method, computer device and readable storage medium

Also Published As

Publication number Publication date
CN113569591A (en) 2021-10-29

Similar Documents

Publication Publication Date Title
US11703951B1 (en) Gesture recognition systems
Jourabloo et al. Pose-invariant 3D face alignment
JP5227639B2 (en) Object detection method, object detection apparatus, and object detection program
CN104573614B (en) Apparatus and method for tracking human face
JP4894741B2 (en) Information processing apparatus, information processing method, program, and recording medium
JP4951498B2 (en) Face image recognition device, face image recognition method, face image recognition program, and recording medium recording the program
JP5227629B2 (en) Object detection method, object detection apparatus, and object detection program
CN108171133B (en) Dynamic gesture recognition method based on characteristic covariance matrix
CN109472820B (en) Monocular RGB-D camera real-time face reconstruction method and device
JP2009525543A (en) 3D face reconstruction from 2D images
JP2015167008A (en) Pose estimation device, pose estimation method and program
US11244506B2 (en) Tracking rigged polygon-mesh models of articulated objects
JP2003196661A (en) Appearance model for visual motion analysis and visual tracking
JP2004206656A (en) Detection device and detection method
JP2003030667A (en) Method for automatically locating eyes in image
Saini et al. Markerless human motion tracking using hierarchical multi-swarm cooperative particle swarm optimization
Vejdemo-Johansson et al. Cohomological learning of periodic motion
US20190066311A1 (en) Object tracking
JPWO2018087933A1 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2019191981A (en) Behavior recognition device, model construction device, and program
Unzueta et al. Efficient generic face model fitting to images and videos
JP6020439B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5027030B2 (en) Object detection method, object detection apparatus, and object detection program
CN114422832A (en) Anchor virtual image generation method and device
JP2021174537A (en) Image processing device, image processing method, and machine-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231207