JP2022148719A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2022148719A JP2022148719A JP2021050509A JP2021050509A JP2022148719A JP 2022148719 A JP2022148719 A JP 2022148719A JP 2021050509 A JP2021050509 A JP 2021050509A JP 2021050509 A JP2021050509 A JP 2021050509A JP 2022148719 A JP2022148719 A JP 2022148719A
- Authority
- JP
- Japan
- Prior art keywords
- identification information
- image
- recognized
- display area
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 109
- 238000003672 processing method Methods 0.000 title claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 73
- 238000000034 method Methods 0.000 claims description 46
- 239000000284 extract Substances 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 16
- 239000002131 composite material Substances 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000010420 art technique Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本明細書の開示は、画像処理装置、画像処理方法、及びプログラムに関する。 The disclosure of the present specification relates to an image processing device, an image processing method, and a program.
撮像装置で撮像した画像に写っている物体を認識する技術は、例えば、防犯等を目的とした監視システムや、店舗内での顧客の購買動向の調査するシステム等に利用されている。上述したシステムでは、例えば、画像に写っている物体のなかからあらかじめ定められた条件を満たす物体のみを認識し、認識した物体を示す枠とその物体の識別情報とを画像に合成して表示装置に表示する。 2. Description of the Related Art Techniques for recognizing an object in an image captured by an imaging device are used, for example, in monitoring systems for the purpose of crime prevention, systems for investigating customer purchasing trends in stores, and the like. In the above-described system, for example, only objects that satisfy predetermined conditions are recognized among the objects in the image, and the frame indicating the recognized object and the identification information of the object are combined with the image, and the display device synthesizes the image. to display.
関連する技術として、特許文献1には、表示されている複数の被写体のうち、優先順が最も高い主被写体や主被写体に関連するアイテムの表示と、主被写体以外の他の被写体に関連するアイテムの表示とが重ならないように、他の被写体に関連するアイテムの表示位置を調整する表示制御方法が記載されている。 As a related technique, Japanese Patent Application Laid-Open No. 2002-200001 describes displaying a main subject with the highest priority among a plurality of displayed subjects and items related to the main subject, and displaying items related to subjects other than the main subject. describes a display control method for adjusting the display position of an item related to another subject so that the display of the subject does not overlap with the display of the subject.
しかしながら、特許文献1に記載された表示制御方法では、他の被写体に関連するアイテムの表示が、そのアイテムと関連付けられる被写体の表示、又は更に別の被写体の表示と重なってしまうことが起こり得る。また、画像に写っている物体を認識する場合、認識した複数の物体に特定の優先順が設定されていないこともある。このため、画像から認識した物体が複数である場合には、それらの物体の識別情報が認識した物体に重なってしまい、認識した物体の状態等を正確に把握することが難しい。
However, with the display control method described in
以上のような実情を踏まえ、本発明の一側面に係る目的は、画像内で認識された物体とその物体に関する情報とが重なることを低減することが可能な技術を提供することである。 In view of the circumstances as described above, it is an object of one aspect of the present invention to provide a technique capable of reducing overlap between an object recognized in an image and information about the object.
本発明の一態様に係る画像処理装置は、画像に写っている認識対象の物体を認識する物体認識部と、前記物体認識部で認識した前記認識対象の物体に関する識別情報を前記画像に合成する識別情報合成部と、を含み、前記識別情報合成部は、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを特徴とする。 An image processing apparatus according to an aspect of the present invention combines an object recognition unit that recognizes a recognition target object appearing in an image, and identification information related to the recognition target object recognized by the object recognition unit, with the image. an identification information synthesizing unit, wherein the identification information synthesizing unit derives a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, and The position and dimensions of the display area for displaying the identification information are determined so as to fit within the space.
本発明の一態様に係る画像処理方法は、コンピュータが、画像に写っている認識対象の物体を認識することと、認識した前記認識対象の物体に関する識別情報を前記画像に合成することと、を実行し、前記識別情報を前記画像に合成することは、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを含む、ことを特徴とする。 An image processing method according to an aspect of the present invention comprises: a computer recognizing a recognition target object appearing in an image; and synthesizing identification information related to the recognized recognition target object with the image. and synthesizing the identification information with the image includes: deriving a region that does not overlap with the object to be recognized based on the position and size of the object to be recognized in the image; determining a position and size of a display area for displaying the identification information so as to fit therein.
本発明の一態様に係るプログラムは、コンピュータに、画像に写っている認識対象の物体を認識することと、認識した前記認識対象の物体に関する識別情報を前記画像に合成することと、を実行させ、前記識別情報を前記画像に合成することは、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを含む、ことを特徴とする。 A program according to an aspect of the present invention causes a computer to recognize a recognition target object appearing in an image and synthesize identification information about the recognized recognition target object with the image. , synthesizing the identification information with the image includes: deriving a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image; determining the position and size of the display area for displaying the identification information.
上述の態様によれば、画像内で認識された物体とその物体に関する情報とが重なることを低減することができる。 According to the above aspect, it is possible to reduce overlap between the object recognized in the image and the information about the object.
以下、図面を参照して本発明の実施形態を説明する。なお、以下の説明では、画像に写っている物体を認識する処理のうち、既知の処理に関する詳細な説明を省略する。 Embodiments of the present invention will be described below with reference to the drawings. It should be noted that, in the following description, a detailed description of known processing among the processing for recognizing an object appearing in an image will be omitted.
図1は、一実施形態に係る画像処理システムのシステム構成例を説明する図である。図1に例示した画像処理システム1は、カメラ2、画像処理装置3、及び表示装置4を含む。
FIG. 1 is a diagram illustrating a system configuration example of an image processing system according to an embodiment. An
カメラ2は、視点Pから撮像範囲θ内の物体の像を撮像し、画像データ(以下、単に「画像」という)として画像処理装置3に転送する。本明細書における画像は、映像データのフレームを含む。すなわち、カメラ2は、静止画像を出力する撮像装置であってもよいし、動画像を出力する撮像装置であってもよい。カメラ2と画像処理装置3とは、例えば、USB(Universal Serial Bus)ケーブル等の伝送ケーブルにより接続される。カメラ2と画像処理装置3とは、例えば、既知の近距離無線通信規格等に従った無線通信により接続されてもよい。また、カメラ2と画像処理装置3とは、例えば、インターネット等の通信ネットワーク(図示せず)を介して接続されてもよい。
The camera 2 takes an image of an object within an imaging range θ from a viewpoint P and transfers it to the
画像処理装置3は、カメラ2から転送された画像から所定の条件を満たす物体を認識し、認識した物体に関連する識別情報を画像に合成する処理を行う。また、画像処理装置3は、識別情報を合成した画像を表示装置4に表示させる。画像処理装置3は、画像取得部301、物体認識部302、識別情報合成部303、画像出力部304、及び記憶部310を含む。
The
画像取得部301は、カメラ2から画像を取得する。画像取得部301は、能動的に画像を取得してもよいし、受動的に画像を取得してもよい。能動的に画像を取得する場合、画像取得部301は、例えば、所定の時間間隔でカメラ2に対して撮像指示を送信してカメラ2が撮像した画像を取得する。
An
物体認識部302は、取得した画像に写っている物体のなかからあらかじめ定められた条件を満たす物体(以下、「認識対象の物体」という)を認識する。認識対象の物体は、1種類に限らず、2種類以上であってもよい。物体認識部302は、例えば、記憶部310に格納された学習済モデル311を用いて、認識対象の物体を認識する。学習済モデル311は、認識対象の物体に関する複数の学習用画像を利用した機械学習により認識対象の物体の特徴を学習して生成(構築)されたモデルであり、カメラ2により撮像された画像が入力された際に、学習した特徴を有する物体を示す情報を出力する。学習済モデル311は、例えば、YOLO(You Only Look Once)を利用して生成することができる。なお、機械学習の学習手法は、特定の手法に限定されない。また、物体認識部302による物体の認識方法は、学習済モデル311を用いた方法に限定されない。
The
識別情報合成部303は、物体認識部302で認識された認識対象の物体に関する識別情報と、日時に関する情報とを画像内に合成(付加)する。日時に関する情報は、例えば、画像の撮像日時を示す情報である。また、本実施形態の画像処理装置3の識別情報合成部303は、日時に関する情報と識別情報とを表示する表示領域の位置及び寸法を決定する。より具体的には、識別情報合成部303は、日時に関する情報及び識別情報が認識対象の物体と重ならないように、日時に関する情報と識別情報とを表示する表示領域の位置及び寸法を決定する。本実施形態では、識別情報合成部303が、表示領域の位置及び寸法を決定することと、その表示領域に日時に関する情報と識別情報とを画像内に合成することとを行うものとして説明するが、画像処理装置3は、表示領域の位置及び寸法を決定する決定部と、決定した表示領域に日時に関する情報と識別情報とを画像内に合成する合成部とが個別に設けられており、その決定部と合成部とが識別情報合成部303として機能するように構成されていてもよい。
The identification
画像出力部304は、識別情報と日時に関する情報とが合成された画像(以下、「合成画像」という)を表示装置4に表示させる。物体認識部302及び識別情報合成部303における上記の処理が行われない場合、画像出力部304は、画像取得部301により取得した画像を表示装置4に表示させる。また、合成画像は、合成画像データ312として記憶部310に格納される。
The
記憶部310は、学習済モデル311及び合成画像データ312を含む、種々のデータやプログラム等を記憶する。記憶部310には、例えば、合成画像データ312とは別に、画像取得部301により取得した画像を記憶させてもよい。また、記憶部310には、合成画像データ312の代わりに、画像取得部301により取得した画像とその画像に関連付けられる物体の識別情報とを記憶させてもよい。
The
図1に例示した画像処理システム1は、カメラ2で撮像した画像に写っている認識対象の物体を認識し、認識した物体の識別情報等が合成(付加)された画像を表示装置4に表示する。この種の画像処理システム1は、例えば、防犯等を目的とした監視システムや、店舗内での顧客の購買動向を調査するシステムとして利用される。
An
図2は、一実施形態に係る画像処理装置が行う処理の一例を説明するフローチャートである。画像処理装置3は、例えば、カメラ2から画像を取得する処理と並行して、図2に例示したフローチャートに沿った処理を行う。以下の説明における「識別情報」は、区別する記載がない限り、認識した物体に関する識別情報と日時に関する情報とを含む。
FIG. 2 is a flowchart illustrating an example of processing performed by the image processing apparatus according to one embodiment. For example, the
本実施形態の画像処理装置3は、取得した画像を学習済モデル311に入力し、画像内の認識対象の物体を示す情報を出力する(ステップS1)。その後、画像処理装置3は、出力された情報に基づいて認識対象の物体を囲む枠の位置及び寸法を決定する(ステップS2)。ステップS1及びS2の処理は、物体認識部302が行う。物体認識部302は、画像処理の分野における既知の物体認識方法や物体検出方法を利用して、ステップS1及びS2の処理を行う。ステップS1において物体認識部302が出力する情報は、画像内に認識対象の物体が存在しないことを示す情報を含む。
The
次に、画像処理装置3は、識別情報の表示領域を更新する条件を満たしているか否かを判定する(ステップS3)。ステップS3の判定は、例えば、識別情報合成部303が行う。更新する条件は、例えば、現在処理の対象となっている画像と、その画像よりも時間的に前に撮像されすでに識別情報を合成する処理が行われた画像とで、認識された認識対象の物体の数及び位置の少なくとも一方が異なることという条件を含む。更新する条件は、例えば、物体の識別情報を合成した画像の数が、所定の値又はその値の正の整数(自然数)倍であることという条件を含んでもよい。例えば、N枚の画像(Nは1以上の整数)に対して物体の識別情報を合成する毎に表示領域を更新するように設定されている場合、更新する条件は、処理の対象になった画像の累積数XがX/N=a(aは正の整数)を満たすこと、及び前回表示領域が決定されたときからの処理の対象になった画像の数YがY=Nを満たすこと、のいずれか一方含む。
Next, the
更新する条件を満たしている場合(ステップS3;YES)、識別情報合成部303は、識別情報表示領域決定処理(ステップS4)を行った後、認識対象の物体を囲む枠及び識別情報を画像内に合成する(ステップS5)。更新する条件を満たしていない場合(ステップS3;NO)、識別情報合成部303は、識別情報表示領域決定処理(ステップS4)を省略し、認識対象の物体を囲む枠及び識別情報を画像内に合成する(ステップS5)。ステップS5の後、画像処理装置3は、合成した画像を出力する(ステップS6)。ステップS6の処理は、識別情報合成部303が合成した画像を記憶部310に合成画像データ312として記憶させる処理と、識別情報合成部303が合成した画像を画像出力部304が表示装置3に表示させる処理とを含む。
If the update condition is satisfied (step S3; YES), the identification
本実施形態の画像処理装置3は、カメラ2で連続的に撮像された複数の画像のそれぞれに対してステップS1~S6の処理を行うことにより、認識対象の物体に関する情報が合成された複数の画像を時系列で表示装置4に表示させる。複数の画像のそれぞれに対するステップS1~S6の処理は、パイプライン化して行ってもよいし、逐次実行方式(すなわち、1枚の画像に対するステップS1~S6の処理が終わると、次の1枚の画像に対するステップS1~S6の処理を行う方式)で行ってもよい。また、画像処理装置3は、過去にカメラ2により撮像された複数の画像の組を用いて、図2に例示したフローチャートに沿った処理を行ってもよい。
The
このように、本実施形態に係る画像処理装置3は、取得した画像から認識した認識対象の物体に関する識別情報を合成する処理を繰り返しているときに所定の条件を満たすと、識別情報表示領域決定処理(ステップS4)を行って、識別情報の表示領域を更新する。識別情報表示領域決定処理として、本実施形態の画像処理装置3は、例えば、図3及び図4に例示したフローチャートに沿った処理を行う。
As described above, the
図3は、一実施形態に係る識別情報表示領域決定処理の一例を説明するフローチャートである。図4は、図3のフローチャートにおける表示領域選出処理の一例を説明するフローチャートである。図3及び図4のフローチャートに沿った処理は、例えば、画像処理装置3の識別情報合成部303が行う。
FIG. 3 is a flowchart illustrating an example of identification information display area determination processing according to an embodiment. FIG. 4 is a flowchart illustrating an example of display area selection processing in the flowchart of FIG. The processing according to the flowcharts of FIGS. 3 and 4 is performed by, for example, the identification
識別情報合成部303は、識別情報表示領域決定処理を開始すると、認識対象の物体を囲む枠の位置及び寸法に基づいて画像内の枠外領域を導出し(ステップS41)、枠外領域内から識別領域の表示領域の候補とする候補領域を抽出する(ステップS42)。枠外領域は、識別情報の表示領域に設定可能な画像内の領域全体のうちの、認識対象の物体を囲む枠内の領域を除いた領域である。ステップS42において、識別情報合成部303は、枠外領域内に設定可能な矩形領域のうちの所定の寸法以上の矩形領域を候補領域として抽出する。
When starting the identification information display area determination process, the identification
ステップS42の処理の後、識別情報合成部303は、候補領域があるか否かを判定する(ステップS43)。候補領域がない場合(ステップS43;NO)、識別情報合成部303は、所定の領域を表示領域に決定し(ステップS44)、識別情報表示領域決定処理を終了する。ステップS44における所定の領域は、例えば、識別情報の表示領域に関する初期設定情報(例えば、画面右下の所定の寸法の領域等)に基づいて、表示領域を決定する。
After the process of step S42, the identification
候補領域がある場合(ステップS43;YES)、識別情報合成部303は、次に、候補領域が複数であるか否かを判定する(ステップS45)。候補領域が複数ではなく1つの場合(ステップS45;NO)、識別情報合成部303は、抽出した候補領域を表示領域に決定し(ステップS46)、識別情報表示領域決定処理を終了する。候補領域が複数である場合(ステップS45;YES)、識別情報合成部303は、複数の候補領域のなかから表示領域を選出する表示領域選出処理(ステップS47)を行った後、識別情報表示領域決定処理を終了する。
If there is a candidate area (step S43; YES), the identification
表示領域選出処理として、識別情報合成部303は、例えば、図4のフローチャートに沿った処理を行う。識別情報合成部303は、表示領域選出処理を開始すると、複数の候補領域の中に最大文字サイズで日時と識別情報の全てを表示可能な候補領域があるか否かを判定する(ステップS4701)。最大文字サイズは、識別情報の表示に使用可能な複数通りの文字サイズのうちの最大のサイズであり、例えば、画像に合成された識別情報の読みやすさ等を考慮して初期設定されたサイズである。表示可能な候補領域がある場合(ステップS4701;YES)、識別情報合成部303は、最大文字サイズで日時と識別情報の全てを表示可能な候補領域の1つを表示領域に選出し(ステップS4702)、表示領域選出処理を終了する。表示可能な候補領域が1つの場合、ステップS4702において、識別情報合成部303は、その1つの候補領域を表示領域に選出する。表示可能な候補領域が複数の場合、ステップS4702において、識別情報合成部303は、例えば、複数の候補領域のうちの現時点での表示領域の位置と同じ、又は最も近い候補領域を、更新後の表示領域として選出する。この場合、表示領域選出処理を終了した識別情報合成部303は、図3に例示した識別情報表示領域決定処理を終了し、図2に例示したステップS5の処理を行う。ステップS5において、識別情報合成部303は、処理の対象となっている画像のステップS4702で選出した表示領域内に、最大文字サイズで日時と識別情報とが記載されたラベルを合成する。
As the display area selection process, the identification
最大文字サイズで日時と識別情報の全てを表示可能な候補領域がない場合(ステップS4701;NO)、識別情報合成部303は、次に、最小文字サイズ以上の文字サイズで日時と識別情報の全てを表示可能な候補領域があるか否かを判定する(ステップS4703)。最小文字サイズは、識別情報の表示に使用可能な複数通りの文字サイズのうちの最小のサイズであり、例えば、画像に合成された識別情報の読みやすさ等を考慮して設定される。表示可能な候補領域がある場合(ステップS4703;YES)、識別情報合成部303は、該当する候補領域のうちの文字サイズを最も大きくできる候補領域の1つを表示領域に選出し(ステップS4704)、表示領域選出処理を終了する。該当する候補領域が1つの場合、ステップS4704において、識別情報合成部303は、その1つの候補領域を表示領域に選出する。該当する候補領域が複数の場合、ステップS4704の代替処理として、識別情報合成部303は、例えば、現時点での表示領域の位置と同じ、又は最も近い候補領域を、更新後の表示領域として選出してもよい。
If there is no candidate area that can display all the date and time and the identification information with the maximum character size (step S4701; NO), the identification
最小文字サイズ以上の文字サイズで日時と識別情報の全てを表示可能な候補領域がない場合(ステップS4703;NO)、識別情報合成部303は、例えば、識別情報の表示領域にする候補領域と、日時の表示領域にする候補領域とを選出し(ステップS4705)、表示領域選出処理を終了する。例えば、表示する識別情報の文字数が多い等の要因により、複数の候補領域の中に日時と識別情報の全てを1つにまとめて表示することが可能な候補領域がない場合には、日時と識別情報とを、画像内の異なる候補領域(表示領域)に個別に表示させる。日時と識別情報とを分けて表示することにより、文字サイズが小さくなりすぎて識別情報の読み取りが困難になることを防げる。
If there is no candidate area that can display all of the date and time and the identification information with a character size equal to or larger than the minimum character size (step S4703; NO), the identification
なお、画像処理装置3(より具体的には識別情報合成部303)が行う識別情報表示領域決定処理は、図3及び図4を参照して上述した処理に限らず、適宜変更可能である。 Note that the identification information display area determination processing performed by the image processing device 3 (more specifically, the identification information synthesizing unit 303) is not limited to the processing described above with reference to FIGS. 3 and 4, and can be changed as appropriate.
このように、本実施形態の画像処理装置3では、日時及び識別情報を画像に合成して表示する際に、日時及び識別情報が認識対象の物体(より具体的には認識対象の物体を囲む枠内の領域)と重ならないように、日時及び識別情報の表示領域の位置及び寸法を決定する。このため、画像から認識した認識対象の物体が複数であり、かつその複数の物体に優先順がない場合でも、日時及び識別情報が認識対象の物体と重なることを低減することができる。また、上述したような所定の条件を満たした場合にのみ表示領域の位置及び寸法を決定(更新)する処理を行うことで、画像毎に表示領域の位置及び寸法を決定するような処理と比べて、画像処理装置3の処理負荷の増大を抑制することができる。
As described above, in the
以下、図5~図9を参照して、本実施形態に係る画像処理システム1に関する具体例を説明する。
A specific example of the
図5は、表示装置に表示される合成画像の一例を示す図である。図6は、認識対象の物体が増えた場合に起こり得る問題の一例を説明する図である。図7は、日時及び識別情報の表示領域が更新された後の合成画像の一例を示す図である。図8は、日時及び識別情報の表示領域を更新する際の候補領域の抽出方法の一例を説明する図である。図9は、日時と識別情報とを異なる表示領域に表示する合成画像の一例を示す図である。 FIG. 5 is a diagram showing an example of a composite image displayed on the display device. FIG. 6 is a diagram illustrating an example of a problem that may occur when objects to be recognized increase. FIG. 7 is a diagram showing an example of a composite image after the date and time and identification information display areas have been updated. FIG. 8 is a diagram illustrating an example of a method for extracting candidate areas when updating the display area of the date and time and identification information. FIG. 9 is a diagram showing an example of a composite image in which date and time and identification information are displayed in different display areas.
図5に例示した合成画像1000は、監視対象である机上をカメラ2で撮像した画像(元画像)に、認識した認識対象の物体を示す枠及び識別情報等が合成された画像である。認識対象の物体にキーボード、鉛筆、及び消しゴムが含まれる場合、画像処理装置3の物体認識部302は、元画像に写っているキーボード11、鉛筆12、及び消しゴム13を認識対象の物体として認識する。このとき、識別情報合成部303は、キーボード11を囲む第1の枠1011、鉛筆12を囲む第2の枠1012、及び消しゴム13を囲む第3の枠1013と、日時及び認識対象の物体の識別情報が記載されたラベル1050を元画像に合成して合成画像1000を生成する。ラベル1050は、第1の枠1011内、第2の枠1012内、及び第3の枠1013内のいずれとも重ならないように表示される。
A
合成画像1000が表示された後、幾らかの時間が経過すると、机上の状態に変化が生じ、例えば、図6に示した合成画像1001のようにカップ14が新たな認識対象の物体として認識されることがある。この場合、従来の画像処理装置では、図6に例示したように、日付及び識別情報が記載されたラベル1050の画像内での位置及び寸法が変わらず、カップ14の一部と重なってしまうことがある。このような合成画像1001が表示装置4に表示された場合、カップ14のうちのラベル1050と重なった部分の状態を視認することができない。このような認識対象の物体(カップ14)と日付及び識別情報(ラベル1050)との重なりを防ぐため、本実施形態の画像処理装置3では、例えば、処理の対象である画像から認識した認識対象の物体の数が直前に処理を行った画像から認識された認識対象の物体の数よりも多くなった場合に、識別情報表示領域決定処理(ステップS4)を行い、日付及び識別情報が記載されたラベル1050の表示位置を更新する。図6に例示した合成画像1001では、画像右上の部分に、第1の枠1011内の領域及び第4の枠1014内の領域と重ならないようにラベル1050を表示可能な領域(候補領域)1042がある。このため、本実施形態の画像処理システム1では、新たにカップ14が認識対象の物体として認識された場合、図7に例示した合成画像1002のように、日付及び識別情報が記載されたラベル1050の表示位置が、右下から右上に変更される。したがって、日付及び識別情報(ラベル1050)が認識対象の物体であるキーボード11、鉛筆12、消しゴム13、及びカップ14のいずれとも重ならない合成画像1002を生成して表示装置4に表示させることができる。
After some time has passed after the
日付及び識別情報(ラベル1050)の表示領域を更新するための識別情報表示領域決定処理(ステップS4)では、例えば、図8に示したように、処理対象の画像1003のうちの日付及び識別情報(ラベル1050)の表示領域に設定可能な領域1020内を複数のブロックに分割し、複数のブロックのうちの、認識対象の物体を囲む枠内の領域になる部分を含まないブロックの集合を枠外領域として導出する(ステップS41)。図8に示した例では、第1の枠1011内の領域になる部分を含むブロックの集合1031、第2の枠1012内の領域になる部分を含むブロックの集合1032、第3の枠1013内の領域になる部分を含むブロックの集合1033、及び第4の枠1014内の領域になる部分を含むブロックの集合1034のそれぞれに網掛けを付している。すなわち、図8に示した例では、領域1020内の白い部分が枠外領域になる。なお、領域1020内の1つのブロックのサイズ(画素数)は適宜変更可能であり、1つの画素を1つのブロックとしてもよい。
In the identification information display area determination process (step S4) for updating the display area of the date and identification information (label 1050), for example, as shown in FIG. The
枠外領域を導出した後、画像処理装置3は、枠外領域から日付及び識別情報(ラベル1050)の表示領域の候補とする候補領域を抽出する(ステップS42)。候補領域の抽出条件を、例えば、日付及び識別情報(ラベル1050)の表示領域に設定可能な領域1020の外周に接する、横3ブロック以上×縦3ブロック以上の矩形領域という条件にした場合、図8に示した4つの候補領域1041、1042、1043、及び1044が抽出される。画像処理装置3(より具体的には識別情報合成部303)は、抽出された4つの候補領域1041、1042、1043、及び1044の中から、日付及び識別情報の表示に最適な候補領域を選出して表示領域に決定する。このとき、画像処理装置3は、図4を参照して上述したような表示領域選出処理を行って表示領域を決定してもよいし、他の処理によって表示領域を決定してもよい。例えば、画像処理装置3は、単に、寸法(ブロック数)が最大の候補領域を日付及び識別情報の表示領域としてもよい。このような処理は、1つのブロックのサイズを横2画素以上×縦2画素以上にして行うことで画像処理装置3の処理負荷の増大を抑制することができるが、上述したように、1つの画素を1つのブロックとして行ってもよい。
After deriving the out-of-frame area, the
図7に例示した合成画像1002が表示された後、幾らかの時間が経過すると、机上の状態に変化が生じ、例えば、図9に例示した合成画像1004のように鉛筆12及びカップ14の位置が変化することがある。認識対象の物体(キーボード11、鉛筆12、消しゴム13、及びカップ14)が図9に例示したような位置にある場合、枠外領域内から、例えば、図7に例示した1つのラベル1050を表示することが可能な候補領域を抽出することができない。このため、画像処理装置3は、例えば、図9に示したように、枠外領域内に日付が記載されたラベル1051を表示する表示領域と、識別情報が記載されたラベル1052を表示する表示領域とを設定する。このように、日付を表示する表示領域と識別情報を表示する表示領域とを分けることにより、1つの表示領域内に表示する情報(文字数)が少なくなるため、その分、文字サイズを大きくすることが可能になる。
After a certain amount of time has passed after the
なお、本実施形態の画像処理装置3は、上述した機能、処理等を実施する専用の装置に限らず、例えば、コンピュータと、図2~図4を参照して上述したような処理をコンピュータに実行させるプログラムとにより実現されてもよい。
Note that the
図10は、コンピュータのハードウェア構成例を説明する図である。図10に例示したコンピュータ6は、プロセッサ601、メモリ(主記憶装置)602、補助記憶装置603、入力装置604、表示装置605、入出力インタフェース606、媒体駆動装置607、及び通信インタフェース608を含む。コンピュータ6のこれらの要素は、バス610等を介して相互にデータを送受信することができる。
FIG. 10 is a diagram illustrating a hardware configuration example of a computer. The
プロセッサ601は、OS(Operating System)のプログラムや、図2~図4に例示したような処理を含むプログラムを実行することにより、上述した画像処理装置3として機能(動作)するように、コンピュータ6の動作を制御する。プロセッサ601は、例えば、1つ以上のCPU(Central Processing Unit)を含む。プロセッサ601は、例えば、DSP(Digital Signal Processor)を含んでもよい。図2~図4を参照して上述したような処理と対応する命令を含むプログラムを実行するプロセッサ601は、図1に例示した画像処理装置3の物体認識部302、識別情報合成部303、及び画像出力部304の機能を実現するハードウェアの一例である。プロセッサ601に実行させるプログラムは、学習用画像を用いて認識対象の物体の特徴を学習し、学習済モデル311を生成する処理を含むプログラムを含んでもよい。
The
メモリ602は、プロセッサ601が実行するプログラムの一部、プロセッサ601がプログラムの実行中に作成したデータや参照するデータ等を記憶する主記憶装置である。メモリ602は、RAM(Random Access Memory)602a、及びROM(Read Only Memory)602bを含む。補助記憶装置603は、例えば、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等の、メモリ602と比べて記憶容量の大きい記憶装置である。メモリ602及び補助記憶装置603は、プロセッサ601に実行させるプログラム、及びプロセッサ601がプログラムを実行する際に使用される各種データを記憶(格納)させる記憶領域を提供する。例えば、補助記憶装置603は、画像処理装置3の記憶部310の機能を実現するハードウェアの一例であり、上述した学習済モデル311及び合成画像データ312を記憶する記憶領域を提供する。メモリ602及び補助記憶装置603は、図2~図4を参照して上述したような処理をコンピュータに実行させるプログラムを格納する非一時的記録媒体の例である。
The
入力装置604は、キーボード装置やマウス装置等の、コンピュータ6に対する操作入力を受け付ける操作入力装置である。表示装置605は、合成画像を利用者に提示することが可能な、液晶ディスプレイ等の表示装置(例えば、図1の表示装置4)である。入出力インタフェース606は、カメラ2等の外部装置からの入力信号の受付、図示しない出力装置(例えば、プリンタ等)への出力信号の出力等を行うハードウェアインタフェースである。入出力インタフェース606は、図1に例示した画像処理装置3の画像取得部301の機能を実現するハードウェアの一例である。
The
媒体駆動装置607は、可搬型機記録媒体650に記憶された情報の読み出し、及び可搬型記録媒体650への情報の書き込み等を行う。可搬型記録媒体650は、例えば、光ディスク、磁気ディスク、光磁気ディスク、及びメモリカードを含む。可搬型記録媒体850は、読み取り専用であってもよいし、書き込み又は書き換えが可能なものであってもよい。可搬型記録媒体650は、学習済モデル311を記憶する記憶領域を提供することに利用可能である。媒体駆動装置607と可搬型記録媒体650との組み合わせは、画像処理装置3の記憶部310の機能を実現し得る。可搬型記録媒体650は、図2~図4を参照して上述したような処理をコンピュータに実行させるプログラムを格納する非一時的記録媒体の例である。媒体駆動装置607は、入出力インタフェース606を介してバス610等に接続されてもよい。
The
通信インタフェース608は、コンピュータ6をインターネット等の通信ネットワークに接続し、通信ネットワークを介した外部装置との通信を制御する。通信インタフェース608は、有線又は無線通信により通信ネットワークに接続される。通信インタフェース608は、例えば、通信ネットワークに接続されたサーバ装置に格納された学習用画像や学習済モデル311を取得することや、合成画像データ312をサーバ装置に転送すること等に利用可能である。また、コンピュータ6とカメラ2とは、入出力インタフェース606の代わりに、通信インタフェース608を利用して接続されてもよい。
The
図10に例示したコンピュータ6のハードウェア構成は、画像処理装置3として利用可能なコンピュータのハードウェア構成の一例に過ぎない。画像処理装置3として利用可能なコンピュータは、図10に例示した構成要素のうちのいくつか(例えば、媒体駆動装置607や通信インタフェース608等)を含まないものであってもよい。また、コンピュータは、例えば、図2~図4を参照して上述したような処理の一部を実行するFPGA(Field Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)等を含んでもよい。
The hardware configuration of the
上述した実施形態は、発明の理解を容易にするために具体例を示したものであり、本発明は上述した実施形態に限定されるものではない。本発明に係る画像処理装置、画像処理方法、及びプログラムは、特許請求の範囲の記載を逸脱しない範囲において、さまざまな変形、変更が可能である。 The above-described embodiments are specific examples for easy understanding of the invention, and the present invention is not limited to the above-described embodiments. The image processing apparatus, image processing method, and program according to the present invention can be modified and modified in various ways without departing from the scope of the claims.
例えば、処理の対象となる画像内に長期的に認識対象の物体が認識されない領域(写らない領域)が存在する場合、その物体が認識されない領域内で、認識した物体の識別情報や日時に関する情報を表示する表示領域の位置及び寸法を決定してもよい。長期的に認識対象の物体が認識されない領域は、例えば、カメラ2の撮像範囲θに基づいて特定される固定の領域であってもよいし、過去の処理(例えば、図3に例示したステップS41及びS42の処理)において候補領域として抽出された領域の履歴に基づいて変動する領域であってもよい。 For example, if there is an area in the image to be processed where the object to be recognized is not recognized for a long period of time (area that is not captured), the identification information of the recognized object and information on the date and time in the area where the object is not recognized. may determine the position and size of the display area for displaying the The region where the recognition target object is not recognized for a long period of time may be, for example, a fixed region specified based on the imaging range θ of the camera 2, or may be a past processing (for example, step S41 illustrated in FIG. 3). and the process of S42)) may vary based on the history of the areas extracted as candidate areas.
以下、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
画像に写っている認識対象の物体を認識する物体認識部と、
前記物体認識部で認識した前記認識対象の物体に関する識別情報を前記画像に合成する識別情報合成部と、
を含み、
前記識別情報合成部は、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定する
ことを特徴とする画像処理装置。
[付記2]
前記識別情報合成部は、前記表示領域の位置及び寸法を更新することと関連付けられた所定の条件を満たす場合に、前記認識対象の物体と重ならない前記領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する前記表示領域の位置及び寸法を決定する
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記識別情報は、前記認識対象の物体の種類を示す文字情報を含み、
前記識別情報合成部は、決定した前記表示領域の位置及び寸法に基づいて、表示する前記識別情報の文字サイズを調整する
ことを特徴とする付記1又は2に記載の画像処理装置。
[付記4]
前記識別情報合成部は、前記表示領域に表示する前記識別情報の文字サイズとして設定されている所定の最大文字サイズから最小文字サイズまでの範囲内で、前記識別情報の文字サイズを調整する
ことを特徴とする付記3に記載の画像処理装置。
[付記5]
前記識別情報合成部は、導出した前記認識対象の物体と重ならない前記領域内で、所定の寸法以上となる矩形の表示領域の候補を抽出し、抽出した前記表示領域の候補のなかから前記表示領域を選出する
ことを特徴とする付記1~4のいずれか1つに記載の画像処理装置。
[付記6]
前記識別情報合成部は、前記識別情報ととともに、前記画像を撮像した日時を示す情報を前記画像の前記表示領域に合成し、
前記識別情報合成部は、前記日時を示す情報と前記識別情報の全てを表示可能な1つの表示領域を決定することができない場合には、前記日時を示す情報を表示する第1の表示領域の位置及び寸法と、前記識別情報を表示する第2の表示領域の位置及び寸法とを決定する
ことを特徴とする付記5に記載の画像処理装置。
[付記7]
前記所定の条件は、現在処理の対象となっている第1の画像と、前記第1の画像よりも時間的に前に撮像されすでに識別情報が合成された第2の画像とで、認識された認識対象の物体の数及び位置の少なくとも一方が異なること、を含む
ことを特徴とする付記2~6のいずれか1つに記載の画像処理装置。
[付記8]
前記所定の条件は、前記識別情報を合成した画像の数が、所定の値又はその値の正の整数倍であること、を含む
ことを特徴とする付記2~7のいずれか1つに記載の画像処理装置。
[付記9]
コンピュータが、
画像に写っている認識対象の物体を認識することと、
認識した前記認識対象の物体に関する識別情報を前記画像に合成することと、
を実行し、
前記識別情報を前記画像に合成することは、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを含む、
ことを特徴とする画像処理方法。
[付記10]
コンピュータに、
画像に写っている認識対象の物体を認識することと、
認識した前記認識対象の物体に関する識別情報を前記画像に合成することと、
を実行させ、
前記識別情報を前記画像に合成することは、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを含む、
ことを特徴とするプログラム。
The invention described in the scope of claims at the time of filing of the present application will be additionally described below.
[Appendix 1]
an object recognition unit that recognizes an object to be recognized in an image;
an identification information synthesizing unit that synthesizes identification information about the object to be recognized recognized by the object recognition unit with the image;
including
The identification information synthesizing unit derives a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, and displays the identification information so as to fit within the derived region. An image processing device that determines the position and size of a display area to be displayed.
[Appendix 2]
The identification information synthesizing unit derives the area that does not overlap with the object to be recognized when a predetermined condition associated with updating the position and size of the display area is satisfied, and places the area within the derived area. The image processing apparatus according to
[Appendix 3]
the identification information includes character information indicating the type of the object to be recognized;
3. The image processing apparatus according to
[Appendix 4]
The identification information synthesizing unit adjusts the character size of the identification information within a range from a predetermined maximum character size to a minimum character size set as the character size of the identification information to be displayed in the display area. The image processing apparatus according to
[Appendix 5]
The identification information synthesizing unit extracts a candidate for a rectangular display area having a predetermined size or more in the area that does not overlap with the derived object to be recognized, and selects the display area from among the extracted candidates for the display area. 5. The image processing apparatus according to any one of
[Appendix 6]
The identification information synthesizing unit synthesizes information indicating the date and time when the image was captured together with the identification information in the display area of the image,
When the identification information synthesizing unit cannot determine a single display area capable of displaying all of the information indicating the date and time and the identification information, the identification information synthesizing unit selects a first display area for displaying the information indicating the date and time. 6. The image processing apparatus according to appendix 5, wherein the position and dimensions of the second display area for displaying the identification information are determined.
[Appendix 7]
The predetermined condition is recognized by a first image currently being processed and a second image captured temporally before the first image and to which the identification information has already been synthesized. 7. The image processing apparatus according to any one of appendices 2 to 6, wherein at least one of the number and positions of the objects to be recognized are different.
[Appendix 8]
8. A statement according to any one of appendices 2 to 7, wherein the predetermined condition includes that the number of images synthesized with the identification information is a predetermined value or a positive integral multiple of that value. image processing device.
[Appendix 9]
the computer
recognizing an object to be recognized in an image;
synthesizing identification information about the recognized object to be recognized with the image;
and run
Synthesizing the identification information with the image includes deriving a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, determining the position and dimensions of a display area for displaying the identification information;
An image processing method characterized by:
[Appendix 10]
to the computer,
recognizing an object to be recognized in an image;
synthesizing identification information about the recognized object to be recognized with the image;
and
Synthesizing the identification information with the image includes deriving a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, determining the position and dimensions of a display area for displaying the identification information;
A program characterized by
1 画像処理システム
2 カメラ
3 画像処理装置
301 画像取得部
302 物体認識部
303 識別情報合成部
304 画像出力部
310 記憶部
311 学習済モデル
312 合成画像データ
4 表示装置
6 コンピュータ
601 プロセッサ
602 メモリ
602a RAM
602b ROM
603 補助記憶装置
604 入力装置
605 表示装置
606 入出力インタフェース
607 媒体駆動装置
608 通信インタフェース
610 バス
650 可搬型記録媒体
1000、1001、1002、1003、1004 合成画像
11 キーボード
12 鉛筆
13 消しゴム
14 カップ
1011、1012、1013、1014 枠
1041、1042、1043、1044 候補領域
1050、1051、1052 ラベル
1 image processing system 2
602b ROM
603
Claims (10)
前記物体認識部で認識した前記認識対象の物体に関する識別情報を前記画像に合成する識別情報合成部と、
を含み、
前記識別情報合成部は、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定する
ことを特徴とする画像処理装置。 an object recognition unit that recognizes an object to be recognized in an image;
an identification information synthesizing unit that synthesizes identification information about the object to be recognized recognized by the object recognition unit with the image;
including
The identification information synthesizing unit derives a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, and displays the identification information so as to fit within the derived region. An image processing device that determines the position and size of a display area to be displayed.
ことを特徴とする請求項1に記載の画像処理装置。 The identification information synthesizing unit derives the area that does not overlap with the object to be recognized when a predetermined condition associated with updating the position and size of the display area is satisfied, and places the area within the derived area. 2. The image processing apparatus according to claim 1, wherein the position and size of said display area for displaying said identification information are determined so as to fit therein.
前記識別情報合成部は、決定した前記表示領域の位置及び寸法に基づいて、表示する前記識別情報の文字サイズを調整する
ことを特徴とする請求項1又は2に記載の画像処理装置。 the identification information includes character information indicating the type of the object to be recognized;
3. The image processing apparatus according to claim 1, wherein the identification information synthesizing unit adjusts the character size of the identification information to be displayed based on the determined position and size of the display area.
ことを特徴とする請求項3に記載の画像処理装置。 The identification information synthesizing unit adjusts the character size of the identification information within a range from a predetermined maximum character size to a minimum character size set as the character size of the identification information to be displayed in the display area. 4. The image processing apparatus according to claim 3.
ことを特徴とする請求項1~4のいずれか1項に記載の画像処理装置。 The identification information synthesizing unit extracts a candidate for a rectangular display area having a predetermined size or more in the area that does not overlap with the derived object to be recognized, and selects the display area from among the extracted candidates for the display area. 5. The image processing apparatus according to any one of claims 1 to 4, wherein an area is selected.
前記識別情報合成部は、前記日時を示す情報と前記識別情報の全てを表示可能な1つの表示領域を決定することができない場合には、前記日時を示す情報を表示する第1の表示領域の位置及び寸法と、前記識別情報を表示する第2の表示領域の位置及び寸法とを決定する
ことを特徴とする請求項5に記載の画像処理装置。 The identification information synthesizing unit synthesizes information indicating the date and time when the image was captured together with the identification information in the display area of the image,
When the identification information synthesizing unit cannot determine a single display area capable of displaying all of the information indicating the date and time and the identification information, the identification information synthesizing unit selects a first display area for displaying the information indicating the date and time. 6. The image processing apparatus according to claim 5, wherein the position and dimensions of the second display area for displaying the identification information are determined.
ことを特徴とする請求項2~6のいずれか1項に記載の画像処理装置。 The predetermined condition is recognized by a first image currently being processed and a second image captured temporally before the first image and to which the identification information has already been synthesized. 7. The image processing apparatus according to any one of claims 2 to 6, wherein at least one of the number and positions of objects to be recognized are different.
ことを特徴とする請求項2~7のいずれか1項に記載の画像処理装置。 8. The method according to any one of claims 2 to 7, wherein the predetermined condition includes that the number of images synthesized with the identification information is a predetermined value or a positive integral multiple of that value. The described image processing device.
画像に写っている認識対象の物体を認識することと、
認識した前記認識対象の物体に関する識別情報を前記画像に合成することと、
を実行し、
前記識別情報を前記画像に合成することは、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを含む、
ことを特徴とする画像処理方法。 the computer
recognizing an object to be recognized in an image;
synthesizing identification information about the recognized object to be recognized with the image;
and run
Synthesizing the identification information with the image includes deriving a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, determining the position and dimensions of a display area for displaying the identification information;
An image processing method characterized by:
画像に写っている認識対象の物体を認識することと、
認識した前記認識対象の物体に関する識別情報を前記画像に合成することと、
を実行させ、
前記識別情報を前記画像に合成することは、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを含む、
ことを特徴とするプログラム。 to the computer,
recognizing an object to be recognized in an image;
synthesizing identification information about the recognized object to be recognized with the image;
and
Synthesizing the identification information with the image includes deriving a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, determining the position and dimensions of a display area for displaying the identification information;
A program characterized by
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021050509A JP2022148719A (en) | 2021-03-24 | 2021-03-24 | Image processing device, image processing method, and program |
CN202210288259.5A CN115209042A (en) | 2021-03-24 | 2022-03-23 | Image processing apparatus, image processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021050509A JP2022148719A (en) | 2021-03-24 | 2021-03-24 | Image processing device, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022148719A true JP2022148719A (en) | 2022-10-06 |
JP2022148719A5 JP2022148719A5 (en) | 2024-02-09 |
Family
ID=83463364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021050509A Pending JP2022148719A (en) | 2021-03-24 | 2021-03-24 | Image processing device, image processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022148719A (en) |
CN (1) | CN115209042A (en) |
-
2021
- 2021-03-24 JP JP2021050509A patent/JP2022148719A/en active Pending
-
2022
- 2022-03-23 CN CN202210288259.5A patent/CN115209042A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN115209042A (en) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6277818B2 (en) | Machine learning apparatus, machine learning method, and program | |
JP6612487B1 (en) | Learning device, classification device, learning method, classification method, learning program, and classification program | |
US20150116349A1 (en) | Image display apparatus, image display method, and computer program product | |
JP2018124639A (en) | Data analysis system, data analysis method and program | |
US10936472B2 (en) | Screen recording preparation method for evaluating software usability | |
US10955993B2 (en) | Image processing apparatus, method for processing information, and non-transitory computer readable medium storing program for adding comments to image information | |
CN101292262A (en) | Fictitious structural content filtering in cognitive control framework | |
CN101753798A (en) | Image processing apparatus, method, and program | |
JP4868139B2 (en) | Image processing apparatus and image processing program | |
Shi et al. | Tracing vocal fold vibrations using level set segmentation method | |
JP2022148719A (en) | Image processing device, image processing method, and program | |
JP6405603B2 (en) | Information processing apparatus, information processing system, and program | |
JP2018045359A (en) | Image processing device and image processing program | |
JP2018055256A (en) | Information processing apparatus, information processing method, and program | |
EP3772703A2 (en) | Image processing apparatus and image processing method | |
CN104660866B (en) | Movement detection systems and method | |
JP6695454B1 (en) | Information processing apparatus, information processing method, and program | |
US11120269B2 (en) | Method and apparatus for determining target rotation direction, computer readable medium and electronic device | |
JP2006260410A (en) | Evaluation apparatus and method for image processing algorithm, producing system and method, program for making computer function as evaluation system, and program for making computer function as producing system | |
TWI633498B (en) | Image processing device, image processing method, and program product | |
US11310349B1 (en) | Transforming multivariate time series data into image data to generate image-based predictions | |
JP6331914B2 (en) | Algorithm generating apparatus, algorithm generating method and algorithm generating computer program | |
JP6922690B2 (en) | Character area extraction program, character area extraction device and character area extraction method | |
CN112100075B (en) | User interface playback method, device, equipment and storage medium | |
Tsai et al. | EESRGAN: Efficient & Effective Super-Resolution Generative Adversarial Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240201 |