JP2022148719A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2022148719A
JP2022148719A JP2021050509A JP2021050509A JP2022148719A JP 2022148719 A JP2022148719 A JP 2022148719A JP 2021050509 A JP2021050509 A JP 2021050509A JP 2021050509 A JP2021050509 A JP 2021050509A JP 2022148719 A JP2022148719 A JP 2022148719A
Authority
JP
Japan
Prior art keywords
identification information
image
recognized
display area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021050509A
Other languages
Japanese (ja)
Other versions
JP2022148719A5 (en
Inventor
芳幸 加藤
Yoshiyuki Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2021050509A priority Critical patent/JP2022148719A/en
Priority to CN202210288259.5A priority patent/CN115209042A/en
Publication of JP2022148719A publication Critical patent/JP2022148719A/en
Publication of JP2022148719A5 publication Critical patent/JP2022148719A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

To reduce overlap between a recognized object in an image and information about the object.SOLUTION: An image processing device 3 includes an object recognition unit 302 that recognizes an object to be recognized in an image, and an identification information synthesizing unit 303 that synthesizes the identification information about the object to be recognized recognized by the object recognition unit 302 with the image, and the identification information synthesizing unit 303 derives an area that does not overlap with the object to be recognized on the basis of the position and size of the object to be recognized in the image, and determines the position and dimensions of a display area that displays the identification information so as to fit within the derived area.SELECTED DRAWING: Figure 1

Description

本明細書の開示は、画像処理装置、画像処理方法、及びプログラムに関する。 The disclosure of the present specification relates to an image processing device, an image processing method, and a program.

撮像装置で撮像した画像に写っている物体を認識する技術は、例えば、防犯等を目的とした監視システムや、店舗内での顧客の購買動向の調査するシステム等に利用されている。上述したシステムでは、例えば、画像に写っている物体のなかからあらかじめ定められた条件を満たす物体のみを認識し、認識した物体を示す枠とその物体の識別情報とを画像に合成して表示装置に表示する。 2. Description of the Related Art Techniques for recognizing an object in an image captured by an imaging device are used, for example, in monitoring systems for the purpose of crime prevention, systems for investigating customer purchasing trends in stores, and the like. In the above-described system, for example, only objects that satisfy predetermined conditions are recognized among the objects in the image, and the frame indicating the recognized object and the identification information of the object are combined with the image, and the display device synthesizes the image. to display.

関連する技術として、特許文献1には、表示されている複数の被写体のうち、優先順が最も高い主被写体や主被写体に関連するアイテムの表示と、主被写体以外の他の被写体に関連するアイテムの表示とが重ならないように、他の被写体に関連するアイテムの表示位置を調整する表示制御方法が記載されている。 As a related technique, Japanese Patent Application Laid-Open No. 2002-200001 describes displaying a main subject with the highest priority among a plurality of displayed subjects and items related to the main subject, and displaying items related to subjects other than the main subject. describes a display control method for adjusting the display position of an item related to another subject so that the display of the subject does not overlap with the display of the subject.

特開2013-141092号公報JP 2013-141092 A

しかしながら、特許文献1に記載された表示制御方法では、他の被写体に関連するアイテムの表示が、そのアイテムと関連付けられる被写体の表示、又は更に別の被写体の表示と重なってしまうことが起こり得る。また、画像に写っている物体を認識する場合、認識した複数の物体に特定の優先順が設定されていないこともある。このため、画像から認識した物体が複数である場合には、それらの物体の識別情報が認識した物体に重なってしまい、認識した物体の状態等を正確に把握することが難しい。 However, with the display control method described in Patent Literature 1, the display of an item related to another subject may overlap the display of the subject associated with that item or the display of another subject. In addition, when recognizing objects in an image, a specific priority order may not be set for the recognized objects. Therefore, when a plurality of objects are recognized from an image, the identification information of those objects overlaps with the recognized objects, making it difficult to accurately grasp the state of the recognized objects.

以上のような実情を踏まえ、本発明の一側面に係る目的は、画像内で認識された物体とその物体に関する情報とが重なることを低減することが可能な技術を提供することである。 In view of the circumstances as described above, it is an object of one aspect of the present invention to provide a technique capable of reducing overlap between an object recognized in an image and information about the object.

本発明の一態様に係る画像処理装置は、画像に写っている認識対象の物体を認識する物体認識部と、前記物体認識部で認識した前記認識対象の物体に関する識別情報を前記画像に合成する識別情報合成部と、を含み、前記識別情報合成部は、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを特徴とする。 An image processing apparatus according to an aspect of the present invention combines an object recognition unit that recognizes a recognition target object appearing in an image, and identification information related to the recognition target object recognized by the object recognition unit, with the image. an identification information synthesizing unit, wherein the identification information synthesizing unit derives a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, and The position and dimensions of the display area for displaying the identification information are determined so as to fit within the space.

本発明の一態様に係る画像処理方法は、コンピュータが、画像に写っている認識対象の物体を認識することと、認識した前記認識対象の物体に関する識別情報を前記画像に合成することと、を実行し、前記識別情報を前記画像に合成することは、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを含む、ことを特徴とする。 An image processing method according to an aspect of the present invention comprises: a computer recognizing a recognition target object appearing in an image; and synthesizing identification information related to the recognized recognition target object with the image. and synthesizing the identification information with the image includes: deriving a region that does not overlap with the object to be recognized based on the position and size of the object to be recognized in the image; determining a position and size of a display area for displaying the identification information so as to fit therein.

本発明の一態様に係るプログラムは、コンピュータに、画像に写っている認識対象の物体を認識することと、認識した前記認識対象の物体に関する識別情報を前記画像に合成することと、を実行させ、前記識別情報を前記画像に合成することは、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを含む、ことを特徴とする。 A program according to an aspect of the present invention causes a computer to recognize a recognition target object appearing in an image and synthesize identification information about the recognized recognition target object with the image. , synthesizing the identification information with the image includes: deriving a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image; determining the position and size of the display area for displaying the identification information.

上述の態様によれば、画像内で認識された物体とその物体に関する情報とが重なることを低減することができる。 According to the above aspect, it is possible to reduce overlap between the object recognized in the image and the information about the object.

一実施形態に係る画像処理システムのシステム構成例を説明する図である。1 is a diagram illustrating a system configuration example of an image processing system according to an embodiment; FIG. 一実施形態に係る画像処理装置が行う処理の一例を説明するフローチャートである。4 is a flowchart illustrating an example of processing performed by an image processing apparatus according to an embodiment; 一実施形態に係る識別情報表示領域決定処理の一例を説明するフローチャートである。9 is a flowchart illustrating an example of identification information display area determination processing according to an embodiment; 図3のフローチャートにおける表示領域選出処理の一例を説明するフローチャートである。FIG. 4 is a flowchart illustrating an example of display area selection processing in the flowchart of FIG. 3; FIG. 表示装置に表示される合成画像の一例を示す図である。It is a figure which shows an example of the synthetic image displayed on a display apparatus. 認識対象の物体が増えた場合に起こり得る問題の一例を説明する図である。FIG. 10 is a diagram illustrating an example of a problem that may occur when objects to be recognized increase. 日時及び識別情報の表示領域が更新された後の合成画像の一例を示す図である。FIG. 10 is a diagram showing an example of a composite image after the date and time and identification information display areas have been updated; 日時及び識別情報の表示領域を更新する際の候補領域の抽出方法の一例を説明する図である。FIG. 10 is a diagram illustrating an example of a method for extracting candidate areas when updating a display area for date and time and identification information; 日時と識別情報とを異なる表示領域に表示する合成画像の一例を示す図である。FIG. 10 is a diagram showing an example of a composite image displaying date and time and identification information in different display areas; コンピュータのハードウェア構成例を説明する図である。It is a figure explaining the hardware configuration example of a computer.

以下、図面を参照して本発明の実施形態を説明する。なお、以下の説明では、画像に写っている物体を認識する処理のうち、既知の処理に関する詳細な説明を省略する。 Embodiments of the present invention will be described below with reference to the drawings. It should be noted that, in the following description, a detailed description of known processing among the processing for recognizing an object appearing in an image will be omitted.

図1は、一実施形態に係る画像処理システムのシステム構成例を説明する図である。図1に例示した画像処理システム1は、カメラ2、画像処理装置3、及び表示装置4を含む。 FIG. 1 is a diagram illustrating a system configuration example of an image processing system according to an embodiment. An image processing system 1 illustrated in FIG. 1 includes a camera 2 , an image processing device 3 and a display device 4 .

カメラ2は、視点Pから撮像範囲θ内の物体の像を撮像し、画像データ(以下、単に「画像」という)として画像処理装置3に転送する。本明細書における画像は、映像データのフレームを含む。すなわち、カメラ2は、静止画像を出力する撮像装置であってもよいし、動画像を出力する撮像装置であってもよい。カメラ2と画像処理装置3とは、例えば、USB(Universal Serial Bus)ケーブル等の伝送ケーブルにより接続される。カメラ2と画像処理装置3とは、例えば、既知の近距離無線通信規格等に従った無線通信により接続されてもよい。また、カメラ2と画像処理装置3とは、例えば、インターネット等の通信ネットワーク(図示せず)を介して接続されてもよい。 The camera 2 takes an image of an object within an imaging range θ from a viewpoint P and transfers it to the image processing device 3 as image data (hereinafter simply referred to as “image”). An image herein includes a frame of video data. That is, the camera 2 may be an imaging device that outputs a still image, or may be an imaging device that outputs a moving image. The camera 2 and the image processing device 3 are connected by a transmission cable such as a USB (Universal Serial Bus) cable, for example. The camera 2 and the image processing device 3 may be connected by wireless communication conforming to a known short-range wireless communication standard or the like, for example. Also, the camera 2 and the image processing device 3 may be connected via a communication network (not shown) such as the Internet, for example.

画像処理装置3は、カメラ2から転送された画像から所定の条件を満たす物体を認識し、認識した物体に関連する識別情報を画像に合成する処理を行う。また、画像処理装置3は、識別情報を合成した画像を表示装置4に表示させる。画像処理装置3は、画像取得部301、物体認識部302、識別情報合成部303、画像出力部304、及び記憶部310を含む。 The image processing device 3 recognizes an object that satisfies a predetermined condition from the image transferred from the camera 2, and performs a process of synthesizing identification information related to the recognized object with the image. Further, the image processing device 3 causes the display device 4 to display an image synthesized with the identification information. The image processing device 3 includes an image acquisition unit 301 , an object recognition unit 302 , an identification information synthesis unit 303 , an image output unit 304 and a storage unit 310 .

画像取得部301は、カメラ2から画像を取得する。画像取得部301は、能動的に画像を取得してもよいし、受動的に画像を取得してもよい。能動的に画像を取得する場合、画像取得部301は、例えば、所定の時間間隔でカメラ2に対して撮像指示を送信してカメラ2が撮像した画像を取得する。 An image acquisition unit 301 acquires an image from the camera 2 . The image acquisition unit 301 may acquire images actively or passively. When actively acquiring an image, the image acquiring unit 301 acquires an image captured by the camera 2 by transmitting an imaging instruction to the camera 2 at predetermined time intervals, for example.

物体認識部302は、取得した画像に写っている物体のなかからあらかじめ定められた条件を満たす物体(以下、「認識対象の物体」という)を認識する。認識対象の物体は、1種類に限らず、2種類以上であってもよい。物体認識部302は、例えば、記憶部310に格納された学習済モデル311を用いて、認識対象の物体を認識する。学習済モデル311は、認識対象の物体に関する複数の学習用画像を利用した機械学習により認識対象の物体の特徴を学習して生成(構築)されたモデルであり、カメラ2により撮像された画像が入力された際に、学習した特徴を有する物体を示す情報を出力する。学習済モデル311は、例えば、YOLO(You Only Look Once)を利用して生成することができる。なお、機械学習の学習手法は、特定の手法に限定されない。また、物体認識部302による物体の認識方法は、学習済モデル311を用いた方法に限定されない。 The object recognition unit 302 recognizes an object that satisfies a predetermined condition (hereinafter referred to as “recognition target object”) among the objects appearing in the acquired image. The object to be recognized is not limited to one type, and may be two or more types. The object recognition unit 302 recognizes an object to be recognized using, for example, a trained model 311 stored in the storage unit 310 . The trained model 311 is a model generated (constructed) by learning the features of the object to be recognized by machine learning using a plurality of learning images related to the object to be recognized. When input, it outputs information indicating an object having the learned features. The learned model 311 can be generated using, for example, YOLO (You Only Look Once). Note that the learning method of machine learning is not limited to a specific method. Further, the object recognition method by the object recognition unit 302 is not limited to the method using the trained model 311 .

識別情報合成部303は、物体認識部302で認識された認識対象の物体に関する識別情報と、日時に関する情報とを画像内に合成(付加)する。日時に関する情報は、例えば、画像の撮像日時を示す情報である。また、本実施形態の画像処理装置3の識別情報合成部303は、日時に関する情報と識別情報とを表示する表示領域の位置及び寸法を決定する。より具体的には、識別情報合成部303は、日時に関する情報及び識別情報が認識対象の物体と重ならないように、日時に関する情報と識別情報とを表示する表示領域の位置及び寸法を決定する。本実施形態では、識別情報合成部303が、表示領域の位置及び寸法を決定することと、その表示領域に日時に関する情報と識別情報とを画像内に合成することとを行うものとして説明するが、画像処理装置3は、表示領域の位置及び寸法を決定する決定部と、決定した表示領域に日時に関する情報と識別情報とを画像内に合成する合成部とが個別に設けられており、その決定部と合成部とが識別情報合成部303として機能するように構成されていてもよい。 The identification information synthesizing unit 303 synthesizes (adds) the identification information regarding the recognition target object recognized by the object recognizing unit 302 and the information regarding date and time into the image. The date and time information is, for example, information indicating the image capturing date and time. Further, the identification information synthesizing unit 303 of the image processing apparatus 3 of the present embodiment determines the position and size of the display area for displaying the information on date and time and the identification information. More specifically, the identification information synthesizing unit 303 determines the position and size of the display area for displaying the date and time information and the identification information so that the date and time information and the identification information do not overlap with the object to be recognized. In the present embodiment, it is assumed that the identification information synthesizing unit 303 determines the position and size of the display area, and synthesizes the information about the date and time and the identification information in the image in the display area. , the image processing device 3 is provided with a determining unit for determining the position and size of the display area, and a synthesizing unit for synthesizing the information on the date and time and the identification information in the determined display area within the image. The determining unit and synthesizing unit may be configured to function as the identification information synthesizing unit 303 .

画像出力部304は、識別情報と日時に関する情報とが合成された画像(以下、「合成画像」という)を表示装置4に表示させる。物体認識部302及び識別情報合成部303における上記の処理が行われない場合、画像出力部304は、画像取得部301により取得した画像を表示装置4に表示させる。また、合成画像は、合成画像データ312として記憶部310に格納される。 The image output unit 304 causes the display device 4 to display an image obtained by synthesizing the identification information and the information about date and time (hereinafter referred to as a "composite image"). When the above processing in the object recognition unit 302 and the identification information synthesis unit 303 is not performed, the image output unit 304 causes the display device 4 to display the image acquired by the image acquisition unit 301 . Also, the composite image is stored in the storage unit 310 as composite image data 312 .

記憶部310は、学習済モデル311及び合成画像データ312を含む、種々のデータやプログラム等を記憶する。記憶部310には、例えば、合成画像データ312とは別に、画像取得部301により取得した画像を記憶させてもよい。また、記憶部310には、合成画像データ312の代わりに、画像取得部301により取得した画像とその画像に関連付けられる物体の識別情報とを記憶させてもよい。 The storage unit 310 stores various data, programs, etc. including a trained model 311 and synthesized image data 312 . For example, the image acquired by the image acquiring unit 301 may be stored in the storage unit 310 separately from the combined image data 312 . Also, instead of the composite image data 312, the storage unit 310 may store an image acquired by the image acquisition unit 301 and object identification information associated with the image.

図1に例示した画像処理システム1は、カメラ2で撮像した画像に写っている認識対象の物体を認識し、認識した物体の識別情報等が合成(付加)された画像を表示装置4に表示する。この種の画像処理システム1は、例えば、防犯等を目的とした監視システムや、店舗内での顧客の購買動向を調査するシステムとして利用される。 An image processing system 1 illustrated in FIG. 1 recognizes an object to be recognized in an image captured by a camera 2, and displays an image synthesized (added) with identification information of the recognized object on a display device 4. do. This type of image processing system 1 is used, for example, as a monitoring system for the purpose of crime prevention or as a system for investigating the purchasing trends of customers in a store.

図2は、一実施形態に係る画像処理装置が行う処理の一例を説明するフローチャートである。画像処理装置3は、例えば、カメラ2から画像を取得する処理と並行して、図2に例示したフローチャートに沿った処理を行う。以下の説明における「識別情報」は、区別する記載がない限り、認識した物体に関する識別情報と日時に関する情報とを含む。 FIG. 2 is a flowchart illustrating an example of processing performed by the image processing apparatus according to one embodiment. For example, the image processing device 3 performs processing according to the flowchart illustrated in FIG. 2 in parallel with processing for acquiring an image from the camera 2 . "Identification information" in the following description includes identification information about a recognized object and information about date and time, unless otherwise specified.

本実施形態の画像処理装置3は、取得した画像を学習済モデル311に入力し、画像内の認識対象の物体を示す情報を出力する(ステップS1)。その後、画像処理装置3は、出力された情報に基づいて認識対象の物体を囲む枠の位置及び寸法を決定する(ステップS2)。ステップS1及びS2の処理は、物体認識部302が行う。物体認識部302は、画像処理の分野における既知の物体認識方法や物体検出方法を利用して、ステップS1及びS2の処理を行う。ステップS1において物体認識部302が出力する情報は、画像内に認識対象の物体が存在しないことを示す情報を含む。 The image processing apparatus 3 of the present embodiment inputs the acquired image to the trained model 311 and outputs information indicating an object to be recognized in the image (step S1). After that, the image processing device 3 determines the position and size of the frame surrounding the object to be recognized based on the output information (step S2). The processing of steps S1 and S2 is performed by the object recognition unit 302 . The object recognition unit 302 performs the processes of steps S1 and S2 using known object recognition methods and object detection methods in the field of image processing. The information output by the object recognition unit 302 in step S1 includes information indicating that the object to be recognized does not exist in the image.

次に、画像処理装置3は、識別情報の表示領域を更新する条件を満たしているか否かを判定する(ステップS3)。ステップS3の判定は、例えば、識別情報合成部303が行う。更新する条件は、例えば、現在処理の対象となっている画像と、その画像よりも時間的に前に撮像されすでに識別情報を合成する処理が行われた画像とで、認識された認識対象の物体の数及び位置の少なくとも一方が異なることという条件を含む。更新する条件は、例えば、物体の識別情報を合成した画像の数が、所定の値又はその値の正の整数(自然数)倍であることという条件を含んでもよい。例えば、N枚の画像(Nは1以上の整数)に対して物体の識別情報を合成する毎に表示領域を更新するように設定されている場合、更新する条件は、処理の対象になった画像の累積数XがX/N=a(aは正の整数)を満たすこと、及び前回表示領域が決定されたときからの処理の対象になった画像の数YがY=Nを満たすこと、のいずれか一方含む。 Next, the image processing device 3 determines whether or not the conditions for updating the display area of the identification information are satisfied (step S3). The determination in step S3 is performed by the identification information synthesis unit 303, for example. The conditions for updating are, for example, an image that is currently being processed and an image that was captured earlier in time than the image and has already undergone processing for synthesizing identification information. It includes the condition that at least one of the number and positions of the objects is different. The update condition may include, for example, a condition that the number of images synthesized with object identification information is a predetermined value or a positive integer (natural number) multiple of that value. For example, if it is set to update the display area each time object identification information is synthesized for N images (N is an integer of 1 or more), the update condition is set to be the target of processing. The cumulative number X of images satisfies X/N=a (where a is a positive integer), and the number Y of images to be processed since the last time the display area was determined satisfies Y=N. , or

更新する条件を満たしている場合(ステップS3;YES)、識別情報合成部303は、識別情報表示領域決定処理(ステップS4)を行った後、認識対象の物体を囲む枠及び識別情報を画像内に合成する(ステップS5)。更新する条件を満たしていない場合(ステップS3;NO)、識別情報合成部303は、識別情報表示領域決定処理(ステップS4)を省略し、認識対象の物体を囲む枠及び識別情報を画像内に合成する(ステップS5)。ステップS5の後、画像処理装置3は、合成した画像を出力する(ステップS6)。ステップS6の処理は、識別情報合成部303が合成した画像を記憶部310に合成画像データ312として記憶させる処理と、識別情報合成部303が合成した画像を画像出力部304が表示装置3に表示させる処理とを含む。 If the update condition is satisfied (step S3; YES), the identification information synthesizing unit 303 performs the identification information display area determination process (step S4), and then inserts the frame surrounding the object to be recognized and the identification information into the image. (step S5). If the update condition is not satisfied (step S3; NO), the identification information synthesis unit 303 omits the identification information display area determination process (step S4), and inserts the frame surrounding the object to be recognized and the identification information into the image. Synthesize (step S5). After step S5, the image processing device 3 outputs the synthesized image (step S6). The processing in step S6 includes processing for storing the image synthesized by the identification information synthesizing unit 303 in the storage unit 310 as synthesized image data 312, and displaying the image synthesized by the identification information synthesizing unit 303 on the display device 3 by the image output unit 304. and processing to cause

本実施形態の画像処理装置3は、カメラ2で連続的に撮像された複数の画像のそれぞれに対してステップS1~S6の処理を行うことにより、認識対象の物体に関する情報が合成された複数の画像を時系列で表示装置4に表示させる。複数の画像のそれぞれに対するステップS1~S6の処理は、パイプライン化して行ってもよいし、逐次実行方式(すなわち、1枚の画像に対するステップS1~S6の処理が終わると、次の1枚の画像に対するステップS1~S6の処理を行う方式)で行ってもよい。また、画像処理装置3は、過去にカメラ2により撮像された複数の画像の組を用いて、図2に例示したフローチャートに沿った処理を行ってもよい。 The image processing device 3 of the present embodiment performs the processing of steps S1 to S6 on each of a plurality of images continuously captured by the camera 2, thereby obtaining a plurality of images obtained by synthesizing information about an object to be recognized. The images are displayed on the display device 4 in chronological order. The processing of steps S1 to S6 for each of a plurality of images may be performed in a pipeline or by a sequential execution method (that is, when the processing of steps S1 to S6 for one image is completed, the next one method of performing the processing of steps S1 to S6 on an image). Further, the image processing device 3 may perform processing according to the flowchart illustrated in FIG. 2 using a set of images captured by the camera 2 in the past.

このように、本実施形態に係る画像処理装置3は、取得した画像から認識した認識対象の物体に関する識別情報を合成する処理を繰り返しているときに所定の条件を満たすと、識別情報表示領域決定処理(ステップS4)を行って、識別情報の表示領域を更新する。識別情報表示領域決定処理として、本実施形態の画像処理装置3は、例えば、図3及び図4に例示したフローチャートに沿った処理を行う。 As described above, the image processing apparatus 3 according to the present embodiment determines the identification information display area when a predetermined condition is satisfied while repeating the process of synthesizing the identification information related to the recognition target object recognized from the acquired images. Processing (step S4) is performed to update the display area of the identification information. As the identification information display area determination process, the image processing apparatus 3 of the present embodiment performs, for example, the process according to the flowcharts illustrated in FIGS. 3 and 4 .

図3は、一実施形態に係る識別情報表示領域決定処理の一例を説明するフローチャートである。図4は、図3のフローチャートにおける表示領域選出処理の一例を説明するフローチャートである。図3及び図4のフローチャートに沿った処理は、例えば、画像処理装置3の識別情報合成部303が行う。 FIG. 3 is a flowchart illustrating an example of identification information display area determination processing according to an embodiment. FIG. 4 is a flowchart illustrating an example of display area selection processing in the flowchart of FIG. The processing according to the flowcharts of FIGS. 3 and 4 is performed by, for example, the identification information synthesizing unit 303 of the image processing device 3 .

識別情報合成部303は、識別情報表示領域決定処理を開始すると、認識対象の物体を囲む枠の位置及び寸法に基づいて画像内の枠外領域を導出し(ステップS41)、枠外領域内から識別領域の表示領域の候補とする候補領域を抽出する(ステップS42)。枠外領域は、識別情報の表示領域に設定可能な画像内の領域全体のうちの、認識対象の物体を囲む枠内の領域を除いた領域である。ステップS42において、識別情報合成部303は、枠外領域内に設定可能な矩形領域のうちの所定の寸法以上の矩形領域を候補領域として抽出する。 When starting the identification information display area determination process, the identification information synthesizing unit 303 derives an out-of-frame area in the image based on the position and dimensions of the frame surrounding the object to be recognized (step S41), and extracts an out-of-frame area from within the out-of-frame area. A candidate area is extracted as a candidate for the display area of (step S42). The out-of-frame area is an area excluding the area within the frame surrounding the object to be recognized, out of the entire area in the image that can be set as the identification information display area. In step S42, the identification information synthesizing unit 303 extracts, as a candidate area, a rectangular area having a predetermined dimension or more from the rectangular areas that can be set in the out-of-frame area.

ステップS42の処理の後、識別情報合成部303は、候補領域があるか否かを判定する(ステップS43)。候補領域がない場合(ステップS43;NO)、識別情報合成部303は、所定の領域を表示領域に決定し(ステップS44)、識別情報表示領域決定処理を終了する。ステップS44における所定の領域は、例えば、識別情報の表示領域に関する初期設定情報(例えば、画面右下の所定の寸法の領域等)に基づいて、表示領域を決定する。 After the process of step S42, the identification information synthesizing unit 303 determines whether or not there is a candidate area (step S43). If there is no candidate area (step S43; NO), the identification information synthesizing unit 303 determines a predetermined area as the display area (step S44), and ends the identification information display area determination process. For the predetermined area in step S44, the display area is determined based on, for example, the initial setting information (for example, the area of predetermined size at the bottom right of the screen) regarding the display area of the identification information.

候補領域がある場合(ステップS43;YES)、識別情報合成部303は、次に、候補領域が複数であるか否かを判定する(ステップS45)。候補領域が複数ではなく1つの場合(ステップS45;NO)、識別情報合成部303は、抽出した候補領域を表示領域に決定し(ステップS46)、識別情報表示領域決定処理を終了する。候補領域が複数である場合(ステップS45;YES)、識別情報合成部303は、複数の候補領域のなかから表示領域を選出する表示領域選出処理(ステップS47)を行った後、識別情報表示領域決定処理を終了する。 If there is a candidate area (step S43; YES), the identification information synthesizing unit 303 next determines whether or not there are a plurality of candidate areas (step S45). If there is only one candidate area (step S45; NO), the identification information synthesizing unit 303 determines the extracted candidate area as the display area (step S46), and terminates the identification information display area determination process. If there are a plurality of candidate areas (step S45; YES), the identification information synthesizing unit 303 performs a display area selection process (step S47) for selecting a display area from among the plurality of candidate areas, and then selects the identification information display area. End decision processing.

表示領域選出処理として、識別情報合成部303は、例えば、図4のフローチャートに沿った処理を行う。識別情報合成部303は、表示領域選出処理を開始すると、複数の候補領域の中に最大文字サイズで日時と識別情報の全てを表示可能な候補領域があるか否かを判定する(ステップS4701)。最大文字サイズは、識別情報の表示に使用可能な複数通りの文字サイズのうちの最大のサイズであり、例えば、画像に合成された識別情報の読みやすさ等を考慮して初期設定されたサイズである。表示可能な候補領域がある場合(ステップS4701;YES)、識別情報合成部303は、最大文字サイズで日時と識別情報の全てを表示可能な候補領域の1つを表示領域に選出し(ステップS4702)、表示領域選出処理を終了する。表示可能な候補領域が1つの場合、ステップS4702において、識別情報合成部303は、その1つの候補領域を表示領域に選出する。表示可能な候補領域が複数の場合、ステップS4702において、識別情報合成部303は、例えば、複数の候補領域のうちの現時点での表示領域の位置と同じ、又は最も近い候補領域を、更新後の表示領域として選出する。この場合、表示領域選出処理を終了した識別情報合成部303は、図3に例示した識別情報表示領域決定処理を終了し、図2に例示したステップS5の処理を行う。ステップS5において、識別情報合成部303は、処理の対象となっている画像のステップS4702で選出した表示領域内に、最大文字サイズで日時と識別情報とが記載されたラベルを合成する。 As the display area selection process, the identification information synthesizing unit 303 performs, for example, a process according to the flowchart of FIG. When starting the display area selection process, the identification information synthesizing unit 303 determines whether or not there is a candidate area in which the date and time and all of the identification information can be displayed in the maximum character size among the plurality of candidate areas (step S4701). . The maximum character size is the maximum character size among multiple character sizes that can be used to display identification information. is. If there is a candidate area that can be displayed (step S4701; YES), the identification information synthesizing unit 303 selects one of the candidate areas that can display all of the date and time and the identification information with the maximum character size as the display area (step S4702). ) to end the display area selection process. If there is one candidate area that can be displayed, the identification information synthesizing unit 303 selects that one candidate area as the display area in step S4702. If there are a plurality of candidate areas that can be displayed, in step S4702, the identification information synthesizing unit 303 selects, among the plurality of candidate areas, a candidate area that is the same as or closest to the position of the display area at the current point in time after the update. Elect as display area. In this case, the identification information synthesizing unit 303 that has finished the display area selection process finishes the identification information display area determination process illustrated in FIG. 3, and performs the process of step S5 illustrated in FIG. In step S5, the identification information synthesizing unit 303 synthesizes a label in which date and time and identification information are described in the maximum character size in the display area of the image to be processed selected in step S4702.

最大文字サイズで日時と識別情報の全てを表示可能な候補領域がない場合(ステップS4701;NO)、識別情報合成部303は、次に、最小文字サイズ以上の文字サイズで日時と識別情報の全てを表示可能な候補領域があるか否かを判定する(ステップS4703)。最小文字サイズは、識別情報の表示に使用可能な複数通りの文字サイズのうちの最小のサイズであり、例えば、画像に合成された識別情報の読みやすさ等を考慮して設定される。表示可能な候補領域がある場合(ステップS4703;YES)、識別情報合成部303は、該当する候補領域のうちの文字サイズを最も大きくできる候補領域の1つを表示領域に選出し(ステップS4704)、表示領域選出処理を終了する。該当する候補領域が1つの場合、ステップS4704において、識別情報合成部303は、その1つの候補領域を表示領域に選出する。該当する候補領域が複数の場合、ステップS4704の代替処理として、識別情報合成部303は、例えば、現時点での表示領域の位置と同じ、又は最も近い候補領域を、更新後の表示領域として選出してもよい。 If there is no candidate area that can display all the date and time and the identification information with the maximum character size (step S4701; NO), the identification information synthesizing unit 303 next displays all the date and time and the identification information with a character size equal to or larger than the minimum character size. (step S4703). The minimum character size is the smallest size among a plurality of character sizes that can be used for displaying identification information, and is set, for example, in consideration of the readability of identification information combined with an image. If there are candidate areas that can be displayed (step S4703; YES), the identification information synthesizing unit 303 selects one of the corresponding candidate areas that can maximize the character size as a display area (step S4704). , to end the display area selection process. If there is one corresponding candidate area, the identification information synthesis unit 303 selects the one candidate area as the display area in step S4704. If there are a plurality of applicable candidate areas, as alternative processing in step S4704, the identification information synthesizing unit 303 selects, for example, a candidate area that is the same as or closest to the position of the current display area as the post-update display area. may

最小文字サイズ以上の文字サイズで日時と識別情報の全てを表示可能な候補領域がない場合(ステップS4703;NO)、識別情報合成部303は、例えば、識別情報の表示領域にする候補領域と、日時の表示領域にする候補領域とを選出し(ステップS4705)、表示領域選出処理を終了する。例えば、表示する識別情報の文字数が多い等の要因により、複数の候補領域の中に日時と識別情報の全てを1つにまとめて表示することが可能な候補領域がない場合には、日時と識別情報とを、画像内の異なる候補領域(表示領域)に個別に表示させる。日時と識別情報とを分けて表示することにより、文字サイズが小さくなりすぎて識別情報の読み取りが困難になることを防げる。 If there is no candidate area that can display all of the date and time and the identification information with a character size equal to or larger than the minimum character size (step S4703; NO), the identification information synthesizing unit 303, for example, selects a candidate area as an identification information display area, A candidate area for the date and time display area is selected (step S4705), and the display area selection process ends. For example, if there is no candidate area that can display all of the date and time and the identification information together in one candidate area due to factors such as the number of characters of the identification information to be displayed is large, the date and time and The identification information is individually displayed in different candidate areas (display areas) within the image. By separately displaying the date and time and the identification information, it is possible to prevent difficulty in reading the identification information due to the character size becoming too small.

なお、画像処理装置3(より具体的には識別情報合成部303)が行う識別情報表示領域決定処理は、図3及び図4を参照して上述した処理に限らず、適宜変更可能である。 Note that the identification information display area determination processing performed by the image processing device 3 (more specifically, the identification information synthesizing unit 303) is not limited to the processing described above with reference to FIGS. 3 and 4, and can be changed as appropriate.

このように、本実施形態の画像処理装置3では、日時及び識別情報を画像に合成して表示する際に、日時及び識別情報が認識対象の物体(より具体的には認識対象の物体を囲む枠内の領域)と重ならないように、日時及び識別情報の表示領域の位置及び寸法を決定する。このため、画像から認識した認識対象の物体が複数であり、かつその複数の物体に優先順がない場合でも、日時及び識別情報が認識対象の物体と重なることを低減することができる。また、上述したような所定の条件を満たした場合にのみ表示領域の位置及び寸法を決定(更新)する処理を行うことで、画像毎に表示領域の位置及び寸法を決定するような処理と比べて、画像処理装置3の処理負荷の増大を抑制することができる。 As described above, in the image processing apparatus 3 of the present embodiment, when the date and time and the identification information are combined with the image and displayed, the date and time and the identification information surround the object to be recognized (more specifically, the object to be recognized). The position and dimensions of the display area for the date and time and identification information are determined so that they do not overlap with the area inside the frame. Therefore, even when there are a plurality of recognition target objects recognized from an image and there is no priority order for the plurality of objects, it is possible to reduce overlap of the date and time and the identification information with the recognition target objects. In addition, by performing the process of determining (updating) the position and size of the display area only when the predetermined conditions as described above are satisfied, the processing can be compared with the process of determining the position and size of the display area for each image. Therefore, an increase in the processing load of the image processing device 3 can be suppressed.

以下、図5~図9を参照して、本実施形態に係る画像処理システム1に関する具体例を説明する。 A specific example of the image processing system 1 according to the present embodiment will be described below with reference to FIGS. 5 to 9. FIG.

図5は、表示装置に表示される合成画像の一例を示す図である。図6は、認識対象の物体が増えた場合に起こり得る問題の一例を説明する図である。図7は、日時及び識別情報の表示領域が更新された後の合成画像の一例を示す図である。図8は、日時及び識別情報の表示領域を更新する際の候補領域の抽出方法の一例を説明する図である。図9は、日時と識別情報とを異なる表示領域に表示する合成画像の一例を示す図である。 FIG. 5 is a diagram showing an example of a composite image displayed on the display device. FIG. 6 is a diagram illustrating an example of a problem that may occur when objects to be recognized increase. FIG. 7 is a diagram showing an example of a composite image after the date and time and identification information display areas have been updated. FIG. 8 is a diagram illustrating an example of a method for extracting candidate areas when updating the display area of the date and time and identification information. FIG. 9 is a diagram showing an example of a composite image in which date and time and identification information are displayed in different display areas.

図5に例示した合成画像1000は、監視対象である机上をカメラ2で撮像した画像(元画像)に、認識した認識対象の物体を示す枠及び識別情報等が合成された画像である。認識対象の物体にキーボード、鉛筆、及び消しゴムが含まれる場合、画像処理装置3の物体認識部302は、元画像に写っているキーボード11、鉛筆12、及び消しゴム13を認識対象の物体として認識する。このとき、識別情報合成部303は、キーボード11を囲む第1の枠1011、鉛筆12を囲む第2の枠1012、及び消しゴム13を囲む第3の枠1013と、日時及び認識対象の物体の識別情報が記載されたラベル1050を元画像に合成して合成画像1000を生成する。ラベル1050は、第1の枠1011内、第2の枠1012内、及び第3の枠1013内のいずれとも重ならないように表示される。 A synthesized image 1000 illustrated in FIG. 5 is an image obtained by synthesizing an image (original image) of a desk to be monitored by the camera 2 with a frame indicating a recognized object to be recognized, identification information, and the like. When the objects to be recognized include a keyboard, a pencil, and an eraser, the object recognition unit 302 of the image processing device 3 recognizes the keyboard 11, the pencil 12, and the eraser 13 appearing in the original image as objects to be recognized. . At this time, the identification information synthesizing unit 303 creates a first frame 1011 surrounding the keyboard 11, a second frame 1012 surrounding the pencil 12, a third frame 1013 surrounding the eraser 13, date and time, and identification of the object to be recognized. A synthesized image 1000 is generated by synthesizing a label 1050 in which information is described with the original image. The label 1050 is displayed so as not to overlap any of the first frame 1011 , the second frame 1012 and the third frame 1013 .

合成画像1000が表示された後、幾らかの時間が経過すると、机上の状態に変化が生じ、例えば、図6に示した合成画像1001のようにカップ14が新たな認識対象の物体として認識されることがある。この場合、従来の画像処理装置では、図6に例示したように、日付及び識別情報が記載されたラベル1050の画像内での位置及び寸法が変わらず、カップ14の一部と重なってしまうことがある。このような合成画像1001が表示装置4に表示された場合、カップ14のうちのラベル1050と重なった部分の状態を視認することができない。このような認識対象の物体(カップ14)と日付及び識別情報(ラベル1050)との重なりを防ぐため、本実施形態の画像処理装置3では、例えば、処理の対象である画像から認識した認識対象の物体の数が直前に処理を行った画像から認識された認識対象の物体の数よりも多くなった場合に、識別情報表示領域決定処理(ステップS4)を行い、日付及び識別情報が記載されたラベル1050の表示位置を更新する。図6に例示した合成画像1001では、画像右上の部分に、第1の枠1011内の領域及び第4の枠1014内の領域と重ならないようにラベル1050を表示可能な領域(候補領域)1042がある。このため、本実施形態の画像処理システム1では、新たにカップ14が認識対象の物体として認識された場合、図7に例示した合成画像1002のように、日付及び識別情報が記載されたラベル1050の表示位置が、右下から右上に変更される。したがって、日付及び識別情報(ラベル1050)が認識対象の物体であるキーボード11、鉛筆12、消しゴム13、及びカップ14のいずれとも重ならない合成画像1002を生成して表示装置4に表示させることができる。 After some time has passed after the synthetic image 1000 is displayed, the state of the desk changes, and for example, the cup 14 is recognized as a new object to be recognized, as shown in the synthetic image 1001 shown in FIG. There is something. In this case, in the conventional image processing apparatus, as shown in FIG. 6, the position and dimensions of the label 1050 with the date and identification information in the image do not change, and the label 1050 overlaps part of the cup 14 . There is When such a composite image 1001 is displayed on the display device 4, the state of the portion of the cup 14 overlapping the label 1050 cannot be visually recognized. In order to prevent such overlap between the recognition target object (cup 14) and the date and identification information (label 1050), the image processing apparatus 3 of the present embodiment, for example, recognizes the recognition target from the image to be processed. When the number of objects is greater than the number of objects to be recognized from the image processed immediately before, identification information display area determination processing (step S4) is performed, and the date and identification information are written. The display position of the label 1050 is updated. In the synthesized image 1001 illustrated in FIG. 6, an area (candidate area) 1042 in which the label 1050 can be displayed so as not to overlap the area within the first frame 1011 and the area within the fourth frame 1014 in the upper right portion of the image. There is For this reason, in the image processing system 1 of the present embodiment, when the cup 14 is newly recognized as an object to be recognized, a label 1050 with date and identification information is displayed as in the composite image 1002 illustrated in FIG. is changed from lower right to upper right. Therefore, it is possible to generate a composite image 1002 in which the date and identification information (label 1050) do not overlap with any of the keyboard 11, pencil 12, eraser 13, and cup 14, which are objects to be recognized, and display it on the display device 4. .

日付及び識別情報(ラベル1050)の表示領域を更新するための識別情報表示領域決定処理(ステップS4)では、例えば、図8に示したように、処理対象の画像1003のうちの日付及び識別情報(ラベル1050)の表示領域に設定可能な領域1020内を複数のブロックに分割し、複数のブロックのうちの、認識対象の物体を囲む枠内の領域になる部分を含まないブロックの集合を枠外領域として導出する(ステップS41)。図8に示した例では、第1の枠1011内の領域になる部分を含むブロックの集合1031、第2の枠1012内の領域になる部分を含むブロックの集合1032、第3の枠1013内の領域になる部分を含むブロックの集合1033、及び第4の枠1014内の領域になる部分を含むブロックの集合1034のそれぞれに網掛けを付している。すなわち、図8に示した例では、領域1020内の白い部分が枠外領域になる。なお、領域1020内の1つのブロックのサイズ(画素数)は適宜変更可能であり、1つの画素を1つのブロックとしてもよい。 In the identification information display area determination process (step S4) for updating the display area of the date and identification information (label 1050), for example, as shown in FIG. The area 1020 that can be set as the display area (label 1050) is divided into a plurality of blocks. It is derived as a region (step S41). In the example shown in FIG. 8, a set 1031 of blocks including the portion to be the area within the first frame 1011, a set 1032 of blocks including the portion to be the area within the second frame 1012, and a set 1032 of blocks including the portion within the third frame 1013 A set 1033 of blocks including a portion to be the area of , and a set 1034 of blocks including a portion to be the area within the fourth frame 1014 are shaded. That is, in the example shown in FIG. 8, the white portion within the area 1020 becomes the out-of-frame area. Note that the size (the number of pixels) of one block in the region 1020 can be changed as appropriate, and one pixel may be one block.

枠外領域を導出した後、画像処理装置3は、枠外領域から日付及び識別情報(ラベル1050)の表示領域の候補とする候補領域を抽出する(ステップS42)。候補領域の抽出条件を、例えば、日付及び識別情報(ラベル1050)の表示領域に設定可能な領域1020の外周に接する、横3ブロック以上×縦3ブロック以上の矩形領域という条件にした場合、図8に示した4つの候補領域1041、1042、1043、及び1044が抽出される。画像処理装置3(より具体的には識別情報合成部303)は、抽出された4つの候補領域1041、1042、1043、及び1044の中から、日付及び識別情報の表示に最適な候補領域を選出して表示領域に決定する。このとき、画像処理装置3は、図4を参照して上述したような表示領域選出処理を行って表示領域を決定してもよいし、他の処理によって表示領域を決定してもよい。例えば、画像処理装置3は、単に、寸法(ブロック数)が最大の候補領域を日付及び識別情報の表示領域としてもよい。このような処理は、1つのブロックのサイズを横2画素以上×縦2画素以上にして行うことで画像処理装置3の処理負荷の増大を抑制することができるが、上述したように、1つの画素を1つのブロックとして行ってもよい。 After deriving the out-of-frame area, the image processing device 3 extracts a candidate area as a candidate for the date and identification information (label 1050) display area from the out-of-frame area (step S42). If the condition for extracting the candidate area is, for example, a rectangular area of 3 or more horizontal blocks by 3 or more vertical blocks, which is in contact with the outer circumference of the area 1020 that can be set as the display area for the date and identification information (label 1050). Four candidate regions 1041, 1042, 1043 and 1044 shown in 8 are extracted. The image processing device 3 (more specifically, the identification information synthesizing unit 303) selects the optimum candidate area for displaying the date and identification information from the extracted four candidate areas 1041, 1042, 1043, and 1044. to select the display area. At this time, the image processing device 3 may determine the display area by performing the display area selection process as described above with reference to FIG. 4, or may determine the display area by another process. For example, the image processing device 3 may simply use the candidate area with the largest size (the number of blocks) as the date and identification information display area. Such processing can suppress an increase in the processing load of the image processing device 3 by setting the size of one block to 2 pixels or more in the horizontal direction and 2 pixels or more in the vertical direction. Pixels may be performed as one block.

図7に例示した合成画像1002が表示された後、幾らかの時間が経過すると、机上の状態に変化が生じ、例えば、図9に例示した合成画像1004のように鉛筆12及びカップ14の位置が変化することがある。認識対象の物体(キーボード11、鉛筆12、消しゴム13、及びカップ14)が図9に例示したような位置にある場合、枠外領域内から、例えば、図7に例示した1つのラベル1050を表示することが可能な候補領域を抽出することができない。このため、画像処理装置3は、例えば、図9に示したように、枠外領域内に日付が記載されたラベル1051を表示する表示領域と、識別情報が記載されたラベル1052を表示する表示領域とを設定する。このように、日付を表示する表示領域と識別情報を表示する表示領域とを分けることにより、1つの表示領域内に表示する情報(文字数)が少なくなるため、その分、文字サイズを大きくすることが可能になる。 After a certain amount of time has passed after the synthetic image 1002 illustrated in FIG. 7 is displayed, the state of the desk changes. may change. When objects to be recognized (keyboard 11, pencil 12, eraser 13, and cup 14) are positioned as illustrated in FIG. 9, one label 1050 illustrated in FIG. 7, for example, is displayed from within the frame-outside area. possible candidate regions cannot be extracted. For this reason, the image processing apparatus 3, for example, as shown in FIG. and By dividing the display area for displaying the date and the display area for displaying the identification information in this way, the information (the number of characters) to be displayed in one display area is reduced. becomes possible.

なお、本実施形態の画像処理装置3は、上述した機能、処理等を実施する専用の装置に限らず、例えば、コンピュータと、図2~図4を参照して上述したような処理をコンピュータに実行させるプログラムとにより実現されてもよい。 Note that the image processing apparatus 3 of the present embodiment is not limited to a dedicated apparatus that performs the functions and processes described above. It may be implemented by a program to be executed.

図10は、コンピュータのハードウェア構成例を説明する図である。図10に例示したコンピュータ6は、プロセッサ601、メモリ(主記憶装置)602、補助記憶装置603、入力装置604、表示装置605、入出力インタフェース606、媒体駆動装置607、及び通信インタフェース608を含む。コンピュータ6のこれらの要素は、バス610等を介して相互にデータを送受信することができる。 FIG. 10 is a diagram illustrating a hardware configuration example of a computer. The computer 6 illustrated in FIG. 10 includes a processor 601 , memory (main storage device) 602 , auxiliary storage device 603 , input device 604 , display device 605 , input/output interface 606 , media drive device 607 , and communication interface 608 . These elements of computer 6 can send data to and receive data from each other, such as via bus 610 .

プロセッサ601は、OS(Operating System)のプログラムや、図2~図4に例示したような処理を含むプログラムを実行することにより、上述した画像処理装置3として機能(動作)するように、コンピュータ6の動作を制御する。プロセッサ601は、例えば、1つ以上のCPU(Central Processing Unit)を含む。プロセッサ601は、例えば、DSP(Digital Signal Processor)を含んでもよい。図2~図4を参照して上述したような処理と対応する命令を含むプログラムを実行するプロセッサ601は、図1に例示した画像処理装置3の物体認識部302、識別情報合成部303、及び画像出力部304の機能を実現するハードウェアの一例である。プロセッサ601に実行させるプログラムは、学習用画像を用いて認識対象の物体の特徴を学習し、学習済モデル311を生成する処理を含むプログラムを含んでもよい。 The processor 601 functions (operates) as the image processing apparatus 3 described above by executing an OS (Operating System) program and a program including processes illustrated in FIGS. controls the behavior of The processor 601 includes, for example, one or more CPUs (Central Processing Units). The processor 601 may include, for example, a DSP (Digital Signal Processor). A processor 601 that executes a program including instructions corresponding to the processes described above with reference to FIGS. It is an example of hardware that implements the functions of the image output unit 304 . The program to be executed by the processor 601 may include a program including processing for learning the features of the object to be recognized using the learning image and generating the trained model 311 .

メモリ602は、プロセッサ601が実行するプログラムの一部、プロセッサ601がプログラムの実行中に作成したデータや参照するデータ等を記憶する主記憶装置である。メモリ602は、RAM(Random Access Memory)602a、及びROM(Read Only Memory)602bを含む。補助記憶装置603は、例えば、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等の、メモリ602と比べて記憶容量の大きい記憶装置である。メモリ602及び補助記憶装置603は、プロセッサ601に実行させるプログラム、及びプロセッサ601がプログラムを実行する際に使用される各種データを記憶(格納)させる記憶領域を提供する。例えば、補助記憶装置603は、画像処理装置3の記憶部310の機能を実現するハードウェアの一例であり、上述した学習済モデル311及び合成画像データ312を記憶する記憶領域を提供する。メモリ602及び補助記憶装置603は、図2~図4を参照して上述したような処理をコンピュータに実行させるプログラムを格納する非一時的記録媒体の例である。 The memory 602 is a main storage device that stores a part of the program executed by the processor 601, data created by the processor 601 during execution of the program, data to be referred to, and the like. The memory 602 includes RAM (Random Access Memory) 602a and ROM (Read Only Memory) 602b. The auxiliary storage device 603 is a storage device having a larger storage capacity than the memory 602, such as a HDD (Hard Disk Drive) or an SSD (Solid State Drive). The memory 602 and the auxiliary storage device 603 provide storage areas for storing programs to be executed by the processor 601 and various data used when the processor 601 executes the programs. For example, the auxiliary storage device 603 is an example of hardware that implements the functions of the storage unit 310 of the image processing device 3, and provides a storage area for storing the learned model 311 and the synthesized image data 312 described above. The memory 602 and auxiliary storage device 603 are examples of non-temporary recording media that store programs that cause a computer to execute the processes described above with reference to FIGS.

入力装置604は、キーボード装置やマウス装置等の、コンピュータ6に対する操作入力を受け付ける操作入力装置である。表示装置605は、合成画像を利用者に提示することが可能な、液晶ディスプレイ等の表示装置(例えば、図1の表示装置4)である。入出力インタフェース606は、カメラ2等の外部装置からの入力信号の受付、図示しない出力装置(例えば、プリンタ等)への出力信号の出力等を行うハードウェアインタフェースである。入出力インタフェース606は、図1に例示した画像処理装置3の画像取得部301の機能を実現するハードウェアの一例である。 The input device 604 is an operation input device, such as a keyboard device and a mouse device, that receives an operation input to the computer 6 . The display device 605 is a display device such as a liquid crystal display (for example, the display device 4 in FIG. 1) capable of presenting a synthesized image to the user. The input/output interface 606 is a hardware interface that receives input signals from an external device such as the camera 2 and outputs output signals to an output device (for example, a printer) (not shown). The input/output interface 606 is an example of hardware that implements the functions of the image acquisition unit 301 of the image processing apparatus 3 illustrated in FIG.

媒体駆動装置607は、可搬型機記録媒体650に記憶された情報の読み出し、及び可搬型記録媒体650への情報の書き込み等を行う。可搬型記録媒体650は、例えば、光ディスク、磁気ディスク、光磁気ディスク、及びメモリカードを含む。可搬型記録媒体850は、読み取り専用であってもよいし、書き込み又は書き換えが可能なものであってもよい。可搬型記録媒体650は、学習済モデル311を記憶する記憶領域を提供することに利用可能である。媒体駆動装置607と可搬型記録媒体650との組み合わせは、画像処理装置3の記憶部310の機能を実現し得る。可搬型記録媒体650は、図2~図4を参照して上述したような処理をコンピュータに実行させるプログラムを格納する非一時的記録媒体の例である。媒体駆動装置607は、入出力インタフェース606を介してバス610等に接続されてもよい。 The medium drive device 607 reads information stored in the portable recording medium 650 and writes information to the portable recording medium 650 . The portable recording medium 650 includes, for example, optical discs, magnetic discs, magneto-optical discs, and memory cards. The portable recording medium 850 may be read-only, or may be writable or rewritable. A portable recording medium 650 can be used to provide a storage area for storing the trained model 311 . A combination of the media drive device 607 and the portable recording medium 650 can implement the function of the storage unit 310 of the image processing device 3 . Portable recording medium 650 is an example of a non-temporary recording medium that stores a program that causes a computer to execute the processes described above with reference to FIGS. Media drive 607 may be connected to bus 610 or the like via input/output interface 606 .

通信インタフェース608は、コンピュータ6をインターネット等の通信ネットワークに接続し、通信ネットワークを介した外部装置との通信を制御する。通信インタフェース608は、有線又は無線通信により通信ネットワークに接続される。通信インタフェース608は、例えば、通信ネットワークに接続されたサーバ装置に格納された学習用画像や学習済モデル311を取得することや、合成画像データ312をサーバ装置に転送すること等に利用可能である。また、コンピュータ6とカメラ2とは、入出力インタフェース606の代わりに、通信インタフェース608を利用して接続されてもよい。 The communication interface 608 connects the computer 6 to a communication network such as the Internet and controls communication with external devices via the communication network. Communication interface 608 is connected to a communication network through wired or wireless communication. The communication interface 608 can be used, for example, to acquire learning images and trained models 311 stored in a server device connected to a communication network, and to transfer synthesized image data 312 to the server device. . Also, the computer 6 and the camera 2 may be connected using the communication interface 608 instead of the input/output interface 606 .

図10に例示したコンピュータ6のハードウェア構成は、画像処理装置3として利用可能なコンピュータのハードウェア構成の一例に過ぎない。画像処理装置3として利用可能なコンピュータは、図10に例示した構成要素のうちのいくつか(例えば、媒体駆動装置607や通信インタフェース608等)を含まないものであってもよい。また、コンピュータは、例えば、図2~図4を参照して上述したような処理の一部を実行するFPGA(Field Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)等を含んでもよい。 The hardware configuration of the computer 6 illustrated in FIG. 10 is merely an example of the hardware configuration of a computer that can be used as the image processing device 3. FIG. A computer that can be used as the image processing device 3 may not include some of the components illustrated in FIG. 10 (for example, the media drive device 607 and the communication interface 608). The computer may also include, for example, an FPGA (Field Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit) that performs part of the processing described above with reference to FIGS.

上述した実施形態は、発明の理解を容易にするために具体例を示したものであり、本発明は上述した実施形態に限定されるものではない。本発明に係る画像処理装置、画像処理方法、及びプログラムは、特許請求の範囲の記載を逸脱しない範囲において、さまざまな変形、変更が可能である。 The above-described embodiments are specific examples for easy understanding of the invention, and the present invention is not limited to the above-described embodiments. The image processing apparatus, image processing method, and program according to the present invention can be modified and modified in various ways without departing from the scope of the claims.

例えば、処理の対象となる画像内に長期的に認識対象の物体が認識されない領域(写らない領域)が存在する場合、その物体が認識されない領域内で、認識した物体の識別情報や日時に関する情報を表示する表示領域の位置及び寸法を決定してもよい。長期的に認識対象の物体が認識されない領域は、例えば、カメラ2の撮像範囲θに基づいて特定される固定の領域であってもよいし、過去の処理(例えば、図3に例示したステップS41及びS42の処理)において候補領域として抽出された領域の履歴に基づいて変動する領域であってもよい。 For example, if there is an area in the image to be processed where the object to be recognized is not recognized for a long period of time (area that is not captured), the identification information of the recognized object and information on the date and time in the area where the object is not recognized. may determine the position and size of the display area for displaying the The region where the recognition target object is not recognized for a long period of time may be, for example, a fixed region specified based on the imaging range θ of the camera 2, or may be a past processing (for example, step S41 illustrated in FIG. 3). and the process of S42)) may vary based on the history of the areas extracted as candidate areas.

以下、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
画像に写っている認識対象の物体を認識する物体認識部と、
前記物体認識部で認識した前記認識対象の物体に関する識別情報を前記画像に合成する識別情報合成部と、
を含み、
前記識別情報合成部は、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定する
ことを特徴とする画像処理装置。
[付記2]
前記識別情報合成部は、前記表示領域の位置及び寸法を更新することと関連付けられた所定の条件を満たす場合に、前記認識対象の物体と重ならない前記領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する前記表示領域の位置及び寸法を決定する
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記識別情報は、前記認識対象の物体の種類を示す文字情報を含み、
前記識別情報合成部は、決定した前記表示領域の位置及び寸法に基づいて、表示する前記識別情報の文字サイズを調整する
ことを特徴とする付記1又は2に記載の画像処理装置。
[付記4]
前記識別情報合成部は、前記表示領域に表示する前記識別情報の文字サイズとして設定されている所定の最大文字サイズから最小文字サイズまでの範囲内で、前記識別情報の文字サイズを調整する
ことを特徴とする付記3に記載の画像処理装置。
[付記5]
前記識別情報合成部は、導出した前記認識対象の物体と重ならない前記領域内で、所定の寸法以上となる矩形の表示領域の候補を抽出し、抽出した前記表示領域の候補のなかから前記表示領域を選出する
ことを特徴とする付記1~4のいずれか1つに記載の画像処理装置。
[付記6]
前記識別情報合成部は、前記識別情報ととともに、前記画像を撮像した日時を示す情報を前記画像の前記表示領域に合成し、
前記識別情報合成部は、前記日時を示す情報と前記識別情報の全てを表示可能な1つの表示領域を決定することができない場合には、前記日時を示す情報を表示する第1の表示領域の位置及び寸法と、前記識別情報を表示する第2の表示領域の位置及び寸法とを決定する
ことを特徴とする付記5に記載の画像処理装置。
[付記7]
前記所定の条件は、現在処理の対象となっている第1の画像と、前記第1の画像よりも時間的に前に撮像されすでに識別情報が合成された第2の画像とで、認識された認識対象の物体の数及び位置の少なくとも一方が異なること、を含む
ことを特徴とする付記2~6のいずれか1つに記載の画像処理装置。
[付記8]
前記所定の条件は、前記識別情報を合成した画像の数が、所定の値又はその値の正の整数倍であること、を含む
ことを特徴とする付記2~7のいずれか1つに記載の画像処理装置。
[付記9]
コンピュータが、
画像に写っている認識対象の物体を認識することと、
認識した前記認識対象の物体に関する識別情報を前記画像に合成することと、
を実行し、
前記識別情報を前記画像に合成することは、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを含む、
ことを特徴とする画像処理方法。
[付記10]
コンピュータに、
画像に写っている認識対象の物体を認識することと、
認識した前記認識対象の物体に関する識別情報を前記画像に合成することと、
を実行させ、
前記識別情報を前記画像に合成することは、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを含む、
ことを特徴とするプログラム。
The invention described in the scope of claims at the time of filing of the present application will be additionally described below.
[Appendix 1]
an object recognition unit that recognizes an object to be recognized in an image;
an identification information synthesizing unit that synthesizes identification information about the object to be recognized recognized by the object recognition unit with the image;
including
The identification information synthesizing unit derives a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, and displays the identification information so as to fit within the derived region. An image processing device that determines the position and size of a display area to be displayed.
[Appendix 2]
The identification information synthesizing unit derives the area that does not overlap with the object to be recognized when a predetermined condition associated with updating the position and size of the display area is satisfied, and places the area within the derived area. The image processing apparatus according to appendix 1, wherein the position and size of the display area in which the identification information is displayed are determined so as to fit.
[Appendix 3]
the identification information includes character information indicating the type of the object to be recognized;
3. The image processing apparatus according to appendix 1 or 2, wherein the identification information synthesizing unit adjusts a character size of the identification information to be displayed based on the determined position and size of the display area.
[Appendix 4]
The identification information synthesizing unit adjusts the character size of the identification information within a range from a predetermined maximum character size to a minimum character size set as the character size of the identification information to be displayed in the display area. The image processing apparatus according to appendix 3, characterized by:
[Appendix 5]
The identification information synthesizing unit extracts a candidate for a rectangular display area having a predetermined size or more in the area that does not overlap with the derived object to be recognized, and selects the display area from among the extracted candidates for the display area. 5. The image processing apparatus according to any one of appendices 1 to 4, characterized in that an area is selected.
[Appendix 6]
The identification information synthesizing unit synthesizes information indicating the date and time when the image was captured together with the identification information in the display area of the image,
When the identification information synthesizing unit cannot determine a single display area capable of displaying all of the information indicating the date and time and the identification information, the identification information synthesizing unit selects a first display area for displaying the information indicating the date and time. 6. The image processing apparatus according to appendix 5, wherein the position and dimensions of the second display area for displaying the identification information are determined.
[Appendix 7]
The predetermined condition is recognized by a first image currently being processed and a second image captured temporally before the first image and to which the identification information has already been synthesized. 7. The image processing apparatus according to any one of appendices 2 to 6, wherein at least one of the number and positions of the objects to be recognized are different.
[Appendix 8]
8. A statement according to any one of appendices 2 to 7, wherein the predetermined condition includes that the number of images synthesized with the identification information is a predetermined value or a positive integral multiple of that value. image processing device.
[Appendix 9]
the computer
recognizing an object to be recognized in an image;
synthesizing identification information about the recognized object to be recognized with the image;
and run
Synthesizing the identification information with the image includes deriving a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, determining the position and dimensions of a display area for displaying the identification information;
An image processing method characterized by:
[Appendix 10]
to the computer,
recognizing an object to be recognized in an image;
synthesizing identification information about the recognized object to be recognized with the image;
and
Synthesizing the identification information with the image includes deriving a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, determining the position and dimensions of a display area for displaying the identification information;
A program characterized by

1 画像処理システム
2 カメラ
3 画像処理装置
301 画像取得部
302 物体認識部
303 識別情報合成部
304 画像出力部
310 記憶部
311 学習済モデル
312 合成画像データ
4 表示装置
6 コンピュータ
601 プロセッサ
602 メモリ
602a RAM
602b ROM
603 補助記憶装置
604 入力装置
605 表示装置
606 入出力インタフェース
607 媒体駆動装置
608 通信インタフェース
610 バス
650 可搬型記録媒体
1000、1001、1002、1003、1004 合成画像
11 キーボード
12 鉛筆
13 消しゴム
14 カップ
1011、1012、1013、1014 枠
1041、1042、1043、1044 候補領域
1050、1051、1052 ラベル
1 image processing system 2 camera 3 image processing device 301 image acquisition unit 302 object recognition unit 303 identification information synthesis unit 304 image output unit 310 storage unit 311 trained model 312 synthesized image data 4 display device 6 computer 601 processor 602 memory 602a RAM
602b ROM
603 Auxiliary storage device 604 Input device 605 Display device 606 Input/output interface 607 Media drive device 608 Communication interface 610 Bus 650 Portable recording medium 1000, 1001, 1002, 1003, 1004 Synthetic image 11 Keyboard 12 Pencil 13 Eraser 14 Cup 1011, 1012 , 1013, 1014 Frames 1041, 1042, 1043, 1044 Candidate areas 1050, 1051, 1052 Labels

Claims (10)

画像に写っている認識対象の物体を認識する物体認識部と、
前記物体認識部で認識した前記認識対象の物体に関する識別情報を前記画像に合成する識別情報合成部と、
を含み、
前記識別情報合成部は、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定する
ことを特徴とする画像処理装置。
an object recognition unit that recognizes an object to be recognized in an image;
an identification information synthesizing unit that synthesizes identification information about the object to be recognized recognized by the object recognition unit with the image;
including
The identification information synthesizing unit derives a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, and displays the identification information so as to fit within the derived region. An image processing device that determines the position and size of a display area to be displayed.
前記識別情報合成部は、前記表示領域の位置及び寸法を更新することと関連付けられた所定の条件を満たす場合に、前記認識対象の物体と重ならない前記領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する前記表示領域の位置及び寸法を決定する
ことを特徴とする請求項1に記載の画像処理装置。
The identification information synthesizing unit derives the area that does not overlap with the object to be recognized when a predetermined condition associated with updating the position and size of the display area is satisfied, and places the area within the derived area. 2. The image processing apparatus according to claim 1, wherein the position and size of said display area for displaying said identification information are determined so as to fit therein.
前記識別情報は、前記認識対象の物体の種類を示す文字情報を含み、
前記識別情報合成部は、決定した前記表示領域の位置及び寸法に基づいて、表示する前記識別情報の文字サイズを調整する
ことを特徴とする請求項1又は2に記載の画像処理装置。
the identification information includes character information indicating the type of the object to be recognized;
3. The image processing apparatus according to claim 1, wherein the identification information synthesizing unit adjusts the character size of the identification information to be displayed based on the determined position and size of the display area.
前記識別情報合成部は、前記表示領域に表示する前記識別情報の文字サイズとして設定されている所定の最大文字サイズから最小文字サイズまでの範囲内で、前記識別情報の文字サイズを調整する
ことを特徴とする請求項3に記載の画像処理装置。
The identification information synthesizing unit adjusts the character size of the identification information within a range from a predetermined maximum character size to a minimum character size set as the character size of the identification information to be displayed in the display area. 4. The image processing apparatus according to claim 3.
前記識別情報合成部は、導出した前記認識対象の物体と重ならない前記領域内で、所定の寸法以上となる矩形の表示領域の候補を抽出し、抽出した前記表示領域の候補のなかから前記表示領域を選出する
ことを特徴とする請求項1~4のいずれか1項に記載の画像処理装置。
The identification information synthesizing unit extracts a candidate for a rectangular display area having a predetermined size or more in the area that does not overlap with the derived object to be recognized, and selects the display area from among the extracted candidates for the display area. 5. The image processing apparatus according to any one of claims 1 to 4, wherein an area is selected.
前記識別情報合成部は、前記識別情報ととともに、前記画像を撮像した日時を示す情報を前記画像の前記表示領域に合成し、
前記識別情報合成部は、前記日時を示す情報と前記識別情報の全てを表示可能な1つの表示領域を決定することができない場合には、前記日時を示す情報を表示する第1の表示領域の位置及び寸法と、前記識別情報を表示する第2の表示領域の位置及び寸法とを決定する
ことを特徴とする請求項5に記載の画像処理装置。
The identification information synthesizing unit synthesizes information indicating the date and time when the image was captured together with the identification information in the display area of the image,
When the identification information synthesizing unit cannot determine a single display area capable of displaying all of the information indicating the date and time and the identification information, the identification information synthesizing unit selects a first display area for displaying the information indicating the date and time. 6. The image processing apparatus according to claim 5, wherein the position and dimensions of the second display area for displaying the identification information are determined.
前記所定の条件は、現在処理の対象となっている第1の画像と、前記第1の画像よりも時間的に前に撮像されすでに識別情報が合成された第2の画像とで、認識された認識対象の物体の数及び位置の少なくとも一方が異なること、を含む
ことを特徴とする請求項2~6のいずれか1項に記載の画像処理装置。
The predetermined condition is recognized by a first image currently being processed and a second image captured temporally before the first image and to which the identification information has already been synthesized. 7. The image processing apparatus according to any one of claims 2 to 6, wherein at least one of the number and positions of objects to be recognized are different.
前記所定の条件は、前記識別情報を合成した画像の数が、所定の値又はその値の正の整数倍であること、を含む
ことを特徴とする請求項2~7のいずれか1項に記載の画像処理装置。
8. The method according to any one of claims 2 to 7, wherein the predetermined condition includes that the number of images synthesized with the identification information is a predetermined value or a positive integral multiple of that value. The described image processing device.
コンピュータが、
画像に写っている認識対象の物体を認識することと、
認識した前記認識対象の物体に関する識別情報を前記画像に合成することと、
を実行し、
前記識別情報を前記画像に合成することは、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを含む、
ことを特徴とする画像処理方法。
the computer
recognizing an object to be recognized in an image;
synthesizing identification information about the recognized object to be recognized with the image;
and run
Synthesizing the identification information with the image includes deriving a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, determining the position and dimensions of a display area for displaying the identification information;
An image processing method characterized by:
コンピュータに、
画像に写っている認識対象の物体を認識することと、
認識した前記認識対象の物体に関する識別情報を前記画像に合成することと、
を実行させ、
前記識別情報を前記画像に合成することは、画像内での前記認識対象の物体の位置及び寸法に基づいて前記認識対象の物体と重ならない領域を導出し、導出した前記領域内に収まるように前記識別情報を表示する表示領域の位置及び寸法を決定することを含む、
ことを特徴とするプログラム。
to the computer,
recognizing an object to be recognized in an image;
synthesizing identification information about the recognized object to be recognized with the image;
and
Synthesizing the identification information with the image includes deriving a region that does not overlap with the recognition target object based on the position and size of the recognition target object in the image, determining the position and dimensions of a display area for displaying the identification information;
A program characterized by
JP2021050509A 2021-03-24 2021-03-24 Image processing device, image processing method, and program Pending JP2022148719A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021050509A JP2022148719A (en) 2021-03-24 2021-03-24 Image processing device, image processing method, and program
CN202210288259.5A CN115209042A (en) 2021-03-24 2022-03-23 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021050509A JP2022148719A (en) 2021-03-24 2021-03-24 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2022148719A true JP2022148719A (en) 2022-10-06
JP2022148719A5 JP2022148719A5 (en) 2024-02-09

Family

ID=83463364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021050509A Pending JP2022148719A (en) 2021-03-24 2021-03-24 Image processing device, image processing method, and program

Country Status (2)

Country Link
JP (1) JP2022148719A (en)
CN (1) CN115209042A (en)

Also Published As

Publication number Publication date
CN115209042A (en) 2022-10-18

Similar Documents

Publication Publication Date Title
JP6277818B2 (en) Machine learning apparatus, machine learning method, and program
JP6612487B1 (en) Learning device, classification device, learning method, classification method, learning program, and classification program
US20150116349A1 (en) Image display apparatus, image display method, and computer program product
JP2018124639A (en) Data analysis system, data analysis method and program
US10936472B2 (en) Screen recording preparation method for evaluating software usability
US10955993B2 (en) Image processing apparatus, method for processing information, and non-transitory computer readable medium storing program for adding comments to image information
CN101292262A (en) Fictitious structural content filtering in cognitive control framework
CN101753798A (en) Image processing apparatus, method, and program
JP4868139B2 (en) Image processing apparatus and image processing program
Shi et al. Tracing vocal fold vibrations using level set segmentation method
JP2022148719A (en) Image processing device, image processing method, and program
JP6405603B2 (en) Information processing apparatus, information processing system, and program
JP2018045359A (en) Image processing device and image processing program
JP2018055256A (en) Information processing apparatus, information processing method, and program
EP3772703A2 (en) Image processing apparatus and image processing method
CN104660866B (en) Movement detection systems and method
JP6695454B1 (en) Information processing apparatus, information processing method, and program
US11120269B2 (en) Method and apparatus for determining target rotation direction, computer readable medium and electronic device
JP2006260410A (en) Evaluation apparatus and method for image processing algorithm, producing system and method, program for making computer function as evaluation system, and program for making computer function as producing system
TWI633498B (en) Image processing device, image processing method, and program product
US11310349B1 (en) Transforming multivariate time series data into image data to generate image-based predictions
JP6331914B2 (en) Algorithm generating apparatus, algorithm generating method and algorithm generating computer program
JP6922690B2 (en) Character area extraction program, character area extraction device and character area extraction method
CN112100075B (en) User interface playback method, device, equipment and storage medium
Tsai et al. EESRGAN: Efficient & Effective Super-Resolution Generative Adversarial Network

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240201