JP2020013567A - Image processing method, image processing device, and image processing apparatus - Google Patents

Image processing method, image processing device, and image processing apparatus Download PDF

Info

Publication number
JP2020013567A
JP2020013567A JP2019128083A JP2019128083A JP2020013567A JP 2020013567 A JP2020013567 A JP 2020013567A JP 2019128083 A JP2019128083 A JP 2019128083A JP 2019128083 A JP2019128083 A JP 2019128083A JP 2020013567 A JP2020013567 A JP 2020013567A
Authority
JP
Japan
Prior art keywords
image
target range
size
trajectory
operation input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019128083A
Other languages
Japanese (ja)
Other versions
JP7386007B2 (en
Inventor
シーホン グオ
Xihong Guo
シーホン グオ
シンユ グオ
xin yu Guo
シンユ グオ
アンシン リ
An-Shin Lee
アンシン リ
ラン チン
Lan Chen
ラン チン
直季 亀山
Naoki Kameyama
直季 亀山
友惠 後
You Hui Hou
友惠 後
尚史 原
Hisafumi Hara
尚史 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JP2020013567A publication Critical patent/JP2020013567A/en
Application granted granted Critical
Publication of JP7386007B2 publication Critical patent/JP7386007B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Storing Facsimile Image Data (AREA)

Abstract

To provide images for training (training data) by automatically and accurately generating cutout images only through a simple operation input.SOLUTION: An image processing method comprises: receiving an operation input; on the basis of the operation input, determining a target range from an image to be processed; and, in the target range, generating a prescribed number of cut images of a prescribed size. The size of the target range is in prescribed proportion to the size of the cut images.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理の分野に関し、特に、画像処理方法、画像処理装置、画像処理機器、及びコンピュータ可読記憶媒体に関する。   The present invention relates to the field of image processing, and more particularly, to an image processing method, an image processing device, an image processing device, and a computer-readable storage medium.

ディープニューラルネットワークは、大規模で、マルチパラメータで最適化されたツールである。ディープニューラルネットワークは、大量のトレーニングデータに依存し、学習を通じて、データに隠されたまとめられにくい特徴を確定することができ、それによって、複数の複雑なタスク、例えば顔検出、画像意味分割、物体検出、動作追跡、自然言語翻訳などを完成することができる。   Deep neural networks are large, multi-parameter optimized tools. Deep neural networks rely on large amounts of training data and, through learning, can determine hard-to-gather features hidden in the data, thereby enabling multiple complex tasks such as face detection, image semantic segmentation, object Detection, motion tracking, natural language translation, etc. can be completed.

現在、ディープニューラルネットワークは、物体表面の亀裂検出のような複雑なタスクに用いられ、人間の目による検出よりも高い検出精度を実現することが期待されている。亀裂検出のためのニューラルネットワークモデルを得るためには、亀裂がマークされた大量のトレーニング画像(すなわち、トレーニングデータ)を用いて、ニューラルネットワークをトレーニングしておく必要がある。したがって、ディープニューラルネットワークに基づく亀裂検出の性能および効果は、提供されたトレーニングデータに大きく依存する。従来の技術では、トレーニングデータは、多くの作業者が画像中の亀裂を手作業でマーキングすることによって取得されることが多い。しかしながら、画像を人手でマーキングして得られたトレーニングデータには、理論的な認知錯誤又は視覚錯誤が存在する可能性があり、これらの両方は、得られたトレーニングデータの不正確さをもたらす恐れがある。また、大量のトレーニングデータを取得することには、作業者がより長い時間を要する可能性がある。作業者に大きな精神的な又は視覚的な負担をもたらし、間違ったマッチングが生じやすくなり、工業生産には適さない。   At present, deep neural networks are used for complex tasks such as crack detection on the surface of an object, and are expected to achieve higher detection accuracy than detection by human eyes. In order to obtain a neural network model for crack detection, it is necessary to train the neural network using a large number of training images (that is, training data) in which cracks are marked. Therefore, the performance and effectiveness of crack detection based on deep neural networks is highly dependent on the training data provided. In the prior art, training data is often obtained by many workers manually marking cracks in images. However, training data obtained by manually marking images may have theoretical cognitive errors or visual errors, both of which can lead to inaccuracies in the obtained training data. There is. In addition, acquiring a large amount of training data may require a longer time for an operator. This poses a great mental or visual burden on the operator, makes it easy for incorrect matching to occur, and is not suitable for industrial production.

本発明は、上記の問題に鑑みて提案されたものである。本発明は、画像処理方法、画像処理装置、画像処理機器及びコンピュータ可読記憶媒体を提供する。   The present invention has been proposed in view of the above problems. The present invention provides an image processing method, an image processing device, an image processing device, and a computer-readable storage medium.

本発明の一態様によれば、操作入力を受け付けることと、前記操作入力に基づいて、処理対象となる画像から目標範囲を決定することと、前記目標範囲において、所定の数、所定のサイズの切り出し画像を生成することと、を含む画像処理方法が提供される。なお、前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になる。   According to one aspect of the present invention, accepting an operation input, determining a target range from an image to be processed based on the operation input, and setting a predetermined number and a predetermined size in the target range Generating a clipped image is provided. Note that the size of the target range is in a predetermined proportion to the size of the cut-out image.

本発明の一態様によれば、操作入力を受け付けるように配置される操作入力受付部と、操作入力に基づいて、処理対象となる画像から目標範囲を決定するように配置される目標範囲決定部と、前記目標範囲内において、所定数の所定サイズの切り出し画像を生成するように配置される切り出し画像生成部と、を備える画像処理装置が提供される。なお、前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になる。   According to one aspect of the present invention, an operation input receiving unit arranged to receive an operation input, and a target range determining unit arranged to determine a target range from an image to be processed based on the operation input An image processing apparatus is provided, comprising: a cutout image generation unit arranged to generate a predetermined number of cutout images of a predetermined size within the target range. Note that the size of the target range is in a predetermined proportion to the size of the cut-out image.

本開示の一態様によれば、コンピュータ可読命令を記憶するように配置されるメモリと、前記メモリに記憶された前記コンピュータ可読命令を実行するように配置されるプロセッサと、を備える画像処理機器が提供される。また、前記プロセッサが前記コンピュータ可読命令を実行するとき、以下のステップを実行する。即ち、操作入力を受け付けるステップと、前記操作入力に基づいて、処理対象となる画像から目標範囲を決定するステップと、前記目標範囲において、所定数の所定サイズの切り出し画像を生成するステップである。なお、前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になる。   According to one aspect of the present disclosure, an image processing device comprising: a memory arranged to store computer readable instructions; and a processor arranged to execute the computer readable instructions stored in the memory. Provided. Also, when the processor executes the computer readable instructions, it performs the following steps. That is, a step of receiving an operation input, a step of determining a target range from an image to be processed based on the operation input, and a step of generating a predetermined number of cutout images of a predetermined size in the target range. Note that the size of the target range is in a predetermined proportion to the size of the cut-out image.

本開示の一態様によれば、コンピュータ可読命令が記憶されたコンピュータ可読記憶媒体が提供され、コンピュータ可読命令がコンピュータによって実行されるとき、コンピュータは、以下のステップを実行する。即ち、操作入力を受け付けるステップと、前記操作入力に基づいて、処理対象となる画像から目標範囲を決定するステップと、前記目標範囲において、所定数の所定サイズの切り出し画像を生成するステップである。なお、前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になる。   According to one aspect of the present disclosure, there is provided a computer-readable storage medium storing computer-readable instructions, and when the computer-readable instructions are executed by the computer, the computer performs the following steps. That is, a step of receiving an operation input, a step of determining a target range from an image to be processed based on the operation input, and a step of generating a predetermined number of cutout images of a predetermined size in the target range. Note that the size of the target range is in a predetermined proportion to the size of the cut-out image.

本発明の上記態様によれば、ユーザは簡単な操作入力を行うだけで、切り出し画像を自動的かつ正確に生成することができ、それによって、ディープニューラルネットワークにマーキングされたトレーニング用画像(トレーニングデータ)を提供することができると共に、理論認知錯誤と視覚錯誤を減少させ、人手によるマーキングのコストを減少させることができる。   According to the above aspect of the present invention, a user can automatically and accurately generate a cutout image by performing a simple operation input, and thereby a training image (training data) marked on a deep neural network can be obtained. ) Can be provided, and theoretical cognitive errors and visual errors can be reduced, and the cost of manual marking can be reduced.

本開示の上記と他の目的、特徴および利点は、添付の図面を参照して本開示の実施形態をより詳細に説明することによって、より明らかになる。図面は、本開示の実施形態のさらなる理解を提供するものであり、明細書の一部を構成し、本開示の実施形態と共に本開示を説明するものであり、本開示を限定するものではない。図面において、同一の符号は、通常、同一の構成要素またはステップを示す。
本発明の実施形態を実現するための画像処理方法のフローチャートである。 本発明の第1の実施形態に係る処理対象となる画像から目標範囲を決定する例を示す図である。 本発明の第2の実施形態に係る処理対象となる画像から目標範囲を決定するフローチャートである。 本発明の第2の実施形態に係る処理対象となる画像から目標範囲を決定する例を示す図である。 本発明の第2の実施形態に係る処理対象となる画像から目標範囲を決定する例を示す図である。 本発明の第1の実施形態に係る切り出し画像を生成する手順を示す説明図である。 本発明の第2の実施形態に係る切り出し画像を生成する手順を示す説明図である。 本発明の実施形態に係る画像処理装置の概略図である。 本発明の実施形態に係る画像処理機器の概略図である。 本発明の実施形態に係るコンピュータ可読記憶媒体の概略図である。
The above and other objects, features and advantages of the present disclosure will become more apparent by describing embodiments of the present disclosure in more detail with reference to the accompanying drawings. The drawings provide a further understanding of the embodiments of the present disclosure, form a part of the specification, and explain the present disclosure with embodiments of the present disclosure, but do not limit the present disclosure. . In the drawings, identical reference numbers generally identify identical components or steps.
4 is a flowchart of an image processing method for realizing an embodiment of the present invention. FIG. 4 is a diagram illustrating an example of determining a target range from an image to be processed according to the first embodiment of the present invention. 9 is a flowchart for determining a target range from an image to be processed according to the second embodiment of the present invention. FIG. 13 is a diagram illustrating an example of determining a target range from an image to be processed according to the second embodiment of the present invention. FIG. 13 is a diagram illustrating an example of determining a target range from an image to be processed according to the second embodiment of the present invention. FIG. 4 is an explanatory diagram showing a procedure for generating a cut-out image according to the first embodiment of the present invention. It is an explanatory view showing a procedure for generating a cutout image according to the second embodiment of the present invention. FIG. 1 is a schematic diagram of an image processing apparatus according to an embodiment of the present invention. 1 is a schematic diagram of an image processing device according to an embodiment of the present invention. 1 is a schematic diagram of a computer-readable storage medium according to an embodiment of the present invention.

以下、本発明の実施形態に係る図面を参照して、本発明の実施形態に係る技術案を明確かつ完全に説明する。勿論、説明された実施形態は、本開示の一部の実施形態に過ぎず、全ての実施形態ではない。本開示の実施形態に基づいて、当業者が創造的な労働を必要とせずに得られる他の全ての実施形態は、本開示の範囲内に属する。   Hereinafter, a technical plan according to an embodiment of the present invention will be clearly and completely described with reference to the drawings according to the embodiment of the present invention. Of course, the described embodiments are merely some but not all embodiments of the present disclosure. All other embodiments obtained by a person of ordinary skill in the art without the need for creative labour, based on the embodiments of the present disclosure, are within the scope of the present disclosure.

まず、図1を参照して、本発明の実施形態を実現するための画像処理方法について説明する。この方法は、コンピュータによって実行されることができる。この方法によれば、ユーザが簡単な操作入力を行うだけで、自動的に正確に切り出し画像を生成することができ、ディープニューラルネットワークにマーキングされたトレーニング用画像を提供することができる。   First, an image processing method for realizing an embodiment of the present invention will be described with reference to FIG. The method can be performed by a computer. According to this method, a cut-out image can be automatically and accurately generated by a simple input operation by a user, and a training image marked on a deep neural network can be provided.

図1に示すように、ステップS101では、ユーザによる操作入力を受け付ける。操作入力を受け付ける方法としては、例えば、マウスの画像上の対応する位置のクリック及びスライドを追跡することにより受け付けてもよいし、コンピュータに接続されたスタイラスのクリック及びスライドを追跡することにより受け付けてもよい。前記の操作入力を受け付ける方法は一例に過ぎず、実際の状況に応じて柔軟に選択することができることを理解すべきである。   As shown in FIG. 1, in step S101, an operation input by a user is received. As a method of accepting an operation input, for example, it may be accepted by tracking a click and a slide of a corresponding position on a mouse image, or may be accepted by tracking a click and a slide of a stylus connected to a computer. Is also good. It should be understood that the method of accepting the operation input described above is only an example, and the method can be flexibly selected according to an actual situation.

ステップS102では、この操作入力に基づいて、切り出し画像のサイズと所定の比例になるサイズの目標範囲を処理対象となる画像から決定する。本発明の第1の実施形態では、操作入力は処理対象となる画像における特定の点を指定することに用いられ、目標範囲を処理対象となる画像から決定することは、当該特定の点を中心として当該目標範囲を特定することを含む。   In step S102, based on the operation input, a target range having a size proportional to the size of the cut-out image in a predetermined proportion is determined from the image to be processed. In the first embodiment of the present invention, the operation input is used to specify a specific point in the image to be processed, and determining the target range from the image to be processed is performed by centering on the specific point. And specifying the target range.

最初に、例えば、操作入力は、処理対象となる画像上のマウス又はスタイラスによるユーザのクリックに対応することができ、このクリックは、処理対象となる画像における特定の点を指定する。例えば、ユーザが画像処理により工業用途に用いられる物体の亀裂をマーキングしようとする場合、この操作入力は、処理対象となる画像のうちユーザがクリックした画像における亀裂または亀裂近傍の特定の点を指定することに用いられる。   First, for example, the operation input can correspond to a user's click with a mouse or a stylus on the image to be processed, the click specifying a specific point in the image to be processed. For example, if the user wants to mark a crack in an object used for industrial purposes by image processing, this operation input specifies a crack or a specific point near the crack in the image clicked by the user among the images to be processed. It is used for

次に、この特定の点を中心として、切り出し画像のサイズと所定の比例になるサイズの目標範囲を決定する。切り出し画像のサイズは、ユーザが所望するサイズである。例えば、本実施形態では、この特定の点を中心として、半径が特定値となる円形領域を目標範囲とし、円形領域のサイズは、切り出し画像のサイズよりも大きい。別の例として、この特定の点を中心として、切り出し画像のサイズよりも大きいサイズの正方形を目標範囲として決定し、生成された正方形の目標範囲が切り出し画像を完全にカバーするようにしてもよい。さらに別の例として、この特定の点を中心として、その長さおよび幅は切り出し画像の長さおよび幅と所定の比例値になった矩形を目標範囲として決定し、ここで、生成された目標範囲は、切り出し画像を完全にカバーするように所定の比例値を1よりも大きいとする。なお、前記目標範囲の形状は一例に過ぎず、必要に応じて所望の目標範囲の形状を柔軟に選択することができる。   Next, a target range having a size proportional to the size of the cut-out image by a predetermined ratio is determined around the specific point. The size of the cut-out image is a size desired by the user. For example, in the present embodiment, a circular area having a specific value as a center around the specific point is set as a target range, and the size of the circular area is larger than the size of the cutout image. As another example, a square having a size larger than the size of the cutout image may be determined as the target range around the specific point, and the target range of the generated square may completely cover the cutout image. . As still another example, a rectangle having a predetermined proportional value with respect to the length and width of the cutout image is determined as a target range around this specific point, and the generated target The range is set to a predetermined proportional value larger than 1 so as to completely cover the cut-out image. Note that the shape of the target range is merely an example, and a desired target range shape can be flexibly selected as needed.

図2は本発明の第1の実施形態に係る処理対象となる画像から目標範囲を決定する例を示す図である。図2に示すように、コンピュータは、処理対象となる画像上のマウス又はスタイラスによるユーザのクリックに応じて、処理対象となる画像における特定の点20(ドットで示す)を指定し、この特定の点20を中心として、矩形領域を目標範囲22として決定する。目標範囲22の長さ及び幅は、切り出し画像21の長さ及び幅と所定の比例値になり、この所定の比例値は1よりも大きい。例えば、所定の比例値を、1より大きい任意の数とすることができる。例えば、切り出し画像21のサイズが96×96画素である場合、目標範囲は128×128画素と決定されることができる。   FIG. 2 is a diagram illustrating an example of determining a target range from an image to be processed according to the first embodiment of the present invention. As shown in FIG. 2, the computer designates a specific point 20 (indicated by a dot) in the image to be processed in response to a user's click on the image to be processed with a mouse or a stylus, and A rectangular area around the point 20 is determined as the target range 22. The length and the width of the target range 22 have a predetermined proportional value with the length and the width of the cut-out image 21, and the predetermined proportional value is larger than 1. For example, the predetermined proportional value can be any number greater than one. For example, if the size of the cut-out image 21 is 96 × 96 pixels, the target range can be determined to be 128 × 128 pixels.

あるいは、目標範囲からユーザが所望する切り出し画像を選択するために、所定の比例値を必要に応じて3/2、2または3などとしてもよい。しかしながら、選択された所定の比例値が大きすぎると、対象画像から選択された不要な切り出し画像が多すぎて、記憶スペースが無駄になるおそれがある。選択された所定の比例値が約1であると、対象画像から選択された重複する切り出し画像が多すぎてしまうおそれがある。したがって、必要に応じて、所定の比例値を柔軟に決定すべきである。   Alternatively, a predetermined proportional value may be set to 3/2, 2 or 3, as necessary, in order to select a cutout image desired by the user from the target range. However, if the selected predetermined proportional value is too large, there is a possibility that storage space is wasted because too many unnecessary cutout images are selected from the target image. If the selected predetermined proportional value is about 1, there is a possibility that there are too many overlapping cut-out images selected from the target image. Therefore, the predetermined proportional value should be flexibly determined as necessary.

本発明の第2の実施形態では、操作入力は、処理対象となる画像の特定の軌跡を指定することに用いられ、処理対象となる画像から目標範囲を決定することは、特定の軌跡に基づいて軌跡範囲を決定することと、切り出し画像のサイズをステップサイズとして軌跡範囲を走査することと、各当該ステップサイズを中心として、各当該ステップサイズに対応する目標範囲を決定することとを含む。例えば、操作入力は、処理対象となる画像上のマウス又はスタイラスによるユーザのスライドに対応してもよい。このスライドは、処理対象となる画像における特定の軌跡を指定する。例えば、ユーザが画像処理によって工業用途に用いられる物体の亀裂をマーキングしようとする場合、この操作入力は、処理対象となる画像におけるユーザが亀裂上を滑る軌跡を指定するために用いられる。   In the second embodiment of the present invention, the operation input is used to specify a specific trajectory of the image to be processed, and determining the target range from the image to be processed is based on the specific trajectory. Determining the trajectory range by scanning the trajectory range using the size of the cut-out image as a step size, and determining a target range corresponding to each step size around each step size. For example, the operation input may correspond to a user's slide by a mouse or a stylus on an image to be processed. This slide specifies a specific trajectory in the image to be processed. For example, when a user intends to mark a crack in an object used for industrial use by image processing, this operation input is used to specify a trajectory of a user sliding on the crack in an image to be processed.

図3は本発明の第2の実施形態に係る処理対象となる画像から目標範囲を決定するフローチャートである。図3に示すように、ステップS201において、特定の軌跡に基づいて軌跡範囲が決定される。例えば、この軌跡範囲は、特定の軌跡の開始位置及び終了位置に基づいて決定されてもよい。軌跡範囲を決定する態様は、これに限定されるものではなく、他の態様に基づいて軌跡範囲を決定することもできることを理解すべきである。   FIG. 3 is a flowchart for determining a target range from an image to be processed according to the second embodiment of the present invention. As shown in FIG. 3, in step S201, a trajectory range is determined based on a specific trajectory. For example, the trajectory range may be determined based on a start position and an end position of a specific trajectory. It should be understood that the manner of determining the trajectory range is not limited to this, and the trajectory range may be determined based on other aspects.

ステップS202では、軌跡範囲を決定した後、切り出し画像のサイズをステップサイズとして軌跡範囲を走査する。例えば、切り出し画像のサイズをステップサイズとして、軌跡範囲内で軌跡範囲を横方向および縦方向に走査する。なお、軌跡範囲を走査する時の切り出し画像の重なりはランダムであってもよいし、必要に応じて予め設定されていてもよい。   In step S202, after determining the trajectory range, the trajectory range is scanned using the size of the cut-out image as a step size. For example, the trajectory range is scanned in the horizontal and vertical directions within the trajectory range using the size of the cut-out image as the step size. The overlap of the cut images when scanning the trajectory range may be random, or may be set in advance as necessary.

ステップS203では、各ステップサイズを中心として、本発明の第1の実施形態のように各ステップサイズに対応する目標範囲を決定する。例えば、各ステップサイズの中心を本発明の第1の実施形態に係る特定の点として、切り出し画像のサイズと所定の比例になるサイズの目標範囲を決定する。   In step S203, a target range corresponding to each step size is determined centering on each step size as in the first embodiment of the present invention. For example, the center of each step size is set as a specific point according to the first embodiment of the present invention, and a target range of a size that becomes a predetermined proportional to the size of the cut-out image is determined.

図4a、4bは本発明の第2の実施形態に係る処理対象となる画像から目標範囲を決定する例を示す図である。図4aに示すように、コンピュータは、処理対象となる画像上のマウスやスタイラスによるユーザのスライドに基づいて、処理対象となる画像における特定の軌跡31を指定する。例えば、その特定の軌跡31の開始位置と終了位置に基づいて軌跡範囲30を決定する。図4bに示すように、軌跡範囲30が決定された後、切り出し画像32をステップサイズとして軌跡範囲30を横方向および縦方向に同時に走査する。切り出し画像33及び切り出し画像34は、軌跡範囲30を横方向に走査する例を示す。次に、各ステップサイズを中心として、各ステップサイズの中心を本発明の第1の実施形態に係る特定の点として、切り出し画像のサイズと所定の比例になるサイズの目標範囲を決定する。例えば、この目標範囲(図示せず)は、円形、三角形、又は正方形であってもよい。   FIGS. 4A and 4B are diagrams illustrating an example of determining a target range from an image to be processed according to the second embodiment of the present invention. As shown in FIG. 4A, the computer designates a specific trajectory 31 in an image to be processed based on a user's slide by a mouse or a stylus on the image to be processed. For example, the trajectory range 30 is determined based on the start position and the end position of the specific trajectory 31. As shown in FIG. 4B, after the trajectory range 30 is determined, the trajectory range 30 is simultaneously scanned in the horizontal and vertical directions using the cut-out image 32 as a step size. The cutout image 33 and the cutout image 34 show an example of scanning the trajectory range 30 in the horizontal direction. Next, with the center of each step size as a specific point according to the first embodiment of the present invention, a target range of a size proportional to the size of the cut-out image is determined. For example, this target area (not shown) may be circular, triangular, or square.

図1に戻り、ステップS103では、目標範囲内で所定数の所定サイズの切り出し画像を生成する。例えば、目標範囲を決定した後、目標範囲内で所定数の所定サイズの切り出し画像をランダムに生成するようにしてもよい。あるいは、目標範囲における異なる位置に生成される切り出し画像の数を予め設定しておいてもよい。例えば、目標範囲のエッジよりも目標範囲の中心に生成される切り出し画像の数が大きく設定されていてもよい。また、生成される切り出し画像の数やサイズは、ユーザのニーズに応じて予め設定されていてもよい。   Returning to FIG. 1, in step S103, a predetermined number of cut-out images of a predetermined size are generated within the target range. For example, after determining the target range, a predetermined number of cutout images of a predetermined size may be randomly generated within the target range. Alternatively, the number of cutout images generated at different positions in the target range may be set in advance. For example, the number of cut-out images generated at the center of the target range may be set larger than the edge of the target range. Further, the number and size of the generated cut-out images may be set in advance according to the needs of the user.

切り出し画像を生成したら、コンピュータによって自動的に名を付けて保存することができる。例えば、ユーザが工業用途において亀裂をマーキングするためにこの方法を使用することを望む場合、切り出し画像を生成した後、コンピュータは、生成された切り出し画像を自動的に「亀裂」と命名し、コンピュータにおいて対応する目標パスに保存する。また、異なる操作に応じて、異なるタグを自動的に設定することもできる。一例として、マウスの左右ボタンに応じて複数のタグを設定することができる。例えば、コンピュータがマウスの左ボタンのクリックおよびスライドを受け付けると、前記の方法により生成された切り出し画像は、自動的に「亀裂」としてマークされ、対応する目標パスに自動的に保存され、コンピュータがマウスの右ボタンのクリックおよびスライドを受け付けると、上記の方法により生成された切り出し画像は、自動的に「非亀裂」としてマークされ、「亀裂」の目標パスと異なる目標パスに自動的に保存される。また、他の例として、キーボードの入力に応じて複数のタグを設定するようにしてもよい。例えば、キーボードの異なる入力に対して予め異なるタグ種別を設定しておき、キーボードを介して入力すると、最終的に生成された切り出し画像が自動的に命名され、対応するタグ種別の目標パスに保存されるようにしてもよい。なお、上記のタグの設定方法はこれに限定されるものではなく、必要に応じて異なる方法で異なるタグを設定するようにしてもよい。   Once the cropped image is generated, it can be automatically named and saved by the computer. For example, if a user wants to use this method to mark a crack in an industrial application, after generating a cropped image, the computer automatically names the generated cropped image a "crack" In the corresponding target path. Also, different tags can be automatically set according to different operations. As an example, a plurality of tags can be set according to the left and right buttons of the mouse. For example, when the computer accepts the click and slide of the left mouse button, the cropped image generated by the above method is automatically marked as "crack" and automatically saved in the corresponding target path, and the computer Upon accepting the right mouse button click and slide, the cropped image generated by the above method is automatically marked as "non-crack" and automatically saved to a target path different from the "crack" target path. You. Further, as another example, a plurality of tags may be set in accordance with a keyboard input. For example, if different tag types are set in advance for different keyboard inputs and input via the keyboard, the finally generated cutout image is automatically named and saved in the target path of the corresponding tag type May be performed. Note that the above tag setting method is not limited to this, and different tags may be set by different methods as needed.

図5は本発明の第1の実施形態に係る切り出し画像を生成する手順を示す図である。図5に示すように、コンピュータは、処理対象となる画像(左側の画像)における特定の点を指定するためのユーザの操作入力を受け付ける。この操作入力に基づいて、コンピュータは、所望の切り出し画像(右側の画像)のサイズと所定の比例になるサイズの目標範囲を決定する。例えば、目標範囲のサイズは、切り出し画像のサイズの2倍、3倍等であってもよい。目標範囲が決定されると、その目標範囲内において、所定数の所定サイズのユーザが所望する切り出し画像が生成される。切り出し画像を生成したら、コンピュータによって自動的に名を付けて保存することができる。   FIG. 5 is a diagram showing a procedure for generating a cut-out image according to the first embodiment of the present invention. As shown in FIG. 5, the computer receives a user's operation input for designating a specific point in an image to be processed (left image). Based on this operation input, the computer determines a target range of a size that is in a predetermined proportion to the size of the desired cut-out image (right image). For example, the size of the target range may be twice or three times the size of the cut-out image. When the target range is determined, a predetermined number of cutout images desired by the user of a predetermined size are generated within the target range. Once the cropped image is generated, it can be automatically named and saved by the computer.

図6は本発明の第2の実施形態に係る切り出し画像を生成する手順を示す図である。図6に示すように、コンピュータは、処理対象となる画像(左側の画像)における特定の軌跡を指定するためのユーザの操作入力を受け付ける。この特定の軌跡に基づいて軌跡範囲が決定され、例えば、軌跡範囲は、特定の軌跡の開始位置および終了位置によって決定されてもよい。軌跡範囲が決定されると、ユーザが所望する切り出し画像(右側の画像)のサイズをステップサイズとして、上記軌跡範囲を走査する。最後に、各ステップサイズを中心として、各ステップサイズに対応する目標範囲が決定される。目標範囲を決定する方法は、例えば、前記の第1の実施形態に係る方法で目標範囲を決定することを含む。例えば、各ステップサイズの中心を前記の第1の実施形態に係る特定の点として目標範囲を決定する。目標範囲が決定されると、その目標範囲内において、所定数の所定サイズのユーザが所望する切り出し画像が生成される。切り出し画像を生成したら、コンピュータによって自動的に名を付けて保存することができる。   FIG. 6 is a diagram showing a procedure for generating a cut-out image according to the second embodiment of the present invention. As shown in FIG. 6, the computer receives a user's operation input for designating a specific trajectory in an image to be processed (left image). The trajectory range is determined based on the specific trajectory. For example, the trajectory range may be determined by the start position and the end position of the specific trajectory. When the trajectory range is determined, the trajectory range is scanned using the size of the cut-out image (right image) desired by the user as the step size. Finally, a target range corresponding to each step size is determined centering on each step size. The method of determining the target range includes, for example, determining the target range by the method according to the first embodiment. For example, the target range is determined with the center of each step size as the specific point according to the first embodiment. When the target range is determined, a predetermined number of cutout images desired by the user of a predetermined size are generated within the target range. Once the cropped image is generated, it can be automatically named and saved by the computer.

次に、図7を参照して、本発明の実施形態に係る画像処理装置について説明する。図7は本発明の実施形態に係る画像処理装置の概略図である。本実施形態の画像処理装置の機能は、図1を参照して説明した方法と同様であるので、簡単にするために、詳細な説明を省略する。図7に示すように、画像処理装置1000は、操作入力受付部1001と、目標範囲決定部1002と、切り出し画像生成部1003と、切り出し画像保存部1004とを備える。なお、図7では、画像処理装置1000が4つの部のみを含むように示しているが、これは例示に過ぎず、画像処理装置1000は、1つ以上の他の部を含んでいてもよく、これらの部は本発明の思想に関係しないのでここでは省略される。   Next, an image processing apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 7 is a schematic diagram of the image processing apparatus according to the embodiment of the present invention. The function of the image processing apparatus according to the present embodiment is the same as the method described with reference to FIG. 1, and thus detailed description will be omitted for brevity. As shown in FIG. 7, the image processing apparatus 1000 includes an operation input receiving unit 1001, a target range determining unit 1002, a cut-out image generation unit 1003, and a cut-out image storage unit 1004. Although FIG. 7 illustrates that the image processing apparatus 1000 includes only four units, this is merely an example, and the image processing apparatus 1000 may include one or more other units. Since these parts do not relate to the idea of the present invention, they are omitted here.

操作入力受付部1001は、ユーザによる操作入力を受け付けることができる。操作入力を受け付ける方法は複数があり、例えば、画像上の対応する位置におけるマウスのクリック及びスライドを追跡することにより操作入力を受け付けてもよいし、スタイラスのクリック及びスライドを追跡することにより操作入力を受け付けてもよい。前記の操作入力を受け付ける方法は一例であり、実際の状況に応じて柔軟に選択することができることを理解すべきである。目標範囲決定部1002は、操作入力に基づいて、処理対象となる画像のサイズと所定の比例になるサイズの目標範囲を処理対象となる画像から決定する。   The operation input receiving unit 1001 can receive an operation input by a user. There are a plurality of methods for accepting operation input. For example, operation input may be accepted by tracking mouse clicks and slides at corresponding positions on an image, or operation input may be performed by tracking stylus clicks and slides. May be accepted. It should be understood that the method of accepting the operation input described above is an example, and the method can be flexibly selected according to an actual situation. The target range determination unit 1002 determines, based on the operation input, a target range having a size proportional to the size of the image to be processed in a predetermined proportion from the image to be processed.

本発明の第1の実施形態において、操作入力は、処理対象となる画像中の特定の点を指定するために用いられる。処理対象となる画像から目標範囲を指定することは、当該特定の点を中心として、当該目標範囲を決定することを含む。最初に、例えば、操作入力は、処理対象となる画像におけるマウス又はスタイラスによるユーザのクリックに対応することができ、このクリックは、処理対象となる画像の特定の点を指定する。   In the first embodiment of the present invention, an operation input is used to specify a specific point in an image to be processed. Designating a target range from an image to be processed includes determining the target range around the specific point. First, for example, the operation input can correspond to a user's click with a mouse or a stylus on the image to be processed, which click specifies a particular point in the image to be processed.

次に、この特定の点を中心として目標範囲を決定する。目標範囲のサイズは切り出し画像のサイズと所定の比例になる。その切り出し画像のサイズはユーザが所望する画像のサイズである。例えば、本実施形態では、この特定の点を中心として、半径が特定値となる円形領域を目標範囲と定義する。また、円形領域のサイズは切り出し画像のサイズよりも大きい。別の例として、この特定の点を中心として、生成された正方形の目標範囲が切り出し画像を完全にカバーするように切り出し画像のサイズよりも大きいサイズの正方形を目標範囲として決定してもよい。さらに、別の例として、この特定の点を中心として、その長さおよび幅が切り出し画像の長さおよび幅と所定の比例値になる矩形を目標範囲として決定してもよい。ここで、生成された目標範囲は、切り出し画像を完全にカバーできるように所定の比例値を1よりも大きいとする。なお、前記した目標範囲の形状は一例に過ぎず、所望の目標範囲の形状を必要に応じて柔軟に選択することができることを理解すべきである。   Next, a target range is determined around this specific point. The size of the target range is in a predetermined proportion to the size of the cut-out image. The size of the cut-out image is the size of the image desired by the user. For example, in the present embodiment, a circular region having a radius of a specific value around this specific point is defined as a target range. The size of the circular area is larger than the size of the cut-out image. As another example, a square having a size larger than the size of the cut-out image may be determined as the target range such that the generated square target range completely covers the cut-out image around this specific point. Further, as another example, a rectangle having the specified point as the center and having a predetermined proportional value with the length and width of the cut image may be determined as the target range. Here, it is assumed that the generated target range has a predetermined proportional value larger than 1 so that the cutout image can be completely covered. It should be understood that the shape of the target range described above is merely an example, and the shape of the desired target range can be flexibly selected as needed.

本発明の第2の実施形態では、操作入力は、処理対象となる画像における特定の軌跡を指定することに用いられ、処理対象となる画像から目標範囲を決定することは、特定の軌跡に基づいて軌跡範囲を決定することと、切り出し画像のサイズをステップサイズとして軌跡範囲を走査することと、各当該ステップサイズを中心として、各当該ステップサイズに対応する目標範囲を決定することとを含む。最初に、例えば、操作入力は、処理対象となる画像におけるマウス又はスタイラスによるユーザのスライドに対応することができ、このスライドは、処理対象となる画像における特定の軌跡を指定する。   In the second embodiment of the present invention, the operation input is used to specify a specific trajectory in the image to be processed, and determining the target range from the image to be processed is based on the specific trajectory. Determining the trajectory range by scanning the trajectory range using the size of the cut-out image as a step size, and determining a target range corresponding to each step size around each step size. First, for example, the operation input can correspond to a user's slide by a mouse or a stylus in an image to be processed, and this slide specifies a specific trajectory in the image to be processed.

次に、特定の軌跡に基づいて軌跡範囲を決定する。例えば、軌跡範囲は、特定の軌跡の開始位置及び終了位置に基づいて決定されてもよい。軌跡範囲を決定する態様は、これに限定されるものではなく、他の態様に基づいて軌跡範囲を決定することもできることを理解すべきである。軌跡範囲を決定したら、切り出し画像のサイズをステップサイズとして軌跡範囲を走査する。例えば、切り出し画像のサイズをステップサイズとして、軌跡範囲内で軌跡範囲を横方向および縦方向に走査する。   Next, a trajectory range is determined based on a specific trajectory. For example, the trajectory range may be determined based on a start position and an end position of a specific trajectory. It should be understood that the manner of determining the trajectory range is not limited to this, and the trajectory range may be determined based on other aspects. After the trajectory range is determined, the trajectory range is scanned using the size of the cut-out image as a step size. For example, the trajectory range is scanned in the horizontal and vertical directions within the trajectory range using the size of the cut-out image as the step size.

最後に、各ステップサイズを中心として、本発明の第1の実施形態のように各ステップサイズに対応する目標範囲を決定する。切り出し画像生成部1003は、目標範囲内に所定数の所定サイズの切り出し画像を生成する。例えば、目標範囲が決定された後、切り出し画像生成部1003は、目標範囲内で所定数の所定サイズの切り出し画像をランダムに生成してもよい。あるいは、目標範囲の異なる位置に生成される切り出し画像の数を予め設定してもよい。例えば、目標範囲のエッジよりも目標範囲の中心に生成される切り出し画像の数が大きく設定されてもよい。なお、生成される切り出し画像の数やサイズは、ユーザのニーズに応じて予め設定されてもよい。   Finally, a target range corresponding to each step size is determined centering on each step size as in the first embodiment of the present invention. The cut-out image generation unit 1003 generates a predetermined number of cut-out images of a predetermined size within the target range. For example, after the target range is determined, the cut-out image generation unit 1003 may randomly generate a predetermined number of cut-out images of a predetermined size within the target range. Alternatively, the number of cut-out images generated at different positions in the target range may be set in advance. For example, the number of cut-out images generated at the center of the target range may be set larger than the edge of the target range. Note that the number and size of the cutout images to be generated may be set in advance according to the needs of the user.

切り出し画像を生成した後、自動的に命名された切り出し画像は切り出し画像保存部1004によって記憶されてもよい。次に、図8を参照して、本発明の実施形態に係る画像処理機器について説明する。図8は本発明の一実施形態に係る画像処理機器の概略図である。本実施形態の画像処理装置の機能は、図1を参照して説明した方法と同様であるので、簡単にするために、詳細な説明を省略する。   After generating the cutout image, the cutout image automatically named may be stored by the cutout image storage unit 1004. Next, an image processing device according to an embodiment of the present invention will be described with reference to FIG. FIG. 8 is a schematic diagram of an image processing device according to an embodiment of the present invention. The function of the image processing apparatus according to the present embodiment is the same as the method described with reference to FIG. 1, and thus detailed description will be omitted for brevity.

図8に示すように、画像処理機器1100は、メモリ1101と、プロセッサ1102と、を備える。なお、図8では、画像処理機器1100が2つのデバイスのみを含むことを示しているが、これは例示に過ぎず、画像処理機器1100は、1つ以上の他のデバイスを含んでいてもよく、これらのデバイスは、本発明の思想に関係ないのでここでは省略される。   As shown in FIG. 8, the image processing device 1100 includes a memory 1101 and a processor 1102. Although FIG. 8 shows that the image processing apparatus 1100 includes only two devices, this is merely an example, and the image processing apparatus 1100 may include one or more other devices. Since these devices are not related to the concept of the present invention, they are omitted here.

本発明の画像処理機器1100は、コンピュータ可読命令を記憶するように構成されたメモリ1101と、メモリに記憶されたコンピュータ可読命令を実行するように構成されたプロセッサ1102とを備える。プロセッサ1102は、コンピュータ可読命令を処理して実行するときに、以下のステップを実行する。即ち、操作入力を受け付けることと、操作入力に基づいて、処理対象となる画像から目標範囲を決定することと、目標範囲内で、所定数の所定サイズの切り出し画像を生成することである。ここで、目標範囲のサイズは、処理対象となる画像のサイズと所定の比例になる。   The image processing device 1100 of the present invention includes a memory 1101 configured to store computer readable instructions and a processor 1102 configured to execute computer readable instructions stored in the memory. Processor 1102 performs the following steps when processing and executing computer readable instructions. That is, to receive an operation input, to determine a target range from an image to be processed based on the operation input, and to generate a predetermined number of cutout images of a predetermined size within the target range. Here, the size of the target range is in a predetermined proportion to the size of the image to be processed.

本発明の第1の実施形態では、操作入力は、処理対象となる画像における特定の点を指定することに用いられ、前記処理対象となる画像から目標範囲を指定することは、特定の点を中心としてこの目標範囲を決定することを含む。   In the first embodiment of the present invention, the operation input is used to specify a specific point in an image to be processed, and specifying a target range from the image to be processed is to specify a specific point. Including determining this target range as a center.

本発明の第2の実施形態では、操作入力は、処理対象となる画像における特定の軌跡を指定することに用いられ、前記処理対象となる画像から目標範囲を決定することは、特定の軌跡に基づいてこの軌跡範囲を決定することと、切り出し画像のサイズをステップサイズとしてこの軌跡範囲を走査することと、各当該ステップサイズを中心として、各当該ステップサイズに対応する目標範囲を決定することを含む。ここで、当該特定の軌跡に基づいてこの軌跡範囲を決定することは、当該特定の軌跡の開始位置及び終了位置に基づいてこの軌跡範囲を決定することを含む。目標範囲が決定されると、この目標範囲から所定数の所定サイズの切り出し画像がランダムに生成され、自動的に命名された当該切り出し画像がメモリ1101に記憶される。   In the second embodiment of the present invention, the operation input is used to specify a specific trajectory in an image to be processed, and determining a target range from the image to be processed is performed by using a specific trajectory. Determining the trajectory range based on the trajectory range, scanning the trajectory range with the size of the cut-out image as a step size, and determining a target range corresponding to each of the step sizes with each of the step sizes as a center. Including. Here, determining the trajectory range based on the specific trajectory includes determining the trajectory range based on the start position and the end position of the specific trajectory. When the target range is determined, a predetermined number of cutout images of a predetermined size are randomly generated from the target range, and the automatically named cutout image is stored in the memory 1101.

図9は本開示の実施形態に係るコンピュータ可読記憶媒体を示す概略図である。図9に示すように、本開示は、コンピュータ可読命令1201が記憶されるコンピュータ可読記憶媒体1200を含み、コンピュータ可読命令がコンピュータによって実行されるときに、コンピュータは、以下のステップを実行する。即ち、操作入力を受け付けることと、この操作入力に基づいて、処理対象となる画像から目標範囲を決定することと、この目標範囲において、所定数の所定サイズの切り出し画像を生成することである。ここで、この目標範囲のサイズは、当該切り出し画像のサイズと所定の比例になる。   FIG. 9 is a schematic diagram illustrating a computer-readable storage medium according to an embodiment of the present disclosure. As shown in FIG. 9, the present disclosure includes a computer-readable storage medium 1200 in which computer-readable instructions 1201 are stored, and when the computer-readable instructions are executed by the computer, the computer performs the following steps. That is, to receive an operation input, to determine a target range from an image to be processed based on the operation input, and to generate a predetermined number of cutout images of a predetermined size in the target range. Here, the size of the target range is in a predetermined proportion to the size of the cut-out image.

以上から、本開示の上記態様では、ユーザの操作入力(例えば、マウスまたはスタイラスのクリックまたはスライド)を受け付け、その操作入力に基づいて、処理対象となる画像から例えば円形、三角形、長方形などの目標範囲を決定し、この目標範囲内において、所定数の所定サイズの切り出し画像がコンピュータにより生成されることがわかる。ここで、目標範囲のサイズは、切り出し画像のサイズと所定の比例になる。この方法により、作業者の操作入力が少なくても、自動的かつ正確に切り出し画像を生成することができる。これにより、ニューラルネットワークにマーキングされたトレーニング画像を提供することができ、理論的な認知錯誤や視覚錯誤の低減及び人手によるマーキングのコストの低減を実現することができる。   As described above, according to the aspect of the present disclosure, a user's operation input (for example, click or slide of a mouse or a stylus) is received, and a target such as a circle, a triangle, or a rectangle is extracted from an image to be processed based on the operation input. The range is determined, and it can be seen that a predetermined number of cutout images of a predetermined size are generated by the computer within the target range. Here, the size of the target range is in a predetermined proportion to the size of the clipped image. According to this method, a cut-out image can be generated automatically and accurately even if the operation input by the operator is small. As a result, a training image marked on the neural network can be provided, and it is possible to reduce theoretical cognitive errors and visual errors and reduce the cost of manual marking.

当業者に理解されるように、本出願の各方面は、いくつかの特許可能な種類または状況によって説明又は解釈することができ、新規および有用なプロセス、機械、製品または物質の組み合わせを含み、或いはそれらに対する任意の新規又は有用な改良を含む。それに応じて、本出願の各方面は、完全にハードウェアによって実行されてもよく、或いは、完全にソフトウェア(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)によって実行されてもよく、或いは、ハードウェアとソフトウェアの組み合わせによって実行されてもよい。上記のハードウェアまたはソフトウェアは、「データブロック」、「モジュール」、「エンジン」、「ユニット」、「コンポーネント」、または「システム」と呼ぶことができる。さらに、本出願の各方面は、1つまたは複数のコンピュータ可読媒体内にあるコンピュータ製品であってもよく、当該製品は、コンピュータ可読プログラムコードを含む。   As will be appreciated by those skilled in the art, aspects of the present application can be described or interpreted in terms of several patentable types or situations, including new and useful processes, machines, products or combinations of materials, Or any new or useful improvements thereto. Accordingly, aspects of the present application may be performed entirely by hardware, or entirely by software (including firmware, resident software, microcode, etc.) And may be executed by a combination of software. The above hardware or software may be referred to as "data blocks," "modules," "engines," "units," "components," or "systems." Further, aspects of the present application may be a computer product residing in one or more computer readable media, the product including computer readable program code.

本出願は、本出願の実施形態を説明するために特定の用語を使用する。「一実施形態」、「一つの実施形態」、および/または「いくつかの実施形態」とは、本願の少なくとも1つの実施形態に関連する特定の特徴、構造、または特性を意味する。したがって、本明細書において異なる位置で2回以上言及される「一実施形態」または「一つの実施形態」または「代替的な実施形態」は、必ずしも同じ実施形態を意味するものではないことを理解すべきである。さらに、本出願の1つまたは複数の実施形態に係る特定の特徴、構造、または特性を適切に組み合わせることができる。他に定義されない限り、本明細書で用いられる全ての用語(技術用語及び科学用語を含む)は、本開示が属する領域の当業者によって理解されるものと同じ意味を有する。また、一般的な辞書に定義されているような用語は、本明細書で明確に定義されていない限り、関連技術の文脈におけるそれらの意味と一致する意味を有するものとして解釈されるべきであり、理想化されまたは極端に形式化された意味で解釈されるべきではない。上記内容は本開示に対する説明であり、それを限定するものとみなされるべきではない。本開示のいくつかの例示的な実施形態を説明したが、当業者であれば、本開示の新規な教示および利点から逸脱することなく、例示的な実施形態に多くの修正を加えることができる。したがって、それらの全ての修正は、特許請求の範囲によって定義される本開示の範囲内に含まれることが意図される。上記内容は本開示に対する説明であり、開示された特定の実施形態に限定されるものとみなされるべきではなく、開示された実施形態および他の実施形態の修正は、添付された特許請求の範囲の範囲内に含まれることが意図される。本開示は、特許請求の範囲およびその等価物によって定義される。   This application uses certain terms to describe the embodiments of the present application. "One embodiment," "one embodiment," and / or "some embodiments" mean a particular feature, structure, or characteristic associated with at least one embodiment of the present application. Thus, it is understood that “one embodiment” or “one embodiment” or “alternative embodiment”, which is referred to more than once in different locations herein, does not necessarily mean the same embodiment. Should. Furthermore, the particular features, structures, or characteristics of one or more embodiments of the present application may be combined as appropriate. Unless defined otherwise, all terms (including technical and scientific terms) used herein have the same meaning as understood by one of ordinary skill in the art to which this disclosure belongs. Also, terms such as those defined in a general dictionary, unless explicitly defined herein, should be construed as having a meaning consistent with their meaning in the context of the related art. Should not be construed in an idealized or extremely formalized sense. The above is a description of the present disclosure and should not be construed as limiting. Although several exemplary embodiments of the present disclosure have been described, those skilled in the art can make numerous modifications to the exemplary embodiments without departing from the novel teachings and advantages of the present disclosure. . Accordingly, all such modifications are intended to be included within the scope of this disclosure as defined by the claims. The foregoing is a description of the present disclosure and should not be construed as limited to the particular embodiments disclosed, but modifications of the disclosed embodiments and other embodiments are set forth in the following claims. It is intended to be included within the range. The present disclosure is defined by the claims and their equivalents.

Claims (19)

操作入力を受け付けることと、
前記操作入力に基づいて、処理対象となる画像から目標範囲を決定することと、
前記目標範囲内において、所定数の所定サイズの切り出し画像を生成することと、を含み、
前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になることを特徴とする、画像処理方法。
Accepting operation input,
Based on the operation input, determine a target range from the image to be processed,
Generating a cutout image of a predetermined number and a predetermined size within the target range,
The image processing method according to claim 1, wherein a size of the target range is in a predetermined proportion to a size of the cut-out image.
前記操作入力は、前記処理対象となる画像における特定の点を指定するために用いられ、
前記処理対象となる画像から目標範囲を決定することは、
前記特定の点を中心として、前記目標範囲を決定することを含むことを特徴とする、請求項1に記載の画像処理方法。
The operation input is used to specify a specific point in the image to be processed,
Determining the target range from the image to be processed,
The image processing method according to claim 1, further comprising determining the target range around the specific point.
前記操作入力は、前記処理対象となる画像における特定の軌跡を指定するために用いられ、
前記処理対象となる画像から目標範囲を決定することは、
前記特定の軌跡に基づいて、軌跡範囲を決定することと、
前記切り出し画像のサイズをステップサイズとして、前記軌跡範囲を走査することと、
各前記ステップサイズを中心として、各前記ステップサイズに対応する目標範囲を決定することと、を含むことを特徴とする、請求項1に記載の画像処理方法。
The operation input is used to specify a specific trajectory in the image to be processed,
Determining the target range from the image to be processed,
Determining a trajectory range based on the specific trajectory;
Scanning the trajectory range with the size of the cut-out image as a step size,
The image processing method according to claim 1, further comprising: determining a target range corresponding to each of the step sizes centering on each of the step sizes.
前記特定の軌跡に基づいて軌跡範囲を決定することは、前記特定の軌跡の開始位置および終了位置に基づいて前記軌跡範囲を決定することを含むことを特徴とする、請求項3に記載の画像処理方法。   The image according to claim 3, wherein determining the trajectory range based on the specific trajectory includes determining the trajectory range based on a start position and an end position of the specific trajectory. Processing method. 前記目標範囲内から所定数の所定サイズの切り出し画像をランダムに生成することをさらに含むことを特徴とする、請求項1から4のいずれかに記載の画像処理方法。   The image processing method according to any one of claims 1 to 4, further comprising randomly generating a predetermined number of cutout images of a predetermined size from within the target range. 生成された切り出し画像を自動的に名を付けて保存することを特徴とする、請求項5に記載の画像処理方法。   The image processing method according to claim 5, wherein the generated cut-out image is automatically named and stored. 操作入力を受け付けるように配置される操作入力受付部と、
前記操作入力に基づいて、処理対象となる画像から目標範囲を決定するように配置される目標範囲決定部と、
前記目標範囲内において、所定数の所定サイズの切り出し画像を生成するように配置される切り出し画像生成部と、を含み、
前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になることを特徴とする、画像処理装置。
An operation input receiving unit arranged to receive the operation input;
A target range determining unit arranged to determine a target range from an image to be processed based on the operation input;
In the target range, including a cutout image generation unit arranged to generate a predetermined number of cutout images of a predetermined size,
The image processing apparatus according to claim 1, wherein a size of the target range is in a predetermined proportion to a size of the cut-out image.
前記操作入力は、前記処理対象となる画像における特定の点を指定することに用いられ、
前記目標範囲決定部は、前記特定の点を中心として、前記目標範囲を決定することを特徴とする、請求項7に記載の画像処理装置。
The operation input is used to specify a specific point in the image to be processed,
The image processing apparatus according to claim 7, wherein the target range determination unit determines the target range around the specific point.
前記操作入力は、前記処理対象となる画像における特定の軌跡を指定することに用いられ、
前記目標範囲決定部は、前記特定の軌跡に基づいて軌跡範囲を決定し、
前記切り出し画像のサイズをステップサイズとして前記軌跡範囲を走査し、
各前記ステップサイズを中心として、各前記ステップサイズに対応する目標範囲を決定することを特徴とする、請求項7に記載の画像処理装置。
The operation input is used to specify a specific trajectory in the image to be processed,
The target range determination unit determines a trajectory range based on the specific trajectory,
Scanning the trajectory range with the size of the cut-out image as a step size,
The image processing apparatus according to claim 7, wherein a target range corresponding to each of the step sizes is determined centering on each of the step sizes.
前記決定部は、前記特定の軌跡の開始位置及び終了位置に基づいて、前記軌跡範囲を決定することを特徴とする、請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the determination unit determines the trajectory range based on a start position and an end position of the specific trajectory. 前記切り出し画像生成部は、前記目標範囲内から所定数の所定サイズの切り出し画像をランダムに生成することを特徴とする、請求項7から10のいずれかに記載の画像処理装置。   The image processing device according to claim 7, wherein the cut-out image generation unit generates a predetermined number of cut-out images of a predetermined size at random from within the target range. 自動的に命名された前記切り出し画像を保存する切り出し画像保存部をさらに含むことを特徴とする、請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, further comprising a cutout image storage unit that stores the cutout image that has been automatically named. コンピュータ可読命令を記憶するように配置されるメモリと、
前記メモリに記憶された前記コンピュータ可読命令を実行するように配置されるプロセッサと、を含み、
前記プロセッサは、前記コンピュータ可読命令を実行する時、
操作入力を受け付けるステップと、
前記操作入力に基づいて、処理対象となる画像から目標範囲を決定するステップと、
前記目標範囲内において、所定数の所定サイズの切り出し画像を生成するステップと、を実行し、
前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になることを特徴とする、画像処理機器。
Memory arranged to store computer readable instructions;
A processor arranged to execute the computer readable instructions stored in the memory;
The processor, when executing the computer readable instructions,
Receiving an operation input;
A step of determining a target range from an image to be processed based on the operation input;
Generating a predetermined number of cutout images of a predetermined size within the target range,
The size of the target range is in a predetermined proportion to the size of the cut-out image.
前記操作入力は、前記処理対象となる画像における特定の点を指定することに用いられ、
前記処理対象となる画像から目標範囲を決定することは、
前記特定の点を中心として、前記目標範囲を決定することを含むことを特徴とする、請求項13に記載の画像処理機器。
The operation input is used to specify a specific point in the image to be processed,
Determining the target range from the image to be processed,
The image processing apparatus according to claim 13, further comprising: determining the target range around the specific point.
前記操作入力は、前記処理対象となる画像における特定の軌跡を指定することに用いられ、
前記処理対象となる画像から目標範囲を決定することは、
前記特定の軌跡に基づいて軌跡範囲を決定することと、
前記切り出し画像のサイズをステップサイズとして前記軌跡範囲を走査することと、
各前記ステップサイズを中心として、各前記ステップサイズに対応する目標範囲を決定することと、を含むことを特徴とする、請求項13に記載の画像処理機器。
The operation input is used to specify a specific trajectory in the image to be processed,
Determining the target range from the image to be processed,
Determining a trajectory range based on the specific trajectory;
Scanning the trajectory range with the size of the cut-out image as a step size,
14. The image processing apparatus according to claim 13, further comprising: determining a target range corresponding to each of the step sizes with each of the step sizes as a center.
前記特定の軌跡に基づいて軌跡範囲を決定することは、前記特定の軌跡の開始位置及び終了位置に基づいて前記軌跡範囲を決定することを含むことを特徴とする、請求項15に記載の画像処理機器。   The image according to claim 15, wherein determining the trajectory range based on the specific trajectory includes determining the trajectory range based on a start position and an end position of the specific trajectory. Processing equipment. さらに前記目標範囲から所定数の所定サイズの切り出し画像をランダムに生成することを特徴とする、請求項13から16のいずれかに記載の画像処理機器。   17. The image processing apparatus according to claim 13, wherein a predetermined number of cutout images of a predetermined size are randomly generated from the target range. 前記メモリは、自動的に命名された前記切り出し画像を記憶することを特徴とする、請求項17に記載の画像処理機器。   18. The image processing apparatus according to claim 17, wherein the memory stores the automatically named cut-out image. コンピュータ可読命令を記憶するコンピュータ可読記憶媒体であって、
前記コンピュータ可読命令がコンピュータによって実行される時、前記コンピュータは、
操作入力を受け付けるステップと、
前記操作入力に基づいて、処理対象となる画像から目標範囲を決定するステップと、
前記目標範囲内において、所定数の所定サイズの切り出し画像を生成するステップと、を実行し、
前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になることを特徴とする、コンピュータ可読記憶媒体。
A computer readable storage medium storing computer readable instructions, wherein
When the computer readable instructions are executed by a computer, the computer
Receiving an operation input;
A step of determining a target range from an image to be processed based on the operation input;
Generating a predetermined number of cutout images of a predetermined size within the target range,
The computer-readable storage medium according to claim 1, wherein a size of the target range is in a predetermined proportion to a size of the cut-out image.
JP2019128083A 2018-07-13 2019-07-10 Image processing method, image processing device, and image processing equipment Active JP7386007B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810770150.9A CN110717576B (en) 2018-07-13 2018-07-13 Image processing method, device and equipment
CN201810770150.9 2018-07-13

Publications (2)

Publication Number Publication Date
JP2020013567A true JP2020013567A (en) 2020-01-23
JP7386007B2 JP7386007B2 (en) 2023-11-24

Family

ID=69170720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019128083A Active JP7386007B2 (en) 2018-07-13 2019-07-10 Image processing method, image processing device, and image processing equipment

Country Status (2)

Country Link
JP (1) JP7386007B2 (en)
CN (1) CN110717576B (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114205515B (en) * 2020-09-18 2023-04-07 荣耀终端有限公司 Anti-shake processing method for video and electronic equipment
CN114444622B (en) * 2022-04-11 2022-06-17 中国科学院微电子研究所 Fruit detection system and method based on neural network model

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198476A (en) * 2009-02-26 2010-09-09 Omron Corp Defect detecting apparatus, defect detecting method and defect detecting program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266061A (en) * 2008-04-28 2009-11-12 Panasonic Corp Image processor, image processing method, and image transmission system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198476A (en) * 2009-02-26 2010-09-09 Omron Corp Defect detecting apparatus, defect detecting method and defect detecting program

Also Published As

Publication number Publication date
JP7386007B2 (en) 2023-11-24
CN110717576A (en) 2020-01-21
CN110717576B (en) 2024-05-28

Similar Documents

Publication Publication Date Title
US20200311946A1 (en) Interactive image matting using neural networks
US20190066333A1 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
CN109377467A (en) Generation method, object detection method and the device of training sample
WO2017050083A1 (en) Element identification method and device
JP2022541977A (en) Image labeling method, device, electronic device and storage medium
KR101670270B1 (en) System and method for locating fiducials with known shape
JP2020013567A (en) Image processing method, image processing device, and image processing apparatus
CN108882025B (en) Video frame processing method and device
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP7379684B2 (en) Image generation method and device and computer program
US20160012302A1 (en) Image processing apparatus, image processing method and non-transitory computer readable medium
US20190146662A1 (en) Mirror snapping during vector drawing
US20200160098A1 (en) Human-Assisted Machine Learning Through Geometric Manipulation and Refinement
JP6580625B2 (en) Image processing apparatus, image editing apparatus, and program
CN109857964B (en) Thermodynamic diagram drawing method and device for page operation, storage medium and processor
CN112231032A (en) Software interface element access method and device combining RPA and AI
JP2018519733A5 (en)
JP2022185872A (en) Image processing device, image processing method and imaging apparatus
CN111027543B (en) Image annotation method and device
US9460362B2 (en) Method and apparatus for identifying a desired object of an image using a suggestive marking
JP7367917B2 (en) Information processing systems and programs
WO2020183656A1 (en) Data generation method, data generation device, and program
CN106873875B (en) Graphical display method and device of data and computing equipment
KR101903083B1 (en) Apparatus and method for providing information of member, recording medium
EP3438932A1 (en) Intelligent contouring of anatomy with structured user click points

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230719

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R150 Certificate of patent or registration of utility model

Ref document number: 7386007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150