JP7386007B2 - Image processing method, image processing device, and image processing equipment - Google Patents

Image processing method, image processing device, and image processing equipment Download PDF

Info

Publication number
JP7386007B2
JP7386007B2 JP2019128083A JP2019128083A JP7386007B2 JP 7386007 B2 JP7386007 B2 JP 7386007B2 JP 2019128083 A JP2019128083 A JP 2019128083A JP 2019128083 A JP2019128083 A JP 2019128083A JP 7386007 B2 JP7386007 B2 JP 7386007B2
Authority
JP
Japan
Prior art keywords
image
size
target range
trajectory
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019128083A
Other languages
Japanese (ja)
Other versions
JP2020013567A (en
Inventor
シーホン グオ
シンユ グオ
アンシン リ
ラン チン
直季 亀山
友惠 後
尚史 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JP2020013567A publication Critical patent/JP2020013567A/en
Application granted granted Critical
Publication of JP7386007B2 publication Critical patent/JP7386007B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Storing Facsimile Image Data (AREA)

Description

本発明は、画像処理の分野に関し、特に、画像処理方法、画像処理装置、画像処理機器、及びコンピュータ可読記憶媒体に関する。 The present invention relates to the field of image processing, and in particular to an image processing method, an image processing apparatus, an image processing device, and a computer-readable storage medium.

ディープニューラルネットワークは、大規模で、マルチパラメータで最適化されたツールである。ディープニューラルネットワークは、大量のトレーニングデータに依存し、学習を通じて、データに隠されたまとめられにくい特徴を確定することができ、それによって、複数の複雑なタスク、例えば顔検出、画像意味分割、物体検出、動作追跡、自然言語翻訳などを完成することができる。 Deep neural networks are large-scale, multi-parameter optimized tools. Deep neural networks rely on large amounts of training data, and through learning, they can determine hidden features in the data that are difficult to summarize, thereby performing multiple complex tasks such as face detection, image semantic segmentation, and object segmentation. It can complete detection, motion tracking, natural language translation, etc.

現在、ディープニューラルネットワークは、物体表面の亀裂検出のような複雑なタスクに用いられ、人間の目による検出よりも高い検出精度を実現することが期待されている。亀裂検出のためのニューラルネットワークモデルを得るためには、亀裂がマークされた大量のトレーニング画像(すなわち、トレーニングデータ)を用いて、ニューラルネットワークをトレーニングしておく必要がある。したがって、ディープニューラルネットワークに基づく亀裂検出の性能および効果は、提供されたトレーニングデータに大きく依存する。従来の技術では、トレーニングデータは、多くの作業者が画像中の亀裂を手作業でマーキングすることによって取得されることが多い。しかしながら、画像を人手でマーキングして得られたトレーニングデータには、理論的な認知錯誤又は視覚錯誤が存在する可能性があり、これらの両方は、得られたトレーニングデータの不正確さをもたらす恐れがある。また、大量のトレーニングデータを取得することには、作業者がより長い時間を要する可能性がある。作業者に大きな精神的な又は視覚的な負担をもたらし、間違ったマッチングが生じやすくなり、工業生産には適さない。 Deep neural networks are currently being used for complex tasks, such as detecting cracks in the surface of objects, and are expected to achieve higher detection accuracy than the human eye. In order to obtain a neural network model for crack detection, it is necessary to train the neural network using a large number of training images (ie, training data) in which cracks are marked. Therefore, the performance and effectiveness of crack detection based on deep neural networks is highly dependent on the provided training data. In conventional techniques, training data is often obtained by many workers manually marking cracks in images. However, theoretical cognitive or visual errors may exist in training data obtained by manually marking images, both of which may result in inaccuracies in the obtained training data. There is. Also, acquiring large amounts of training data may require a longer time for the operator. It causes a large mental or visual burden on workers, makes incorrect matching more likely, and is not suitable for industrial production.

本発明は、上記の問題に鑑みて提案されたものである。本発明は、画像処理方法、画像処理装置、画像処理機器及びコンピュータ可読記憶媒体を提供する。 The present invention has been proposed in view of the above problems. The present invention provides an image processing method, an image processing device, an image processing device, and a computer-readable storage medium.

本発明の一態様によれば、操作入力を受け付けることと、前記操作入力に基づいて、処理対象となる画像から目標範囲を決定することと、前記目標範囲において、所定の数、所定のサイズの切り出し画像を生成することと、を含む画像処理方法が提供される。なお、前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になる。 According to one aspect of the present invention, the steps include: receiving an operation input; determining a target range from an image to be processed based on the operation input; An image processing method is provided that includes: generating a cutout image. Note that the size of the target range is in a predetermined proportion to the size of the cut-out image.

本発明の一態様によれば、操作入力を受け付けるように配置される操作入力受付部と、操作入力に基づいて、処理対象となる画像から目標範囲を決定するように配置される目標範囲決定部と、前記目標範囲内において、所定数の所定サイズの切り出し画像を生成するように配置される切り出し画像生成部と、を備える画像処理装置が提供される。なお、前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になる。 According to one aspect of the present invention, an operation input receiving unit is arranged to receive an operation input, and a target range determining unit is arranged to determine a target range from an image to be processed based on the operation input. and a cut-out image generation unit arranged to generate a predetermined number of cut-out images of a predetermined size within the target range. Note that the size of the target range is in a predetermined proportion to the size of the cut-out image.

本開示の一態様によれば、コンピュータ可読命令を記憶するように配置されるメモリと、前記メモリに記憶された前記コンピュータ可読命令を実行するように配置されるプロセッサと、を備える画像処理機器が提供される。また、前記プロセッサが前記コンピュータ可読命令を実行するとき、以下のステップを実行する。即ち、操作入力を受け付けるステップと、前記操作入力に基づいて、処理対象となる画像から目標範囲を決定するステップと、前記目標範囲において、所定数の所定サイズの切り出し画像を生成するステップである。なお、前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になる。 According to one aspect of the present disclosure, an image processing apparatus includes a memory arranged to store computer readable instructions and a processor arranged to execute the computer readable instructions stored in the memory. provided. Additionally, when the processor executes the computer readable instructions, it performs the following steps. That is, the steps are: accepting an operational input, determining a target range from an image to be processed based on the operational input, and generating a predetermined number of cut-out images of a predetermined size in the target range. Note that the size of the target range is in a predetermined proportion to the size of the cut-out image.

本開示の一態様によれば、コンピュータ可読命令が記憶されたコンピュータ可読記憶媒体が提供され、コンピュータ可読命令がコンピュータによって実行されるとき、コンピュータは、以下のステップを実行する。即ち、操作入力を受け付けるステップと、前記操作入力に基づいて、処理対象となる画像から目標範囲を決定するステップと、前記目標範囲において、所定数の所定サイズの切り出し画像を生成するステップである。なお、前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になる。 According to one aspect of the present disclosure, a computer-readable storage medium having computer-readable instructions stored thereon is provided, and when the computer-readable instructions are executed by the computer, the computer performs the following steps. That is, the steps are: accepting an operational input, determining a target range from an image to be processed based on the operational input, and generating a predetermined number of cut-out images of a predetermined size in the target range. Note that the size of the target range is in a predetermined proportion to the size of the cut-out image.

本発明の上記態様によれば、ユーザは簡単な操作入力を行うだけで、切り出し画像を自動的かつ正確に生成することができ、それによって、ディープニューラルネットワークにマーキングされたトレーニング用画像(トレーニングデータ)を提供することができると共に、理論認知錯誤と視覚錯誤を減少させ、人手によるマーキングのコストを減少させることができる。 According to the above aspect of the present invention, the user can automatically and accurately generate a cutout image by simply performing a simple operation input, and thereby the training image (training data) marked in the deep neural network can be generated automatically and accurately. ), it is also possible to reduce theoretical cognitive errors and visual errors, and reduce the cost of manual marking.

本開示の上記と他の目的、特徴および利点は、添付の図面を参照して本開示の実施形態をより詳細に説明することによって、より明らかになる。図面は、本開示の実施形態のさらなる理解を提供するものであり、明細書の一部を構成し、本開示の実施形態と共に本開示を説明するものであり、本開示を限定するものではない。図面において、同一の符号は、通常、同一の構成要素またはステップを示す。
本発明の実施形態を実現するための画像処理方法のフローチャートである。 本発明の第1の実施形態に係る処理対象となる画像から目標範囲を決定する例を示す図である。 本発明の第2の実施形態に係る処理対象となる画像から目標範囲を決定するフローチャートである。 本発明の第2の実施形態に係る処理対象となる画像から目標範囲を決定する例を示す図である。 本発明の第2の実施形態に係る処理対象となる画像から目標範囲を決定する例を示す図である。 本発明の第1の実施形態に係る切り出し画像を生成する手順を示す説明図である。 本発明の第2の実施形態に係る切り出し画像を生成する手順を示す説明図である。 本発明の実施形態に係る画像処理装置の概略図である。 本発明の実施形態に係る画像処理機器の概略図である。 本発明の実施形態に係るコンピュータ可読記憶媒体の概略図である。
The above and other objects, features, and advantages of the present disclosure will become more apparent by describing embodiments of the present disclosure in more detail with reference to the accompanying drawings. The drawings provide a further understanding of the embodiments of the disclosure, constitute a part of the specification, and together with the embodiments of the disclosure, illustrate the disclosure and do not limit the disclosure. . In the drawings, like numbers generally indicate like elements or steps.
1 is a flowchart of an image processing method for implementing an embodiment of the present invention. FIG. 6 is a diagram showing an example of determining a target range from an image to be processed according to the first embodiment of the present invention. 12 is a flowchart for determining a target range from an image to be processed according to a second embodiment of the present invention. FIG. 7 is a diagram showing an example of determining a target range from an image to be processed according to the second embodiment of the present invention. FIG. 7 is a diagram showing an example of determining a target range from an image to be processed according to the second embodiment of the present invention. FIG. 3 is an explanatory diagram showing a procedure for generating a cutout image according to the first embodiment of the present invention. FIG. 7 is an explanatory diagram showing a procedure for generating a cutout image according to a second embodiment of the present invention. 1 is a schematic diagram of an image processing device according to an embodiment of the present invention. 1 is a schematic diagram of an image processing device according to an embodiment of the present invention. 1 is a schematic diagram of a computer-readable storage medium according to an embodiment of the invention. FIG.

以下、本発明の実施形態に係る図面を参照して、本発明の実施形態に係る技術案を明確かつ完全に説明する。勿論、説明された実施形態は、本開示の一部の実施形態に過ぎず、全ての実施形態ではない。本開示の実施形態に基づいて、当業者が創造的な労働を必要とせずに得られる他の全ての実施形態は、本開示の範囲内に属する。 Hereinafter, technical solutions according to embodiments of the present invention will be clearly and completely explained with reference to drawings according to embodiments of the present invention. Of course, the described embodiments are only some but not all embodiments of the present disclosure. All other embodiments that can be obtained by a person skilled in the art based on the embodiments of the present disclosure without requiring any creative effort fall within the scope of the present disclosure.

まず、図1を参照して、本発明の実施形態を実現するための画像処理方法について説明する。この方法は、コンピュータによって実行されることができる。この方法によれば、ユーザが簡単な操作入力を行うだけで、自動的に正確に切り出し画像を生成することができ、ディープニューラルネットワークにマーキングされたトレーニング用画像を提供することができる。 First, with reference to FIG. 1, an image processing method for realizing an embodiment of the present invention will be described. This method can be performed by a computer. According to this method, a user can automatically and accurately generate a cutout image by simply inputting a simple operation, and can provide a marked training image to a deep neural network.

図1に示すように、ステップS101では、ユーザによる操作入力を受け付ける。操作入力を受け付ける方法としては、例えば、マウスの画像上の対応する位置のクリック及びスライドを追跡することにより受け付けてもよいし、コンピュータに接続されたスタイラスのクリック及びスライドを追跡することにより受け付けてもよい。前記の操作入力を受け付ける方法は一例に過ぎず、実際の状況に応じて柔軟に選択することができることを理解すべきである。 As shown in FIG. 1, in step S101, an operation input by the user is accepted. As a method for receiving operation input, for example, it may be accepted by tracking clicks and slides of a corresponding position on an image by a mouse, or by tracking clicks and slides of a stylus connected to a computer. Good too. It should be understood that the method of accepting the operation input described above is only an example, and can be flexibly selected depending on the actual situation.

ステップS102では、この操作入力に基づいて、切り出し画像のサイズと所定の比例になるサイズの目標範囲を処理対象となる画像から決定する。本発明の第1の実施形態では、操作入力は処理対象となる画像における特定の点を指定することに用いられ、目標範囲を処理対象となる画像から決定することは、当該特定の点を中心として当該目標範囲を特定することを含む。 In step S102, based on this operational input, a target range of a size that is in a predetermined proportion to the size of the cutout image is determined from the image to be processed. In the first embodiment of the present invention, the operation input is used to specify a specific point in the image to be processed, and determining the target range from the image to be processed is centered around the specific point. This includes identifying the target range.

最初に、例えば、操作入力は、処理対象となる画像上のマウス又はスタイラスによるユーザのクリックに対応することができ、このクリックは、処理対象となる画像における特定の点を指定する。例えば、ユーザが画像処理により工業用途に用いられる物体の亀裂をマーキングしようとする場合、この操作入力は、処理対象となる画像のうちユーザがクリックした画像における亀裂または亀裂近傍の特定の点を指定することに用いられる。 Initially, for example, the operational input may correspond to a user click with a mouse or stylus on the image to be processed, which click specifies a particular point in the image to be processed. For example, when a user wants to mark a crack in an object used for industrial purposes by image processing, this operation input specifies the crack or a specific point near the crack in the image that the user clicks on in the image to be processed. It is used to do things.

次に、この特定の点を中心として、切り出し画像のサイズと所定の比例になるサイズの目標範囲を決定する。切り出し画像のサイズは、ユーザが所望するサイズである。例えば、本実施形態では、この特定の点を中心として、半径が特定値となる円形領域を目標範囲とし、円形領域のサイズは、切り出し画像のサイズよりも大きい。別の例として、この特定の点を中心として、切り出し画像のサイズよりも大きいサイズの正方形を目標範囲として決定し、生成された正方形の目標範囲が切り出し画像を完全にカバーするようにしてもよい。さらに別の例として、この特定の点を中心として、その長さおよび幅は切り出し画像の長さおよび幅と所定の比例値になった矩形を目標範囲として決定し、ここで、生成された目標範囲は、切り出し画像を完全にカバーするように所定の比例値を1よりも大きいとする。なお、前記目標範囲の形状は一例に過ぎず、必要に応じて所望の目標範囲の形状を柔軟に選択することができる。 Next, a target range of a size that is in a predetermined proportion to the size of the cut-out image is determined around this specific point. The size of the cut-out image is the size desired by the user. For example, in this embodiment, the target range is a circular area having a radius of a specific value centered on this specific point, and the size of the circular area is larger than the size of the cutout image. As another example, a square with a size larger than the size of the cropped image may be determined as the target range centered on this particular point, so that the target range of the generated squares completely covers the cropped image. . As yet another example, a rectangle whose length and width are predetermined proportional values to the length and width of the cropped image is determined as the target range with this particular point as the center, and here, the generated target The range is set such that the predetermined proportional value is greater than 1 so as to completely cover the cropped image. Note that the shape of the target range is merely an example, and a desired shape of the target range can be flexibly selected as necessary.

図2は本発明の第1の実施形態に係る処理対象となる画像から目標範囲を決定する例を示す図である。図2に示すように、コンピュータは、処理対象となる画像上のマウス又はスタイラスによるユーザのクリックに応じて、処理対象となる画像における特定の点20(ドットで示す)を指定し、この特定の点20を中心として、矩形領域を目標範囲22として決定する。目標範囲22の長さ及び幅は、切り出し画像21の長さ及び幅と所定の比例値になり、この所定の比例値は1よりも大きい。例えば、所定の比例値を、1より大きい任意の数とすることができる。例えば、切り出し画像21のサイズが96×96画素である場合、目標範囲は128×128画素と決定されることができる。 FIG. 2 is a diagram showing an example of determining a target range from an image to be processed according to the first embodiment of the present invention. As shown in FIG. 2, the computer specifies a specific point 20 (indicated by a dot) in the image to be processed in response to a user's click with a mouse or stylus on the image to be processed, and A rectangular area centered on point 20 is determined as target range 22 . The length and width of the target range 22 have a predetermined proportional value to the length and width of the cutout image 21, and this predetermined proportional value is larger than one. For example, the predetermined proportional value can be any number greater than one. For example, if the size of the cutout image 21 is 96x96 pixels, the target range can be determined to be 128x128 pixels.

あるいは、目標範囲からユーザが所望する切り出し画像を選択するために、所定の比例値を必要に応じて3/2、2または3などとしてもよい。しかしながら、選択された所定の比例値が大きすぎると、対象画像から選択された不要な切り出し画像が多すぎて、記憶スペースが無駄になるおそれがある。選択された所定の比例値が約1であると、対象画像から選択された重複する切り出し画像が多すぎてしまうおそれがある。したがって、必要に応じて、所定の比例値を柔軟に決定すべきである。 Alternatively, in order to select a cutout image desired by the user from the target range, the predetermined proportional value may be set to 3/2, 2, or 3, etc., as necessary. However, if the selected predetermined proportional value is too large, too many unnecessary cut-out images may be selected from the target image, and storage space may be wasted. If the selected predetermined proportional value is about 1, there is a risk that too many overlapping cutout images will be selected from the target image. Therefore, the predetermined proportionality value should be determined flexibly as needed.

本発明の第2の実施形態では、操作入力は、処理対象となる画像の特定の軌跡を指定することに用いられ、処理対象となる画像から目標範囲を決定することは、特定の軌跡に基づいて軌跡範囲を決定することと、切り出し画像のサイズをステップサイズとして軌跡範囲を走査することと、各当該ステップサイズを中心として、各当該ステップサイズに対応する目標範囲を決定することとを含む。例えば、操作入力は、処理対象となる画像上のマウス又はスタイラスによるユーザのスライドに対応してもよい。このスライドは、処理対象となる画像における特定の軌跡を指定する。例えば、ユーザが画像処理によって工業用途に用いられる物体の亀裂をマーキングしようとする場合、この操作入力は、処理対象となる画像におけるユーザが亀裂上を滑る軌跡を指定するために用いられる。 In the second embodiment of the present invention, the operation input is used to specify a specific trajectory of the image to be processed, and determining the target range from the image to be processed is based on the specific trajectory. scanning the trajectory range using the size of the cropped image as a step size, and determining a target range corresponding to each step size with each step size as a center. For example, the operational input may correspond to a user's slide of a mouse or stylus over an image to be processed. This slide specifies a particular trajectory in the image to be processed. For example, when a user attempts to mark a crack in an object used for industrial purposes by image processing, this operation input is used to specify the trajectory of the user sliding over the crack in the image to be processed.

図3は本発明の第2の実施形態に係る処理対象となる画像から目標範囲を決定するフローチャートである。図3に示すように、ステップS201において、特定の軌跡に基づいて軌跡範囲が決定される。例えば、この軌跡範囲は、特定の軌跡の開始位置及び終了位置に基づいて決定されてもよい。軌跡範囲を決定する態様は、これに限定されるものではなく、他の態様に基づいて軌跡範囲を決定することもできることを理解すべきである。 FIG. 3 is a flowchart for determining a target range from an image to be processed according to the second embodiment of the present invention. As shown in FIG. 3, in step S201, a trajectory range is determined based on a specific trajectory. For example, this trajectory range may be determined based on the start and end positions of a particular trajectory. It should be understood that the manner in which the trajectory range is determined is not limited to this, and the trajectory range may also be determined based on other aspects.

ステップS202では、軌跡範囲を決定した後、切り出し画像のサイズをステップサイズとして軌跡範囲を走査する。例えば、切り出し画像のサイズをステップサイズとして、軌跡範囲内で軌跡範囲を横方向および縦方向に走査する。なお、軌跡範囲を走査する時の切り出し画像の重なりはランダムであってもよいし、必要に応じて予め設定されていてもよい。 In step S202, after determining the trajectory range, the trajectory range is scanned using the size of the cutout image as the step size. For example, the trajectory range is scanned in the horizontal and vertical directions within the trajectory range using the size of the cutout image as a step size. Note that the overlap of cutout images when scanning the trajectory range may be random, or may be set in advance as necessary.

ステップS203では、各ステップサイズを中心として、本発明の第1の実施形態のように各ステップサイズに対応する目標範囲を決定する。例えば、各ステップサイズの中心を本発明の第1の実施形態に係る特定の点として、切り出し画像のサイズと所定の比例になるサイズの目標範囲を決定する。 In step S203, a target range corresponding to each step size is determined centering on each step size, as in the first embodiment of the present invention. For example, the center of each step size is set as a specific point according to the first embodiment of the present invention, and a target range of size that is in a predetermined proportion to the size of the cut-out image is determined.

図4a、4bは本発明の第2の実施形態に係る処理対象となる画像から目標範囲を決定する例を示す図である。図4aに示すように、コンピュータは、処理対象となる画像上のマウスやスタイラスによるユーザのスライドに基づいて、処理対象となる画像における特定の軌跡31を指定する。例えば、その特定の軌跡31の開始位置と終了位置に基づいて軌跡範囲30を決定する。図4bに示すように、軌跡範囲30が決定された後、切り出し画像32をステップサイズとして軌跡範囲30を横方向および縦方向に同時に走査する。切り出し画像33及び切り出し画像34は、軌跡範囲30を横方向に走査する例を示す。次に、各ステップサイズを中心として、各ステップサイズの中心を本発明の第1の実施形態に係る特定の点として、切り出し画像のサイズと所定の比例になるサイズの目標範囲を決定する。例えば、この目標範囲(図示せず)は、円形、三角形、又は正方形であってもよい。 FIGS. 4a and 4b are diagrams showing an example of determining a target range from an image to be processed according to the second embodiment of the present invention. As shown in FIG. 4a, the computer specifies a particular trajectory 31 in the image to be processed based on the user's slide of the mouse or stylus over the image to be processed. For example, the trajectory range 30 is determined based on the start position and end position of the specific trajectory 31. As shown in FIG. 4b, after the trajectory range 30 is determined, the trajectory range 30 is simultaneously scanned in the horizontal and vertical directions using the cutout image 32 as a step size. The cutout image 33 and the cutout image 34 show an example in which the trajectory range 30 is scanned in the horizontal direction. Next, with each step size as the center, a target range of size that is in a predetermined proportion to the size of the cut-out image is determined, with the center of each step size as a specific point according to the first embodiment of the present invention. For example, this target area (not shown) may be circular, triangular, or square.

図1に戻り、ステップS103では、目標範囲内で所定数の所定サイズの切り出し画像を生成する。例えば、目標範囲を決定した後、目標範囲内で所定数の所定サイズの切り出し画像をランダムに生成するようにしてもよい。あるいは、目標範囲における異なる位置に生成される切り出し画像の数を予め設定しておいてもよい。例えば、目標範囲のエッジよりも目標範囲の中心に生成される切り出し画像の数が大きく設定されていてもよい。また、生成される切り出し画像の数やサイズは、ユーザのニーズに応じて予め設定されていてもよい。 Returning to FIG. 1, in step S103, a predetermined number of cut-out images of a predetermined size are generated within the target range. For example, after determining the target range, a predetermined number of cut-out images of a predetermined size may be randomly generated within the target range. Alternatively, the number of cutout images to be generated at different positions in the target range may be set in advance. For example, the number of cutout images generated at the center of the target range may be set to be larger than at the edges of the target range. Further, the number and size of generated cutout images may be set in advance according to the needs of the user.

切り出し画像を生成したら、コンピュータによって自動的に名を付けて保存することができる。例えば、ユーザが工業用途において亀裂をマーキングするためにこの方法を使用することを望む場合、切り出し画像を生成した後、コンピュータは、生成された切り出し画像を自動的に「亀裂」と命名し、コンピュータにおいて対応する目標パスに保存する。また、異なる操作に応じて、異なるタグを自動的に設定することもできる。一例として、マウスの左右ボタンに応じて複数のタグを設定することができる。例えば、コンピュータがマウスの左ボタンのクリックおよびスライドを受け付けると、前記の方法により生成された切り出し画像は、自動的に「亀裂」としてマークされ、対応する目標パスに自動的に保存され、コンピュータがマウスの右ボタンのクリックおよびスライドを受け付けると、上記の方法により生成された切り出し画像は、自動的に「非亀裂」としてマークされ、「亀裂」の目標パスと異なる目標パスに自動的に保存される。また、他の例として、キーボードの入力に応じて複数のタグを設定するようにしてもよい。例えば、キーボードの異なる入力に対して予め異なるタグ種別を設定しておき、キーボードを介して入力すると、最終的に生成された切り出し画像が自動的に命名され、対応するタグ種別の目標パスに保存されるようにしてもよい。なお、上記のタグの設定方法はこれに限定されるものではなく、必要に応じて異なる方法で異なるタグを設定するようにしてもよい。 Once a cropped image is generated, it can be automatically named and saved by the computer. For example, if a user wants to use this method to mark cracks in industrial applications, after generating the cutout image, the computer will automatically name the generated cutout image "crack" and the , and save it to the corresponding target path. Additionally, different tags can be automatically set depending on different operations. As an example, multiple tags can be set depending on the left and right mouse buttons. For example, when the computer accepts a left mouse button click and slide, the cropped image generated by the above method will be automatically marked as "crack" and automatically saved in the corresponding target path, and the computer will Upon accepting the right mouse button click and slide, the cropped image generated by the above method will be automatically marked as "non-crack" and will be automatically saved in a target path different from the target path of "crack". Ru. Furthermore, as another example, a plurality of tags may be set in response to keyboard input. For example, if you set different tag types for different keyboard inputs in advance and enter them via the keyboard, the final generated cutout image will be automatically named and saved in the target path of the corresponding tag type. It is also possible to do so. Note that the tag setting method described above is not limited to this, and different tags may be set using different methods as necessary.

図5は本発明の第1の実施形態に係る切り出し画像を生成する手順を示す図である。図5に示すように、コンピュータは、処理対象となる画像(左側の画像)における特定の点を指定するためのユーザの操作入力を受け付ける。この操作入力に基づいて、コンピュータは、所望の切り出し画像(右側の画像)のサイズと所定の比例になるサイズの目標範囲を決定する。例えば、目標範囲のサイズは、切り出し画像のサイズの2倍、3倍等であってもよい。目標範囲が決定されると、その目標範囲内において、所定数の所定サイズのユーザが所望する切り出し画像が生成される。切り出し画像を生成したら、コンピュータによって自動的に名を付けて保存することができる。 FIG. 5 is a diagram showing a procedure for generating a cutout image according to the first embodiment of the present invention. As shown in FIG. 5, the computer receives a user's operation input for specifying a specific point in the image to be processed (the image on the left). Based on this operational input, the computer determines a target range of size that is in a predetermined proportion to the size of the desired cropped image (right image). For example, the size of the target range may be twice, three times, etc. the size of the cutout image. Once the target range is determined, a predetermined number of user-desired cutout images of a predetermined size are generated within the target range. Once a cropped image is generated, it can be automatically named and saved by the computer.

図6は本発明の第2の実施形態に係る切り出し画像を生成する手順を示す図である。図6に示すように、コンピュータは、処理対象となる画像(左側の画像)における特定の軌跡を指定するためのユーザの操作入力を受け付ける。この特定の軌跡に基づいて軌跡範囲が決定され、例えば、軌跡範囲は、特定の軌跡の開始位置および終了位置によって決定されてもよい。軌跡範囲が決定されると、ユーザが所望する切り出し画像(右側の画像)のサイズをステップサイズとして、上記軌跡範囲を走査する。最後に、各ステップサイズを中心として、各ステップサイズに対応する目標範囲が決定される。目標範囲を決定する方法は、例えば、前記の第1の実施形態に係る方法で目標範囲を決定することを含む。例えば、各ステップサイズの中心を前記の第1の実施形態に係る特定の点として目標範囲を決定する。目標範囲が決定されると、その目標範囲内において、所定数の所定サイズのユーザが所望する切り出し画像が生成される。切り出し画像を生成したら、コンピュータによって自動的に名を付けて保存することができる。 FIG. 6 is a diagram showing a procedure for generating a cutout image according to the second embodiment of the present invention. As shown in FIG. 6, the computer receives a user's operation input for specifying a specific trajectory in the image to be processed (the image on the left). A trajectory range is determined based on this specific trajectory; for example, the trajectory range may be determined by a start position and an end position of the specific trajectory. Once the trajectory range is determined, the trajectory range is scanned using the size of the cutout image (right image) desired by the user as the step size. Finally, a target range corresponding to each step size is determined around each step size. The method for determining the target range includes, for example, determining the target range using the method according to the first embodiment described above. For example, the target range is determined by setting the center of each step size as the specific point according to the first embodiment. Once the target range is determined, a predetermined number of user-desired cutout images of a predetermined size are generated within the target range. Once a cropped image is generated, it can be automatically named and saved by the computer.

次に、図7を参照して、本発明の実施形態に係る画像処理装置について説明する。図7は本発明の実施形態に係る画像処理装置の概略図である。本実施形態の画像処理装置の機能は、図1を参照して説明した方法と同様であるので、簡単にするために、詳細な説明を省略する。図7に示すように、画像処理装置1000は、操作入力受付部1001と、目標範囲決定部1002と、切り出し画像生成部1003と、切り出し画像保存部1004とを備える。なお、図7では、画像処理装置1000が4つの部のみを含むように示しているが、これは例示に過ぎず、画像処理装置1000は、1つ以上の他の部を含んでいてもよく、これらの部は本発明の思想に関係しないのでここでは省略される。 Next, with reference to FIG. 7, an image processing apparatus according to an embodiment of the present invention will be described. FIG. 7 is a schematic diagram of an image processing device according to an embodiment of the present invention. The functions of the image processing apparatus of this embodiment are similar to the method described with reference to FIG. 1, so detailed description will be omitted for the sake of brevity. As shown in FIG. 7, the image processing apparatus 1000 includes an operation input receiving section 1001, a target range determining section 1002, a cutout image generation section 1003, and a cutout image storage section 1004. Note that although the image processing apparatus 1000 is shown to include only four units in FIG. 7, this is merely an example, and the image processing apparatus 1000 may also include one or more other units. , these parts are omitted here because they are not related to the idea of the present invention.

操作入力受付部1001は、ユーザによる操作入力を受け付けることができる。操作入力を受け付ける方法は複数があり、例えば、画像上の対応する位置におけるマウスのクリック及びスライドを追跡することにより操作入力を受け付けてもよいし、スタイラスのクリック及びスライドを追跡することにより操作入力を受け付けてもよい。前記の操作入力を受け付ける方法は一例であり、実際の状況に応じて柔軟に選択することができることを理解すべきである。目標範囲決定部1002は、操作入力に基づいて、処理対象となる画像のサイズと所定の比例になるサイズの目標範囲を処理対象となる画像から決定する。 The operation input reception unit 1001 can receive operation input from a user. There are multiple ways to receive operational input; for example, operational input may be received by tracking mouse clicks and slides at corresponding positions on the image, or operational input may be received by tracking stylus clicks and slides. may be accepted. It should be understood that the method of accepting operation input described above is just an example, and can be flexibly selected depending on the actual situation. The target range determination unit 1002 determines, from the image to be processed, a target range whose size is in a predetermined proportion to the size of the image to be processed, based on the operation input.

本発明の第1の実施形態において、操作入力は、処理対象となる画像中の特定の点を指定するために用いられる。処理対象となる画像から目標範囲を指定することは、当該特定の点を中心として、当該目標範囲を決定することを含む。最初に、例えば、操作入力は、処理対象となる画像におけるマウス又はスタイラスによるユーザのクリックに対応することができ、このクリックは、処理対象となる画像の特定の点を指定する。 In the first embodiment of the present invention, the operation input is used to specify a specific point in the image to be processed. Specifying the target range from the image to be processed includes determining the target range with the specific point as the center. Initially, for example, the operational input may correspond to a user click with a mouse or stylus on the image to be processed, the click specifying a particular point on the image to be processed.

次に、この特定の点を中心として目標範囲を決定する。目標範囲のサイズは切り出し画像のサイズと所定の比例になる。その切り出し画像のサイズはユーザが所望する画像のサイズである。例えば、本実施形態では、この特定の点を中心として、半径が特定値となる円形領域を目標範囲と定義する。また、円形領域のサイズは切り出し画像のサイズよりも大きい。別の例として、この特定の点を中心として、生成された正方形の目標範囲が切り出し画像を完全にカバーするように切り出し画像のサイズよりも大きいサイズの正方形を目標範囲として決定してもよい。さらに、別の例として、この特定の点を中心として、その長さおよび幅が切り出し画像の長さおよび幅と所定の比例値になる矩形を目標範囲として決定してもよい。ここで、生成された目標範囲は、切り出し画像を完全にカバーできるように所定の比例値を1よりも大きいとする。なお、前記した目標範囲の形状は一例に過ぎず、所望の目標範囲の形状を必要に応じて柔軟に選択することができることを理解すべきである。 Next, a target range is determined around this specific point. The size of the target range is in a predetermined proportion to the size of the cut-out image. The size of the cut-out image is the size of the image desired by the user. For example, in this embodiment, the target range is defined as a circular area having a radius of a specific value centered on this specific point. Further, the size of the circular area is larger than the size of the cutout image. As another example, a square having a size larger than the size of the cut-out image may be determined as the target range so that the target range of the generated square completely covers the cut-out image with this specific point as the center. Furthermore, as another example, a rectangle whose length and width have a predetermined proportional value to the length and width of the cut-out image may be determined as the target range, centered on this specific point. Here, it is assumed that the generated target range has a predetermined proportional value larger than 1 so that the cutout image can be completely covered. It should be noted that the shape of the target range described above is only an example, and it should be understood that the shape of the desired target range can be flexibly selected as needed.

本発明の第2の実施形態では、操作入力は、処理対象となる画像における特定の軌跡を指定することに用いられ、処理対象となる画像から目標範囲を決定することは、特定の軌跡に基づいて軌跡範囲を決定することと、切り出し画像のサイズをステップサイズとして軌跡範囲を走査することと、各当該ステップサイズを中心として、各当該ステップサイズに対応する目標範囲を決定することとを含む。最初に、例えば、操作入力は、処理対象となる画像におけるマウス又はスタイラスによるユーザのスライドに対応することができ、このスライドは、処理対象となる画像における特定の軌跡を指定する。 In the second embodiment of the present invention, the operation input is used to specify a specific trajectory in the image to be processed, and determining the target range from the image to be processed is based on the specific trajectory. scanning the trajectory range using the size of the cropped image as a step size, and determining a target range corresponding to each step size with each step size as a center. First, for example, the operational input may correspond to a user slide with a mouse or stylus in the image to be processed, which slide specifies a particular trajectory in the image to be processed.

次に、特定の軌跡に基づいて軌跡範囲を決定する。例えば、軌跡範囲は、特定の軌跡の開始位置及び終了位置に基づいて決定されてもよい。軌跡範囲を決定する態様は、これに限定されるものではなく、他の態様に基づいて軌跡範囲を決定することもできることを理解すべきである。軌跡範囲を決定したら、切り出し画像のサイズをステップサイズとして軌跡範囲を走査する。例えば、切り出し画像のサイズをステップサイズとして、軌跡範囲内で軌跡範囲を横方向および縦方向に走査する。 Next, a trajectory range is determined based on the specific trajectory. For example, the trajectory range may be determined based on the start and end positions of a particular trajectory. It should be understood that the manner in which the trajectory range is determined is not limited to this, and the trajectory range may also be determined based on other aspects. After determining the trajectory range, the trajectory range is scanned using the size of the cutout image as a step size. For example, the trajectory range is scanned in the horizontal and vertical directions within the trajectory range using the size of the cutout image as a step size.

最後に、各ステップサイズを中心として、本発明の第1の実施形態のように各ステップサイズに対応する目標範囲を決定する。切り出し画像生成部1003は、目標範囲内に所定数の所定サイズの切り出し画像を生成する。例えば、目標範囲が決定された後、切り出し画像生成部1003は、目標範囲内で所定数の所定サイズの切り出し画像をランダムに生成してもよい。あるいは、目標範囲の異なる位置に生成される切り出し画像の数を予め設定してもよい。例えば、目標範囲のエッジよりも目標範囲の中心に生成される切り出し画像の数が大きく設定されてもよい。なお、生成される切り出し画像の数やサイズは、ユーザのニーズに応じて予め設定されてもよい。 Finally, centering around each step size, a target range corresponding to each step size is determined as in the first embodiment of the present invention. The cutout image generation unit 1003 generates a predetermined number of cutout images of a predetermined size within the target range. For example, after the target range is determined, the cutout image generation unit 1003 may randomly generate a predetermined number of cutout images of a predetermined size within the target range. Alternatively, the number of cutout images generated at different positions in the target range may be set in advance. For example, the number of cutout images generated at the center of the target range may be set to be larger than at the edges of the target range. Note that the number and size of generated cutout images may be set in advance according to the user's needs.

切り出し画像を生成した後、自動的に命名された切り出し画像は切り出し画像保存部1004によって記憶されてもよい。次に、図8を参照して、本発明の実施形態に係る画像処理機器について説明する。図8は本発明の一実施形態に係る画像処理機器の概略図である。本実施形態の画像処理装置の機能は、図1を参照して説明した方法と同様であるので、簡単にするために、詳細な説明を省略する。 After generating the cutout image, the automatically named cutout image may be stored by the cutout image storage unit 1004. Next, with reference to FIG. 8, an image processing device according to an embodiment of the present invention will be described. FIG. 8 is a schematic diagram of an image processing device according to an embodiment of the present invention. The functions of the image processing apparatus of this embodiment are similar to the method described with reference to FIG. 1, so detailed description will be omitted for the sake of brevity.

図8に示すように、画像処理機器1100は、メモリ1101と、プロセッサ1102と、を備える。なお、図8では、画像処理機器1100が2つのデバイスのみを含むことを示しているが、これは例示に過ぎず、画像処理機器1100は、1つ以上の他のデバイスを含んでいてもよく、これらのデバイスは、本発明の思想に関係ないのでここでは省略される。 As shown in FIG. 8, the image processing device 1100 includes a memory 1101 and a processor 1102. Note that although FIG. 8 shows that the image processing device 1100 includes only two devices, this is only an example, and the image processing device 1100 may include one or more other devices. , these devices are omitted here because they are not relevant to the idea of the present invention.

本発明の画像処理機器1100は、コンピュータ可読命令を記憶するように構成されたメモリ1101と、メモリに記憶されたコンピュータ可読命令を実行するように構成されたプロセッサ1102とを備える。プロセッサ1102は、コンピュータ可読命令を処理して実行するときに、以下のステップを実行する。即ち、操作入力を受け付けることと、操作入力に基づいて、処理対象となる画像から目標範囲を決定することと、目標範囲内で、所定数の所定サイズの切り出し画像を生成することである。ここで、目標範囲のサイズは、処理対象となる画像のサイズと所定の比例になる。 Image processing apparatus 1100 of the present invention comprises a memory 1101 configured to store computer readable instructions and a processor 1102 configured to execute the computer readable instructions stored in the memory. Processor 1102 performs the following steps when processing and executing computer readable instructions. That is, receiving an operational input, determining a target range from an image to be processed based on the operational input, and generating a predetermined number of cut-out images of a predetermined size within the target range. Here, the size of the target range is in a predetermined proportion to the size of the image to be processed.

本発明の第1の実施形態では、操作入力は、処理対象となる画像における特定の点を指定することに用いられ、前記処理対象となる画像から目標範囲を指定することは、特定の点を中心としてこの目標範囲を決定することを含む。 In the first embodiment of the present invention, the operation input is used to specify a specific point in the image to be processed, and specifying the target range from the image to be processed is to specify the specific point in the image to be processed. It involves determining this target range as a focal point.

本発明の第2の実施形態では、操作入力は、処理対象となる画像における特定の軌跡を指定することに用いられ、前記処理対象となる画像から目標範囲を決定することは、特定の軌跡に基づいてこの軌跡範囲を決定することと、切り出し画像のサイズをステップサイズとしてこの軌跡範囲を走査することと、各当該ステップサイズを中心として、各当該ステップサイズに対応する目標範囲を決定することを含む。ここで、当該特定の軌跡に基づいてこの軌跡範囲を決定することは、当該特定の軌跡の開始位置及び終了位置に基づいてこの軌跡範囲を決定することを含む。目標範囲が決定されると、この目標範囲から所定数の所定サイズの切り出し画像がランダムに生成され、自動的に命名された当該切り出し画像がメモリ1101に記憶される。 In the second embodiment of the present invention, the operation input is used to specify a specific trajectory in the image to be processed, and determining the target range from the image to be processed is based on the specific trajectory. to scan this trajectory range using the size of the cropped image as a step size, and to determine a target range corresponding to each step size with each step size as the center. include. Here, determining the trajectory range based on the specific trajectory includes determining the trajectory range based on the start position and end position of the specific trajectory. Once the target range is determined, a predetermined number of cut-out images of a predetermined size are randomly generated from the target range, and the automatically named cut-out images are stored in the memory 1101.

図9は本開示の実施形態に係るコンピュータ可読記憶媒体を示す概略図である。図9に示すように、本開示は、コンピュータ可読命令1201が記憶されるコンピュータ可読記憶媒体1200を含み、コンピュータ可読命令がコンピュータによって実行されるときに、コンピュータは、以下のステップを実行する。即ち、操作入力を受け付けることと、この操作入力に基づいて、処理対象となる画像から目標範囲を決定することと、この目標範囲において、所定数の所定サイズの切り出し画像を生成することである。ここで、この目標範囲のサイズは、当該切り出し画像のサイズと所定の比例になる。 FIG. 9 is a schematic diagram illustrating a computer-readable storage medium according to an embodiment of the present disclosure. As shown in FIG. 9, the present disclosure includes a computer-readable storage medium 1200 on which computer-readable instructions 1201 are stored, and when the computer-readable instructions are executed by the computer, the computer performs the following steps. That is, receiving an operational input, determining a target range from an image to be processed based on the operational input, and generating a predetermined number of cut-out images of a predetermined size in this target range. Here, the size of this target range is in a predetermined proportion to the size of the cut-out image.

以上から、本開示の上記態様では、ユーザの操作入力(例えば、マウスまたはスタイラスのクリックまたはスライド)を受け付け、その操作入力に基づいて、処理対象となる画像から例えば円形、三角形、長方形などの目標範囲を決定し、この目標範囲内において、所定数の所定サイズの切り出し画像がコンピュータにより生成されることがわかる。ここで、目標範囲のサイズは、切り出し画像のサイズと所定の比例になる。この方法により、作業者の操作入力が少なくても、自動的かつ正確に切り出し画像を生成することができる。これにより、ニューラルネットワークにマーキングされたトレーニング画像を提供することができ、理論的な認知錯誤や視覚錯誤の低減及び人手によるマーキングのコストの低減を実現することができる。 As described above, in the above aspect of the present disclosure, a user's operation input (for example, click or slide of a mouse or stylus) is accepted, and based on the operation input, a target, such as a circle, a triangle, or a rectangle, is formed from an image to be processed. It can be seen that a range is determined, and within this target range, a predetermined number of cropped images of a predetermined size are generated by the computer. Here, the size of the target range is in a predetermined proportion to the size of the cut-out image. With this method, a cutout image can be automatically and accurately generated even with little operator input. Thereby, it is possible to provide a marked training image to the neural network, and it is possible to reduce theoretical cognitive errors and visual errors, and to reduce the cost of manual marking.

当業者に理解されるように、本出願の各方面は、いくつかの特許可能な種類または状況によって説明又は解釈することができ、新規および有用なプロセス、機械、製品または物質の組み合わせを含み、或いはそれらに対する任意の新規又は有用な改良を含む。それに応じて、本出願の各方面は、完全にハードウェアによって実行されてもよく、或いは、完全にソフトウェア(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)によって実行されてもよく、或いは、ハードウェアとソフトウェアの組み合わせによって実行されてもよい。上記のハードウェアまたはソフトウェアは、「データブロック」、「モジュール」、「エンジン」、「ユニット」、「コンポーネント」、または「システム」と呼ぶことができる。さらに、本出願の各方面は、1つまたは複数のコンピュータ可読媒体内にあるコンピュータ製品であってもよく、当該製品は、コンピュータ可読プログラムコードを含む。 As will be understood by those skilled in the art, aspects of this application can be described or interpreted in terms of a number of patentable types or situations, and include novel and useful processes, machines, products, or combinations of materials; or any new or useful improvements thereto. Accordingly, aspects of the present application may be implemented entirely in hardware, or may be implemented entirely in software (including firmware, resident software, microcode, etc.), or may be implemented entirely in hardware. and software. The hardware or software described above may be referred to as a "data block", "module", "engine", "unit", "component", or "system". Additionally, aspects of the present application may be a computer product residing in one or more computer-readable media, the product including computer-readable program code.

本出願は、本出願の実施形態を説明するために特定の用語を使用する。「一実施形態」、「一つの実施形態」、および/または「いくつかの実施形態」とは、本願の少なくとも1つの実施形態に関連する特定の特徴、構造、または特性を意味する。したがって、本明細書において異なる位置で2回以上言及される「一実施形態」または「一つの実施形態」または「代替的な実施形態」は、必ずしも同じ実施形態を意味するものではないことを理解すべきである。さらに、本出願の1つまたは複数の実施形態に係る特定の特徴、構造、または特性を適切に組み合わせることができる。他に定義されない限り、本明細書で用いられる全ての用語(技術用語及び科学用語を含む)は、本開示が属する領域の当業者によって理解されるものと同じ意味を有する。また、一般的な辞書に定義されているような用語は、本明細書で明確に定義されていない限り、関連技術の文脈におけるそれらの意味と一致する意味を有するものとして解釈されるべきであり、理想化されまたは極端に形式化された意味で解釈されるべきではない。上記内容は本開示に対する説明であり、それを限定するものとみなされるべきではない。本開示のいくつかの例示的な実施形態を説明したが、当業者であれば、本開示の新規な教示および利点から逸脱することなく、例示的な実施形態に多くの修正を加えることができる。したがって、それらの全ての修正は、特許請求の範囲によって定義される本開示の範囲内に含まれることが意図される。上記内容は本開示に対する説明であり、開示された特定の実施形態に限定されるものとみなされるべきではなく、開示された実施形態および他の実施形態の修正は、添付された特許請求の範囲の範囲内に含まれることが意図される。本開示は、特許請求の範囲およびその等価物によって定義される。 This application uses certain terminology to describe embodiments of the application. "One embodiment," "an embodiment," and/or "some embodiments" refer to a particular feature, structure, or characteristic associated with at least one embodiment of the present application. Accordingly, it is understood that references to "one embodiment" or "an embodiment" or "alternative embodiment" mentioned more than once in different places herein do not necessarily refer to the same embodiment. Should. Moreover, the particular features, structures, or characteristics of one or more embodiments of the present application may be combined in any suitable manner. Unless defined otherwise, all terms (including technical and scientific terms) used herein have the same meaning as understood by one of ordinary skill in the art to which this disclosure belongs. Additionally, terms as defined in a common dictionary, unless expressly defined herein, shall be construed as having meanings consistent with their meaning in the context of the relevant art. , should not be interpreted in an idealized or overly formalized sense. The above content is illustrative of the present disclosure and should not be considered limiting. Although several exemplary embodiments of the present disclosure have been described, those skilled in the art may make many modifications to the exemplary embodiments without departing from the novel teachings and advantages of the present disclosure. . Accordingly, all such modifications are intended to be included within the scope of this disclosure as defined by the claims. The foregoing is illustrative of the present disclosure and should not be considered limited to the particular embodiments disclosed, and modifications of the disclosed embodiments and other embodiments are within the scope of the appended claims. is intended to be included within the scope of. The disclosure is defined by the claims and their equivalents.

Claims (13)

操作入力を受け付けることと、
前記操作入力に基づいて、処理対象となる画像から目標範囲を決定することと、
前記目標範囲内において、所定数の所定サイズの切り出し画像を生成することと、を含み、
前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になり、
前記操作入力は、前記処理対象となる画像における特定の軌跡を指定するために用いられ、
前記処理対象となる画像から目標範囲を決定することは、
前記特定の軌跡に基づいて、軌跡範囲を決定することと、
前記切り出し画像のサイズをステップサイズとして、前記軌跡範囲を走査することと、
各前記ステップサイズを中心として、各前記ステップサイズに対応する目標範囲を決定することと、を含むことを特徴とする画像処理方法。
Accepting operation input;
determining a target range from an image to be processed based on the operation input;
generating a predetermined number of cut-out images of a predetermined size within the target range;
The size of the target range is in a predetermined proportion to the size of the cutout image,
The operation input is used to specify a specific trajectory in the image to be processed,
Determining the target range from the image to be processed includes:
determining a trajectory range based on the specific trajectory;
scanning the trajectory range using the size of the cut-out image as a step size;
An image processing method comprising: determining a target range corresponding to each step size, with each step size as a center .
前記特定の軌跡に基づいて軌跡範囲を決定することは、前記特定の軌跡の開始位置および終了位置に基づいて前記軌跡範囲を決定することを含むことを特徴とする、請求項に記載の画像処理方法。 The image according to claim 1 , wherein determining the trajectory range based on the specific trajectory includes determining the trajectory range based on a start position and an end position of the specific trajectory. Processing method. 前記目標範囲内から所定数の所定サイズの切り出し画像をランダムに生成することをさらに含むことを特徴とする、請求項1又は2に記載の画像処理方法。 3. The image processing method according to claim 1 , further comprising randomly generating a predetermined number of cut-out images of a predetermined size from within the target range. 生成された切り出し画像を自動的に名を付けて保存することを特徴とする、請求項に記載の画像処理方法。 4. The image processing method according to claim 3 , wherein the generated cutout image is automatically named and saved. 操作入力を受け付けるように配置される操作入力受付部と、
前記操作入力に基づいて、処理対象となる画像から目標範囲を決定するように配置される目標範囲決定部と、
前記目標範囲内において、所定数の所定サイズの切り出し画像を生成するように配置される切り出し画像生成部と、を含み、
前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になり、
前記操作入力は、前記処理対象となる画像における特定の軌跡を指定することに用いられ、
前記目標範囲決定部は、前記特定の軌跡に基づいて軌跡範囲を決定し、
前記切り出し画像のサイズをステップサイズとして前記軌跡範囲を走査し、
各前記ステップサイズを中心として、各前記ステップサイズに対応する目標範囲を決定することを特徴とする、画像処理装置。
an operation input reception unit arranged to receive operation input;
a target range determining unit arranged to determine a target range from an image to be processed based on the operation input;
a cutout image generation unit arranged to generate a predetermined number of cutout images of a predetermined size within the target range,
The size of the target range is in a predetermined proportion to the size of the cutout image,
The operation input is used to specify a specific trajectory in the image to be processed,
The target range determining unit determines a trajectory range based on the specific trajectory,
scanning the trajectory range using the size of the cutout image as a step size;
An image processing apparatus, characterized in that a target range corresponding to each step size is determined with each step size as a center .
前記目標範囲決定部は、前記特定の軌跡の開始位置及び終了位置に基づいて、前記軌跡範囲を決定することを特徴とする、請求項に記載の画像処理装置。 The image processing apparatus according to claim 5 , wherein the target range determining unit determines the trajectory range based on a start position and an end position of the specific trajectory. 前記切り出し画像生成部は、前記目標範囲内から所定数の所定サイズの切り出し画像をランダムに生成することを特徴とする、請求項5又は6に記載の画像処理装置。 The image processing device according to claim 5 or 6 , wherein the cutout image generation unit randomly generates a predetermined number of cutout images of a predetermined size from within the target range. 自動的に命名された前記切り出し画像を保存する切り出し画像保存部をさらに含むことを特徴とする、請求項に記載の画像処理装置。 The image processing apparatus according to claim 7 , further comprising a cutout image storage unit that saves the automatically named cutout image. コンピュータ可読命令を記憶するように配置されるメモリと、
前記メモリに記憶された前記コンピュータ可読命令を実行するように配置されるプロセッサと、を含み、
前記プロセッサは、前記コンピュータ可読命令を実行する時、
操作入力を受け付けるステップと、
前記操作入力に基づいて、処理対象となる画像から目標範囲を決定するステップと、
前記目標範囲内において、所定数の所定サイズの切り出し画像を生成するステップと、を実行し、
前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になり、
前記操作入力は、前記処理対象となる画像における特定の軌跡を指定することに用いられ、
前記処理対象となる画像から目標範囲を決定することは、
前記特定の軌跡に基づいて軌跡範囲を決定することと、
前記切り出し画像のサイズをステップサイズとして前記軌跡範囲を走査することと、
各前記ステップサイズを中心として、各前記ステップサイズに対応する目標範囲を決定することと、を含むことを特徴とする、画像処理機器。
a memory arranged to store computer readable instructions;
a processor arranged to execute the computer readable instructions stored in the memory;
When the processor executes the computer readable instructions,
a step of accepting operation input;
determining a target range from the image to be processed based on the operation input;
generating a predetermined number of cut-out images of a predetermined size within the target range;
The size of the target range is in a predetermined proportion to the size of the cutout image,
The operation input is used to specify a specific trajectory in the image to be processed,
Determining the target range from the image to be processed includes:
determining a trajectory range based on the specific trajectory;
scanning the trajectory range using the size of the cut-out image as a step size;
An image processing device comprising: determining a target range corresponding to each step size, with each step size as a center .
前記特定の軌跡に基づいて軌跡範囲を決定することは、前記特定の軌跡の開始位置及び終了位置に基づいて前記軌跡範囲を決定することを含むことを特徴とする、請求項に記載の画像処理機器。 The image according to claim 9 , wherein determining the trajectory range based on the specific trajectory includes determining the trajectory range based on a start position and an end position of the specific trajectory. Processing equipment. さらに前記目標範囲から所定数の所定サイズの切り出し画像をランダムに生成することを特徴とする、請求項9又は10に記載の画像処理機器。 The image processing device according to claim 9 or 10 , further comprising randomly generating a predetermined number of cut-out images of a predetermined size from the target range. 前記メモリは、自動的に命名された前記切り出し画像を記憶することを特徴とする、請求項11に記載の画像処理機器。 The image processing device according to claim 11 , wherein the memory stores the automatically named cutout image. コンピュータ可読命令を記憶するコンピュータ可読記憶媒体であって、
前記コンピュータ可読命令がコンピュータによって実行される時、前記コンピュータは、
操作入力を受け付けるステップと、
前記操作入力に基づいて、処理対象となる画像から目標範囲を決定するステップと、
前記目標範囲内において、所定数の所定サイズの切り出し画像を生成するステップと、を実行し、
前記目標範囲のサイズは、前記切り出し画像のサイズと所定の比例になり、
前記操作入力は、前記処理対象となる画像における特定の軌跡を指定することに用いられ、
前記処理対象となる画像から目標範囲を決定することは、
前記特定の軌跡に基づいて軌跡範囲を決定することと、
前記切り出し画像のサイズをステップサイズとして前記軌跡範囲を走査することと、
各前記ステップサイズを中心として、各前記ステップサイズに対応する目標範囲を決定することと、を含むことを特徴とする、コンピュータ可読記憶媒体。
A computer-readable storage medium storing computer-readable instructions, the computer-readable storage medium comprising:
When the computer readable instructions are executed by a computer, the computer:
a step of accepting operation input;
determining a target range from the image to be processed based on the operation input;
generating a predetermined number of cut-out images of a predetermined size within the target range;
The size of the target range is in a predetermined proportion to the size of the cutout image,
The operation input is used to specify a specific trajectory in the image to be processed,
Determining the target range from the image to be processed includes:
determining a trajectory range based on the specific trajectory;
scanning the trajectory range using the size of the cut-out image as a step size;
determining a target range corresponding to each step size around each step size .
JP2019128083A 2018-07-13 2019-07-10 Image processing method, image processing device, and image processing equipment Active JP7386007B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810770150.9A CN110717576B (en) 2018-07-13 2018-07-13 Image processing method, device and equipment
CN201810770150.9 2018-07-13

Publications (2)

Publication Number Publication Date
JP2020013567A JP2020013567A (en) 2020-01-23
JP7386007B2 true JP7386007B2 (en) 2023-11-24

Family

ID=69170720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019128083A Active JP7386007B2 (en) 2018-07-13 2019-07-10 Image processing method, image processing device, and image processing equipment

Country Status (2)

Country Link
JP (1) JP7386007B2 (en)
CN (1) CN110717576B (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114205515B (en) 2020-09-18 2023-04-07 荣耀终端有限公司 Anti-shake processing method for video and electronic equipment
CN114444622B (en) * 2022-04-11 2022-06-17 中国科学院微电子研究所 Fruit detection system and method based on neural network model

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198476A (en) 2009-02-26 2010-09-09 Omron Corp Defect detecting apparatus, defect detecting method and defect detecting program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266061A (en) * 2008-04-28 2009-11-12 Panasonic Corp Image processor, image processing method, and image transmission system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198476A (en) 2009-02-26 2010-09-09 Omron Corp Defect detecting apparatus, defect detecting method and defect detecting program

Also Published As

Publication number Publication date
CN110717576B (en) 2024-05-28
JP2020013567A (en) 2020-01-23
CN110717576A (en) 2020-01-21

Similar Documents

Publication Publication Date Title
US10964057B2 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
CN108876934B (en) Key point marking method, device and system and storage medium
JP6557943B2 (en) Image collation device, image sensor, processing system, and image collation method
JP5701388B2 (en) Digital image recognition
CN109377467A (en) Generation method, object detection method and the device of training sample
US20160147882A1 (en) Object Search Method and Apparatus
JP7386007B2 (en) Image processing method, image processing device, and image processing equipment
JP2020517926A (en) Robot for automatically detecting screen state, method and computer-readable storage medium
US9569850B2 (en) System and method for automatically determining pose of a shape
CN107845113A (en) Object element localization method, device and ui testing method, apparatus
JPWO2015107665A1 (en) Work support data creation program
JP2022541977A (en) Image labeling method, device, electronic device and storage medium
EP3300025A1 (en) Image processing device and image processing method
JP2018152081A (en) System and method for determining clutter in an acquired image
US20160012302A1 (en) Image processing apparatus, image processing method and non-transitory computer readable medium
JP2014106597A (en) Autonomous moving body, object information acquisition device, and object information acquisition method
JP6229554B2 (en) Detection apparatus and detection method
CN108804978B (en) Layout analysis method and device
CN112231032A (en) Software interface element access method and device combining RPA and AI
JP2017199288A (en) Image processing device, image processing method and program
JP2020071739A (en) Image processing apparatus
JP2022185872A (en) Image processing device, image processing method and imaging apparatus
JP2004272357A (en) Presentation device of image recognition result, display method of the result, presentation program of the result, and recording medium
CN109753554B (en) Searching method based on three-dimensional space positioning and family education equipment
Xiong et al. Research on real-time multi-object detections based on template matching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230719

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R150 Certificate of patent or registration of utility model

Ref document number: 7386007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150