JP2023140705A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2023140705A
JP2023140705A JP2022046679A JP2022046679A JP2023140705A JP 2023140705 A JP2023140705 A JP 2023140705A JP 2022046679 A JP2022046679 A JP 2022046679A JP 2022046679 A JP2022046679 A JP 2022046679A JP 2023140705 A JP2023140705 A JP 2023140705A
Authority
JP
Japan
Prior art keywords
image
design
article
processing device
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022046679A
Other languages
Japanese (ja)
Inventor
将史 渡辺
Masashi Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2022046679A priority Critical patent/JP2023140705A/en
Publication of JP2023140705A publication Critical patent/JP2023140705A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image processing device that can improve operation efficiency of an operator by outputting a measurement result of size of a measuring object and design data in combination.SOLUTION: An image processing device comprises: reading means that reads an image of an article due to scanning of a carriage; storage means that stores a first image of design information which at least includes a drawing and a design dimension of the article; image acquisition means that acquires a second image reading the article; measuring means that measures a dimension of the article on the basis of the second image; composite image generation means that generates a third image in which a result display area displaying the measured dimension is superposed on the first image; and output means that outputs the third image.SELECTED DRAWING: Figure 3

Description

本発明は、画像処理装置に関する。 The present invention relates to an image processing device.

従来、測定対象物を撮像し、撮像された画像データに基づいて測定対象物の所定部分の寸法を計測する画像計測装置が広く用いられている。 2. Description of the Related Art Conventionally, image measurement apparatuses have been widely used that capture an image of a measurement target and measure the dimensions of a predetermined portion of the measurement target based on the captured image data.

このような画像計測装置において測定対象物の所定部分の寸法を測定する際には、作業者が、画像データに対して測定対象箇所や測定種別をそれぞれ指定する必要があった。そのため例えば、測定したい箇所が多数存在する場合、作業者は、多数の箇所をそれぞれ測定対象箇所として指定し、さらには測定対象箇所ごとに測定種別を指定しなければならず、作業が極めて煩雑になる。 When measuring the dimensions of a predetermined portion of an object to be measured using such an image measuring device, it is necessary for the operator to specify the location to be measured and the type of measurement to the image data. Therefore, for example, if there are many points to be measured, the worker must specify each of the many points as the measurement target point and also specify the measurement type for each measurement point, making the work extremely complicated. Become.

このため、従来技術では、部品の図面などの設計データに対して測定対象箇所や測定種別が自動生成される技術が採用されてきた。 For this reason, in the prior art, a technique has been adopted in which measurement target locations and measurement types are automatically generated from design data such as drawings of parts.

しかしながら、上述した従来技術が採用されたとしても、指定された測定対象箇所の測定結果がそれぞれ出力されるのみであり、作業者は、出力された測定結果と図面での指定箇所とを照合しなければならず、作業の煩雑さは改善されなかった。 However, even if the above-mentioned conventional technology is adopted, only the measurement results for each designated measurement target location are output, and the operator must compare the output measurement results with the designated locations on the drawing. However, the complexity of the work was not improved.

本発明は、上記に鑑みてなされたものであって、測定対象物の寸法の測定結果と設計データとを組み合わせて出力することで、作業者の作業の効率化を図ることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to improve the efficiency of a worker's work by combining and outputting a measurement result of the dimensions of an object to be measured and design data.

上述した課題を解決し、目的を達成するために、本発明は、キャリッジが走査することによって物品の画像を読み取る読取手段と、前記物品の図面及び設計寸法を少なくとも含む設計情報の第1画像を記憶する記憶手段と、前記物品を読み取った第2画像を取得する画像取得手段と、前記第2画像に基づいて、前記物品の寸法を測定する測定手段と、測定された寸法が表示される結果表示領域を、前記第1画像に重畳させた第3画像を生成する合成画像生成手段と、前記第3画像を出力する出力手段と、を備える。 In order to solve the above problems and achieve the objects, the present invention includes a reading means for reading an image of an article by scanning with a carriage, and a first image of design information including at least a drawing and design dimensions of the article. a storage means for storing, an image acquisition means for acquiring a second image of the article, a measuring means for measuring the dimensions of the article based on the second image, and a result for displaying the measured dimensions. The image forming apparatus includes a composite image generating means for generating a third image in which a display area is superimposed on the first image, and an output means for outputting the third image.

本発明によれば、測定対象物の寸法の測定結果と設計データとを組み合わせて出力することで、作業者の作業の効率化を図ることが可能となる、という効果を奏する。 According to the present invention, by outputting a combination of the measurement result of the dimensions of the object to be measured and the design data, it is possible to improve the efficiency of the worker's work.

図1は、第1の実施形態にかかる画像処理装置の一例の外観構成を示す図である。FIG. 1 is a diagram showing the external configuration of an example of an image processing apparatus according to the first embodiment. 図2は、第1の実施形態にかかる画像処理装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram showing an example of the hardware configuration of the image processing apparatus according to the first embodiment. 図3は、第1の実施形態にかかる画像処理装置の機能的構成の一例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing an example of the functional configuration of the image processing device according to the first embodiment. 図4は、第1の実施形態にかかる設計データの一例を示す図である。FIG. 4 is a diagram showing an example of design data according to the first embodiment. 図5は、第1の実施形態にかかる撮像データの一例を示す図である。FIG. 5 is a diagram illustrating an example of imaging data according to the first embodiment. 図6は、第1の実施形態にかかる撮像データの一例を示す図である。FIG. 6 is a diagram illustrating an example of imaging data according to the first embodiment. 図7は、第1の実施形態にかかる画像データの位置合わせについて説明する図である。FIG. 7 is a diagram illustrating alignment of image data according to the first embodiment. 図8は、第1の実施形態にかかる設計データの一例を示す図である。FIG. 8 is a diagram showing an example of design data according to the first embodiment. 図9は、第1の実施形態にかかる余白領域の一例を示す図である。FIG. 9 is a diagram illustrating an example of a blank area according to the first embodiment. 図10は、第1の実施形態にかかる合成画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of a composite image according to the first embodiment. 図11は、第1の実施形態にかかる合成画像の一例を示す図である。FIG. 11 is a diagram showing an example of a composite image according to the first embodiment. 図12は、第1の実施形態にかかる画像合成処理が実行される際の作業者と画像処理装置の動作の流れの一例を示す模式図である。FIG. 12 is a schematic diagram illustrating an example of the flow of operations of the operator and the image processing device when the image synthesis process according to the first embodiment is executed. 図13は、第1の実施形態にかかる生成処理の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of the generation process according to the first embodiment. 図14は、第2の実施形態にかかる画像合成処理が実行される際の作業者と画像処理装置の動作の流れの一例を示す模式図である。FIG. 14 is a schematic diagram illustrating an example of the flow of operations of a worker and an image processing device when image composition processing according to the second embodiment is executed. 図15は、第2の実施形態にかかる生成処理の一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of the generation process according to the second embodiment. 図16は、第2の実施形態にかかる合成画像の一例を示す図である。FIG. 16 is a diagram illustrating an example of a composite image according to the second embodiment.

(第1の実施形態)
以下に添付図面を参照して、画像処理装置の実施形態を詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の符号を付して、重複する説明は省略する。
(First embodiment)
Embodiments of an image processing device will be described in detail below with reference to the accompanying drawings. In order to facilitate understanding of the description, the same components in each drawing are denoted by the same reference numerals as much as possible, and redundant description will be omitted.

まず、図1を参照して、第1の実施形態にかかる画像処理装置1の構成の一例について説明する。
図1は、第1の実施形態にかかる画像処理装置の一例の外観構成を示す図である。
First, with reference to FIG. 1, an example of the configuration of an image processing apparatus 1 according to the first embodiment will be described.
FIG. 1 is a diagram showing the external configuration of an example of an image processing apparatus according to the first embodiment.

図1に示すように、画像処理装置1は、スキャナユニット10、プリンタユニット20、及びスキャナユニット10の上部にADF(Automatic Document Feeder)30を少なくとも備える。 As shown in FIG. 1, the image processing apparatus 1 includes at least a scanner unit 10, a printer unit 20, and an ADF (Automatic Document Feeder) 30 above the scanner unit 10.

スキャナユニット10は、原稿や物品Mを載置するコンタクトガラス11と、原稿や物品Mをスキャンするキャリッジ12とを備える。 The scanner unit 10 includes a contact glass 11 on which a document or article M is placed, and a carriage 12 on which the document or article M is scanned.

例えば、フラットベット方式で読取対象を読み取る場合、作業者は、ADF30を持ち上げてコンタクトガラス11を露出し、コンタクトガラス11上に読取対象(図1の例では物品M)を載置する。そして作業者は、スキャナユニット10の筐体に設けられている操作パネルを操作して開始ボタンを押下する。すると、キャリッジ12がスキャナユニット10内を走行することによりスキャニングが実行される。
このとき例えば、読取対象が図面や設計寸法等の設計情報を含んだ原稿である場合、作業者は、コンタクトガラス11上に原稿を直接載置し、ADF30を下げて原稿を押さえつけ、開始ボタンを押下する。すると、スキャニングが実行され、当該原稿の画像データが取得される。あるいは例えば、読取対象が厚みのある物品Mである場合、作業者は、コンタクトガラス11上に物品Mを直接載置した後、ADF30を下げずに開始ボタンを押下する。すると、スキャニングが実行され、物品Mの画像データが取得される。
For example, when reading an object using the flatbed method, the operator lifts the ADF 30 to expose the contact glass 11, and places the object to be read (article M in the example of FIG. 1) on the contact glass 11. The operator then operates the operation panel provided on the housing of the scanner unit 10 and presses the start button. Then, scanning is performed by the carriage 12 traveling within the scanner unit 10.
At this time, for example, if the object to be read is a document containing design information such as a drawing or design dimensions, the operator places the document directly on the contact glass 11, lowers the ADF 30 to press the document, and presses the start button. Press down. Then, scanning is executed and image data of the document is acquired. Alternatively, for example, when the object to be read is a thick article M, the operator places the article M directly on the contact glass 11 and then presses the start button without lowering the ADF 30. Then, scanning is performed and image data of the article M is acquired.

プリンタユニット20は、画像形成処理を実行するための構成を備える。具体的には、プリンタユニット20は、スキャナユニット10で取得した画像データに所定の画像処理を行うことにより、記録紙に出力する処理を実行する。 The printer unit 20 includes a configuration for executing image forming processing. Specifically, the printer unit 20 performs predetermined image processing on the image data acquired by the scanner unit 10 to output the image data onto recording paper.

ADF30は、トレイにセットした原稿をシートスルー方式で読み取らせるための自動原稿搬送装置である。ADF30を利用して読取対象を読み取る場合、キャリッジ12は、キャリッジホームポジション13に固定され、その状態で読取対象のスキャニングが実行される。
例えば、読取対象が厚みのない原稿等である場合、作業者は、ADF30の所定位置に原稿を複数枚載置し、開始ボタンを押下する。すると、原稿が搬送されることによりスキャニングが実行され、設計図面の画像データが取得される。
The ADF 30 is an automatic document feeder for reading documents set on a tray in a sheet-through method. When reading the object to be read using the ADF 30, the carriage 12 is fixed at the carriage home position 13, and scanning of the object to be read is executed in this state.
For example, when the object to be read is a thin document, the operator places a plurality of documents at a predetermined position on the ADF 30 and presses a start button. Then, scanning is performed by conveying the document, and image data of the design drawing is acquired.

本実施形態にかかる画像処理装置1は、コピー機能、及びプリンタ機能の他、スキャニングして得られた2以上の画像データを組み合わせて画像合成処理を行う画像合成機能を少なくとも有する。
図2~図11を参照して、このような画像合成処理を実現するための画像処理装置1の詳細について説明する。
The image processing apparatus 1 according to the present embodiment has at least an image composition function that performs image composition processing by combining two or more image data obtained by scanning, in addition to a copy function and a printer function.
Details of the image processing device 1 for realizing such image composition processing will be described with reference to FIGS. 2 to 11.

図2は、本実施形態にかかる画像処理装置1のハードウェア構成図である。 FIG. 2 is a hardware configuration diagram of the image processing device 1 according to this embodiment.

本実施形態の画像処理装置1は、図2に示すように、コントローラ110、近距離通信回路120、エンジン制御部130、操作パネル140、ネットワークI/F150を備えている。
これらのうち、コントローラ110は、コンピュータの主要部であるCPU101、システムメモリ(MEM-P)102、ノースブリッジ(NB)103、サウスブリッジ(SB)104、ASIC(Application Specific Integrated Circuit)106、記憶部であるローカルメモリ(MEM-C)107、HDDコントローラ108、及び、記憶部であるHD109を有し、NB103とASIC106との間をAGP(Accelerated Graphics Port)バス121で接続した構成となっている。
As shown in FIG. 2, the image processing device 1 of this embodiment includes a controller 110, a short-range communication circuit 120, an engine control section 130, an operation panel 140, and a network I/F 150.
Among these, the controller 110 includes a CPU 101 which is the main part of the computer, a system memory (MEM-P) 102, a north bridge (NB) 103, a south bridge (SB) 104, an ASIC (Application Specific Integrated Circuit) 106, and a storage section. It has a local memory (MEM-C) 107, an HDD controller 108, and an HD 109 as a storage unit, and has a configuration in which the NB 103 and the ASIC 106 are connected by an AGP (Accelerated Graphics Port) bus 121.

これらのうち、CPU101は、画像処理装置1の全体制御を行う制御部である。例えば、CPU101は、後述する画像合成処理に関する制御プログラムを実行することにより、画像処理装置1全体の動作を統括的に制御する。 Among these, the CPU 101 is a control unit that performs overall control of the image processing apparatus 1. For example, the CPU 101 centrally controls the operation of the image processing apparatus 1 as a whole by executing a control program related to image composition processing, which will be described later.

NB103は、CPU101と、MEM-P102、SB104、及びAGPバス121とを接続するためのブリッジであり、MEM-P102に対する読み書きなどを制御するメモリコントローラと、PCI(Peripheral Component Interconnect)マスタ及びAGPターゲットとを有する。 The NB 103 is a bridge for connecting the CPU 101, the MEM-P 102, the SB 104, and the AGP bus 121, and is a memory controller that controls reading and writing to the MEM-P 102, a PCI (Peripheral Component Interconnect) master, and an AGP target. has.

MEM-P102は、コントローラ110の各機能を実現させるプログラムやデータの格納用メモリであるROM102a、プログラムやデータの展開、及びメモリ印刷時の描画用メモリなどとして用いるRAM102bとからなる。なお、RAM102bに記憶されているプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 The MEM-P 102 includes a ROM 102a that is a memory for storing programs and data that realize each function of the controller 110, and a RAM 102b that is used as a memory for developing programs and data, and for drawing when printing the memory. Note that the program stored in the RAM 102b is configured to be provided as an installable or executable file recorded on a computer-readable recording medium such as a CD-ROM, CD-R, or DVD. You may.

SB104は、NB103とPCIデバイス、周辺デバイスとを接続するためのブリッジである。 The SB 104 is a bridge for connecting the NB 103 to PCI devices and peripheral devices.

ASIC106は、画像処理用のハードウェア要素を有する画像処理用途向けのIC(Integrated Circuit)であり、AGPバス121、PCIバス122、HDDコントローラ108及びMEM-C107をそれぞれ接続するブリッジの役割を有する。このASIC106は、PCIターゲット及びAGPマスタ、ASIC106の中核をなすアービタ(ARB)、MEM-C107を制御するメモリコントローラ、ハードウェアロジックなどにより画像データの回転などを行う複数のDMAC(Direct Memory Access Controller)、並びに、スキャナ部131及びプリンタ部132との間でPCIバス122を介したデータ転送を行うPCIユニットとからなる。なお、ASIC106には、USB(Universal Serial Bus)のインターフェースや、IEEE1394(Institute of Electrical and Electronics Engineers 1394)のインターフェースを接続するようにしてもよい。 The ASIC 106 is an IC (Integrated Circuit) for image processing that includes hardware elements for image processing, and has the role of a bridge that connects the AGP bus 121, the PCI bus 122, the HDD controller 108, and the MEM-C 107, respectively. This ASIC 106 includes a PCI target and an AGP master, an arbiter (ARB) that is the core of the ASIC 106, a memory controller that controls the MEM-C 107, and multiple DMACs (Direct Memory Access Controllers) that rotate image data using hardware logic, etc. , and a PCI unit that transfers data between the scanner section 131 and the printer section 132 via the PCI bus 122. Note that the ASIC 106 may be connected to a USB (Universal Serial Bus) interface or an IEEE 1394 (Institute of Electrical and Electronics Engineers 1394) interface.

MEM-C107は、コピー用画像バッファ及び符号バッファとして用いるローカルメモリである。 MEM-C 107 is a local memory used as a copy image buffer and code buffer.

HD109は、画像データの蓄積、印刷時に用いるフォントデータの蓄積、フォームの蓄積を行うためのストレージである。HD109は、CPU101の制御にしたがってHD109に対するデータの読出または書込を制御する。 The HD 109 is a storage for storing image data, font data used during printing, and forms. The HD 109 controls data reading or writing to the HD 109 under the control of the CPU 101.

AGPバス121は、グラフィック処理を高速化するために提案されたグラフィックスアクセラレータカード用のバスインタフェースであり、MEM-P102に高スループットで直接アクセスすることにより、グラフィックスアクセラレータカードを高速にすることができる。 The AGP bus 121 is a bus interface for a graphics accelerator card proposed to speed up graphics processing, and can speed up the graphics accelerator card by directly accessing the MEM-P 102 with high throughput. .

また、近距離通信回路120には、近距離通信回路120aが備わっている。近距離通信回路120は、NFC、Bluetooth(登録商標)等の通信回路である。 Further, the short-range communication circuit 120 includes a short-range communication circuit 120a. The short-range communication circuit 120 is a communication circuit such as NFC or Bluetooth (registered trademark).

さらに、エンジン制御部130は、スキャナ部131及びプリンタ部132によって構成されている。また、操作パネル140は、現在の設定値や選択画面等を表示させ、操作者からの入力を受け付けるタッチパネル等のパネル表示部140a、並びに、濃度の設定条件などの画像形成に関する条件の設定値を受け付けるテンキー及びコピー開始指示を受け付けるスタートキー等からなる操作パネル140bを備えている。コントローラ110は、画像処理装置1全体の制御を行い、例えば、描画、通信、操作パネル140からの入力等を制御する。スキャナ部131またはプリンタ部132には、誤差拡散やガンマ変換などの画像処理部分が含まれている。 Further, the engine control section 130 includes a scanner section 131 and a printer section 132. The operation panel 140 also includes a panel display section 140a such as a touch panel that displays current setting values, a selection screen, etc., and receives input from the operator, as well as displaying setting values for conditions related to image formation such as density setting conditions. The operation panel 140b includes a numeric keypad for accepting instructions, a start key for accepting copy start instructions, and the like. The controller 110 controls the entire image processing apparatus 1, and controls, for example, drawing, communication, input from the operation panel 140, and the like. The scanner section 131 or the printer section 132 includes image processing sections such as error diffusion and gamma conversion.

なお、画像処理装置1は、操作パネル140のアプリケーション切り替えキーにより、ドキュメントボックス機能、コピー機能、プリンタ機能、及びファクシミリ機能を順次に切り替えて選択することが可能となる。ドキュメントボックス機能の選択時にはドキュメントボックスモードとなり、コピー機能の選択時にはコピーモードとなり、プリンタ機能の選択時にはプリンタモードとなり、ファクシミリモードの選択時にはファクシミリモードとなる。 Note that the image processing apparatus 1 can sequentially switch and select the document box function, copy function, printer function, and facsimile function using the application switching key on the operation panel 140. When the document box function is selected, the mode becomes document box mode, when the copy function is selected, the mode becomes copy mode, when the printer function is selected, the mode becomes printer mode, and when the facsimile mode is selected, the mode becomes facsimile mode.

また、ネットワークI/F150は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。近距離通信回路120及びネットワークI/F150は、PCIバス122を介して、ASIC106に電気的に接続されている。 Further, the network I/F 150 is an interface for performing data communication using the communication network 100. Near field communication circuit 120 and network I/F 150 are electrically connected to ASIC 106 via PCI bus 122.

次に、画像処理装置1の機能的構成について説明する。
図3は、第1の実施形態にかかる画像処理装置1の機能的構成の一例を示す機能ブロック図である。
以下、図4~11を参照して、図3の機能的構成について説明する。
Next, the functional configuration of the image processing device 1 will be explained.
FIG. 3 is a functional block diagram showing an example of the functional configuration of the image processing device 1 according to the first embodiment.
The functional configuration of FIG. 3 will be described below with reference to FIGS. 4 to 11.

画像処理装置1は、図3に示すように、記憶部109、画像取得部160、測定部170、合成画像生成部180、及び出力部190を備える。 The image processing device 1 includes a storage section 109, an image acquisition section 160, a measurement section 170, a composite image generation section 180, and an output section 190, as shown in FIG.

記憶部109は、物品Mの図面及び設計寸法を少なくとも含む設計情報の第1画像を記憶する。ここで、本実施形態における第1画像に相当する設計データPIの一例を図4に示す。具体的には、記憶部109は、物品Mの図面等をスキャニングして得られた画像データを、設計データPIとして記憶する。図4に示すように、設計データPIには、物品Mの図面、設計寸法及び公差等の情報が少なくとも含まれる。記憶部109は、複数の設計データPIを蓄積してもよい。 The storage unit 109 stores a first image of design information including at least a drawing and design dimensions of the article M. Here, an example of the design data PI corresponding to the first image in this embodiment is shown in FIG. Specifically, the storage unit 109 stores image data obtained by scanning a drawing or the like of the article M as design data PI. As shown in FIG. 4, the design data PI includes at least information such as a drawing, design dimensions, and tolerances of the article M. The storage unit 109 may store a plurality of design data PI.

画像取得部160は、物品Mを読み取った第2画像を取得する。ここで、本実施形態における第2画像に相当する撮像データMIの一例を図5に示す。具体的には、画像取得部160は、物品Mをスキャニングして得られた画像データを、撮像データMIとして取得する。例えば図5に示すように、撮像データMIには、測定対象である物品Mの画像等の情報が少なくとも含まれる。 The image acquisition unit 160 acquires a second image obtained by reading the article M. Here, an example of the imaging data MI corresponding to the second image in this embodiment is shown in FIG. Specifically, the image acquisition unit 160 acquires image data obtained by scanning the article M as the imaged data MI. For example, as shown in FIG. 5, the imaging data MI includes at least information such as an image of the article M to be measured.

測定部170は、撮像データMIに基づいて、物品Mの寸法を測定する。具体的には、測定部170は、画像取得部160において取得された撮像データMIに対して所定の画像処理手法を実行することにより、物品Mの各測定対象箇所の寸法の測定を行う。そして、測定部170は、物品Mの各測定対象箇所と、測定結果とを対応づけて保持する。例えば図6に示すように、測定部170は、測定結果を表示する結果表示領域SWが表示された画像データを撮像データMIとして保持してもよい。 The measuring unit 170 measures the dimensions of the article M based on the image data MI. Specifically, the measurement unit 170 measures the dimensions of each measurement target location of the article M by performing a predetermined image processing method on the image data MI acquired by the image acquisition unit 160. The measurement unit 170 then stores each measurement target location of the article M and the measurement results in association with each other. For example, as shown in FIG. 6, the measurement unit 170 may hold image data in which a result display area SW for displaying measurement results is displayed as imaged data MI.

合成画像生成部180は、測定された物品Mの寸法が表示される結果表示領域SWを、設計データPIに重畳させた第3画像を生成する。ここで、本実施形態における第3画像に相当する合成画像SIの一例を図10に示す。
合成画像生成部180は、以下に説明する各部がそれぞれ機能を発揮することにより、結果表示領域SWを、設計データPIに重畳させた合成画像SIを生成する。
The composite image generation unit 180 generates a third image in which a result display area SW in which the measured dimensions of the article M are displayed is superimposed on the design data PI. Here, an example of the composite image SI corresponding to the third image in this embodiment is shown in FIG.
The composite image generation unit 180 generates a composite image SI in which the result display area SW is superimposed on the design data PI by each unit that will be described below exerting its function.

図3に戻り説明を続ける。
合成画像生成部180は、特定部181、余白検知部182、重畳領域決定部183、演算部184、及びフォーマット決定部185、認識部186を備える。
Returning to FIG. 3, the explanation will be continued.
The composite image generating section 180 includes a specifying section 181 , a margin detecting section 182 , an overlapping area determining section 183 , a calculating section 184 , a format determining section 185 , and a recognizing section 186 .

特定部181は、記憶部109に記憶された設計データPIから、測定対象の物品Mに対応する設計データPIを特定する。即ち、特定部181は、記憶部109に記憶される設計データPIと、画像取得部160において取得された撮像データMIとに基づいて位置合わせの処理を実行することにより、撮像データMIに対応する設計データPI撮像データMIを特定する。 The identifying unit 181 identifies design data PI corresponding to the article M to be measured from the design data PI stored in the storage unit 109. That is, the specifying unit 181 executes positioning processing based on the design data PI stored in the storage unit 109 and the image data MI acquired by the image acquisition unit 160, thereby matching the image data MI. Specify design data PI and imaging data MI.

ここで図7を参照して、位置合わせの処理について説明する。図7は、撮像データMI及び設計データPIの位置合わせの処理について説明する図である。 Here, the alignment process will be described with reference to FIG. 7. FIG. 7 is a diagram illustrating a process of positioning the imaging data MI and the design data PI.

初めに、特定部181は、撮像データMIに含まれる物品Mの画像N、及び設計データPIに含まれる物品Mの図面Zのそれぞれについて特徴量を解析する。その結果、特定部181は、図7に示すような特徴点SM-1~SM-2、及び特徴点SP-1~SP-2をそれぞれ抽出する。すると特定部181は、対応する特徴点(図7の例では、特徴点SM-1と特徴点SP-1、特徴点SM-2と特徴点SP-2)についてマッチングを行い、画像Nと図面Zが一致するか否かを判断する。
特定部181は、このような位置合わせの処理の結果、画像Nと図面Zが一致すると判断した場合、当該図面Zを含む設計データPIが、測定対象の物品Mに対応する設計データPIであると特定する。
First, the specifying unit 181 analyzes the feature amount of each of the image N of the article M included in the imaging data MI and the drawing Z of the article M included in the design data PI. As a result, the specifying unit 181 extracts feature points SM-1 to SM-2 and feature points SP-1 to SP-2 as shown in FIG. 7, respectively. Then, the specifying unit 181 performs matching on the corresponding feature points (in the example of FIG. 7, feature point SM-1 and feature point SP-1, feature point SM-2 and feature point SP-2), and matches the image N with the drawing. Determine whether Z matches.
If the identification unit 181 determines that the image N and the drawing Z match as a result of such positioning processing, it determines that the design data PI including the drawing Z is the design data PI corresponding to the article M to be measured. Specify.

認識部186は、設計データPIに基づいて設計情報を認識する。具体的には、認識部186は、特定部181において特定された設計データPIに対して所定の画像処理手法を実行することにより、設計データPIに含まれる設計情報を認識する。即ち例えば、図8に示すように、認識部186は、例えばOCRの処理を実行することにより、設計寸法表示領域PW-1に表示された部位Aの設計寸法(基準値)及び公差が18±0.2であること、また、設計寸法表示領域PW-2に表示された部位Bの設計寸法(基準値)及び公差が1±0.2であることを認識する。また、認識部186は、表示された設計寸法等の文字の色、太さ、大きさ等の書式を認識する。
認識部186は、認識した結果を、設計データPIの図面Zの各箇所と対応づけて保持する。
The recognition unit 186 recognizes design information based on the design data PI. Specifically, the recognition unit 186 recognizes the design information included in the design data PI by performing a predetermined image processing method on the design data PI identified by the identification unit 181. That is, for example, as shown in FIG. 8, the recognition unit 186 executes OCR processing to determine that the design dimension (reference value) and tolerance of the part A displayed in the design dimension display area PW-1 are 18±. 0.2, and that the design dimension (reference value) and tolerance of portion B displayed in the design dimension display area PW-2 are 1±0.2. Further, the recognition unit 186 recognizes the color, thickness, size, and other formats of characters such as the displayed design dimensions.
The recognition unit 186 stores the recognition results in association with each location in the drawing Z of the design data PI.

演算部184は、物品Mの各測定対象箇所の設計寸法と、測定寸法との寸法差を計算する。具体的には、演算部184は、認識部186において認識した設計情報と、測定部170において測定した物品Mの測定結果とを対応付け、寸法差を計算する。 The calculation unit 184 calculates the dimensional difference between the design dimension and the measured dimension of each measurement target location of the article M. Specifically, the calculation unit 184 associates the design information recognized by the recognition unit 186 with the measurement result of the article M measured by the measurement unit 170, and calculates the dimensional difference.

余白検知部182は、設計データPIのうち、いずれの情報も表示されない余白領域を検知する。ここで本実施形態における、余白領域に相当する余白領域BPの一例を図9に示す。図9に示すように、余白検知部182は、特定部181において特定された設計データPIに対して所定の画像処理手法を実行し、いずれの情報も表示されない余白領域BP-1~BP-3(以下、「余白領域BP」と称する場合がある)を抽出する。 The margin detection unit 182 detects a margin area in the design data PI where no information is displayed. Here, FIG. 9 shows an example of a blank area BP corresponding to a blank area in this embodiment. As shown in FIG. 9, the margin detection unit 182 executes a predetermined image processing method on the design data PI identified by the identification unit 181, and creates margin areas BP-1 to BP-3 in which no information is displayed. (hereinafter sometimes referred to as "margin area BP").

重畳領域決定部183は、余白領域BPにおいて、測定結果を表示する結果表示領域SWを重畳させる位置を決定する。即ち、重畳領域決定部183は、図9の設計情報PIにおける余白領域BP-1~BP-3の中で、測定部170において測定した物品Mの測定結果を表示させる位置を決定する。
具体的には例えば図10に示すように、重畳領域決定部183は、部位Aの測定結果を表示する結果表示領域SW-1(以下、「結果表示領域SW」と称する場合がある)を、余白検知部182において抽出した余白領域BP-1の一部に重畳することを決定する。
また例えば、重畳領域決定部183は、部位Bの測定結果を表示する結果表示領域SW-2を、余白検知部182において抽出した余白領域BP-2の一部に重畳することを決定する。
The superimposition area determination unit 183 determines a position in the margin area BP where the result display area SW for displaying the measurement results is superimposed. That is, the superimposition area determination unit 183 determines the position where the measurement result of the article M measured by the measurement unit 170 is to be displayed in the margin areas BP-1 to BP-3 in the design information PI of FIG.
Specifically, as shown in FIG. 10, for example, the superimposition region determining unit 183 sets a result display region SW-1 (hereinafter sometimes referred to as "result display region SW") that displays the measurement results of part A as It is decided to overlap a part of the margin area BP-1 extracted by the margin detection unit 182.
Further, for example, the superimposing region determining unit 183 determines to superimpose the result display region SW-2, which displays the measurement results of the part B, on a part of the blank area BP-2 extracted by the blank space detecting unit 182.

フォーマット決定部185は、測定寸法を表示する第2フォーマットを、設計寸法を表示する第1フォーマットに追従させる。ここで本実施形態において、フォーマットとは、寸法を表示する文字の色、太さ、大きさ等の書体を少なくとも含む書式をいう。即ち、測定寸法を表示する第2フォーマットとは、測定結果を表示する書式をいい、設計寸法を表示する第1フォーマットとは、設計寸法を表示する書式をいう。
具体的には例えば図10に示すように、フォーマット決定部185は、結果表示領域SW-1~SW-2に表示される測定結果の書式を、認識部186において認識した書式(図10の例では、設計寸法表示領域PW-1~PW-2に表示される設計寸法及び公差の書体)と一致させるように制御する。
The format determining unit 185 causes the second format for displaying measured dimensions to follow the first format for displaying designed dimensions. Here, in the present embodiment, the format refers to a format that includes at least the font such as the color, thickness, and size of characters that display dimensions. That is, the second format for displaying measured dimensions is a format for displaying measurement results, and the first format for displaying design dimensions is a format for displaying design dimensions.
Specifically, as shown in FIG. 10, the format determining unit 185 converts the format of the measurement results displayed in the result display areas SW-1 to SW-2 into the format recognized by the recognition unit 186 (the example shown in FIG. 10). Then, control is performed to match the font of the design dimensions and tolerances displayed in the design dimension display areas PW-1 to PW-2.

また、フォーマット決定部185は、演算部184において算出した結果に基づいて、設計寸法と、測定寸法との寸法差が、所定の閾値より大きい場合には、測定寸法を、設計情報が示すフォーマットとは異なる第3フォーマットで表示するように制御する。具体的には、フォーマット決定部185は、設計寸法と、測定寸法との寸法差が、上記閾値としての公差より大きい場合には、結果表示領域SW-1に表示される測定寸法を、設計寸法表示領域PW-1に表示される設計情報とは異なる書式で表示するよう制御する。例えば図11の例では、部位Aに対応する設計寸法表示領域PW-1に表示される設計寸法及び公差が18±0.2であるのに対し、結果表示領域SW-1に表示される測定結果が18.5である。即ち、設計寸法と、測定寸法との寸法差が公差である0.2より大きいため、フォーマット決定部185は、結果表示領域SW-1に表示される測定結果を、太字かつ大きいフォントで表示するように制御する。 Further, based on the result calculated by the calculation unit 184, if the dimensional difference between the design dimension and the measured dimension is larger than a predetermined threshold, the format determination unit 185 converts the measured dimension into the format indicated by the design information. controls to display in a different third format. Specifically, if the dimensional difference between the design dimension and the measured dimension is larger than the tolerance as the threshold value, the format determination unit 185 changes the measured dimension displayed in the result display area SW-1 to the designed dimension. The design information is controlled to be displayed in a format different from that displayed in the display area PW-1. For example, in the example of FIG. 11, the design dimension and tolerance displayed in the design dimension display area PW-1 corresponding to part A are 18±0.2, while the measurement displayed in the result display area SW-1 The result is 18.5. That is, since the dimensional difference between the design dimension and the measured dimension is larger than the tolerance of 0.2, the format determining unit 185 displays the measurement result displayed in the result display area SW-1 in bold and large font. Control as follows.

以上、合成画像生成部180に備わる各部の機能について説明した。このように、合成画像生成部180の各部がそれぞれ機能を発揮することにより、結果表示領域SWが設計データPIに重畳された合成画像SIが生成されるようになる。 The functions of each section included in the composite image generation section 180 have been described above. In this way, each part of the composite image generation unit 180 performs its function, thereby generating a composite image SI in which the result display area SW is superimposed on the design data PI.

出力部190は、第3画像としての合成画像SIを出力する。即ち、出力部190は、合成画像生成部180において生成された合成画像SIを操作パネル140等へ出力する制御を実行する。 The output unit 190 outputs the composite image SI as the third image. That is, the output unit 190 executes control to output the composite image SI generated by the composite image generation unit 180 to the operation panel 140 or the like.

次に、このような画像合成処理を実行する際の作業の流れについて説明する。図12は、第1の実施形態にかかる画像合成処理が実行される際の作業者Wと画像処理装置1の動作の流れを示す模式図である。 Next, the flow of work when performing such image composition processing will be explained. FIG. 12 is a schematic diagram showing the flow of operations of the worker W and the image processing device 1 when the image synthesis process according to the first embodiment is executed.

作業者Wは、画像処理装置1のコンタクトガラス11の上に、物品Mの設計情報を載置する(ステップS111)。具体的には例えば、作業者Wは、物品Mの設計情報が固着された図面などの媒体をコンタクトガラス11の上に載置する。作業者Wは、画像処理装置1の操作パネル140を操作して、スキャン開始を指示する(ステップS112)。 The worker W places the design information of the article M on the contact glass 11 of the image processing device 1 (step S111). Specifically, for example, the worker W places a medium such as a drawing on which the design information of the article M is fixed on the contact glass 11. The worker W operates the operation panel 140 of the image processing device 1 and instructs to start scanning (step S112).

画像処理装置1は、スキャンを開始する(ステップS113)。具体的には、画像処理装置1のキャリッジ12が走行することにより設計情報のスキャンが開始される。 The image processing device 1 starts scanning (step S113). Specifically, scanning of design information is started when the carriage 12 of the image processing device 1 moves.

画像処理装置1は、スキャンで読み取られた設計データPIを記憶部109に記憶する(ステップS114)。具体的には、記憶部109は、物品Mの設計情報がスキャニングされた結果得られる設計データPIを記憶する。 The image processing device 1 stores the scanned design data PI in the storage unit 109 (step S114). Specifically, the storage unit 109 stores design data PI obtained as a result of scanning the design information of the article M.

作業者Wは、画像処理装置1のコンタクトガラス11の上から媒体を除去し、代わりに測定対象の物品Mをコンタクトガラス11の上に載置する(ステップS115)。 The worker W removes the medium from above the contact glass 11 of the image processing apparatus 1, and places the article M to be measured on the contact glass 11 instead (step S115).

作業者Wは、操作パネル140を操作して、物品Mの測定部位を指定する(ステップS116)。そして、作業者Wは、操作パネル140を操作して物品Mの寸法の測定開始を指示する(ステップS117)。 The worker W operates the operation panel 140 to specify the measurement site of the article M (step S116). Then, the worker W operates the operation panel 140 and instructs to start measuring the dimensions of the article M (step S117).

画像処理装置1は、物品Mのスキャンを開始する(ステップS118)。即ち、画像処理装置1の画像取得部160は、物品Mがスキャニングされた結果得られた撮像データMIを取得する。 The image processing device 1 starts scanning the article M (step S118). That is, the image acquisition unit 160 of the image processing device 1 acquires the image data MI obtained as a result of scanning the article M.

画像処理装置1は、物品Mの寸法を測定する(ステップS119)。即ち、画像処理装置1の測定部170は、画像取得部160において取得した撮像データMIに対して所定の画像処理手法を実行することにより、物品Mの測定対象箇所の寸法の測定を行う。測定部170は、各測定対象箇所と、測定結果とを対応づけて保持する。 The image processing device 1 measures the dimensions of the article M (step S119). That is, the measurement unit 170 of the image processing device 1 measures the dimensions of the measurement target portion of the article M by performing a predetermined image processing method on the image data MI acquired by the image acquisition unit 160. The measurement unit 170 stores each measurement target location and the measurement result in association with each other.

次に、画像処理装置1は、記憶された設計データPIと、物品Mの測定結果とを組み合わせて出力するための処理を開始する(ステップS120)。このようなステップS120の処理を特に「画像生成処理」と呼ぶ。
次に、図13を参照して、画像生成処理の詳細を説明する。
図13は、第1の実施形態にかかる画像生成処理の一例を示すフローチャートである。
Next, the image processing device 1 starts processing for outputting a combination of the stored design data PI and the measurement results of the article M (step S120). Such processing in step S120 is particularly referred to as "image generation processing."
Next, details of the image generation process will be explained with reference to FIG. 13.
FIG. 13 is a flowchart illustrating an example of image generation processing according to the first embodiment.

特定部181は、ステップS114において記憶された設計データPIを読み込む(ステップS201)。 The specifying unit 181 reads the design data PI stored in step S114 (step S201).

特定部181は、位置合わせの処理を実行する(ステップS202)。これにより、測定対象の物品Mに対応する設計データPIの特定がなされると共に、設計データPIのうち、結果表示領域SWを重畳するための余白領域BPの検知が可能になる。 The specifying unit 181 executes alignment processing (step S202). Thereby, the design data PI corresponding to the article M to be measured is specified, and the blank area BP for superimposing the result display area SW in the design data PI can be detected.

余白検知部182は、抽出された設計データPIに基づいて、余白領域BPを検知する。具体的には、余白検知部182は、設計データPIのうち、いずれの情報も表示されない余白領域BPを抽出する(ステップS203)。 The margin detection unit 182 detects the margin area BP based on the extracted design data PI. Specifically, the margin detection unit 182 extracts a margin area BP in which no information is displayed from the design data PI (step S203).

演算部184は、物品Mの各測定対象箇所の設計寸法と、測定寸法との寸法差や、算出した寸法差に基づく測定結果の判定等の演算を実行する(ステップS204)。これにより、設計寸法と測定寸法との差が自動演算されるため、容易に結果を認識できるようになる。 The calculation unit 184 performs calculations such as determining the dimensional difference between the design dimension and the measured dimension of each measurement target location of the article M, and determining the measurement result based on the calculated dimensional difference (step S204). This allows the difference between the design dimension and the measured dimension to be automatically calculated, making it easier to recognize the result.

フォーマット決定部185は、結果表示領域SWに表示する測定結果のフォーマットを決定する(ステップS205)。即ち、フォーマット決定部185は、結果表示領域SWに表示される測定結果のフォーマットを、設計寸法を示すフォーマットに追従させたり、任意のフォーマットに決定する。 The format determining unit 185 determines the format of the measurement results to be displayed in the result display area SW (step S205). That is, the format determining unit 185 determines the format of the measurement results displayed in the result display area SW to follow the format indicating the design dimensions, or to an arbitrary format.

重畳領域決定部183は、抽出された余白領域BPにおいて、結果表示領域SWを重畳させる位置を決定する(ステップS206)。 The superimposition area determining unit 183 determines a position in the extracted blank area BP at which the result display area SW is to be superimposed (step S206).

以上のようにして、ステップS120の画像生成処理が終了する。このように、合成画像生成部180の各部が機能を発揮することにより、測定された物品Mの寸法が表示される結果表示領域SWが、設計データPIに重畳された合成画像SIが生成される。
図12に戻り、処理は、図12のステップS120からステップS121に進む。
As described above, the image generation process in step S120 ends. In this manner, each part of the composite image generation unit 180 functions to generate a composite image SI in which the result display area SW, in which the measured dimensions of the article M are displayed, is superimposed on the design data PI. .
Returning to FIG. 12, the process proceeds from step S120 in FIG. 12 to step S121.

出力部190は、合成画像SIを出力する制御を実行する。具体的には、出力部190は、物品Mの寸法の測定結果が、設計データPIに重畳された合成画像SIを、操作パネル140、紙媒体、または電子データとして出力する制御を実行する(ステップS121)。 The output unit 190 executes control to output the composite image SI. Specifically, the output unit 190 executes control to output a composite image SI in which the measurement results of the dimensions of the article M are superimposed on the design data PI to the operation panel 140, a paper medium, or as electronic data (step S121).

このようにして、作業者Wは、合成画像SIを出力結果として入手し、作業を終了する(ステップS122)。
以上、第1の実施形態にかかる画像合成処理が実行される際の作業者Wと画像処理装置1の動作の流れについて説明した。
In this way, the worker W obtains the composite image SI as an output result, and ends the work (step S122).
The flow of operations of the worker W and the image processing device 1 when the image composition process according to the first embodiment is executed has been described above.

このように、第1の実施形態にかかる画像処理装置1は、物品Mの設計情報が読み込まれた設計データPIと、物品Mを読み取った撮像データMIとを組み合わせることにより、物品Mの寸法の測定結果が設計データPIに重畳された新たな合成画像SIを出力することができる。これにより、測定結果と設計情報とを並べて表示して出力することができるため、結果が見やすくなり、設計情報に対する測定結果の合否を一目で把握することができるようになる。従って、本実施形態によれば、作業者による作業の効率化を図ることができる。 In this way, the image processing device 1 according to the first embodiment calculates the dimensions of the article M by combining the design data PI in which the design information of the article M is read and the image data MI obtained by reading the article M. A new composite image SI in which the measurement results are superimposed on the design data PI can be output. As a result, the measurement results and the design information can be displayed and output side by side, making the results easier to see and making it possible to understand at a glance whether the measurement results match the design information. Therefore, according to this embodiment, it is possible to improve the efficiency of the work performed by the operator.

また、第1の実施形態にかかる画像処理装置1は、設計データPIのうちいずれの情報も表示されない余白領域BPに物品Mの寸法の測定結果を表示する結果表示領域SWを重畳させることができる。これにより、設計寸法表示領域Pと結果表示領域SWとが重なりあうことを回避することができる。また、作業者が手動で調整しなくても自動で結果表示領域SWの重畳場所が決定されるため、作業の効率が改善されると共に、例えば、設計寸法表示領域PWに対する結果表示領域SWの位置関係を一定に保つことができる。 Furthermore, the image processing device 1 according to the first embodiment can superimpose a result display area SW that displays the measurement results of the dimensions of the article M on a blank area BP in which no information of the design data PI is displayed. . Thereby, it is possible to avoid overlapping the design dimension display area P and the result display area SW. In addition, since the overlapping location of the result display area SW is automatically determined without manual adjustment by the operator, work efficiency is improved and, for example, the position of the result display area SW with respect to the design dimension display area PW is determined automatically. Relationships can be maintained constant.

また、第1の実施形態にかかる画像処理装置1は、測定結果を表示するフォーマットを、設計情報のフォーマットに一致させることができる。そのため、作業者が手動で設定しなくても、測定結果と設計情報とを同一の書式で並べて表示して出力することができるため、測定結果を容易に確認することができるようになる。 Furthermore, the image processing device 1 according to the first embodiment can match the format for displaying measurement results with the format of design information. Therefore, the measurement results and design information can be displayed and output side by side in the same format without manual settings by the operator, making it possible to easily confirm the measurement results.

さらに、第1の実施形態にかかる画像処理装置1は、設計寸法と、測定結果との寸法差や、設計公差に対する測定結果の判定を演算し、例えば、寸法差が所定の閾値より大きい等の場合には、測定結果を所定のフォーマットで表示する。これにより、測定結果が閾値を逸脱した結果のみを強調して表示する等が可能になるため、一目で容易に結果の合否を認識できるようになる。 Furthermore, the image processing device 1 according to the first embodiment calculates the dimensional difference between the design dimension and the measurement result, and determines the measurement result with respect to the design tolerance, for example, if the dimensional difference is larger than a predetermined threshold, etc. In this case, the measurement results are displayed in a predetermined format. This makes it possible to highlight and display only the results in which the measurement results deviate from the threshold, so that it is possible to easily recognize at a glance whether the results are acceptable or not.

(第1の実施形態の変形例)
上述の実施形態においては、記憶部109は、画像処理装置1に配置されているものとして説明したが、これに限定されない。例えば、記憶部109は、USBメモリ等の所定の記憶媒体や、外部のサーバであってもよい。画像処理装置1は、このような記憶媒体やサーバに記憶された設計データPIに基づいて合成画像SIを生成してもよい。
(Modified example of the first embodiment)
In the above-described embodiment, the storage unit 109 is described as being located in the image processing device 1, but the storage unit 109 is not limited thereto. For example, the storage unit 109 may be a predetermined storage medium such as a USB memory, or an external server. The image processing device 1 may generate the composite image SI based on the design data PI stored in such a storage medium or server.

上述の実施形態においては、記憶部109は、物品Mの設計図面等をスキャニングして得られた画像データを、設計データPIとして記憶すると説明したが、これに限定されない。例えば、記憶部109は、別途用意された画像データを設計データPIとして記憶してもよい。 In the above-described embodiment, it has been explained that the storage unit 109 stores image data obtained by scanning the design drawing of the article M, etc. as the design data PI, but the invention is not limited to this. For example, the storage unit 109 may store separately prepared image data as the design data PI.

上述の実施形態においては、物品Mの設計寸法、及び公差等の設計情報は、認識部186によって自動認識されるものとして説明したが、認識方法はこの方法に限定されず、任意でよい。例えば、操作パネル140を介し、作業者が手動で設計情報を入力してもよい。 In the embodiment described above, the design information such as the design dimensions and tolerances of the article M is described as being automatically recognized by the recognition unit 186, but the recognition method is not limited to this method and may be any arbitrary method. For example, an operator may manually input the design information via the operation panel 140.

また、上述の実施形態においては、結果表示領域SWを重畳する位置は、重畳領域決定部183によって自動で決定されるものとして説明したが、重畳位置の決定方法はこれに限定されず、任意でよい。例えば、操作パネル140を介し、作業者が手動で結果表示領域SWを重畳させる位置を指定してもよい。 Furthermore, in the above-described embodiment, the position at which the result display area SW is superimposed has been described as being automatically determined by the superimposition area determining unit 183, but the method for determining the superimposition position is not limited to this, and may be determined arbitrarily. good. For example, the operator may manually specify the position where the result display area SW is to be superimposed via the operation panel 140.

(第2の実施形態)
第1の実施形態では、物品Mの寸法の測定結果を、設計データPIに重畳した合成画像SIを生成する手法について説明したが、第2の実施形態では、物品の設計情報を、撮像データMIに重畳した新たな合成画像SIを出力している。
第2の実施形態では、このような合成画像SIの生成処理について説明する。
なお、上述の第1の実施形態と共通する部分については説明を適宜に省略する。第2の実施形態にかかる画像形成装置の外観構成、ハードウェア構成、および機能的構成については第1の実施形態と同様である。
(Second embodiment)
In the first embodiment, the method of generating the composite image SI in which the measurement results of the dimensions of the article M are superimposed on the design data PI has been described, but in the second embodiment, the design information of the article is superimposed on the imaging data MI. A new composite image SI superimposed on the image is output.
In the second embodiment, a process for generating such a composite image SI will be described.
Note that descriptions of parts common to the above-described first embodiment will be omitted as appropriate. The external configuration, hardware configuration, and functional configuration of the image forming apparatus according to the second embodiment are the same as those of the first embodiment.

図14は、第2の実施形態にかかる画像合成処理が実行される際の作業者Wと画像処理装置1の動作の流れを示す模式図である。 FIG. 14 is a schematic diagram showing the flow of operations of the worker W and the image processing device 1 when the image synthesis process according to the second embodiment is executed.

なお、図14のステップ131~139については、第1の実施形態における図12で説明したステップ111~119と同様であるため、まず図15に進み、ステップS140の画像合成処理について主に説明する。 Note that steps 131 to 139 in FIG. 14 are the same as steps 111 to 119 described in FIG. 12 in the first embodiment, so the process first proceeds to FIG. 15 and mainly describes the image synthesis process in step S140. .

図15において、図14のステップS140の画像生成処理について説明する。
図15は、第2の実施形態にかかる画像生成処理の一例を示すフローチャートである。
Referring to FIG. 15, the image generation process in step S140 in FIG. 14 will be described.
FIG. 15 is a flowchart illustrating an example of image generation processing according to the second embodiment.

特定部181は、ステップS114において記憶された設計データPIを読み込む(ステップS401)。 The specifying unit 181 reads the design data PI stored in step S114 (step S401).

特定部181は、位置合わせの処理を実行する(ステップS402)。 The specifying unit 181 executes alignment processing (step S402).

認識部186は、設計データPIに含まれる設計寸法、及び公差等の設計情報を認識する。(ステップS403)。 The recognition unit 186 recognizes design information such as design dimensions and tolerances included in the design data PI. (Step S403).

演算部184は、物品Mの各測定対象箇所の設計寸法と、測定寸法との寸法差や、算出した寸法差に基づく結果の判定等の演算を実行する。そして、フォーマット決定部185は、このような演算結果に基づいて、設計寸法表示領域PWに表示する設計寸法のフォーマットを決定する(ステップS404)。 The calculation unit 184 performs calculations such as determining the dimensional difference between the design dimension and the measured dimension of each measurement target location of the article M, and determining a result based on the calculated dimensional difference. Then, the format determining unit 185 determines the format of the design dimensions to be displayed in the design dimension display area PW based on such calculation results (step S404).

重畳領域決定部183は、撮像データMIのうち、設計寸法表示領域PWを重畳させる位置を決定する(ステップS405)。即ち、重畳領域決定部183は、設計寸法表示領域PWを、撮像データMIの任意の位置に重畳させることができる。 The superimposition region determination unit 183 determines a position in the image data MI at which the design dimension display region PW is to be superimposed (step S405). That is, the superimposition region determination unit 183 can superimpose the design dimension display region PW on any position of the image data MI.

以上のようにして、ステップS140の画像生成処理が終了する。このように合成画像生成部180の各部が機能を発揮することにより、設計寸法が表示される設計寸法表示領域PWを、撮像データMIに重畳させた第4画像を生成する。ここで、本実施形態における第4画像に相当する合成画像SIの一例を図16に示す。
図16に示すように、合成画像生成部180は、撮像データMIにおいて、例えば部位Aの測定結果を表示する結果表示領域SW-1の近傍に設計寸法表示領域PW-1を、また部位Cの測定結果を表示する結果表示領域SW-2の近傍に設計寸法表示領域PW-2を重畳した合成画像SIを生成する。
図14に戻り、処理は、図14のステップS140からステップS141に進む。
As described above, the image generation process in step S140 ends. As described above, each part of the composite image generation section 180 functions to generate a fourth image in which the design dimension display area PW in which the design dimensions are displayed is superimposed on the imaging data MI. Here, an example of the composite image SI corresponding to the fourth image in this embodiment is shown in FIG. 16.
As shown in FIG. 16, in the imaging data MI, the composite image generation unit 180 creates a design dimension display area PW-1 in the vicinity of the result display area SW-1 that displays the measurement results of the part A, and a design dimension display area PW-1 of the part C. A composite image SI is generated in which the design dimension display area PW-2 is superimposed in the vicinity of the result display area SW-2 that displays the measurement results.
Returning to FIG. 14, the process proceeds from step S140 in FIG. 14 to step S141.

出力部190は、第4画像としての合成画像SIを出力する制御を実行する。具体的には、出力部190は、物品Mの設計情報が、撮像データMIに重畳された合成画像SIを、操作パネル140、紙媒体、または電子データとして出力する制御を実行する(ステップS141)。 The output unit 190 executes control to output the composite image SI as the fourth image. Specifically, the output unit 190 executes control to output the composite image SI in which the design information of the article M is superimposed on the imaging data MI as the operation panel 140, paper medium, or electronic data (step S141). .

このようにして、作業者Wは、合成画像SIを出力結果として入手し、作業を終了する(ステップS142)。 In this way, the worker W obtains the composite image SI as an output result, and ends the work (step S142).

このように、第2の実施形態にかかる画像処理装置1によれば、物品Mの設計情報が読み込まれた設計データPIと、物品Mを読み取った撮像データMIとを組み合わせることにより、物品Mの設計寸法、及び公差等の設計情報が、撮像データMIに重畳された新たな合成画像SIを出力することができる。
そのため、例えば、測定結果と測定結果に対応する公差を並べて表示することができるので、物品Mの測定結果と、結果の合否を一目で容易に把握することができるようになる。従って、本実施形態によれば、作業者による作業の効率化を図ることができる。
As described above, according to the image processing device 1 according to the second embodiment, the design data PI in which the design information of the article M is read and the image data MI obtained by reading the article M are combined, thereby A new composite image SI in which design information such as design dimensions and tolerances is superimposed on the imaging data MI can be output.
Therefore, for example, the measurement results and the tolerances corresponding to the measurement results can be displayed side by side, making it possible to easily understand the measurement results of the article M and whether the results are acceptable or not at a glance. Therefore, according to this embodiment, it is possible to improve the efficiency of the work performed by the operator.

以上、本発明の実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and modifications, improvements, etc. are included within the scope of achieving the purpose of the present invention. be.

また、図3に示す機能ブロックは、例示に過ぎず特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が演算装置に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図3の例に限定されない。また、機能ブロックの存在場所も、図3に限定されず、任意でよい。また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。 Further, the functional blocks shown in FIG. 3 are merely examples and are not particularly limited. That is, it is sufficient that the arithmetic device has a function that can execute the series of processes described above as a whole, and what kind of functional blocks are used to realize this function is not particularly limited to the example shown in FIG. 3. Further, the location of the functional blocks is not limited to that shown in FIG. 3, and may be arbitrary. Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof.

1 画像処理装置
10 スキャナユニット
11 コンタクトガラス
12 キャリッジ
13 キャリッジホームポジション
20 プリンタユニット
30 ADF
180 合成画像生成部
181 特定部
182 余白検知部
183 重畳領域決定部
184 演算部
185 フォーマット決定部
186 認識部
190 出力部
1 Image processing device 10 Scanner unit 11 Contact glass 12 Carriage 13 Carriage home position 20 Printer unit 30 ADF
180 Composite image generation section 181 Specification section 182 Margin detection section 183 Superimposed area determination section 184 Arithmetic section 185 Format determination section 186 Recognition section 190 Output section

特開2012-32341号公報Japanese Patent Application Publication No. 2012-32341

Claims (5)

キャリッジが走査することによって物品の画像を読み取る読取手段と、
前記物品の図面及び設計寸法を少なくとも含む設計情報の第1画像を記憶する記憶手段と、
前記物品を読み取った第2画像を取得する画像取得手段と、
前記第2画像に基づいて、前記物品の寸法を測定する測定手段と、
測定された寸法が表示される結果表示領域を、前記第1画像に重畳させた第3画像を生成する合成画像生成手段と、
前記第3画像を出力する出力手段と、
を備える画像処理装置。
a reading means for reading an image of the article by scanning the carriage;
Storage means for storing a first image of design information including at least a drawing and design dimensions of the article;
image acquisition means for acquiring a second image of the article;
Measuring means for measuring the dimensions of the article based on the second image;
a composite image generating means for generating a third image in which a result display area in which the measured dimensions are displayed is superimposed on the first image;
output means for outputting the third image;
An image processing device comprising:
前記合成画像生成手段は、
前記第1画像から、前記設計情報を認識する認識手段と、
前記第1画像のうち、いずれの情報も表示されない余白領域を検知する検知手段と、
検知された前記余白領域において、前記結果表示領域を重畳させる位置を決定する表示位置決定手段と、
前記測定された寸法を表示する第2フォーマットを、前記設計寸法を表示する第1フォーマットに追従させるフォーマット決定手段
を備える、
請求項1に記載の画像処理装置。
The composite image generating means includes:
recognition means for recognizing the design information from the first image;
detection means for detecting a blank area in the first image in which no information is displayed;
Display position determining means for determining a position at which the result display area is superimposed in the detected blank area;
Format determining means for causing the second format for displaying the measured dimensions to follow the first format for displaying the design dimensions;
The image processing device according to claim 1.
前記合成画像生成手段は、前記設計寸法と、前記測定寸法との寸法差を計算する演算手段と、
をさらに備え、
前記フォーマット決定手段は、前記寸法差が、所定の閾値より大きい場合には、前記測定寸法を所定の第3フォーマットで表示する
請求項1または2に記載の画像処理装置。
The composite image generation means includes a calculation means for calculating a dimensional difference between the design dimension and the measured dimension;
Furthermore,
The image processing device according to claim 1 or 2, wherein the format determining means displays the measured dimension in a predetermined third format when the dimensional difference is larger than a predetermined threshold.
前記合成画像生成手段は、所定の記憶装置に記憶された、複数の前記第1画像から、前記第2画像に対応する前記第1画像を特定する特定手段、
をさらに備える、
請求項1~3のいずれか一つに記載の画像処理装置。
The composite image generation means is a specifying means for specifying the first image corresponding to the second image from the plurality of first images stored in a predetermined storage device;
further comprising;
The image processing device according to any one of claims 1 to 3.
前記合成画像生成手段は、
前記設計寸法が表示される設計寸法表示領域を、前記第2画像に重畳させた第4画像を生成し、
前記出力手段は、
前記第4画像を出力する、
請求項1に記載の画像処理装置。
The composite image generating means includes:
generating a fourth image in which a design dimension display area in which the design dimensions are displayed is superimposed on the second image;
The output means is
outputting the fourth image;
The image processing device according to claim 1.
JP2022046679A 2022-03-23 2022-03-23 Image processing device Pending JP2023140705A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022046679A JP2023140705A (en) 2022-03-23 2022-03-23 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022046679A JP2023140705A (en) 2022-03-23 2022-03-23 Image processing device

Publications (1)

Publication Number Publication Date
JP2023140705A true JP2023140705A (en) 2023-10-05

Family

ID=88205318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022046679A Pending JP2023140705A (en) 2022-03-23 2022-03-23 Image processing device

Country Status (1)

Country Link
JP (1) JP2023140705A (en)

Similar Documents

Publication Publication Date Title
JP4783254B2 (en) User interface device, image forming apparatus, image display method, and program causing computer to execute the method
US7889405B2 (en) Image processing apparatus and computer program product for overlaying and displaying images in a stack
JP5867216B2 (en) Image inspection method, image inspection apparatus, and control program for image inspection apparatus
JP4725657B2 (en) Image composition output program, image composition output device, and image composition output system
JP6849387B2 (en) Image processing device, image processing system, control method of image processing device, and program
JP4843532B2 (en) Display processing apparatus, display processing method, and display processing program
JP2008113075A (en) Image processor and control method thereof
US10313536B2 (en) Information processing system, electronic apparatus, information processing apparatus, information processing method, electronic apparatus processing method and non-transitory computer readable medium to confirm difference in meeting contents using sound information
US8606049B2 (en) Image management apparatus, image management method, and storage medium
US11606467B2 (en) Information processing apparatus, output method, and non-transitory computer-readable storage medium which highlights an abnormality before correction
US20130027756A1 (en) Image reading device
JP2015204075A (en) Electronic document creation system, and program
US11887389B2 (en) Inspection apparatus, inspection method, and non-transitory computer-readable storage medium
JP2013031155A (en) Image data distribution device, image data distribution system, and program
JP2023140705A (en) Image processing device
US20090310991A1 (en) Image forming apparatus, image forming system, computer readable medium storing program and image forming method
US10009508B2 (en) Image processing apparatus for reading check boxes
JP5825498B1 (en) Image processing apparatus, image forming apparatus, and program
JP2019192999A (en) Image forming apparatus and image forming program
US9641723B2 (en) Image processing apparatus with improved slide printout based on layout data
JP2016045564A (en) Image processor and program
JP2015123598A (en) Image formation device, control method for image formation, and program
KR20230015676A (en) Determining whether image includes sensitive information
JP2022065551A (en) Inspection device, image forming system, inspection method, and program
JP2016111614A (en) Image processing device and image processing method