JP2023140705A - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP2023140705A JP2023140705A JP2022046679A JP2022046679A JP2023140705A JP 2023140705 A JP2023140705 A JP 2023140705A JP 2022046679 A JP2022046679 A JP 2022046679A JP 2022046679 A JP2022046679 A JP 2022046679A JP 2023140705 A JP2023140705 A JP 2023140705A
- Authority
- JP
- Japan
- Prior art keywords
- image
- design
- article
- processing device
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 72
- 238000013461 design Methods 0.000 claims abstract description 122
- 239000002131 composite material Substances 0.000 claims abstract description 41
- 238000001514 detection method Methods 0.000 claims description 7
- 238000005259 measurement Methods 0.000 abstract description 65
- 238000000034 method Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 18
- 238000003384 imaging method Methods 0.000 description 12
- 239000011521 glass Substances 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 239000000203 mixture Substances 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003672 processing method Methods 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Abstract
Description
本発明は、画像処理装置に関する。 The present invention relates to an image processing device.
従来、測定対象物を撮像し、撮像された画像データに基づいて測定対象物の所定部分の寸法を計測する画像計測装置が広く用いられている。 2. Description of the Related Art Conventionally, image measurement apparatuses have been widely used that capture an image of a measurement target and measure the dimensions of a predetermined portion of the measurement target based on the captured image data.
このような画像計測装置において測定対象物の所定部分の寸法を測定する際には、作業者が、画像データに対して測定対象箇所や測定種別をそれぞれ指定する必要があった。そのため例えば、測定したい箇所が多数存在する場合、作業者は、多数の箇所をそれぞれ測定対象箇所として指定し、さらには測定対象箇所ごとに測定種別を指定しなければならず、作業が極めて煩雑になる。 When measuring the dimensions of a predetermined portion of an object to be measured using such an image measuring device, it is necessary for the operator to specify the location to be measured and the type of measurement to the image data. Therefore, for example, if there are many points to be measured, the worker must specify each of the many points as the measurement target point and also specify the measurement type for each measurement point, making the work extremely complicated. Become.
このため、従来技術では、部品の図面などの設計データに対して測定対象箇所や測定種別が自動生成される技術が採用されてきた。 For this reason, in the prior art, a technique has been adopted in which measurement target locations and measurement types are automatically generated from design data such as drawings of parts.
しかしながら、上述した従来技術が採用されたとしても、指定された測定対象箇所の測定結果がそれぞれ出力されるのみであり、作業者は、出力された測定結果と図面での指定箇所とを照合しなければならず、作業の煩雑さは改善されなかった。 However, even if the above-mentioned conventional technology is adopted, only the measurement results for each designated measurement target location are output, and the operator must compare the output measurement results with the designated locations on the drawing. However, the complexity of the work was not improved.
本発明は、上記に鑑みてなされたものであって、測定対象物の寸法の測定結果と設計データとを組み合わせて出力することで、作業者の作業の効率化を図ることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to improve the efficiency of a worker's work by combining and outputting a measurement result of the dimensions of an object to be measured and design data.
上述した課題を解決し、目的を達成するために、本発明は、キャリッジが走査することによって物品の画像を読み取る読取手段と、前記物品の図面及び設計寸法を少なくとも含む設計情報の第1画像を記憶する記憶手段と、前記物品を読み取った第2画像を取得する画像取得手段と、前記第2画像に基づいて、前記物品の寸法を測定する測定手段と、測定された寸法が表示される結果表示領域を、前記第1画像に重畳させた第3画像を生成する合成画像生成手段と、前記第3画像を出力する出力手段と、を備える。 In order to solve the above problems and achieve the objects, the present invention includes a reading means for reading an image of an article by scanning with a carriage, and a first image of design information including at least a drawing and design dimensions of the article. a storage means for storing, an image acquisition means for acquiring a second image of the article, a measuring means for measuring the dimensions of the article based on the second image, and a result for displaying the measured dimensions. The image forming apparatus includes a composite image generating means for generating a third image in which a display area is superimposed on the first image, and an output means for outputting the third image.
本発明によれば、測定対象物の寸法の測定結果と設計データとを組み合わせて出力することで、作業者の作業の効率化を図ることが可能となる、という効果を奏する。 According to the present invention, by outputting a combination of the measurement result of the dimensions of the object to be measured and the design data, it is possible to improve the efficiency of the worker's work.
(第1の実施形態)
以下に添付図面を参照して、画像処理装置の実施形態を詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の符号を付して、重複する説明は省略する。
(First embodiment)
Embodiments of an image processing device will be described in detail below with reference to the accompanying drawings. In order to facilitate understanding of the description, the same components in each drawing are denoted by the same reference numerals as much as possible, and redundant description will be omitted.
まず、図1を参照して、第1の実施形態にかかる画像処理装置1の構成の一例について説明する。
図1は、第1の実施形態にかかる画像処理装置の一例の外観構成を示す図である。
First, with reference to FIG. 1, an example of the configuration of an
FIG. 1 is a diagram showing the external configuration of an example of an image processing apparatus according to the first embodiment.
図1に示すように、画像処理装置1は、スキャナユニット10、プリンタユニット20、及びスキャナユニット10の上部にADF(Automatic Document Feeder)30を少なくとも備える。
As shown in FIG. 1, the
スキャナユニット10は、原稿や物品Mを載置するコンタクトガラス11と、原稿や物品Mをスキャンするキャリッジ12とを備える。
The
例えば、フラットベット方式で読取対象を読み取る場合、作業者は、ADF30を持ち上げてコンタクトガラス11を露出し、コンタクトガラス11上に読取対象(図1の例では物品M)を載置する。そして作業者は、スキャナユニット10の筐体に設けられている操作パネルを操作して開始ボタンを押下する。すると、キャリッジ12がスキャナユニット10内を走行することによりスキャニングが実行される。
このとき例えば、読取対象が図面や設計寸法等の設計情報を含んだ原稿である場合、作業者は、コンタクトガラス11上に原稿を直接載置し、ADF30を下げて原稿を押さえつけ、開始ボタンを押下する。すると、スキャニングが実行され、当該原稿の画像データが取得される。あるいは例えば、読取対象が厚みのある物品Mである場合、作業者は、コンタクトガラス11上に物品Mを直接載置した後、ADF30を下げずに開始ボタンを押下する。すると、スキャニングが実行され、物品Mの画像データが取得される。
For example, when reading an object using the flatbed method, the operator lifts the
At this time, for example, if the object to be read is a document containing design information such as a drawing or design dimensions, the operator places the document directly on the
プリンタユニット20は、画像形成処理を実行するための構成を備える。具体的には、プリンタユニット20は、スキャナユニット10で取得した画像データに所定の画像処理を行うことにより、記録紙に出力する処理を実行する。
The
ADF30は、トレイにセットした原稿をシートスルー方式で読み取らせるための自動原稿搬送装置である。ADF30を利用して読取対象を読み取る場合、キャリッジ12は、キャリッジホームポジション13に固定され、その状態で読取対象のスキャニングが実行される。
例えば、読取対象が厚みのない原稿等である場合、作業者は、ADF30の所定位置に原稿を複数枚載置し、開始ボタンを押下する。すると、原稿が搬送されることによりスキャニングが実行され、設計図面の画像データが取得される。
The ADF 30 is an automatic document feeder for reading documents set on a tray in a sheet-through method. When reading the object to be read using the
For example, when the object to be read is a thin document, the operator places a plurality of documents at a predetermined position on the
本実施形態にかかる画像処理装置1は、コピー機能、及びプリンタ機能の他、スキャニングして得られた2以上の画像データを組み合わせて画像合成処理を行う画像合成機能を少なくとも有する。
図2~図11を参照して、このような画像合成処理を実現するための画像処理装置1の詳細について説明する。
The
Details of the
図2は、本実施形態にかかる画像処理装置1のハードウェア構成図である。
FIG. 2 is a hardware configuration diagram of the
本実施形態の画像処理装置1は、図2に示すように、コントローラ110、近距離通信回路120、エンジン制御部130、操作パネル140、ネットワークI/F150を備えている。
これらのうち、コントローラ110は、コンピュータの主要部であるCPU101、システムメモリ(MEM-P)102、ノースブリッジ(NB)103、サウスブリッジ(SB)104、ASIC(Application Specific Integrated Circuit)106、記憶部であるローカルメモリ(MEM-C)107、HDDコントローラ108、及び、記憶部であるHD109を有し、NB103とASIC106との間をAGP(Accelerated Graphics Port)バス121で接続した構成となっている。
As shown in FIG. 2, the
Among these, the
これらのうち、CPU101は、画像処理装置1の全体制御を行う制御部である。例えば、CPU101は、後述する画像合成処理に関する制御プログラムを実行することにより、画像処理装置1全体の動作を統括的に制御する。
Among these, the CPU 101 is a control unit that performs overall control of the
NB103は、CPU101と、MEM-P102、SB104、及びAGPバス121とを接続するためのブリッジであり、MEM-P102に対する読み書きなどを制御するメモリコントローラと、PCI(Peripheral Component Interconnect)マスタ及びAGPターゲットとを有する。
The
MEM-P102は、コントローラ110の各機能を実現させるプログラムやデータの格納用メモリであるROM102a、プログラムやデータの展開、及びメモリ印刷時の描画用メモリなどとして用いるRAM102bとからなる。なお、RAM102bに記憶されているプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
The MEM-
SB104は、NB103とPCIデバイス、周辺デバイスとを接続するためのブリッジである。 The SB 104 is a bridge for connecting the NB 103 to PCI devices and peripheral devices.
ASIC106は、画像処理用のハードウェア要素を有する画像処理用途向けのIC(Integrated Circuit)であり、AGPバス121、PCIバス122、HDDコントローラ108及びMEM-C107をそれぞれ接続するブリッジの役割を有する。このASIC106は、PCIターゲット及びAGPマスタ、ASIC106の中核をなすアービタ(ARB)、MEM-C107を制御するメモリコントローラ、ハードウェアロジックなどにより画像データの回転などを行う複数のDMAC(Direct Memory Access Controller)、並びに、スキャナ部131及びプリンタ部132との間でPCIバス122を介したデータ転送を行うPCIユニットとからなる。なお、ASIC106には、USB(Universal Serial Bus)のインターフェースや、IEEE1394(Institute of Electrical and Electronics Engineers 1394)のインターフェースを接続するようにしてもよい。
The
MEM-C107は、コピー用画像バッファ及び符号バッファとして用いるローカルメモリである。 MEM-C 107 is a local memory used as a copy image buffer and code buffer.
HD109は、画像データの蓄積、印刷時に用いるフォントデータの蓄積、フォームの蓄積を行うためのストレージである。HD109は、CPU101の制御にしたがってHD109に対するデータの読出または書込を制御する。
The
AGPバス121は、グラフィック処理を高速化するために提案されたグラフィックスアクセラレータカード用のバスインタフェースであり、MEM-P102に高スループットで直接アクセスすることにより、グラフィックスアクセラレータカードを高速にすることができる。
The
また、近距離通信回路120には、近距離通信回路120aが備わっている。近距離通信回路120は、NFC、Bluetooth(登録商標)等の通信回路である。
Further, the short-
さらに、エンジン制御部130は、スキャナ部131及びプリンタ部132によって構成されている。また、操作パネル140は、現在の設定値や選択画面等を表示させ、操作者からの入力を受け付けるタッチパネル等のパネル表示部140a、並びに、濃度の設定条件などの画像形成に関する条件の設定値を受け付けるテンキー及びコピー開始指示を受け付けるスタートキー等からなる操作パネル140bを備えている。コントローラ110は、画像処理装置1全体の制御を行い、例えば、描画、通信、操作パネル140からの入力等を制御する。スキャナ部131またはプリンタ部132には、誤差拡散やガンマ変換などの画像処理部分が含まれている。
Further, the
なお、画像処理装置1は、操作パネル140のアプリケーション切り替えキーにより、ドキュメントボックス機能、コピー機能、プリンタ機能、及びファクシミリ機能を順次に切り替えて選択することが可能となる。ドキュメントボックス機能の選択時にはドキュメントボックスモードとなり、コピー機能の選択時にはコピーモードとなり、プリンタ機能の選択時にはプリンタモードとなり、ファクシミリモードの選択時にはファクシミリモードとなる。
Note that the
また、ネットワークI/F150は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。近距離通信回路120及びネットワークI/F150は、PCIバス122を介して、ASIC106に電気的に接続されている。
Further, the network I/
次に、画像処理装置1の機能的構成について説明する。
図3は、第1の実施形態にかかる画像処理装置1の機能的構成の一例を示す機能ブロック図である。
以下、図4~11を参照して、図3の機能的構成について説明する。
Next, the functional configuration of the
FIG. 3 is a functional block diagram showing an example of the functional configuration of the
The functional configuration of FIG. 3 will be described below with reference to FIGS. 4 to 11.
画像処理装置1は、図3に示すように、記憶部109、画像取得部160、測定部170、合成画像生成部180、及び出力部190を備える。
The
記憶部109は、物品Mの図面及び設計寸法を少なくとも含む設計情報の第1画像を記憶する。ここで、本実施形態における第1画像に相当する設計データPIの一例を図4に示す。具体的には、記憶部109は、物品Mの図面等をスキャニングして得られた画像データを、設計データPIとして記憶する。図4に示すように、設計データPIには、物品Mの図面、設計寸法及び公差等の情報が少なくとも含まれる。記憶部109は、複数の設計データPIを蓄積してもよい。
The
画像取得部160は、物品Mを読み取った第2画像を取得する。ここで、本実施形態における第2画像に相当する撮像データMIの一例を図5に示す。具体的には、画像取得部160は、物品Mをスキャニングして得られた画像データを、撮像データMIとして取得する。例えば図5に示すように、撮像データMIには、測定対象である物品Mの画像等の情報が少なくとも含まれる。 The image acquisition unit 160 acquires a second image obtained by reading the article M. Here, an example of the imaging data MI corresponding to the second image in this embodiment is shown in FIG. Specifically, the image acquisition unit 160 acquires image data obtained by scanning the article M as the imaged data MI. For example, as shown in FIG. 5, the imaging data MI includes at least information such as an image of the article M to be measured.
測定部170は、撮像データMIに基づいて、物品Mの寸法を測定する。具体的には、測定部170は、画像取得部160において取得された撮像データMIに対して所定の画像処理手法を実行することにより、物品Mの各測定対象箇所の寸法の測定を行う。そして、測定部170は、物品Mの各測定対象箇所と、測定結果とを対応づけて保持する。例えば図6に示すように、測定部170は、測定結果を表示する結果表示領域SWが表示された画像データを撮像データMIとして保持してもよい。
The measuring
合成画像生成部180は、測定された物品Mの寸法が表示される結果表示領域SWを、設計データPIに重畳させた第3画像を生成する。ここで、本実施形態における第3画像に相当する合成画像SIの一例を図10に示す。
合成画像生成部180は、以下に説明する各部がそれぞれ機能を発揮することにより、結果表示領域SWを、設計データPIに重畳させた合成画像SIを生成する。
The composite image generation unit 180 generates a third image in which a result display area SW in which the measured dimensions of the article M are displayed is superimposed on the design data PI. Here, an example of the composite image SI corresponding to the third image in this embodiment is shown in FIG.
The composite image generation unit 180 generates a composite image SI in which the result display area SW is superimposed on the design data PI by each unit that will be described below exerting its function.
図3に戻り説明を続ける。
合成画像生成部180は、特定部181、余白検知部182、重畳領域決定部183、演算部184、及びフォーマット決定部185、認識部186を備える。
Returning to FIG. 3, the explanation will be continued.
The composite image generating section 180 includes a specifying section 181 , a
特定部181は、記憶部109に記憶された設計データPIから、測定対象の物品Mに対応する設計データPIを特定する。即ち、特定部181は、記憶部109に記憶される設計データPIと、画像取得部160において取得された撮像データMIとに基づいて位置合わせの処理を実行することにより、撮像データMIに対応する設計データPI撮像データMIを特定する。
The identifying unit 181 identifies design data PI corresponding to the article M to be measured from the design data PI stored in the
ここで図7を参照して、位置合わせの処理について説明する。図7は、撮像データMI及び設計データPIの位置合わせの処理について説明する図である。 Here, the alignment process will be described with reference to FIG. 7. FIG. 7 is a diagram illustrating a process of positioning the imaging data MI and the design data PI.
初めに、特定部181は、撮像データMIに含まれる物品Mの画像N、及び設計データPIに含まれる物品Mの図面Zのそれぞれについて特徴量を解析する。その結果、特定部181は、図7に示すような特徴点SM-1~SM-2、及び特徴点SP-1~SP-2をそれぞれ抽出する。すると特定部181は、対応する特徴点(図7の例では、特徴点SM-1と特徴点SP-1、特徴点SM-2と特徴点SP-2)についてマッチングを行い、画像Nと図面Zが一致するか否かを判断する。
特定部181は、このような位置合わせの処理の結果、画像Nと図面Zが一致すると判断した場合、当該図面Zを含む設計データPIが、測定対象の物品Mに対応する設計データPIであると特定する。
First, the specifying unit 181 analyzes the feature amount of each of the image N of the article M included in the imaging data MI and the drawing Z of the article M included in the design data PI. As a result, the specifying unit 181 extracts feature points SM-1 to SM-2 and feature points SP-1 to SP-2 as shown in FIG. 7, respectively. Then, the specifying unit 181 performs matching on the corresponding feature points (in the example of FIG. 7, feature point SM-1 and feature point SP-1, feature point SM-2 and feature point SP-2), and matches the image N with the drawing. Determine whether Z matches.
If the identification unit 181 determines that the image N and the drawing Z match as a result of such positioning processing, it determines that the design data PI including the drawing Z is the design data PI corresponding to the article M to be measured. Specify.
認識部186は、設計データPIに基づいて設計情報を認識する。具体的には、認識部186は、特定部181において特定された設計データPIに対して所定の画像処理手法を実行することにより、設計データPIに含まれる設計情報を認識する。即ち例えば、図8に示すように、認識部186は、例えばOCRの処理を実行することにより、設計寸法表示領域PW-1に表示された部位Aの設計寸法(基準値)及び公差が18±0.2であること、また、設計寸法表示領域PW-2に表示された部位Bの設計寸法(基準値)及び公差が1±0.2であることを認識する。また、認識部186は、表示された設計寸法等の文字の色、太さ、大きさ等の書式を認識する。
認識部186は、認識した結果を、設計データPIの図面Zの各箇所と対応づけて保持する。
The recognition unit 186 recognizes design information based on the design data PI. Specifically, the recognition unit 186 recognizes the design information included in the design data PI by performing a predetermined image processing method on the design data PI identified by the identification unit 181. That is, for example, as shown in FIG. 8, the recognition unit 186 executes OCR processing to determine that the design dimension (reference value) and tolerance of the part A displayed in the design dimension display area PW-1 are 18±. 0.2, and that the design dimension (reference value) and tolerance of portion B displayed in the design dimension display area PW-2 are 1±0.2. Further, the recognition unit 186 recognizes the color, thickness, size, and other formats of characters such as the displayed design dimensions.
The recognition unit 186 stores the recognition results in association with each location in the drawing Z of the design data PI.
演算部184は、物品Mの各測定対象箇所の設計寸法と、測定寸法との寸法差を計算する。具体的には、演算部184は、認識部186において認識した設計情報と、測定部170において測定した物品Mの測定結果とを対応付け、寸法差を計算する。
The
余白検知部182は、設計データPIのうち、いずれの情報も表示されない余白領域を検知する。ここで本実施形態における、余白領域に相当する余白領域BPの一例を図9に示す。図9に示すように、余白検知部182は、特定部181において特定された設計データPIに対して所定の画像処理手法を実行し、いずれの情報も表示されない余白領域BP-1~BP-3(以下、「余白領域BP」と称する場合がある)を抽出する。
The
重畳領域決定部183は、余白領域BPにおいて、測定結果を表示する結果表示領域SWを重畳させる位置を決定する。即ち、重畳領域決定部183は、図9の設計情報PIにおける余白領域BP-1~BP-3の中で、測定部170において測定した物品Mの測定結果を表示させる位置を決定する。
具体的には例えば図10に示すように、重畳領域決定部183は、部位Aの測定結果を表示する結果表示領域SW-1(以下、「結果表示領域SW」と称する場合がある)を、余白検知部182において抽出した余白領域BP-1の一部に重畳することを決定する。
また例えば、重畳領域決定部183は、部位Bの測定結果を表示する結果表示領域SW-2を、余白検知部182において抽出した余白領域BP-2の一部に重畳することを決定する。
The superimposition
Specifically, as shown in FIG. 10, for example, the superimposition
Further, for example, the superimposing
フォーマット決定部185は、測定寸法を表示する第2フォーマットを、設計寸法を表示する第1フォーマットに追従させる。ここで本実施形態において、フォーマットとは、寸法を表示する文字の色、太さ、大きさ等の書体を少なくとも含む書式をいう。即ち、測定寸法を表示する第2フォーマットとは、測定結果を表示する書式をいい、設計寸法を表示する第1フォーマットとは、設計寸法を表示する書式をいう。
具体的には例えば図10に示すように、フォーマット決定部185は、結果表示領域SW-1~SW-2に表示される測定結果の書式を、認識部186において認識した書式(図10の例では、設計寸法表示領域PW-1~PW-2に表示される設計寸法及び公差の書体)と一致させるように制御する。
The format determining unit 185 causes the second format for displaying measured dimensions to follow the first format for displaying designed dimensions. Here, in the present embodiment, the format refers to a format that includes at least the font such as the color, thickness, and size of characters that display dimensions. That is, the second format for displaying measured dimensions is a format for displaying measurement results, and the first format for displaying design dimensions is a format for displaying design dimensions.
Specifically, as shown in FIG. 10, the format determining unit 185 converts the format of the measurement results displayed in the result display areas SW-1 to SW-2 into the format recognized by the recognition unit 186 (the example shown in FIG. 10). Then, control is performed to match the font of the design dimensions and tolerances displayed in the design dimension display areas PW-1 to PW-2.
また、フォーマット決定部185は、演算部184において算出した結果に基づいて、設計寸法と、測定寸法との寸法差が、所定の閾値より大きい場合には、測定寸法を、設計情報が示すフォーマットとは異なる第3フォーマットで表示するように制御する。具体的には、フォーマット決定部185は、設計寸法と、測定寸法との寸法差が、上記閾値としての公差より大きい場合には、結果表示領域SW-1に表示される測定寸法を、設計寸法表示領域PW-1に表示される設計情報とは異なる書式で表示するよう制御する。例えば図11の例では、部位Aに対応する設計寸法表示領域PW-1に表示される設計寸法及び公差が18±0.2であるのに対し、結果表示領域SW-1に表示される測定結果が18.5である。即ち、設計寸法と、測定寸法との寸法差が公差である0.2より大きいため、フォーマット決定部185は、結果表示領域SW-1に表示される測定結果を、太字かつ大きいフォントで表示するように制御する。
Further, based on the result calculated by the
以上、合成画像生成部180に備わる各部の機能について説明した。このように、合成画像生成部180の各部がそれぞれ機能を発揮することにより、結果表示領域SWが設計データPIに重畳された合成画像SIが生成されるようになる。 The functions of each section included in the composite image generation section 180 have been described above. In this way, each part of the composite image generation unit 180 performs its function, thereby generating a composite image SI in which the result display area SW is superimposed on the design data PI.
出力部190は、第3画像としての合成画像SIを出力する。即ち、出力部190は、合成画像生成部180において生成された合成画像SIを操作パネル140等へ出力する制御を実行する。 The output unit 190 outputs the composite image SI as the third image. That is, the output unit 190 executes control to output the composite image SI generated by the composite image generation unit 180 to the operation panel 140 or the like.
次に、このような画像合成処理を実行する際の作業の流れについて説明する。図12は、第1の実施形態にかかる画像合成処理が実行される際の作業者Wと画像処理装置1の動作の流れを示す模式図である。
Next, the flow of work when performing such image composition processing will be explained. FIG. 12 is a schematic diagram showing the flow of operations of the worker W and the
作業者Wは、画像処理装置1のコンタクトガラス11の上に、物品Mの設計情報を載置する(ステップS111)。具体的には例えば、作業者Wは、物品Mの設計情報が固着された図面などの媒体をコンタクトガラス11の上に載置する。作業者Wは、画像処理装置1の操作パネル140を操作して、スキャン開始を指示する(ステップS112)。
The worker W places the design information of the article M on the
画像処理装置1は、スキャンを開始する(ステップS113)。具体的には、画像処理装置1のキャリッジ12が走行することにより設計情報のスキャンが開始される。
The
画像処理装置1は、スキャンで読み取られた設計データPIを記憶部109に記憶する(ステップS114)。具体的には、記憶部109は、物品Mの設計情報がスキャニングされた結果得られる設計データPIを記憶する。
The
作業者Wは、画像処理装置1のコンタクトガラス11の上から媒体を除去し、代わりに測定対象の物品Mをコンタクトガラス11の上に載置する(ステップS115)。
The worker W removes the medium from above the
作業者Wは、操作パネル140を操作して、物品Mの測定部位を指定する(ステップS116)。そして、作業者Wは、操作パネル140を操作して物品Mの寸法の測定開始を指示する(ステップS117)。 The worker W operates the operation panel 140 to specify the measurement site of the article M (step S116). Then, the worker W operates the operation panel 140 and instructs to start measuring the dimensions of the article M (step S117).
画像処理装置1は、物品Mのスキャンを開始する(ステップS118)。即ち、画像処理装置1の画像取得部160は、物品Mがスキャニングされた結果得られた撮像データMIを取得する。
The
画像処理装置1は、物品Mの寸法を測定する(ステップS119)。即ち、画像処理装置1の測定部170は、画像取得部160において取得した撮像データMIに対して所定の画像処理手法を実行することにより、物品Mの測定対象箇所の寸法の測定を行う。測定部170は、各測定対象箇所と、測定結果とを対応づけて保持する。
The
次に、画像処理装置1は、記憶された設計データPIと、物品Mの測定結果とを組み合わせて出力するための処理を開始する(ステップS120)。このようなステップS120の処理を特に「画像生成処理」と呼ぶ。
次に、図13を参照して、画像生成処理の詳細を説明する。
図13は、第1の実施形態にかかる画像生成処理の一例を示すフローチャートである。
Next, the
Next, details of the image generation process will be explained with reference to FIG. 13.
FIG. 13 is a flowchart illustrating an example of image generation processing according to the first embodiment.
特定部181は、ステップS114において記憶された設計データPIを読み込む(ステップS201)。 The specifying unit 181 reads the design data PI stored in step S114 (step S201).
特定部181は、位置合わせの処理を実行する(ステップS202)。これにより、測定対象の物品Mに対応する設計データPIの特定がなされると共に、設計データPIのうち、結果表示領域SWを重畳するための余白領域BPの検知が可能になる。 The specifying unit 181 executes alignment processing (step S202). Thereby, the design data PI corresponding to the article M to be measured is specified, and the blank area BP for superimposing the result display area SW in the design data PI can be detected.
余白検知部182は、抽出された設計データPIに基づいて、余白領域BPを検知する。具体的には、余白検知部182は、設計データPIのうち、いずれの情報も表示されない余白領域BPを抽出する(ステップS203)。
The
演算部184は、物品Mの各測定対象箇所の設計寸法と、測定寸法との寸法差や、算出した寸法差に基づく測定結果の判定等の演算を実行する(ステップS204)。これにより、設計寸法と測定寸法との差が自動演算されるため、容易に結果を認識できるようになる。
The
フォーマット決定部185は、結果表示領域SWに表示する測定結果のフォーマットを決定する(ステップS205)。即ち、フォーマット決定部185は、結果表示領域SWに表示される測定結果のフォーマットを、設計寸法を示すフォーマットに追従させたり、任意のフォーマットに決定する。 The format determining unit 185 determines the format of the measurement results to be displayed in the result display area SW (step S205). That is, the format determining unit 185 determines the format of the measurement results displayed in the result display area SW to follow the format indicating the design dimensions, or to an arbitrary format.
重畳領域決定部183は、抽出された余白領域BPにおいて、結果表示領域SWを重畳させる位置を決定する(ステップS206)。
The superimposition
以上のようにして、ステップS120の画像生成処理が終了する。このように、合成画像生成部180の各部が機能を発揮することにより、測定された物品Mの寸法が表示される結果表示領域SWが、設計データPIに重畳された合成画像SIが生成される。
図12に戻り、処理は、図12のステップS120からステップS121に進む。
As described above, the image generation process in step S120 ends. In this manner, each part of the composite image generation unit 180 functions to generate a composite image SI in which the result display area SW, in which the measured dimensions of the article M are displayed, is superimposed on the design data PI. .
Returning to FIG. 12, the process proceeds from step S120 in FIG. 12 to step S121.
出力部190は、合成画像SIを出力する制御を実行する。具体的には、出力部190は、物品Mの寸法の測定結果が、設計データPIに重畳された合成画像SIを、操作パネル140、紙媒体、または電子データとして出力する制御を実行する(ステップS121)。 The output unit 190 executes control to output the composite image SI. Specifically, the output unit 190 executes control to output a composite image SI in which the measurement results of the dimensions of the article M are superimposed on the design data PI to the operation panel 140, a paper medium, or as electronic data (step S121).
このようにして、作業者Wは、合成画像SIを出力結果として入手し、作業を終了する(ステップS122)。
以上、第1の実施形態にかかる画像合成処理が実行される際の作業者Wと画像処理装置1の動作の流れについて説明した。
In this way, the worker W obtains the composite image SI as an output result, and ends the work (step S122).
The flow of operations of the worker W and the
このように、第1の実施形態にかかる画像処理装置1は、物品Mの設計情報が読み込まれた設計データPIと、物品Mを読み取った撮像データMIとを組み合わせることにより、物品Mの寸法の測定結果が設計データPIに重畳された新たな合成画像SIを出力することができる。これにより、測定結果と設計情報とを並べて表示して出力することができるため、結果が見やすくなり、設計情報に対する測定結果の合否を一目で把握することができるようになる。従って、本実施形態によれば、作業者による作業の効率化を図ることができる。
In this way, the
また、第1の実施形態にかかる画像処理装置1は、設計データPIのうちいずれの情報も表示されない余白領域BPに物品Mの寸法の測定結果を表示する結果表示領域SWを重畳させることができる。これにより、設計寸法表示領域Pと結果表示領域SWとが重なりあうことを回避することができる。また、作業者が手動で調整しなくても自動で結果表示領域SWの重畳場所が決定されるため、作業の効率が改善されると共に、例えば、設計寸法表示領域PWに対する結果表示領域SWの位置関係を一定に保つことができる。
Furthermore, the
また、第1の実施形態にかかる画像処理装置1は、測定結果を表示するフォーマットを、設計情報のフォーマットに一致させることができる。そのため、作業者が手動で設定しなくても、測定結果と設計情報とを同一の書式で並べて表示して出力することができるため、測定結果を容易に確認することができるようになる。
Furthermore, the
さらに、第1の実施形態にかかる画像処理装置1は、設計寸法と、測定結果との寸法差や、設計公差に対する測定結果の判定を演算し、例えば、寸法差が所定の閾値より大きい等の場合には、測定結果を所定のフォーマットで表示する。これにより、測定結果が閾値を逸脱した結果のみを強調して表示する等が可能になるため、一目で容易に結果の合否を認識できるようになる。
Furthermore, the
(第1の実施形態の変形例)
上述の実施形態においては、記憶部109は、画像処理装置1に配置されているものとして説明したが、これに限定されない。例えば、記憶部109は、USBメモリ等の所定の記憶媒体や、外部のサーバであってもよい。画像処理装置1は、このような記憶媒体やサーバに記憶された設計データPIに基づいて合成画像SIを生成してもよい。
(Modified example of the first embodiment)
In the above-described embodiment, the
上述の実施形態においては、記憶部109は、物品Mの設計図面等をスキャニングして得られた画像データを、設計データPIとして記憶すると説明したが、これに限定されない。例えば、記憶部109は、別途用意された画像データを設計データPIとして記憶してもよい。
In the above-described embodiment, it has been explained that the
上述の実施形態においては、物品Mの設計寸法、及び公差等の設計情報は、認識部186によって自動認識されるものとして説明したが、認識方法はこの方法に限定されず、任意でよい。例えば、操作パネル140を介し、作業者が手動で設計情報を入力してもよい。 In the embodiment described above, the design information such as the design dimensions and tolerances of the article M is described as being automatically recognized by the recognition unit 186, but the recognition method is not limited to this method and may be any arbitrary method. For example, an operator may manually input the design information via the operation panel 140.
また、上述の実施形態においては、結果表示領域SWを重畳する位置は、重畳領域決定部183によって自動で決定されるものとして説明したが、重畳位置の決定方法はこれに限定されず、任意でよい。例えば、操作パネル140を介し、作業者が手動で結果表示領域SWを重畳させる位置を指定してもよい。
Furthermore, in the above-described embodiment, the position at which the result display area SW is superimposed has been described as being automatically determined by the superimposition
(第2の実施形態)
第1の実施形態では、物品Mの寸法の測定結果を、設計データPIに重畳した合成画像SIを生成する手法について説明したが、第2の実施形態では、物品の設計情報を、撮像データMIに重畳した新たな合成画像SIを出力している。
第2の実施形態では、このような合成画像SIの生成処理について説明する。
なお、上述の第1の実施形態と共通する部分については説明を適宜に省略する。第2の実施形態にかかる画像形成装置の外観構成、ハードウェア構成、および機能的構成については第1の実施形態と同様である。
(Second embodiment)
In the first embodiment, the method of generating the composite image SI in which the measurement results of the dimensions of the article M are superimposed on the design data PI has been described, but in the second embodiment, the design information of the article is superimposed on the imaging data MI. A new composite image SI superimposed on the image is output.
In the second embodiment, a process for generating such a composite image SI will be described.
Note that descriptions of parts common to the above-described first embodiment will be omitted as appropriate. The external configuration, hardware configuration, and functional configuration of the image forming apparatus according to the second embodiment are the same as those of the first embodiment.
図14は、第2の実施形態にかかる画像合成処理が実行される際の作業者Wと画像処理装置1の動作の流れを示す模式図である。
FIG. 14 is a schematic diagram showing the flow of operations of the worker W and the
なお、図14のステップ131~139については、第1の実施形態における図12で説明したステップ111~119と同様であるため、まず図15に進み、ステップS140の画像合成処理について主に説明する。 Note that steps 131 to 139 in FIG. 14 are the same as steps 111 to 119 described in FIG. 12 in the first embodiment, so the process first proceeds to FIG. 15 and mainly describes the image synthesis process in step S140. .
図15において、図14のステップS140の画像生成処理について説明する。
図15は、第2の実施形態にかかる画像生成処理の一例を示すフローチャートである。
Referring to FIG. 15, the image generation process in step S140 in FIG. 14 will be described.
FIG. 15 is a flowchart illustrating an example of image generation processing according to the second embodiment.
特定部181は、ステップS114において記憶された設計データPIを読み込む(ステップS401)。 The specifying unit 181 reads the design data PI stored in step S114 (step S401).
特定部181は、位置合わせの処理を実行する(ステップS402)。 The specifying unit 181 executes alignment processing (step S402).
認識部186は、設計データPIに含まれる設計寸法、及び公差等の設計情報を認識する。(ステップS403)。 The recognition unit 186 recognizes design information such as design dimensions and tolerances included in the design data PI. (Step S403).
演算部184は、物品Mの各測定対象箇所の設計寸法と、測定寸法との寸法差や、算出した寸法差に基づく結果の判定等の演算を実行する。そして、フォーマット決定部185は、このような演算結果に基づいて、設計寸法表示領域PWに表示する設計寸法のフォーマットを決定する(ステップS404)。
The
重畳領域決定部183は、撮像データMIのうち、設計寸法表示領域PWを重畳させる位置を決定する(ステップS405)。即ち、重畳領域決定部183は、設計寸法表示領域PWを、撮像データMIの任意の位置に重畳させることができる。
The superimposition
以上のようにして、ステップS140の画像生成処理が終了する。このように合成画像生成部180の各部が機能を発揮することにより、設計寸法が表示される設計寸法表示領域PWを、撮像データMIに重畳させた第4画像を生成する。ここで、本実施形態における第4画像に相当する合成画像SIの一例を図16に示す。
図16に示すように、合成画像生成部180は、撮像データMIにおいて、例えば部位Aの測定結果を表示する結果表示領域SW-1の近傍に設計寸法表示領域PW-1を、また部位Cの測定結果を表示する結果表示領域SW-2の近傍に設計寸法表示領域PW-2を重畳した合成画像SIを生成する。
図14に戻り、処理は、図14のステップS140からステップS141に進む。
As described above, the image generation process in step S140 ends. As described above, each part of the composite image generation section 180 functions to generate a fourth image in which the design dimension display area PW in which the design dimensions are displayed is superimposed on the imaging data MI. Here, an example of the composite image SI corresponding to the fourth image in this embodiment is shown in FIG. 16.
As shown in FIG. 16, in the imaging data MI, the composite image generation unit 180 creates a design dimension display area PW-1 in the vicinity of the result display area SW-1 that displays the measurement results of the part A, and a design dimension display area PW-1 of the part C. A composite image SI is generated in which the design dimension display area PW-2 is superimposed in the vicinity of the result display area SW-2 that displays the measurement results.
Returning to FIG. 14, the process proceeds from step S140 in FIG. 14 to step S141.
出力部190は、第4画像としての合成画像SIを出力する制御を実行する。具体的には、出力部190は、物品Mの設計情報が、撮像データMIに重畳された合成画像SIを、操作パネル140、紙媒体、または電子データとして出力する制御を実行する(ステップS141)。 The output unit 190 executes control to output the composite image SI as the fourth image. Specifically, the output unit 190 executes control to output the composite image SI in which the design information of the article M is superimposed on the imaging data MI as the operation panel 140, paper medium, or electronic data (step S141). .
このようにして、作業者Wは、合成画像SIを出力結果として入手し、作業を終了する(ステップS142)。 In this way, the worker W obtains the composite image SI as an output result, and ends the work (step S142).
このように、第2の実施形態にかかる画像処理装置1によれば、物品Mの設計情報が読み込まれた設計データPIと、物品Mを読み取った撮像データMIとを組み合わせることにより、物品Mの設計寸法、及び公差等の設計情報が、撮像データMIに重畳された新たな合成画像SIを出力することができる。
そのため、例えば、測定結果と測定結果に対応する公差を並べて表示することができるので、物品Mの測定結果と、結果の合否を一目で容易に把握することができるようになる。従って、本実施形態によれば、作業者による作業の効率化を図ることができる。
As described above, according to the
Therefore, for example, the measurement results and the tolerances corresponding to the measurement results can be displayed side by side, making it possible to easily understand the measurement results of the article M and whether the results are acceptable or not at a glance. Therefore, according to this embodiment, it is possible to improve the efficiency of the work performed by the operator.
以上、本発明の実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and modifications, improvements, etc. are included within the scope of achieving the purpose of the present invention. be.
また、図3に示す機能ブロックは、例示に過ぎず特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が演算装置に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図3の例に限定されない。また、機能ブロックの存在場所も、図3に限定されず、任意でよい。また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。 Further, the functional blocks shown in FIG. 3 are merely examples and are not particularly limited. That is, it is sufficient that the arithmetic device has a function that can execute the series of processes described above as a whole, and what kind of functional blocks are used to realize this function is not particularly limited to the example shown in FIG. 3. Further, the location of the functional blocks is not limited to that shown in FIG. 3, and may be arbitrary. Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof.
1 画像処理装置
10 スキャナユニット
11 コンタクトガラス
12 キャリッジ
13 キャリッジホームポジション
20 プリンタユニット
30 ADF
180 合成画像生成部
181 特定部
182 余白検知部
183 重畳領域決定部
184 演算部
185 フォーマット決定部
186 認識部
190 出力部
1
180 Composite image generation section 181
Claims (5)
前記物品の図面及び設計寸法を少なくとも含む設計情報の第1画像を記憶する記憶手段と、
前記物品を読み取った第2画像を取得する画像取得手段と、
前記第2画像に基づいて、前記物品の寸法を測定する測定手段と、
測定された寸法が表示される結果表示領域を、前記第1画像に重畳させた第3画像を生成する合成画像生成手段と、
前記第3画像を出力する出力手段と、
を備える画像処理装置。 a reading means for reading an image of the article by scanning the carriage;
Storage means for storing a first image of design information including at least a drawing and design dimensions of the article;
image acquisition means for acquiring a second image of the article;
Measuring means for measuring the dimensions of the article based on the second image;
a composite image generating means for generating a third image in which a result display area in which the measured dimensions are displayed is superimposed on the first image;
output means for outputting the third image;
An image processing device comprising:
前記第1画像から、前記設計情報を認識する認識手段と、
前記第1画像のうち、いずれの情報も表示されない余白領域を検知する検知手段と、
検知された前記余白領域において、前記結果表示領域を重畳させる位置を決定する表示位置決定手段と、
前記測定された寸法を表示する第2フォーマットを、前記設計寸法を表示する第1フォーマットに追従させるフォーマット決定手段
を備える、
請求項1に記載の画像処理装置。 The composite image generating means includes:
recognition means for recognizing the design information from the first image;
detection means for detecting a blank area in the first image in which no information is displayed;
Display position determining means for determining a position at which the result display area is superimposed in the detected blank area;
Format determining means for causing the second format for displaying the measured dimensions to follow the first format for displaying the design dimensions;
The image processing device according to claim 1.
をさらに備え、
前記フォーマット決定手段は、前記寸法差が、所定の閾値より大きい場合には、前記測定寸法を所定の第3フォーマットで表示する
請求項1または2に記載の画像処理装置。 The composite image generation means includes a calculation means for calculating a dimensional difference between the design dimension and the measured dimension;
Furthermore,
The image processing device according to claim 1 or 2, wherein the format determining means displays the measured dimension in a predetermined third format when the dimensional difference is larger than a predetermined threshold.
をさらに備える、
請求項1~3のいずれか一つに記載の画像処理装置。 The composite image generation means is a specifying means for specifying the first image corresponding to the second image from the plurality of first images stored in a predetermined storage device;
further comprising;
The image processing device according to any one of claims 1 to 3.
前記設計寸法が表示される設計寸法表示領域を、前記第2画像に重畳させた第4画像を生成し、
前記出力手段は、
前記第4画像を出力する、
請求項1に記載の画像処理装置。 The composite image generating means includes:
generating a fourth image in which a design dimension display area in which the design dimensions are displayed is superimposed on the second image;
The output means is
outputting the fourth image;
The image processing device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022046679A JP2023140705A (en) | 2022-03-23 | 2022-03-23 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022046679A JP2023140705A (en) | 2022-03-23 | 2022-03-23 | Image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023140705A true JP2023140705A (en) | 2023-10-05 |
Family
ID=88205318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022046679A Pending JP2023140705A (en) | 2022-03-23 | 2022-03-23 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023140705A (en) |
-
2022
- 2022-03-23 JP JP2022046679A patent/JP2023140705A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4783254B2 (en) | User interface device, image forming apparatus, image display method, and program causing computer to execute the method | |
US7889405B2 (en) | Image processing apparatus and computer program product for overlaying and displaying images in a stack | |
JP5867216B2 (en) | Image inspection method, image inspection apparatus, and control program for image inspection apparatus | |
JP4725657B2 (en) | Image composition output program, image composition output device, and image composition output system | |
JP6849387B2 (en) | Image processing device, image processing system, control method of image processing device, and program | |
JP4843532B2 (en) | Display processing apparatus, display processing method, and display processing program | |
JP2008113075A (en) | Image processor and control method thereof | |
US10313536B2 (en) | Information processing system, electronic apparatus, information processing apparatus, information processing method, electronic apparatus processing method and non-transitory computer readable medium to confirm difference in meeting contents using sound information | |
US8606049B2 (en) | Image management apparatus, image management method, and storage medium | |
US11606467B2 (en) | Information processing apparatus, output method, and non-transitory computer-readable storage medium which highlights an abnormality before correction | |
US20130027756A1 (en) | Image reading device | |
JP2015204075A (en) | Electronic document creation system, and program | |
US11887389B2 (en) | Inspection apparatus, inspection method, and non-transitory computer-readable storage medium | |
JP2013031155A (en) | Image data distribution device, image data distribution system, and program | |
JP2023140705A (en) | Image processing device | |
US20090310991A1 (en) | Image forming apparatus, image forming system, computer readable medium storing program and image forming method | |
US10009508B2 (en) | Image processing apparatus for reading check boxes | |
JP5825498B1 (en) | Image processing apparatus, image forming apparatus, and program | |
JP2019192999A (en) | Image forming apparatus and image forming program | |
US9641723B2 (en) | Image processing apparatus with improved slide printout based on layout data | |
JP2016045564A (en) | Image processor and program | |
JP2015123598A (en) | Image formation device, control method for image formation, and program | |
KR20230015676A (en) | Determining whether image includes sensitive information | |
JP2022065551A (en) | Inspection device, image forming system, inspection method, and program | |
JP2016111614A (en) | Image processing device and image processing method |