JP2022052217A - 画像処理装置、画像処理方法及び画像処理システム - Google Patents

画像処理装置、画像処理方法及び画像処理システム Download PDF

Info

Publication number
JP2022052217A
JP2022052217A JP2020158466A JP2020158466A JP2022052217A JP 2022052217 A JP2022052217 A JP 2022052217A JP 2020158466 A JP2020158466 A JP 2020158466A JP 2020158466 A JP2020158466 A JP 2020158466A JP 2022052217 A JP2022052217 A JP 2022052217A
Authority
JP
Japan
Prior art keywords
image
target object
image processing
position information
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020158466A
Other languages
English (en)
Inventor
一智 石
Kazutomo Ishi
達也 矢野
Tatsuya Yano
哲也 小川
Tetsuya Ogawa
仁 渋谷
Hitoshi Shibuya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Document Solutions Co Ltd
Original Assignee
Hitachi Document Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Document Solutions Co Ltd filed Critical Hitachi Document Solutions Co Ltd
Priority to JP2020158466A priority Critical patent/JP2022052217A/ja
Publication of JP2022052217A publication Critical patent/JP2022052217A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Figure 2022052217000001
【課題】画像に対して記載された対象オブジェクトを読み取り、当該対象オブジェクトを地図や設計図等の別の図面において対応する位置に重畳すること。
【解決手段】所定の入力画像に対して記載された対象オブジェクトを読み取るオブジェクト読取部(17)と、入力画像における所定の箇所の地理的位置を示す基準位置情報を格納する位置情報管理テーブル(22)と、基準位置情報に対応する図面を取得する図面画像取得部(15)と、入力画像における所定の箇所の基準位置情報に基づいて、対象オブジェクトの位置を示すオブジェクト位置情報を判定する図面オブジェクト制御部(18)と、取得した図面において、オブジェクト位置情報に対応する位置に、対象オブジェクトを重畳する出力制御部(19)と、対象オブジェクトを重畳した図面を出力する出力部(11)とを含む画像処理装置。
【選択図】図2

Description

本開示は、画像処理装置、画像処理方法及び画像処理システムに関する。
近年、IT化の進展に伴い、極めて大量のデータが蓄積されている。そうした中、集積された画像データを活用する様々な方策が検討されている。特に、写真、動画、画像等の映像コンテンツが増えるにつれ、その映像における物体が地理的にどこに存在しているかを判定する手段が望まれている。
従来では、画像における物体の地理的存在位置を推定するいくつかの提案がなされている。
例えば、特開2018-28607号公報(特許文献1)には、「撮影画像と、電子地図等の広域画像との向きの関係が直感的に把握できる技術として、航空機から撮影した周囲の縁の形状が矩形の写真画像および前記写真画像の撮影位置を示す矩形のマークの地図画像上への表示と、前記写真画像の向きと前記マークの向きの関係を特定する強調表示とを行う表示制御部を備えることを特徴とする」技術が記載されている。
特開2018-28607号公報
特許文献1は、撮影画像と、電子地図等の広域画像との向きの関係が直感的に把握できるための技術である。特許文献1によれば、地形等の上空画像と、当該地形に対応する電子地図との対応関係を判定することができる。
しかし、特許文献1に記載の手法では、撮影画像上で特定した物体や地点に対して記載された「対象オブジェクト」が、撮影画像とは異なる別の図面(地図、設計図)においてどこに存在するかを判定することは想定されておらず、当該対象オブジェクトに対応した、別の図面上における画像上の地理的存在位置を把握することが困難である。
そこで、本開示は、画像上で特定された物体や地点に対して記載された対象オブジェクトを読み取り、当該対象オブジェクトを地図や設計図等の別の図面において重畳することにより、この対象オブジェクトの当該図面における存在位置を容易に把握するための画像処理手段を提供することを目的とする。
上記の課題を解決するために、代表的な本開示の画像処理装置の一つは、対象オブジェクトが記載されている入力画像に画像処理を施し、前記対象オブジェクトを読み取るオブジェクト読取部と、前記入力画像における所定の箇所の地理的位置を示す基準位置情報を格納する位置情報管理テーブルと、前記入力画像における前記所定の箇所の前記基準位置情報に対応する図面を取得する図面画像取得部と、前記入力画像における前記所定の箇所の前記基準位置情報に基づいて、前記対象オブジェクトの地理的位置を示すオブジェクト位置情報を判定する図面オブジェクト制御部と、取得した前記図面において、前記対象オブジェクトの前記オブジェクト位置情報に対応する位置に、前記対象オブジェクトを図面用オブジェクトとして重畳する出力制御部と、前記図面用オブジェクトが重畳された前記図面をオブジェクト重畳図面として出力する出力部とを含むことを特徴とする画像処理装置。
本開示によれば、画像上で特定された物体や地点に対して記載された対象オブジェクトを読み取り、当該対象オブジェクトを地図や設計図等の別の図面において重畳することにより、この対象オブジェクトの当該図面における存在位置を容易に把握するための画像処理手段を提供することができる。
上記した以外の課題、構成、効果は、以下の実施形態の説明により明らかにされる。
図1は、本開示の実施例を実施するためのコンピュータシステムを示す図である。 図2は、本開示の実施例1に係る、画像に対して記載された対象オブジェクトを図面に重畳し、表示する流れの一例を示す図である。 図3は、本開示の実施例1に係る画像処理システムの機能的構成の一例を示す図である。 図4は、本開示の実施例1に係る画像処理方法の一例を示すフローチャートである。 図5は、本開示の実施例1に係る画像処理方法における、基準記号を読み取るステップの流れの一例を示すフローチャートである。 図6は、本開示の実施例1に係る画像処理方法における、基準記号を読み取るステップの具体例を示す図である。 図7は、本開示の実施例1に係る位置情報管理テーブルの一例を示す図である。 図8は、本開示の実施例1に係る画像処理方法における、図面を取得するステップの流れの一例を示す図である。 図9は、本開示の実施例1に係る画像処理方法における、図面を取得するステップの具体例を示す図である。 図10は、本開示の実施例1に係る画像処理方法における、対象オブジェクトを読み取るステップの流れの一例を示すフローチャートである。 図11は、本開示の実施例1に係る画像処理方法における、対象オブジェクトを読み取るステップの流れの別の一例を示すフローチャートである。 図12は、本開示の実施例1に係る画像処理方法における、オブジェクト重畳図面を出力するステップの流れの一例を示すフローチャートである。 図13は、本開示の実施例2に係る対象オブジェクトを図面に重畳する別の一例を示す図である。
以下、図面を参照して、本開示の実施例について説明する。なお、この実施例により本開示が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
(本開示の概要)
上述したように、写真、動画、画像等の映像コンテンツが増えるにつれ、その映像における物体が地理的にどこに存在しているかを判定する手段が望まれている。
そこで、画像における物体や地点に対して記載された対象オブジェクトを読み取り、当該対象オブジェクトを地図や設計図等の別の図面において重畳することとすれば、この対象オブジェクトの当該図面における存在位置を容易に把握するための画像処理手段を提供することができる。
一例として、ユーザは、紙媒体の写真において特定の物体(建物、渡橋等)や地点が、地図や設計図等の別の図面においてどこに存在しているかを知りたいとする。この場合、ユーザは、紙媒体の写真において、対象の物体や地点を特定するために手書きで対象オブジェクトをペンや鉛筆等で記載した後、当該対象オブジェクトが記載された写真を本開示の実施例に係る画像処理装置に入力すると、本開示の実施例に係る画像処理装置は、ユーザによって記載された対象オブジェクトを、地図や設計図等の別の所定の図面において、対応する地理的位置に重畳した図面を生成し、出力する。
これにより、ユーザは、写真上で特定した物体や地点を、別の地図や設計図等の図面においてどこに存在するかを容易に把握することが可能となり、写真と図面とを自ら照合する手間や労力を抑えることができる。
以下、図1を参照して、本開示の実施例を実施するためのコンピュータシステムについて説明する。
まず、図1を参照して、本開示の実施例を実施するためのコンピュータシステム300について説明する。本明細書で開示される様々な実施例の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム300の主要コンポーネントは、1つ以上のプロセッサ302、メモリ304、端末インターフェース312、ストレージインタフェース314、I/O(入出力)デバイスインタフェース316、及びネットワークインターフェース318を含む。これらのコンポーネントは、メモリバス306、I/Oバス308、バスインターフェースユニット309、及びI/Oバスインターフェースユニット310を介して、相互的に接続されてもよい。
コンピュータシステム300は、プロセッサ302と総称される1つ又は複数の汎用プログラマブル中央処理装置(CPU)302A及び302Bを含んでもよい。ある実施例では、コンピュータシステム300は複数のプロセッサを備えてもよく、また別の実施例では、コンピュータシステム300は単一のCPUシステムであってもよい。各プロセッサ302は、メモリ304に格納された命令を実行し、オンボードキャッシュを含んでもよい。
ある実施例では、メモリ304は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。メモリ304は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、画像処理アプリケーション350を格納していてもよい。ある実施例では、画像処理アプリケーション350は、後述する機能をプロセッサ302上で実行する命令又は記述を含んでもよい。
ある実施例では、画像処理アプリケーション350は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施例では、画像処理アプリケーション350は、命令又は記述以外のデータを含んでもよい。ある実施例では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット309、プロセッサ302、またはコンピュータシステム300の他のハードウェアと直接通信するように提供されてもよい。
コンピュータシステム300は、プロセッサ302、メモリ304、表示システム324、及びI/Oバスインターフェースユニット310間の通信を行うバスインターフェースユニット309を含んでもよい。I/Oバスインターフェースユニット310は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス308と連結していてもよい。I/Oバスインターフェースユニット310は、I/Oバス308を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインタフェースユニット312,314,316、及び318と通信してもよい。
表示システム324は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置326に提供することができる。また、コンピュータシステム300は、データを収集し、プロセッサ302に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。
例えば、コンピュータシステム300は、心拍数データやストレスレベルデータ等を収集するバイオメトリックセンサ、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示システム324は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置326に接続されてもよい。
I/Oインタフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インタフェースユニット312は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス320の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス320及びコンピュータシステム300に対して入力データや指示を入力し、コンピュータシステム300からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス320を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。
ストレージインタフェース314は、1つ又は複数のディスクドライブや直接アクセスストレージ装置322(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施例では、ストレージ装置322は、任意の二次記憶装置として実装されてもよい。メモリ304の内容は、ストレージ装置322に記憶され、必要に応じてストレージ装置322から読み出されてもよい。I/Oデバイスインタフェース316は、プリンタ、ファックスマシン等の他のI/Oデバイスに対するインターフェースを提供してもよい。ネットワークインターフェース318は、コンピュータシステム300と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク330であってもよい。
ある実施例では、コンピュータシステム300は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施例では、コンピュータシステム300は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。
次に、図2を参照して、本開示の実施例1に係る、画像に対して記載された対象オブジェクトを図面に重畳し、表示する流れの一例について説明する。
図2は、本開示の実施例1に係る、画像に対して記載された対象オブジェクトを図面に重畳し、表示する一例を示す図である。図2に示すように、本開示の実施例1に係る画像処理手段において、元画像1と、入力画像2と、処理画像3と、図面4と、オブジェクト重畳図面5とが用いられる。
元画像1は、後述する対象オブジェクトや基準記号等の情報が記載される前の状態の、紙媒体の風景写真である。この元画像1は、例えば上空撮影により取得した上空写真や地形の写真など、任意の光景を示す写真であってもよい。また、元画像1は、例えば、デジタルの画像を印刷したものであってもよく、任意の手段で入手された紙媒体の写真であってもよい。
入力画像2は、元画像1に対して、対象オブジェクト202と、二つの基準記号(201と203)と、これらの基準記号の地理的位置情報(緯度・経度)を示す文字情報が記載された画像である。入力画像2は、本開示の実施例1に係る画像処理装置に入力される画像であり、ユーザが、ペンや鉛筆等の任意の筆記用具を用いて、対象オブジェクト202と、二つの基準記号(201と203)と、これらの基準記号の地理的位置情報を示す文字情報とを元画像1に対して記載することで得られる紙媒体の画像である。
ここでは、ユーザは、対象オブジェクト202を元画像1における任意の物体や地点(存在位置を知りたい物体や地点)に対応する位置に記載し、二つの基準記号201、203を、対象オブジェクト202を対角で挟む位置に記載してもよい。対象オブジェクト202、基準記号201、203、及びこれらの基準記号の地理的位置情報を示す文字情報が元画像1に対して記載され、入力画像2が得られた後、当該入力画像は、本開示の実施例に係る画像処理装置に入力される。
これらの基準記号201、203のような、地理的位置情報が知られている所定の箇所を基準とすることにより、これらの二つの基準記号の地理的位置情報(以下「基準位置情報」ともいう)と、対象オブジェクトの入力画像上の位置との相対位置関係に基づいて、対象オブジェクトの地理的位置を判定することができる。また、基準記号201、203を用いることにより、例えば工事現場等の立ち入り禁止の場所における物体や地点、又は山や障害物等によって移動範囲が限定される場所における物体や地点についても、存在位置を把握することが可能となる。
なお、対象オブジェクト202、基準記号201、基準記号203、及びこれらの基準記号の地理的位置情報(緯度・経度)を示す文字情報の詳細については後述する。
処理画像3は、入力画像2を本開示の実施例に係る画像処理装置によって処理し、
対象オブジェクト202と、基準記号201、203と、これらの基準記号の地理的位置情報(緯度・経度)を示す文字情報とを抽出したデジタルの画像である。処理画像3における361、362、363は、入力画像2における基準記号201、対象オブジェクト202、及び基準記号203のそれぞれに対応する。
なお、図1に示す処理画像3では、基準記号361、363の地理的位置情報(緯度・経度)を示す文字情報が表示されていないが、この地理的位置情報(緯度・経度)は、画像処理装置によって管理される位置情報管理テーブルに格納されているため、基準記号361、363の地理的位置情報(緯度・経度)を示す文字情報を処理画像3において表示することも可能である。
図面4は、基準記号201、203の地理的位置情報(緯度・経度)の範囲に基づいて取得された図面である。この図面4は、地図や設計図等、任意の図面であってもよい。後述するように、この図面4は、予め用意された専用の図面を格納する図面情報管理装置から取得される図面であってもよい。
オブジェクト重畳図面5は、入力画像2においてユーザによって記載された対象オブジェクト202に対応する図面用オブジェクト502を図面4に重畳することにより得られた画像である。このオブジェクト重畳図面5では、図面用オブジェクト502は、ユーザが入力画像2において、対象オブジェクト202によって特定した対象の物体や地点の地理的位置に対応する画像上の位置に重畳される。また、このオブジェクト重畳図面5は、所定の表示装置に表示されてもよく、印刷されてもよく、任意の手段によって出力されてもよい。
これにより、ユーザは、元画像1のような写真において特定した物体や地点が地図や設計図等の別の図面においてどこに存在するかを容易に把握することができる。
次に、図3を参照して、本開示の実施例1に係る画像処理システムの機能的構成について説明する。
図3は、本開示の実施例1に係る画像処理システム30の機能的構成の一例を示す図である。図3に示すように、本開示の実施例1に係る画像処理システム30は、画像処理装置35、通信部8、表示部9、入力部10、出力部11、ネットワーク6、及び図面情報管理装置7から主に構成される。画像処理装置35は、通信部8を用いて、ネットワーク6を介して図面情報管理装置7に接続される。
ネットワーク6は、例えばインターネットやローカルエリアネットワーク(LAN)等、画像処理装置35と図面情報管理装置7との間の通信を可能にするための通信ネットワークである。
表示部9は、本開示の実施例1に係る画像処理手段における各種情報(図2に示す処理画像3、図面4、オブジェクト重畳図面5等)を表示するための表示部である。表示部9は、例えば複合機に搭載されているディスプレイ、外部のディスプレイ、スマートフォンやタブレットの画面等、任意の表示装置であってもよい。
入力部10は、ユーザからの入力を受け付けるための機能部である。入力部10は、例えばキーボード、マウス、タッチ画面、音声認識手段、ユーザからの指示を受け付ける機能があれば任意の装置であってもよい。また、入力部10は、ネットワーク6及び通信部8を介して、クライアント端末(図示せず)からの入力(入力画像等)を受信してもよい。
出力部11は、本開示の実施例1に係る画像処理手段における各種情報(オブジェクト重畳図面5等)を必要に応じて出力するための機能部である。例えば、出力部11は、画像や図面等を印刷するための印刷装置であってもよい。また、出力部11は、生成されたオブジェクト重畳図面を、ネットワーク6及び通信部8を介して、クライアント端末(図示せず)に送信してもよい。
画像処理装置35は、本開示の実施例に係る画像処理手段を実行するために構成される装置である。ある実施例では、画像処理装置35は、例えば複合機(Multi-function machine)として実現されてもよい。
図3に示すように、画像処理装置35は、本開示の実施例に係る画像処理手段の各機能を実行し、制御するための機能部を含む制御部12と、制御部12の機能部によって用いられるデータやサブ機能を格納する記憶部21とを含む。
図3に示すように、制御部12は、中央制御部13、文字読取部14、図面画像取得部15、図面画像制御部16、オブジェクト読取部17、図面オブジェクト制御部18、出力制御部19、及び位置情報取得部20を含む。
中央制御部13は、本開示の実施例に係る画像処理手段における演算処理を行うための機能部である。
文字読取部14は、画像や図面における文字情報(例えば、図2に示す入力画像2に対して記載された文字情報等)を検出し、読み取るための機能部である。
図面画像取得部15は、後述する図面情報管理装置7又は図面記録部26から図面(例えば、図2に示す図面4)を取得するための機能部である。
図面画像制御部16は、図面画像取得部15によって取得された図面の範囲や大きさを制御するための機能部である。
オブジェクト読取部17は、画像に対して記載された対象オブジェクト(例えば、図2に示す入力画像2に対して記載された対象オブジェクト202)を検出し、読み取るための機能部である。
図面オブジェクト制御部18は、入力画像に対して記載された対象オブジェクトを、図面画像取得部15によって取得された図面に重畳するための機能部である。
出力制御部19は、後述する出力部11からのオブジェクト重畳図面の出力を制御するための機能部である。
位置情報取得部20は、入力画像に対して記載される基準記号(例えば、図2に示す基準記号201、203)の地理的位置を示す情報を取得するための機能部である。
また、図3に示すように、記憶部21は、位置情報管理テーブル22、文字認識プログラム23、オブジェクト読取プログラム24、物体認識プログラム25、図面記録部26、オブジェクト記録部27、重畳画像記録部28、及び元画像記録部29を含む。
位置情報管理テーブル22は、読み取られた情報や、ユーザにより入力された情報を管理するためのデータベーステーブルである。
文字認識プログラム23は、画像や図面における文字情報(例えば、図2に示す入力画像2に対して記載された文字情報等)を検出し、読み取るためのソフトウエアプログラムである。
オブジェクト読取プログラム24は、画像に対して記載された対象オブジェクト(例えば、図2に示す入力画像2に対して記載された対象オブジェクト202)を検出し、読み取るためのソフトウエアプログラムである。
物体認識プログラム25は、画像における背景の既知の物体を認識するためのソフトウエアプログラムである。この物体認識プログラム25は、例えば機械学習に基づいた既存の物体認識手段であってもよい。
図面記録部26は、図面画像取得部15によって取得された図面を記録するための機能部である。
オブジェクト記録部27は、画像に対して記載された対象オブジェクト(例えば、図2に示す入力画像2に対して記載された対象オブジェクト202)を記録するための機能部である。
重畳画像記録部28は、オブジェクト重畳図面を記録するための機能部である。
元画像記録部29は、対象オブジェクト、基準記号、及び基準記号に対応する位置情報が記載される前の元画像(例えば、図2に示す元画像1)を記録するための機能部である。
図面情報管理装置7は、本開示の実施例に係る画像処理手段において用いられる図面(地図、設計図)を格納する機能部である。図3に示すように、図面情報管理装置7は、画像処理装置35とは物理的に離れている、予め用意されている図面を格納する遠隔のサーバ装置であってもよい。図面情報管理装置7に格納される図面は、オープンソースの図面であってもよく、個人、企業、又は組織の所有物である図面であってもよい。この場合には、画像処理装置35は、図面情報管理装置7からの図面を取得するに当たって、図面情報管理装置7に対する所定の認証手段を行い、アクセス権限を付与された後、図面情報管理装置7に格納されている図面を取得してもよい。
以上説明したように構成した画像処理システム30により、画像における物体や地点に対して記載された対象オブジェクトを読み取り、当該対象オブジェクトを地図や設計図等の別の図面において重畳することができ、この対象オブジェクトの当該図面における存在位置を容易に把握することが可能となる。
なお、以上説明した各種機能部は、電子回路などの専用ハードウェアによって実現されてもよく、ソフトウエアモジュールとして実現されてもよい。
次に、図4を参照して、本開示の実施例1に係る画像処理方法について説明する。
図4は、本開示の実施例1に係る画像処理方法400の一例を示すフローチャートである。図4に示す画像処理方法400は、図3を参照して説明した画像処理システム30によって実行される方法であり、ユーザが所定の写真における物体や地点に対して記載した対象オブジェクトを、地図や設計図等の別の図面において重畳するための処理の全体の流れである。
図4に示すように、画像処理方法400は、ステップS01で開始し、ステップS010で終了する。
まず、ステップS02では、画像処理装置の文字読取部(例えば、図3に示す文字読取部14)は、入力部を介してユーザによって入力された入力画像における基準記号に対応する地理的位置情報(「基準位置情報」ともいう)を示す文字情報を検出し、読み取る。
より具体的には、画像処理装置の文字読取部は、文字認識プログラムを用いて、所定の
光学式文字認識手段を実行することで基準記号に対応する地理的位置情報を示す文字情報(例えば、図2に示す入力画像の基準記号201、203に対応する地理的位置を示す文字情報)を読み取ってもよい。ここでは、光学式文字認識手段として、機械学習を利用した手段を採用してもよい。また、対象オブジェクトが記載される前の画像である元画像が元画像記録部に記録されている場合には、図11を参照して後述する背景差分手段を用いて入力画像における基準記号に対応する地理的位置情報を示す文字情報を読み取ってもよい。
なお、ここでの地理的位置情報を示す文字情報とは、画像に対して記載された基準記号に対応する地理的位置を示す緯度・経度を示す文字列等の情報である。
入力画像に対して記載される基準記号に対応する地理的位置情報は、様々な手法によって取得されてもよい。例えば、画像処理方法400のステップS02の前段階において、スマートフォン等の移動可能な携帯端末に画像処理装置が搭載されている場合には、上述した位置情報取得部(図2に示す位置情報取得部20)が基準記号の地理的位置情報を取得してもよい。
一例として、ユーザがスマートフォンを用いて、スマートフォンのカメラ機能等によって元画像を取得した後、このスマートフォンを持ったユーザが、基準記号を配置したい箇所に対応する場所に実際に移動して、スマートフォンの位置情報取得部(GPSなど)によって、これらの基準記号に対応する地理的位置情報を取得してもよい。
その後、ユーザは、スマートフォンが有する画像編集機能を用いて、取得した基準記号に対応する地理的位置情報の緯度・経度を示す文字情報と、基準記号と、対象オブジェクトとを元画像に対して記載することで、入力画像を得ることができる。このように取得した入力画像を用いて、ステップS02以降の処理を施すことで、対象オブジェクトの位置情報(「オブジェクト位置情報」)の誤差を抑えることができる。
なお、入力画像に対して記載される基準記号に対応する地理的位置情報の取得方法は、これに限定されず、任意の手法によって行われてもよい。例えば、ユーザは、地図やGPS機能を用いて、基準記号に対応する地理的位置情報を取得してもよい。
次に、ステップS03では、文字読取部は、ステップS02での文字読取処理においてエラーが発生したか否かを判定する。ここでの読取エラーとは、何等かの理由により、入力画像において記載された基準記号に対応する地理的位置情報を示す文字情報を読み取ることができなかった場合を意味する。読取エラーの例としては、例えば、入力画像に対して記載された地理的位置情報の緯度・経度が予め設定された緯度・経度の範囲を逸脱している場合、地理的位置情報の緯度又は経度の差分(距離)が、予め設定された距離より大きい場合、読み取った緯度・経度の桁数が、予め緯度・経度の桁数を設定した値未満・超過している場合等が考えられる。
ここで、文字読取エラーが発生した場合には、本処理は読取エラーを修正するためのステップS04へ進む。文字読取エラーが発生しなかった場合には、本処理はステップS05へ進む。
ステップS04では、読取エラーを解決するために、文字読取部は、ステップS02へ戻って文字読取を再度実行するか、ステップS010へ進み本処理を終了するか、読取エラーをユーザの修正指示によって対応するかを判定する。ここでの判定は、ユーザの入力に基づいて行われてもよい。例えば、読取エラーが発生した場合、当該読取エラーの内容を示す通知を画像処理装置の表示部に表示し、文字読取を再度実行するか、本処理を終了するか、読取エラーをユーザの修正指示によって対応するかをユーザに選択させてもよい。
ここで、読取エラーを解決するためのユーザの修正指示として、ステップS02において読取ができなかった文字情報を改めてユーザに記載させることや、ステップS02において読取ができなかった文字情報を意味する情報を、後述する位置情報管理テーブルに直接に入力させること等が考えられる。
表示部に表示されるエラーの内容を示す通知に対して、ユーザは、文字読取を再度実行することを選択した場合、本処理はステップS02へ戻り、本処理を終了することを選択した場合、本処理はステップS010へ進み、修正指示を入力した場合、本処理はステップS05へ進む。
次に、ステップS05では、オブジェクト読取部は、ステップS02で認識された文字情報に基づいて、入力画像に対して記載された基準記号を読み取る。また、ここでは、オブジェクト読取部は、読み取った基準記号の画像上の座標を示す座標情報を取得してもよい。
なお、入力画像に対して記載された基準記号と、当該基準記号の画像上の座標を示す座標情報を取得する際の詳細については、図5及び図6を参照して説明する。
次に、ステップS06では、画像処理装置の図面画像取得部(例えば、図3に示す図面画像取得部15)は、入力画像に対して記載された対象オブジェクトを重畳する対象となる図面を取得する。
より具体的には、ステップS06では、図面画像取得部は、ステップS02で読み取られた文字情報によって示される緯度経度を用いて、当該緯度経度に対応する図面を取得する。この図面は、上述した通信部とネットワークとを介して、図面情報管理装置から取得されてもよく、画像処理装置内に搭載される図面記録部から取得されてもよい。
なお、ここでの緯度経度とは、入力画像における物体や地点の地理的位置を示す情報である。また、ここで取得される図面は、入力画像から取得した緯度経度情報に対応する地図、設計図面、CADの電子データ等、任意の図面であってもよい。また、個々で取得される図面は、1つの種類のものに限定されず、地図と設計図面などの複数の種類の図面を組み合わせた図面であってもよい。
なお、ステップS06において、スマートフォン等の移動可能な携帯端末に画像処理装置が搭載されている場合には、画像処理装置の位置情報取得部(例えば、図3に示す位置情報取得部20)は、入力画像に対して記載された基準記号に対応する地理的位置情報をGPS機能等により取得した後、当該地理的位置情報に対応する図面を取得してもよい。
一例として、ユーザは、画像処理装置が搭載されているスマートフォンを携帯し、入力画像における基準記号に対応する場所に実際に移動して、スマートフォンの位置情報取得部により、これらの基準記号の地理的位置情報を取得し、取得した地理的位置情報に対応する図面を、ネットワークを介して図面情報管理装置から取得してもよい。この処理により、対象オブジェクトの位置情報の誤差を抑えることができる。
次に、ステップS07では、オブジェクト読取部(例えば、図3に示すオブジェクト読取部17)は、入力画像に対して記載された対象オブジェクト(例えば、図2に示す対象オブジェクト202及び基準記号201、203)を、所定の画像処理手法(図10参照)によって読み取り、処理画像(例えば、図2に示す処理画像3)を作成する。ステップS07では、オブジェクト読取部は、ステップS02で取得した基準記号の地理的位置情報を示す文字情報、あるいは位置管理テーブルを用いてオブジェクト認識のために設定した範囲に基づいて、対象オブジェクトを入力画像から読取する処理を行い、処理画像の作成を行う。ここで作成される処理画像はオブジェクト記録部(例えば、図3に示すオブジェクト記録部27)に記録される。
なお、図3に示すように、ステップS07及びステップS06は、同時に並行に実行されてもよい。
次に、ステップS08では、図面オブジェクト制御部(例えば、図3に示す図面オブジェクト制御部18)は、ステップS07で読み取られた対象オブジェクト(つまり、図2に示す処理画像3における対象オブジェクト362)を、ステップS06で取得された図面に重畳し、オブジェクト重畳図面(例えば、図2に示すオブジェクト重畳図面5)を作成する。
より具体的には、ステップS08では、図面オブジェクト制御部は、入力画像に対して記載された2つの基準記号(図2に示す入力画像2における基準記号201、203)に対応づけられる地理的位置情報(ステップS05で読み取られた基準記号の地理的位置情報)を用いて、2つの基準記号と対象オブジェクトとの相対的な座標上の位置関係を保持したまま、これらをステップS06で取得された図面に重畳する。このように、対象オブジェクトは、基準記号との位置関係に基づいて図面において重畳されるため、例えば対象オブジェクトに対応する物体や地点の地理的位置情報を用いなくとも、対象オブジェクトを図面において対応する位置に重畳することができる。
また、対象オブジェクトの地理的位置情報を判定する別の手法として、それぞれの基準記号の地理的位置情報(基準位置情報)と、対象オブジェクトの入力画像上の位置との相対位置関係に基づいて、対象オブジェクトの地理的位置を示すオブジェクト位置情報を判定し、
ここで判定された対象オブジェクトの地理的位置情報に基づいて、対象オブジェクトを図面に重畳してもよい。
次に、ステップS09では、出力制御部(例えば、図3に示す出力制御部19)は、ステップS08で作成されたオブジェクト重畳図面を出力する。ここでは、出力制御部は、オブジェクト重畳図面を外部の表示部(例えば、図3に示す表示部9)に表示してもよく、オブジェクト重畳図面を印刷してもよい。
以上では、上述したステップS02及びステップS06において入力画像から基準記号の地理的位置情報を読み取る場合の一例を説明したが、本開示はこれに限定されず、ユーザによって後述する位置情報管理テーブルに入力される位置情報を用いてもよい。例えば、ユーザが、後述する図7で示されるように、位置管理テーブルを用いて、整理番号と、基準記号・目印識別情報と、緯度と、経度と、を予め入力した後、対象オブジェクトを挟んで対角になる位置に存在し、目印となる物体や地点を識別する情報と、緯度と、経度と、を予め入力しておく。
その後、対象オブジェクトを重畳する対象となる図面を取得する際、予めユーザに入力された目印となる物体や地点を識別する情報と、緯度と、経度との情報を用いることで、対象オブジェクトが存在する場所に対応する図面を取得することができると共に、対象オブジェクトの位置情報の誤差を抑え、入力画像において基準記号が記載されていない場合にも、位置情報を取得することができる。
以上説明した画像処理方法400により、画像における物体や地点に対して記載された対象オブジェクトを読み取り、当該対象オブジェクトを地図や設計図等の別の図面において重畳することができ、この対象オブジェクトに対応する画像上の物体や地点が地図や設計図等の別の図面においてどこに存在するかを容易に把握することが可能となる。
次に、図5及び図6を参照して、本開示の実施例1に係る画像処理方法における、基準記号を読み取るステップについて説明する。
図5は、本開示の実施例1に係る画像処理方法における、基準記号を読み取るステップS05の流れの一例を示すフローチャートである。図5に示すステップS05のフローチャートは、上述した図4に示す画像処理方法400におけるステップS05の詳細を示すものであり、本開示の実施例1に係る画像処理装置の図面画像制御部(例えば、図3に示す図面画像制御部16)によって実施される。
図5及び図6に示す処理によれば、入力画像に対して記載された基準記号を確実に検出することができる。
なお、図5に示すように、ステップS05は、ステップS11で開始し、ステップS17で終了する。
まず、ステップS12では、図面画像制御部は、図4に示す画像処理方法400のステップS02で入力画像から読み取られた文字情報の画像上の座標(ピクセル単位等)を取得する。例えば、ここでは、図面画像制御部は、文字情報が存在する領域を画定する範囲の座標を取得してもよい。上述したように、これらの座標情報を認識して、取得する処理は、光学式文字認識手段によって行われてもよい。
次に、ステップS13では、図面画像制御部は、ステップS12で認識された文字情報が存在する範囲における中心座標を計算する。
なお、文字情報の中心座標を計算するステップの詳細については、図6を参照して説明する。
次に、ステップS14では、図面画像制御部は、ステップS12で認識された文字情報
の近傍に位置する基準記号を探索する。例えば、ここでは、図面画像制御部は、ステップS13で計算した文字情報の中心座標から所定の距離以内に基準記号が存在する否かを検出してもよい。また、対象オブジェクトが記載される前の画像である元画像が元画像記録部に記録されている場合には、後述する背景差分手段を用いて入力画像における基準記号を検出し、基準記号の画像上の座標情報を取得してもよい。
なお、基準記号を探索するステップの詳細については、図6を参照して説明する。
次に、ステップS15では、図面画像制御部は、ステップS14で探索された基準記号の画像上の中心座標を算出する。
なお、探索された基準記号の中心座標を算出するステップの詳細については、図6を参照して説明する。
次に、ステップS16では、図面画像制御部は、ステップS14で探索された基準記号について算出された画像上の座標情報を位置管理テーブル(図7参照)に格納する。
図5に示す基準記号を読み取るステップS05は、入力画像における全ての基準記号が認識され、全ての基準記号の画像上の座標情報が位置管理テーブルに記録されるまで、繰り返される。入力画像における全ての基準記号が認識され、全ての基準記号の画像上の座標情報が位置管理テーブルに記録された場合、本処理は、ステップS17で終了する。
図6は、本開示の実施例1に係る画像処理方法における、基準記号を読み取るステップの具体例を示す図である。図6に示す基準記号を読み取るステップの具体例は、図5を参照して説明したステップS05における、文字情報の中心座標を計算するステップS13と、文字情報に近接する基準記号を探索するステップS14と、基準記号の中心座標を計算するステップS15と、を具体的に説明する一例である。
図6には、画像処理の対象として、上述した入力画像2が示される(ここでは、説明の便宜上、入力画像2の背景を省略する)。図6に示すように、入力画像2は、点34(x1、y1)、点32(x2、y2)、点33(x3、y3)、及び点34(x4、y4)の4つの点によって画定され、上述した基準記号201、対象オブジェクト202、及び基準記号203を含む。
上述したように、図5を参照して説明したステップS05におけるステップS13では、
文字情報の中心座標が計算される。より具体的には、図6に示すように、図面画像制御部は、入力画像において認識された文字情報である数字列600の左端の数字の左上と、数字列600の右端の数字の右下を結ぶ直線と、数字列600の左端の数字の左下と、数字列600の右端の数字の右上を結ぶ直線と、の交点を中心座標38とする。これにより、文字情報の中心座標を特定することができる。
また、上述したように、図5を参照して説明したステップS05におけるステップS14では、文字情報に近接する基準記号が探索される。より具体的には、図6に示すように、
図面画像制御部は、ステップS13で特定された文字情報の中心座標38より、任意の半径内39に含まれる基準記号を読み取る。この半径の初期設定は、認識された数字列600を囲む文字ボックスの対角線37であるが、ユーザの入力等により、任意の値に設定されてもよい。これにより、文字情報に近接する基準記号を検出することができる。
更に、上述したように、図5を参照して説明したステップS05におけるステップS15では、基準記号の中心座標が計算される。より具体的には、図6における部分拡大図605に示すように、基準記号の最上端と最下端を結ぶ直線と、基準記号の最も右端と最も左端を結ぶ直線と、の交点を中心座標31とする。これにより、基準記号の中心座標を特定することができる。
以上説明した図5及び図6に示す処理により、入力画像における基準記号を確実に検出すると共に、当該基準記号の画像上の座標を示す座標情報を取得することができる。ここで検出した基準記号に対応する地理的座標情報と、画像上の座標とに基づいて、ユーザが入力画像に対して記載した対象オブジェクトを、任意の図面において対応する位置に重畳することが可能となる。
次に、図7を参照して、本開示の実施例1に係る位置情報管理テーブルについて説明する。
図7は、本開示の実施例1に係る位置情報管理テーブル22の一例を示す図である。上述したように、位置情報管理テーブル22は、入力画像から読み取られた情報や、ユーザにより入力された情報を管理するためのデータベーステーブルである。より具体的には、位置情報管理テーブル22は、図4を参照して説明した画像処理方法におけるステップS02で取得された基準記号に対応する地理的位置情報(緯度・経度情報)と、ステップS05で取得された基準記号の画像上の座標情報とを記録する。また、図7に記録される情報は、図4を参照して説明した画像処理方法におけるステップS06(例えば、後述する図8に示すステップS18)で用いられる。
図7に示すように、位置情報管理テーブル22は、整理番号40、基準記号・目印識別情報41、緯度42、経度43、X座標44、及びY座標45から構成される。
整理番号40は、位置情報管理テーブル22に記録される情報を整理するために、各列に付与される番号であり、例えば「0001」から始まる連番であってもよい。
基準記号・目印識別情報41は、入力画像に対して記載された基準記号の形状や特徴等、基準記号を識別するための情報である。例えば、基準記号が丸の図形で表現される場合、基準記号・目印識別情報41においては丸の図形が格納されてもよい。
また、以上では、ユーザが入力画像に対して記載した基準記号を用いる場合について説明したが、本開示はこれに限定されず、基準記号の代わりに、入力画像に写る建物、物体、地形等の目印を用いてもよい。例えば、ある実施例では、基準記号・目印識別情報41は、目印となる建物や地形の画像へのリンクを格納してもよい。
緯度42及び経度43は、図4を参照して説明した画像処理方法におけるステップS02で取得された、入力画像における基準記号又は目印に対応する緯度及び経度の情報である。
X座標44及びY座標45は、図4を参照して説明した画像処理方法におけるステップS05で取得された、基準記号の画像上の中心座標を示す情報である。
次に、図8及び図9を参照して、本開示の実施例1に係る画像処理方法における、図面を取得するステップについて説明する。
図8は、本開示の実施例1に係る画像処理方法における、図面を取得するステップS06の流れの一例を示す図である。図8に示すステップS06のフローチャートは、上述した図4に示す画像処理方法400におけるステップS06の詳細を示すものであり、本開示の実施例1に係る画像処理装置の図面画像取得部(例えば、図3に示す図面画像取得部15)によって実施される。
なお、図8に示すように、図面を取得するステップS06は、ステップS18で開始し、ステップS23で終了する。
まず、ステップS19では、図面画像取得部は、位置情報管理テーブルを参照して、それぞれの基準記号(例えば、図7に示す位置情報管理テーブル22における基準記号・目印識別情報に格納されている基準記号)の画像上のX座標(図7に示すX座標44)とY座標(図7に示すY座標45)の大小を比較することで、位置情報管理テーブルの列を順番に並び変える。
次に、ステップS20では、図面画像取得部は、図面情報管理装置から取得される図面を
表示する範囲を計算する。また、ここでは、対象オブジェクトを読み取るために、入力画像において対象オブジェクトが探索される範囲と、重畳される図面の範囲を設定するための計算が行われる。
なお、これらの処理の詳細については、図8を参照して説明する。
次に、ステップS21では、図面画像取得部は、図面情報管理装置から取得される図面を
表示する範囲に対応する緯度と経度を計算する。ここでは、図面画像取得部は、位置情報管理テーブルに格納される基準記号の緯度・経度情報に基づいて、図面を表示する範囲に対応する緯度と経度を計算してもよい。
次に、ステップS22では、図面画像取得部は、ステップS21で計算された緯度と経度に対応する図面を取得する。より具体的には、ステップS22では、図面画像取得部は、上述した通信部と、ネットワークとを介して、図面情報管理装置から、ステップS21で計算された緯度と経度に対応する図面(例えば、図2に示す図面4)を取得してもよく、画像処理装置に搭載される図面記録部から、ステップS21で計算された緯度と経度に対応する図面を取得してもよい。
図9は、本開示の実施例1に係る画像処理方法における、図面を取得するステップの具体例を示す図である。
図9には、画像処理の対象となる画像(例えば、図2に示す入力画像2)の全体の範囲60は、点48(x1、y1)、点46(x2、y2)、点47(x3、y3)、及び点49(x4、y4)4つの点によって画定される。また、この範囲60において、上述した位置情報管理テーブルに記録される基準記号は、点51(x5、y5)及び点55(x6、y6)に対応する。点51(x5、y5)及び点55(x6、y6)の2点を、四角形の4頂点のうちの2頂点とし、図9で示される四角形54が作図される。この四角形54は、基準記号に対応する点51(x5、y5)51及び点55(x6、y6)55によって画定される領域である。
また、図9に示す四角形53は、図面を表示する範囲である。この四角形53では、x=x6-x5より横のサイズがxであり、y=y5-y6より縦のサイズがyである。点51(x5、y5)、点55(x6、y6)、x、及びyより、四角形53の、左上の頂点である点50、右上の頂点である点52、左下の頂点である点56、及び右下の頂点である点57の座標を計算し、四角形53と54の位置とサイズを計算することができる。より具体的には、点50の座標は、(x5-(x/2)、y5-(y/2))により計算され、点52の座標は、(x6+(x/2)、y5-(y/2))により計算され、点56は、(x5-(x/2),y6+(y/2))により計算され、点57は、(x6+(x/2),y6+(y/2))により計算される。
これにより、四角形53は、図面を表示する範囲として設定される。なお、ある実施例では、四角形53の範囲は、ユーザによって適宜に選択されてもよい。
以上、図8及び図9を参照して説明した図面を取得するステップにより、ユーザが入力画像に対して記載した基準記号の地理的位置情報の緯度・経度に対応する図面を取得し、当該図面を表示する範囲を決定することができる。
次に、図10を参照して、本開示の実施例1に係る画像処理方法における、対象オブジェクト読取処理について説明する。
図10は、本開示の実施例1に係る画像処理方法における、対象オブジェクトを読み取るステップS07の流れの一例を示すフローチャートである。図10に示す対象オブジェクトを読み取るステップS07のフローチャートは、上述した図4に示す画像処理方法400におけるステップS07の詳細を示すものであり、本開示の実施例1に係る画像処理装置のオブジェクト読取部(例えば、図3に示すオブジェクト読取部17)によって実施される。
なお、図10に示すように、対象オブジェクトを読み取るステップS07は、ステップS24で開始し、ステップS31で終了する。
まず、ステップS25では、オブジェクト読取部は、ユーザが入力画像に対して記載した基準記号の画像上の座標によって画定される範囲(例えば、上述した図9における四角形54)を、以下説明する、対象オブジェクトを読み取るステップS07の処理の対象となる対象領域として設定する。
次に、ステップS26では、オブジェクト読取部は、ステップS25で設定した対象領域に対して、既存の物体認識プログラム(例えば、図3に示す物体認識プログラム25)を実行し、背景物体を判定する。ここでの背景物体とは、入力画像に写っており、ユーザが記載した手書きの対象オブジェクト以外の背景物体を意味する。
背景物体が認識される場合には、本処理はステップS27へ進み、背景物体が認識されない場合には、本処理はステップS29へ進む。
ステップS27では、オブジェクト読取部は、ステップS25で設定した対象領域において、ステップS26で認識した背景物体以外のオブジェクトが存在するか否かを判定する。ステップS26で認識した背景物体以外のオブジェクトが存在すると判定された場合、本処理はステップS28へ進み、ステップS26で認識した背景物体以外のオブジェクトが存在しないと判定された場合、本処理はステップS31へ進み、修了する。
ステップS28では、オブジェクト読取部は、ステップS25で設定した対象領域から、背景物体以外のオブジェクトが認識されていない領域を除く。言い換えれば、オブジェクト読取部は、背景物体のみが認識されている領域をステップS25で設定した対象領域から除外する。このように、背景物体以外のオブジェクトが認識されていない領域を後述するステップS29の対象オブジェクト探索範囲から除外することで、対象オブジェクトをより効率よく判定することができる。
ステップS29では、オブジェクト読取部は、ステップS25で設定した対象領域、又は、S27で背景物体以外のオブジェクトが認識されていない領域を除外した対象領域に対して、ユーザが記載した手書きの対象オブジェクトを探索する。ここでは、オブジェクト読取部は、所定のオブジェクト読取プログラム(例えば、図3に示すオブジェクト読取プログラム24)を用いることにより、非線形に繋がる領域の存在の有無を判定することで対象オブジェクトを認識してもよい。
対象オブジェクトが認識される場合には、本処理はステップS30へ進み、対象オブジェクトが認識されない場合には、本処理はステップS31へ進み、修了する。
次に、ステップS30では、オブジェクト読取部は、ステップS29で認識された対象オブジェクトをコピーする。ここでコピーされた対象オブジェクトは、上述したように、
処理画像3を作成する際や、図4に示す画像処理方法400におけるステップS08で対象オブジェクトを取得された図面に重畳する際等に用いられる。
以上説明した、対象オブジェクトを読み取るステップS07により、ユーザが入力画像に対して記載した対象オブジェクトを確実に読み取ることができる。
次に、図11を参照して、本開示の実施例1に係る画像処理方法における、対象オブジェクトを読み取るステップの別の一例について説明する。
図11は、本開示の実施例1に係る画像処理方法における、対象オブジェクトを読み取るステップS07bの流れの一例を示すフローチャートである。図11に示す対象オブジェクトを読み取るステップS07bのフローチャートは、上述した図10に示す対象オブジェクトを読み取るステップS07とは別の対象オブジェクト読取処理の一例を示すが、図10に示す対象オブジェクトを読み取るステップS07と同様に、上述した図4に示す画像処理方法400におけるステップS07に対応し、本開示の実施例1に係る画像処理装置のオブジェクト読取部(例えば、図3に示すオブジェクト読取部17)によって実施される。
なお、図11に示すように、対象オブジェクトを読み取るステップS07bは、ステップS24bで開始し、ステップS34bで終了する。
図11に示す対象オブジェクトを読み取るステップS07bでは、対象オブジェクトや基準記号等が記載される前の画像である元画像と、対象オブジェクトや基準記号等が記載された後の画像である入力画像とを比較することで、元画像と入力画像との差分から対象オブジェクトが判定される。
従って、図11に示す対象オブジェクトを読み取るステップS07bは、元画像が、対象オブジェクトや基準記号等が記載される前に保存されたことを前提としている。例えば、元画像は、対象オブジェクトや基準記号等が記載される前に、複合機によってコピーしたり、スキャンしたりすることで保存してもよい。
まず、ステップS25bでは、オブジェクト読取部は、ユーザが入力画像に対して記載した基準記号の画像上の座標によって画定される範囲(例えば、上述した図9における四角形54)を、以下説明する対象オブジェクトを読み取るステップS07bの処理の対象となる対象領域として設定する。
次に、ステップS32bでは、オブジェクト読取部は、対象オブジェクトや基準記号等が記載される前の画像である元画像と、対象オブジェクトや基準記号等が記載された後の画像である入力画像とを比較することで、元画像と入力画像との差分を抽出する。ここでは、オブジェクト読取部は、元画像と入力画像との差分を抽出するためには、既存の画像差分抽出手段を用いてもよい。
ステップS32bで抽出できる差分があった場合には、本処理はステップS33bへ進み、ステップS32bで抽出できる差分がなかった場合には、本処理はステップS34bへ進み、修了する。
次に、ステップS33bでは、オブジェクト読取部は、ステップS32bで抽出した差分を対象オブジェクトとして認識し、コピーする。ここでコピーされた対象オブジェクトは、上述したように、処理画像3を作成する際や、図4に示す画像処理方法400におけるステップS08で対象オブジェクトを取得された図面に重畳する際等に用いられる。
以上説明した対象オブジェクトを読み取るステップS07bによれば、対象オブジェクトや基準記号等が記載される前の画像である元画像が予め保存された場合には、元画像と入力画像との差分を抽出することで、対象オブジェクトをより正確に読み取ることができる。
次に、図12を参照して、本開示の実施例1に係る画像処理方法における、オブジェクト重畳図面を出力するステップについて説明する。
図12は、本開示の実施例1に係る画像処理方法における、オブジェクト重畳図面を出力するステップS09の流れの一例を示すフローチャートである。図12に示すオブジェクト重畳図面を出力するステップS09のフローチャートは、上述した図4に示す画像処理方法400におけるステップS09の詳細を示すものであり、本開示の実施例1に係る画像処理装置の出力制御部(例えば、図3に示す出力制御部19)によって実施される。
なお、図12に示すように、オブジェクト重畳図面を出力するステップS09は、ステップS35で開始し、ステップS39で終了する。
まず、ステップS36では、出力制御部は、上述した処理画像と図面(例えば、図3に示す処理画像3と図面4)との縮尺を調整し、互いに整合させる。より具体的には、出力制御部は、位置情報管理テーブルに記録される基準記号の地理的位置情報を示す緯度・経度情報に基づいて、出力部11における出力サイズに応じて図面の範囲を調整する。
一例として、上述した図9で示すよう、四角形54がB5サイズに相当するが、ユーザが印刷物のサイズとしてA3を希望する場合、出力制御部は、マージンである四角形53を出力サイズに合わせて単純に引き延ばすことで拡大するのではなく、四角形53の範囲を大きくすることで、より広範囲の図面を出力する。
次に、ステップS37では、出力制御部は、処理画像(例えば、図2に示す処理画像3)を図面(例えば、図2に示す図面4)に重畳し、オブジェクト重畳図面(例えば、図2に示すオブジェクト重畳図面5)を作成する。この際、処理画像や図面の色や透過率を調整してもよく、あるいは、処理画像における対象オブジェクト(例えば、図2に示す処理画像3の対象オブジェクト302)のみが表示されるように重畳してもよい。
次に、ステップS38では、出力制御部は、ステップS37で作成されたオブジェクト重畳図面を出力する。ここでは、出力制御部は、オブジェクト重畳図面を外部の表示部(例えば、図3に示す表示部9)に表示してもよく、オブジェクト重畳図面を印刷してもよい。
次に、図13を参照して、本開示の実施例2に係る画像上のオブジェクトを図面に重畳する一例について説明する。
図13は、本開示の実施例2に係る画像上のオブジェクトを図面に重畳する一例を示す図である。図13に示す実施例2では、対象オブジェクトを重畳する対象物が大きく、対象オブジェクトをそのまま図面に重畳すると対象オブジェクトの存在位置における誤差が大きい場合の処理の一例を示す。
図13に示す実施例2は、上述した実施例1と比較して、図4に示す画像処理方法400における文字を読み取るステップS02と、対象オブジェクトを読み取るステップS06と、対象オブジェクトを図面に重畳するステップS08とにおいて部分的に異なる。
より具体的には、文字を読み取るステップS02において、図13に示す第1の入力画像1310を入力部によって入力した後に、第1の入力画像1310で示されるように対象オブジェクト5701がビルの屋上等の高所に存在する場合、ユーザが、予め第1の入力画像1310にグランド情報(地盤面を示す情報)を示す別の基準記号5802(「グランド基準記号」ともいう)を記載してもよい。これにより、グランド情報を示す基準記号5802が記載されている第2の入力画像1312が得られる。
なお、この基準記号5802と、上述した基準記号201、203とを区別するために、基準記号5802は、図2に示す基準記号201、203とは異なる形状として予め設定しておくことが望ましい。あるいは、文字情報を読み取るステップS02の前に、グランドモードか通常モードかを選択するステップを追加する構成も考えられる。
また、物体認識プログラム25を使用し、道路、または自動車が認識された位置をグランドとし、基準記号5802を記載してもよい。
上述したように作図された第2の入力画像1312を用いて、図4に示す画像処理方法400におけるステップS02以降を進める。対象オブジェクトを読み取るステップS06において、対象オブジェクト探索範囲である、図6に示す四角形54の範囲の外に対象オブジェクトが存在する場合には、探索範囲を四角形54の上側の範囲も含めてもよい。このようにして、対象オブジェクト5901とグランド情報を示す基準記号5902が読み取られ、処理画像1314が作成される。
対象オブジェクトを図面に重畳するステップS08において、対象オブジェクト5901が基準記号5902の上方に存在する場合には、下方の基準記号5902の画像上の位置に、上方の対象オブジェクト5901を配置し、下方の基準記号5902を削除する。これら以外の他の処理は実施例1と実質的に同様であるため、ここでの説明を省略する。
一例として、処理画像1314における基準記号5902が削除され、対象オブジェクト5901が基準記号5902の画像上の位置に配置された後、対象オブジェクト5901が図面1316に頂上されると、オブジェクト重畳図面1318が作成される。このように、対象オブジェクト6101は第1の入力画像1310に対して記載された対象オブジェクト5701に対応することとなる。
以上説明した実施例2によれば、対象オブジェクトを重畳する対象物が大きく、対象オブジェクトをそのまま図面に重畳すると対象オブジェクトの存在位置における誤差が大きい場合に、入力画像の地盤面を示すグランド基準記号に基づいて対象オブジェクト配置することにより、対象オブジェクトをより高精度に図面に重畳することが可能となる。
なお、本開示は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本開示を分かりやすく説明する為に詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置換することも可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、各構成を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
1 元画像
2 入力画像
3 処理画像
4 図面
5 オブジェクト重畳図面
6 ネットワーク
7 図面情報管理装置
8 通信部
9 表示部
10 入力部
11 出力部
12 制御部
13 中央制御部
14 文字読取部
15 図面画像取得部
16 図面画像制御部
17 オブジェクト読取部
18 図面オブジェクト制御部
19 出力制御部
20 位置情報取得部
21 記憶部
22 位置情報管理テーブル
23 文字認識プログラム
24 オブジェクト読取プログラム
25 物体認識プログラム
26 図面記録部
27 オブジェクト記録部
28 重畳画像記録部
29 元画像記録部
30 画像処理システム
35 画像処理装置

Claims (10)

  1. 所定の対象オブジェクトが記載されている入力画像に対する画像処理を施し、前記対象オブジェクトを読み取るオブジェクト読取部と、
    前記入力画像における所定の箇所の地理的位置を示す基準位置情報を格納する位置情報管理テーブルと、
    前記入力画像における前記所定の箇所の前記基準位置情報に対応する図面を取得する図面画像取得部と、
    前記入力画像における前記所定の箇所の前記基準位置情報に基づいて、前記対象オブジェクトの地理的位置を示すオブジェクト位置情報を判定する図面オブジェクト制御部と、
    取得した前記図面において、前記対象オブジェクトの前記オブジェクト位置情報に対応する位置に、前記対象オブジェクトを図面用オブジェクトとして重畳する出力制御部と、
    前記図面用オブジェクトが重畳された前記図面をオブジェクト重畳図面として出力する出力部と、
    を含むことを特徴とする画像処理装置。
  2. 前記画像処理装置は、
    前記対象オブジェクトが記載される前の画像である元画像を保存する元画像記録部を更に含み、
    前記オブジェクト読取部は、
    前記元画像と、前記対象オブジェクトが記載された前記入力画像とを比較することで、前記対象オブジェクトを読み取る、
    ことを特徴とする、請求項1に記載の画像処理装置。
  3. 前記位置情報管理テーブルは、
    少なくとも2つの前記所定の箇所の前記基準位置情報を格納し、
    前記図面オブジェクト制御部は、
    前記少なくとも2つの前記所定の箇所の前記基準位置情報と、前記対象オブジェクトの前記入力画像上の位置との相対位置関係に基づいて、前記対象オブジェクトの前記オブジェクト位置情報を判定する、
    ことを特徴とする、請求項1に記載の画像処理装置。
  4. 前記入力画像において、
    前記入力画像における前記所定の箇所は、前記入力画像に対して記載された基準記号であり、
    前記基準記号の地理的位置を示す前記基準位置情報を示す文字情報が記載されており、
    前記画像処理装置は、
    前記入力画像における文字情報を検出する文字読取部を更に含み、
    前記位置情報管理テーブルは、
    前記文字読取部によって検出された前記文字情報の前記入力画像上の位置に基づいて探索された前記基準記号の前記入力画像上の位置を示す座標情報と、前記基準位置情報とを対応付けて記録する、
    ことを特徴とする、請求項1に記載の画像処理装置。
  5. 前記画像処理装置は、
    図面画像制御部を更に含み、
    前記図面画像制御部は、
    前記文字読取部によって検出された前記文字情報の中心座標を計算し、
    計算された前記文字情報の前記中心座標から所定の距離内に存在する基準記号を探索し、
    前記所定の距離内に存在する基準記号を探索した場合、
    探索した前記基準記号の中心座標を計算し、計算した前記基準記号の中心座標を前記座標情報として前記位置情報管理テーブルに格納する、
    ことを特徴とする、請求項4に記載の画像処理装置。
  6. 前記文字読取部は、
    前記入力画像において前記文字情報を検出しなかった場合、読取エラーと判定し、
    前記入力画像の再読み込み、処理の終了、及び前記位置情報管理テーブルに基づいた修正のいずれか一方を実行する、
    ことを特徴とする、請求項4に記載の画像処理装置。
  7. 前記入力画像において、地盤面を示すグランド基準記号が前記入力画像に記載されており、
    前記図面オブジェクト制御部は、
    前記所定の箇所の前記基準位置情報と前記グランド基準記号の画像上の位置とに基づいて、前記図面において、前記対象オブジェクトを前記図面用オブジェクトとして重畳する、
    ことを特徴とする、請求項1に記載の画像処理装置。
  8. 所定の対象オブジェクトが記載されている入力画像に対する画像処理手法を施し、前記対象オブジェクトを読み取る工程と、
    前記入力画像における所定の箇所の地理的位置を示す基準位置情報を位置情報管理テーブルに格納する工程と、
    前記入力画像における前記所定の箇所の前記基準位置情報に対応する図面を取得する工程と、
    前記入力画像における前記所定の箇所の前記基準位置情報に基づいて、前記対象オブジェクトの地理的位置を示すオブジェクト位置情報を判定する工程と、
    取得した前記図面において、前記対象オブジェクトの前記オブジェクト位置情報に対応する位置に、前記対象オブジェクトを図面用オブジェクトとして重畳する工程と、
    前記図面用オブジェクトが重畳された前記図面をオブジェクト重畳図面として出力する工程と、
    を含むことを特徴とする画像処理方法。
  9. クライアント端末と、図面情報管理装置と、画像処理装置とが通信ネットワークを介して接続されている画像処理システムであって、
    前記画像処理装置は、
    所定の対象オブジェクトが記載されている入力画像を前記クライアント端末から受信する入力部と、
    前記入力画像に対する画像処理手法を施し、前記対象オブジェクトを読み取るオブジェクト読取部と、
    前記入力画像における所定の箇所の地理的位置を示す基準位置情報を少なくとも格納する位置情報管理テーブルと、
    前記入力画像における前記所定の箇所の前記基準位置情報に対応する図面を前記図面情報管理装置から取得する図面画像取得部と、
    前記入力画像における前記所定の箇所の前記基準位置情報に基づいて、前記対象オブジェクトの地理的位置を示すオブジェクト位置情報を判定する図面オブジェクト制御部と、
    取得した前記図面において、前記対象オブジェクトの前記オブジェクト位置情報に対応する位置に、前記対象オブジェクトを図面用オブジェクトとして重畳する出力制御部と、
    前記図面用オブジェクトが重畳された前記図面をオブジェクト重畳図面として前記クライアント端末に出力する出力部と、
    を含むことを特徴とする画像処理システム。
  10. 前記画像処理装置は、
    前記対象オブジェクトが記載される前の画像である元画像を保存する元画像記録部を更に含み、
    前記オブジェクト読取部は、
    前記元画像と、前記対象オブジェクトが記載された前記入力画像とを比較することで、前記対象オブジェクトを読み取る、
    ことを特徴とする、請求項9に記載の画像処理システム。
JP2020158466A 2020-09-23 2020-09-23 画像処理装置、画像処理方法及び画像処理システム Pending JP2022052217A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020158466A JP2022052217A (ja) 2020-09-23 2020-09-23 画像処理装置、画像処理方法及び画像処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020158466A JP2022052217A (ja) 2020-09-23 2020-09-23 画像処理装置、画像処理方法及び画像処理システム

Publications (1)

Publication Number Publication Date
JP2022052217A true JP2022052217A (ja) 2022-04-04

Family

ID=80948650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020158466A Pending JP2022052217A (ja) 2020-09-23 2020-09-23 画像処理装置、画像処理方法及び画像処理システム

Country Status (1)

Country Link
JP (1) JP2022052217A (ja)

Similar Documents

Publication Publication Date Title
US7492966B2 (en) Image mapping method and image mapping program
US20080104011A1 (en) Retrieval System and Retrieval Method
US8867088B2 (en) Information processing apparatus for selecting a template in which at least one image is to be arranged, control method of information processing apparatus for selecting a template in which at least one image is to be arranged, and storage medium storing a program for selecting a template in which at least one image is to be arranged
JP2011008752A (ja) ドキュメント操作システム、ドキュメント操作方法およびそのためのプログラム
US8526741B2 (en) Apparatus and method for processing image
JP6931168B2 (ja) 情報処理装置、制御方法、プログラム
JP2022052217A (ja) 画像処理装置、画像処理方法及び画像処理システム
JP2007079866A (ja) 画像分類装置、画像分類方法、画像分類プログラム、及び撮像装置
US20110119256A1 (en) Information processing apparatus, control method therefor, and computer-readable storage medium
WO2022179471A1 (zh) 卡证文本识别方法、装置和存储介质
JP2013020608A (ja) 表示処理装置、表示処理方法及びコンピュータプログラム
JP4703744B2 (ja) コンテンツ表現制御装置、コンテンツ表現制御システム、コンテンツ表現制御用基準物体およびコンテンツ表現制御プログラム
JP4550460B2 (ja) コンテンツ表現制御装置およびコンテンツ表現制御プログラム
JP6947971B2 (ja) 情報処理装置、制御方法、プログラム
US11163992B2 (en) Information processing apparatus and non-transitory computer readable medium
JP4330637B2 (ja) 携帯機器
JP6269024B2 (ja) 情報処理装置及び情報処理プログラム
JP2006053622A (ja) 文書リンク情報取得システム
JP6682827B2 (ja) 情報処理装置及び情報処理プログラム
JP6720734B2 (ja) 画像処理装置及び画像処理プログラム
JP6795770B2 (ja) 情報処理装置と、その処理方法及びプログラム
JP7333759B2 (ja) 画像データ生成システム、画像データ生成方法及びコンピュータプログラム
JP6815712B1 (ja) 画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル
JP7277562B2 (ja) イメージマッチングを利用したマーカー検出方法、その装置及びそのプログラム
JP6019680B2 (ja) 表示装置、表示方法、及び、表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521