JP7457844B2 - 情報処理装置及び方法 - Google Patents
情報処理装置及び方法 Download PDFInfo
- Publication number
- JP7457844B2 JP7457844B2 JP2022580891A JP2022580891A JP7457844B2 JP 7457844 B2 JP7457844 B2 JP 7457844B2 JP 2022580891 A JP2022580891 A JP 2022580891A JP 2022580891 A JP2022580891 A JP 2022580891A JP 7457844 B2 JP7457844 B2 JP 7457844B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- annotation
- predetermined
- annotations
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 55
- 238000000034 method Methods 0.000 title description 77
- 238000012545 processing Methods 0.000 claims description 77
- 238000010801 machine learning Methods 0.000 claims description 46
- 238000012937 correction Methods 0.000 claims description 35
- 238000003708 edge detection Methods 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 238000009434 installation Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
図1は、本実施形態に係るシステムの構成を示す概略図である。本実施形態に係るシステムは、ネットワークに接続されることで互いに通信可能な情報処理装置1と、ドローン8と、ユーザ端末9とを備える。
次に、本実施形態に係る情報処理装置1によって実行される処理の流れを説明する。なお、以下に説明する処理の具体的な内容及び処理順序は、本開示を実施するための一例である。具体的な処理内容及び処理順序は、本開示の実施の形態に応じて適宜選択されてよい。
上記説明した実施形態では、アノテーション補正処理、データ拡張処理、機械学習処理及び状態判定処理を1の情報処理装置において実行する例について説明したが、これらの処理は夫々が分離されて別個の情報処理装置によって実行されてもよい。また、この際、情報処理装置1が備える画像取得部21、領域特定部22、エッジ検出部23、推定部24、アノテーション補正部25、調整画像生成部26、機械学習部27、処理対象取得部28、対象検出部29及び角度算出部30は、その一部が省略されてよい。
Claims (19)
- 機械学習のための教師データとして用いられる画像であって、画像中の所定の対象が示された位置を示すための1又は複数のアノテーションが付された画像を取得する画像取得手段と、
前記画像における、前記1又は複数のアノテーションが所定の基準を満たす領域を特定する領域特定手段と、
特定された前記領域又は該領域に基づいて設定された範囲において優先的にエッジ検出を行うエッジ検出手段と、
検出された前記エッジに基づいて、前記アノテーションが意図されていた位置を推定する推定手段と、
前記アノテーションを、検出された前記エッジに沿うように補正するアノテーション補正手段であって、前記アノテーションの位置を、前記推定手段によって推定された位置に移動させるアノテーション補正手段と、
を備える情報処理装置。 - 前記領域特定手段は、前記画像における、面積に対するアノテーションの量が所定の基準を満たす領域を特定する、
請求項1に記載の情報処理装置。 - 前記領域特定手段は、複数のアノテーションの位置が所定の関係にある領域を特定する、
請求項1又は2に記載の情報処理装置。 - 前記アノテーション補正手段は、前記アノテーションの位置を、該アノテーションに最も近いエッジの位置に移動させる、
請求項1から3のいずれか一項に記載の情報処理装置。 - 前記アノテーション補正手段によって補正された画像を含む教師データを用いた機械学習を実行することで、画像中の前記所定の対象を検出するための学習モデルを生成する機械学習手段を更に備える、
請求項1から4のいずれか一項に記載の情報処理装置。 - 処理対象画像を取得する処理対象取得手段と、
前記機械学習手段によって生成された学習モデルを用いて前記処理対象画像中の前記所定の対象を検出する対象検出手段と、
を更に備える、請求項5に記載の情報処理装置。 - 検出された対象の、前記処理対象画像における所定の基準に対する角度を算出する角度算出手段を更に備える、
請求項6に記載の情報処理装置。 - 機械学習のための教師データとして用いられる画像であって、画像中の所定の対象が示された位置を示すための1又は複数のアノテーションが付された画像を取得する画像取得手段と、
前記画像における、前記1又は複数のアノテーションが所定の基準を満たす領域を特定する領域特定手段と、
特定された前記領域又は該領域に基づいて設定された範囲において優先的にエッジ検出を行うエッジ検出手段と、
前記アノテーションを、検出された前記エッジに沿うように補正するアノテーション補正手段と、
前記アノテーション補正手段によって補正された画像を含む教師データを用いた機械学習を実行することで、画像中の前記所定の対象を検出するための学習モデルを生成する機械学習手段と、
処理対象画像を取得する処理対象取得手段と、
前記機械学習手段によって生成された学習モデルを用いて前記処理対象画像中の前記所定の対象を検出する対象検出手段と、
検出された対象の、前記処理対象画像における所定の基準に対する角度を算出する角度算出手段と、
を備える情報処理装置。 - 前記角度算出手段は、検出された対象の、前記処理対象画像における所定の方角、鉛直方向及び水平方向のいずれかに対する角度を算出する、
請求項8に記載の情報処理装置。 - 画像中の所定の対象が示された位置を示すための1又は複数のアノテーションが付された画像を取得する画像取得手段と、
前記画像中のエッジ検出を行うエッジ検出手段と、
前記アノテーションを、検出された前記エッジに沿うように補正するアノテーション補正手段と、
前記アノテーション補正手段によって補正された画像を含む教師データを用いた機械学習を実行することで、画像中の前記所定の対象を検出するための学習モデルを生成する機械学習手段と、
処理対象画像を取得する処理対象取得手段と、
前記学習モデルを用いて、前記処理対象画像中の前記所定の対象として、屋外に設置されたアンテナ装置を検出する対象検出手段と、
検出された対象の、前記処理対象画像における所定の基準に対する角度を算出する角度算出手段と、
を備える情報処理装置。 - 前記画像における、前記1又は複数のアノテーションが所定の基準を満たす領域を特定する領域特定手段を更に備え、
前記エッジ検出手段は、特定された前記領域又は該領域に基づいて設定された範囲において優先的にエッジ検出を行う、
請求項10に記載の情報処理装置。 - 前記領域特定手段は、前記画像における、面積に対するアノテーションの量が所定の基準を満たす領域を特定する、
請求項11に記載の情報処理装置。 - 前記領域特定手段は、複数のアノテーションの位置が所定の関係にある領域を特定する、
請求項11又は12に記載の情報処理装置。 - 検出された前記エッジに基づいて、前記アノテーションが意図されていた位置を推定する推定手段を更に備え、
前記アノテーション補正手段は、前記アノテーションの位置を、前記推定手段によって推定された位置に移動させる、
請求項10から13のいずれか一項に記載の情報処理装置。 - 前記アノテーション補正手段は、前記アノテーションの位置を、該アノテーションに最も近いエッジの位置に移動させる、
請求項10から14のいずれか一項に記載の情報処理装置。 - 前記角度算出手段は、検出された対象の、前記処理対象画像における所定の方角、鉛直方向及び水平方向のいずれかに対する角度を算出する、
請求項10から15のいずれか一項に記載の情報処理装置。 - コンピュータが、
機械学習のための教師データとして用いられる画像であって、画像中の所定の対象が示された位置を示すための1又は複数のアノテーションが付された画像を取得する画像取得ステップと、
前記画像における、前記1又は複数のアノテーションが所定の基準を満たす領域を特定する領域特定ステップと、
特定された前記領域又は該領域に基づいて設定された範囲において優先的にエッジ検出を行うエッジ検出ステップと、
検出された前記エッジに基づいて、前記アノテーションが意図されていた位置を推定する推定ステップと、
前記アノテーションを、検出された前記エッジに沿うように補正するアノテーション補正ステップであって、前記アノテーションの位置を、前記推定ステップで推定された位置に移動させるアノテーション補正ステップと、
を実行する方法。 - コンピュータが、
機械学習のための教師データとして用いられる画像であって、画像中の所定の対象が示された位置を示すための1又は複数のアノテーションが付された画像を取得する画像取得ステップと、
前記画像における、前記1又は複数のアノテーションが所定の基準を満たす領域を特定する領域特定ステップと、
特定された前記領域又は該領域に基づいて設定された範囲において優先的にエッジ検出を行うエッジ検出ステップと、
前記アノテーションを、検出された前記エッジに沿うように補正するアノテーション補正ステップと、
前記アノテーション補正ステップで補正された画像を含む教師データを用いた機械学習を実行することで、画像中の前記所定の対象を検出するための学習モデルを生成する機械学習ステップと、
処理対象画像を取得する処理対象取得ステップと、
前記機械学習ステップで生成された学習モデルを用いて前記処理対象画像中の前記所定の対象を検出する対象検出ステップと、
検出された対象の、前記処理対象画像における所定の基準に対する角度を算出する角度算出ステップと、
を実行する方法。 - コンピュータが、
画像中の所定の対象が示された位置を示すための1又は複数のアノテーションが付された画像を取得する画像取得ステップと、
前記画像中のエッジ検出を行うエッジ検出ステップと、
前記アノテーションを、検出された前記エッジに沿うように補正するアノテーション補正ステップと、
前記アノテーション補正ステップで補正された画像を含む教師データを用いた機械学習を実行することで、画像中の前記所定の対象を検出するための学習モデルを生成する機械学習ステップと、
処理対象画像を取得する処理対象取得ステップと、
前記学習モデルを用いて、前記処理対象画像中の前記所定の対象として、屋外に設置されたアンテナ装置を検出する対象検出ステップと、
検出された対象の、前記処理対象画像における所定の基準に対する角度を算出する角度算出ステップと、
を実行する方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/048570 WO2023127019A1 (ja) | 2021-12-27 | 2021-12-27 | 情報処理装置及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2023127019A1 JPWO2023127019A1 (ja) | 2023-07-06 |
JP7457844B2 true JP7457844B2 (ja) | 2024-03-28 |
Family
ID=86998322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022580891A Active JP7457844B2 (ja) | 2021-12-27 | 2021-12-27 | 情報処理装置及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240104880A1 (ja) |
JP (1) | JP7457844B2 (ja) |
WO (1) | WO2023127019A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019056966A (ja) | 2017-09-19 | 2019-04-11 | 株式会社東芝 | 情報処理装置、画像認識方法および画像認識プログラム |
JP2020119515A (ja) | 2019-01-25 | 2020-08-06 | 株式会社ベーシック | 設置物認識システム及びそのプログラム |
WO2020204051A1 (ja) | 2019-04-02 | 2020-10-08 | 富士フイルム株式会社 | 画像処理装置とその作動方法および作動プログラム、運用装置とその作動方法および作動プログラム、並びに機械学習システム |
JP2021077921A (ja) | 2019-10-31 | 2021-05-20 | Necネッツエスアイ株式会社 | アンテナ施工補助方法 |
-
2021
- 2021-12-27 JP JP2022580891A patent/JP7457844B2/ja active Active
- 2021-12-27 US US18/003,385 patent/US20240104880A1/en active Pending
- 2021-12-27 WO PCT/JP2021/048570 patent/WO2023127019A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019056966A (ja) | 2017-09-19 | 2019-04-11 | 株式会社東芝 | 情報処理装置、画像認識方法および画像認識プログラム |
JP2020119515A (ja) | 2019-01-25 | 2020-08-06 | 株式会社ベーシック | 設置物認識システム及びそのプログラム |
WO2020204051A1 (ja) | 2019-04-02 | 2020-10-08 | 富士フイルム株式会社 | 画像処理装置とその作動方法および作動プログラム、運用装置とその作動方法および作動プログラム、並びに機械学習システム |
JP2021077921A (ja) | 2019-10-31 | 2021-05-20 | Necネッツエスアイ株式会社 | アンテナ施工補助方法 |
Also Published As
Publication number | Publication date |
---|---|
US20240104880A1 (en) | 2024-03-28 |
WO2023127019A1 (ja) | 2023-07-06 |
JPWO2023127019A1 (ja) | 2023-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210141378A1 (en) | Imaging method and device, and unmanned aerial vehicle | |
CN108702444B (zh) | 一种图像处理方法、无人机及系统 | |
JP6100380B2 (ja) | 特に装置に係る視覚ベースの位置決めに使用される画像処理方法 | |
CN110163064B (zh) | 一种道路标志物的识别方法、装置及存储介质 | |
CN111815707B (zh) | 点云确定方法、点云筛选方法、装置、计算机设备 | |
CN110717861B (zh) | 图像拼接方法、装置、电子设备和计算机可读存储介质 | |
CN110111388B (zh) | 三维物体位姿参数估计方法及视觉设备 | |
CN111436208B (zh) | 一种测绘采样点的规划方法、装置、控制终端及存储介质 | |
US8503730B2 (en) | System and method of extracting plane features | |
WO2013052600A1 (en) | Using videogrammetry to fabricate parts | |
CN112083403B (zh) | 用于虚拟场景的定位追踪误差校正方法及系统 | |
JP2015114954A (ja) | 撮影画像解析方法 | |
CN114004977A (zh) | 一种基于深度学习的航拍数据目标定位方法及系统 | |
EP4068210A1 (en) | System and method for automated estimation of 3d orientation of a physical asset | |
CN112598735B (zh) | 一种融合三维模型信息的单张图像物体位姿估计方法 | |
CN113496503B (zh) | 点云数据的生成及实时显示方法、装置、设备及介质 | |
CN111062875B (zh) | 一种用于空中全景漫游数据的坐标转换方法及装置 | |
CN111712687B (zh) | 航测方法、飞行器及存储介质 | |
CN111527375B (zh) | 一种测绘采样点的规划方法、装置、控制终端及存储介质 | |
CN113034347A (zh) | 倾斜摄影图像处理方法、装置、处理设备及存储介质 | |
JP7457844B2 (ja) | 情報処理装置及び方法 | |
JP2006113832A (ja) | ステレオ画像処理装置およびプログラム | |
CN113129422A (zh) | 一种三维模型构建方法、装置、存储介质和计算机设备 | |
WO2023127018A1 (ja) | 情報処理装置及び方法 | |
CN112106112A (zh) | 一种点云融合方法、设备、系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7457844 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |