JP2019082979A - 画像の改良されたセグメンテーション及び認識のための方法と装置 - Google Patents

画像の改良されたセグメンテーション及び認識のための方法と装置 Download PDF

Info

Publication number
JP2019082979A
JP2019082979A JP2017214986A JP2017214986A JP2019082979A JP 2019082979 A JP2019082979 A JP 2019082979A JP 2017214986 A JP2017214986 A JP 2017214986A JP 2017214986 A JP2017214986 A JP 2017214986A JP 2019082979 A JP2019082979 A JP 2019082979A
Authority
JP
Japan
Prior art keywords
room
floor plan
image
size
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017214986A
Other languages
English (en)
Other versions
JP6584478B2 (ja
Inventor
ビヨン シュテンガー
Stenger Bjorn
ビヨン シュテンガー
玖 徐
Jiu Xu
玖 徐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Publication of JP2019082979A publication Critical patent/JP2019082979A/ja
Application granted granted Critical
Publication of JP6584478B2 publication Critical patent/JP6584478B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/422Technical drawings; Geographical maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像を効率よく正確にセグメント化するための新規な装置と方法を提供する。【解決手段】改良されたコンピュータビジョン画像処理及び画像セグメンテーション及び認識のためのシステムと方法を提供する。当該システムと方法は、改良された画像セグメンテーション及び認識につき、コスト関数によるアプローチを採用する。具体的には、グローバルコスト関数が定義され、該グローバルコスト関数が最小化される。このグローバルコスト関数は、対象入力画像に対する2種類の処理技術により決定される2つのデータパイプライン処理が考慮される。制約は、モデル全体にわたって利用され、データパイプライン間でのデータの一貫性を保証するために利用される。該システムと方法は、間取図画像等の文字・数字データを含む低画質画像を処理するために有用である。【選択図】図3

Description

画像認識とコンピュータビジョンは、大学が人工知能の開発を開始した1960年代には既に存在していた。従前、画像認識を行おうとする際には、視点の変化、スケーリング、方向、変形、オクルージョン、照明条件、背景のノイズ、クラス内変動、オブジェクトの検出などといった課題があった。これらの画像認識についての課題に鑑み過去50年に渡って改良と発達がなされてきたが、現在の方法でも、画像に含まれるオブジェクトを効率的かつ正確に特定するには、依然困難が存在する。
図1は、コンピュータビジョンによる認識が非常に困難な画像の例である。図1は、典型的な間取図画像2を示す。図からわかるように、様々な大きさの部屋空間が種々示されている。回転式ドアとスライド式クローゼットドアの両方が描かれており、器具や備品を表す典型的な記号が示されている。実際にありうることであるが、本例においても面積の大きさが様々な測定単位で示される。エリア10は、従来の日本式測定単位である「j」又は「畳」で記述される一方、区域12は「m」若しくは「平方メートル」の測定単位で記述される。
間取図画像2は、内外壁8とドア6を示している。更に、間取図画像2は、寝室10、バルコニー12、及びリビングルーム14をも示している。画像認識及びコンピュータビジョン処理が、多量のコンピュータ処理資源を必要とすることは理解される。
上述したコンピュータビジョンの問題に鑑み、発明者は、効率的かつ正確に、画像をセグメント化するための新規な装置と方法を作り上げた。発明者は、入力画像を受け取り、より効率的かつ正確に画像へのセマンティックセグメンテーションを行える、改良された畳み込みニューラルネットワークのシステム(以下、「CNNシステム」又は「CNN」)及び方法を本明細書において開示する。開示されるCNNシステムを適用可能な応用例の1つに、効率的かつ正確に、間取図画像をセグメント化することがある。
コンピュータビジョンの分野においては、一般的に、画像セグメンテーションは、処理を向上させるために、入力画像の画素が特定及び分類される分割プロセスである。典型的には、画像セグメンテーションプロセスは、同じラベルを有する画素が特定の共通する性質を有するように全ての画像画素に割り当てられる「ラベル」というセマンティックな分類をもたらす。
コンピュータビジョンの分野では、間取図画像のセグメンテーションと間取図画像の認識(例えば、部屋の特徴の検出)は、活発な分野である。間取図画像は、建造物のレイアウトについて一般的な空間的理解を提供するために、不動産やその他の分野においてよく使用される。典型的には、間取図画像は、不動産の広告に使用されることがあり、画質が低いことがある。しかしながら、これらの間取図画像から自動的にデータを処理して抽出する能力は、種々の目的のために要求される。
今日に至るまで、間取図画像の特徴を特定/分析に係る分野では、間取図画像の高解像度スキャンをする処理ことが重要とされてきた。一般的に、これらの種類プの画像の分析ための従来の試みは、画像の明度に閾値処理をすることによる2値化に依存してきた。画像の2値化とは、間取図画像の壁その他の特徴を、1又は0で特定することを試みる技術である。通常、1は、壁などの物質的な特徴を表し、「0」は、部屋の内部などのオープンスペースを表す。
この画像2値化によるアプローチは、標準的な間取の特徴及びデザインを有する間取図の超高解像度画像に対しては、ある程度の成功を収めていた。しかし、間取図特徴の表記法と間取図画像の画質の大きなバラつきのゆえに、全体として満足のいく結果は得られていなかった。間取図特徴の表記法の上記バラつきに加え、多くの場合、画像が古くて低解像度なために、画像2値化の従来の方法は、間取図画像の特徴の正確な分類に失敗してきた。
更に、間取図画像データの2次元・3次元間の双方向の変換が試みられてきた。こういった画像変換のための技術には、画像2値化技術、構造とテキストの分離技術、及びシンボルの認識/ベクトル化技術が採用されている。しかし、上記画像2値化技術における困難により、これらの変換技術は、間取図に対して正確な特徴検出の結果をもたらすことに失敗してきた。このため、結果としての3Dビジュアリゼーションは満足のいくものではなかった。
このため、低解像度間取図画像の正確な解析の提供が可能な間取図画像認識/間取図特徴検出の技術の提供が望まれることが分かる。更に、間取図特徴を正確に特定する、間取図画像認識/間取図特徴検出の技術の提供が望ましい。ここで開示される技術で、間取図画像認識/間取図特徴検出、より具体的に言えば間取図画像セグメンテーションが、低解像度入力画像を用いたときでさえも、より正確にセグメント化された間取図画像をユーザに取得させるようにするデバイスと方法を改良させた。スタンダードな間取図画像と、間取図画像の確率的表現及び光学文字認識データの組み合わせと、を用いることによって、非常に正確な間取図セグメンテーションを効率的に作成することができる。
開示の実施形態によって、低解像度画像の画像解析を用いる間取図画像認識/間取図特徴検出を提供するデバイスと方法が開示される。
更に、開示の実施形態によって、間取図画像認識及び間取図特徴を正確に特定する間取図特徴検出を提供するデバイスと方法が開示される。
更に、開示の実施形態によって、間取図画像認識を提供するデバイスと方法が改良され、より正確にセグメント化された間取図画像をユーザに取得させるデバイスと方法が開示される。
更に、開示の実施形態によって、スタンダードな間取図画像と間取図画像の確率的表現を使用するためのデバイスと方法が開示される。このデバイスと方法を使用して、非常に正確な画像セグメンテーションを行うことができる。
更に、開示の実施形態によって、他のいかなる情報も用いずに、間取図画像の確率的セグメンテーションを可能にするデバイスと方法が開示される。このデバイスと方法は、間取図レイアウトを決定するために使用することができる。
画像の確率的セグメンテーションの全てが、正確な画素ラベリング又は適切な間取図の特徴のラベリングを可能にするわけではないため、実施形態においては、発明者は、追加の画像処理と計算を適用することにより、確率的セグメンテーションを改良するデバイスと方法を創作した。
開示の実施形態によって、1又は複数の制約を用いることにより、追加の画像情報とともに、間取図の確率的セグメンテーションを繰り返すデバイスと方法が開示される。これらの結果は、互いに比較され、最も尤もらしい間取図レイアウトが決定される。
例えば、開示の実施形態において、制約として、部屋サイズの比率チェックがある。部屋サイズの比率機能では、2つの部屋の部屋サイズの比率が繰り返し比較される。これら2つの部屋は、既知の部屋サイズ比率といった追加情報を伴う確率的セグメンテーション情報を用いることにより決定される。この部屋サイズ比率は、スキャンされた間取図画像に対して光学文字認識をすることにより決定される。
開示の他の実施形態においては、制約として、部屋アクセシビリティチェックがある。部屋アクセシビリティ機能では、部屋アクセシビリティ関数が、2つの部屋の間の経路の幅の最小値を繰り返しチェックする。即ち、当該制約は、全ての部屋がアクセス可能であることを要求するものである。2つの部屋の間の最小幅の経路により、ある部屋がアクセス可能でない場合には、確率的セグメンテーションが行われた間取図の情報を用いることに誤りが発生しがちである。これらのコンセプトの詳細は後述する。
以下の図は、本明細書で開示の発明の様々な構成要素の例を示すものであり、例示を目的とする。
間取図画像の例である。 単一の部屋のエリアが示された間取図画像である。 各部屋のエリアが示された間取図画像である。 2つの選択された画素とこれらに関連するラベルの確率とを有する間取図画像である。 各部屋の画素のカウントが示された間取図画像である。 OCR動作の確率的結果が示された間取図画像である。 部屋サイズの制約処理を示す第1の実施形態のフローチャートである。 部屋サイズの制約処理を示す第2の実施形態のフローチャートである。 第2の実施形態の簡略な間取図画像である。 第2の実施形態の簡略な間取図画像である。 第2の実施形態の簡略な間取図画像である。 第3の実施形態に係る処理のフローチャートである。 ある部屋へのアクセシビリティを欠いている場合の間取図画像である。 ある部屋へのアクセシビリティが小さすぎる場合の間取図画像である。 全ての部屋へアクセシビリティが適切な場合の間取図画像である。 画素推定に基づいて部屋サイズを計算する処理のフローチャートである。 ハードセグメンテーション仮説について部屋比率コストを決定する処理のフローチャートである。 ハードセグメンテーション仮説についてアクセシビリティコストを決定する処理のフローチャートである。 ハードセグメンテーション仮説について複数の制約に対するグローバルコストを決定する処理のフローチャートである。 CNNセグメンテーションシステムの最適化プロセスである。 最適化プロセスのグラフである。 セグメント化された間取図画像の3次元表現である。 セグメント化された間取図画像に基づく3次元間取図画像である。 CNNシステムを走らせるために使用され得るハードウェアを示したものである。
[方法論の概要]
先述したように、高解像度間取図画像を必要とせずに、間取図特徴を正確に特定し、間取図の大きさのデータを正確に抽出することは、間取図画像データを確実に処理するために大いに望まれることである。本明細書に記載の技術では、種々の間取図画像データから間取図の部屋の特徴及び大きさを確実に抽出するために、2つの異なる処理技術が使用される。
間取図画像データから特徴及び大きさの情報を確実に抽出する技術は、種々の用途がある。例えば、間取図画像が解析されて、大きさのデータが当該画像のメタデータとして追加されてもよい。これにより、処理された間取図画像は、所望の部屋のサイズ又は範囲により、検索又は分類可能となる。他にも、アパート又は住宅の潜在的な購買者(又は賃借者)は、家具が部屋又は廊下に収まるか否かを知りたいと思うこともある。このような疑問については、本明細書の開示に係る間取図画像処理が答えとなりうる。
本来的には、間取図画像からの情報の抽出は、間取図画像についての仮説に基づく推定である。例えば、画像セグメンテーションは、同一のラベルを有する画素が特定の性質を共有するように、画像画素に対してラベルを付与するプロセスである。間取図画像のセグメンテーションの目的の1つは、画素データを「領域」又は「エリア」にラベリングすることである。このラベリングは、間取図画像の間で異なる意味論に基づいている。例えば、ある画像において慣習的に「ベッドルーム」と呼ばれるエリアは、他の画像では「寝室」、「書斎」、又は「ロフト」と呼ばれることもある。他にも、間取図画像は、特に部屋の用途を示さないこともある。このため、本明細書で記載する技術では、例えば、「部屋」、「ドア」、「壁」、及び「屋外」と呼ばれるラベルのセットが用いられる。これらの意味的な画素のラベルは、ラベルの一例として、間取図画像のセグメンテーション処理に使用される。勿論、他のラベルも使用可能である。
本実施形態に係る発明の技術では、他の用途に比べて画像認識技術において大きな可能性を有する畳み込みニューラルネットワークシステム(以下、「CNN」又は「CNNシステム」)の態様を採用する。畳み込みニューラルネットワークは、間取図画像の確率的セグメンテーションを得るために使用可能である。CNNシステムがどのように実現されるかについては、本出願と同時に出願され、参照することにより組み込まれる米国出願(出願番号は未決定、代理人整理番号はRT−0001)を参照されたい。
例えば、訓練されたCNNシステムは、間取図画像の確率的セグメンテーションを出力可能である。間取図画像の確率的セグメンテーションは、出力画像の各画素が特定のラベル(即ち、意味的な特定)に係る確率である。例えば、間取図画像について記載する場合には、先述した画素ラベルは、部屋、壁、ドア、窓、外などとすることができる。各画素のラベルは、当該画素に関連する確率を有する。別の言い方をすれば、特定の画素が特定のラベルに対応する確率は、確率的セグメンテーションとして知られている。この確率は、0%と100%の間の値となる。このモデルによると、特定の画素の全てのラベルの確率を足し合わせると、100%となる。
しかしながら、全ての確率的セグメンテーションが、所定の画素について正確なラベルを付与するわけではなく、特定の間取図の特徴が正確に反映されるわけでもない。例えば、確率的な間取図画像の特定の画素又は領域は、壁である確率が41%であり、ドアである確率が40%と示されることがある。このため、確率的セグメンテーションを用いて最終的な間取図の予測をすることができれば、ドアの画素ラベルではなく、壁の画素ラベルを選択することの利点は特に無い。このため、確率的セグメンテーションデータだけを用いても、結果が正確ではないことがある。
本発明の発明者は、更なる画像処理及び計算によって、セグメンテーション結果を改良する方法を開発した。特に、確率的セグメンテーションデータは、対象画像からの生画像データ(例:JPEG,TIFF,GIF,BMP,PNG)によって補足される。後述するように、画像自体から収集可能な追加情報を使用することによって、より正確な間取図予測が実現される。
この生画像データは、別途、光学文字認識(OCR)を用いて解析可能である。この追加のOCR情報は、制限又は確率的セグメンテーションデータ結果のテストとして使用可能である。
本明細書のシステムは、間取図画像のセグメンテーション及び認識を改良するために、コスト関数のアプローチを利用する。具体的には、グローバルコスト関数が定義され、その後に、グローバルコスト関数が最小化される。グローバルコスト関数は、(a)セマンティックラベリング(部屋、ドア、壁など)に基づいて、推定された領域について画像の確率的セグメンテーションを行うこと、(b)画素サイズに部分的に基づいて、部屋サイズの推定を行うこと、といったデータの2つのパイプライン処理が考慮される。即ち、である。例えば、確率的セグメンテーションは、CNNシステムから導き出され、セグメンテーションコスト(セグメンテーションが適切であった蓋然性)が決定される。部屋サイズの推定は、画像における自身のサイズがラベリングされた少なくとも1つのエリアを含む画像である間取図画像に対する処理である光学文字認識(以降「OCR」又は「OCR処理」)処理から導き出される。画像の画素サイズは知られているので、部屋サイズが判定されたOCRは、他の部屋のサイズについても影響を与える。例えば、コストは、補足的に、OCR出力の正確性についての信頼度に由来する不確実さの要因として判定されてもよい。
コスト関数によるアプローチにより、確率的セグメンテーションコストと部屋サイズ推定コストとが一緒に推定される。コスト推定の結果は、両方の推定結果に対するグローバルな制約が含まれているので、つじつまが合う。ここでは2つの制約について述べるが、より多くの又は少ない制約が使用されてもよい。
第1の制約(C1)は、(b)(OCRデータから決定される画素サイズに部分的に基づく部屋サイズの決定)から取得される部屋サイズは、(a)(画像の確率的セグメンテーション)によって決定される各部屋サイズとつじつまが合わなければならないということである。計算された部屋サイズに矛盾が無ければ、処理の正確さについての信頼度が増す。しかしながら、部屋サイズが一致していなかった場合は、画像セグメンテーションプロセスにおいてエラーが発生したと考えられる。このように、部屋サイズに関する制約は、画像処理のエラーのチェックポイントとして役割を果たす。部屋サイズの制約に係る第1の実施形態は、相対的な部屋比率の比較と、コスト関数の適用と、によって実現される。部屋サイズの制約に係る第2の実施形態は、処理結果を直接比較することによって実現される。これらの部屋サイズの制約に係る実施形態の詳細は後述する。
第2の制約(C2)は、各部屋がアクセス可能でなければならないということである。アクセシビリティとは、例えば、ドア、引き戸、又はオープンスペース(玄関)を有し、所定の最低限の幅を有する経路が存在することである。この制約を強めることにより、隣接する2つの部屋の間の経路が最低限のアクセシビリティを欠くと判定される場合は、セグメンテーション仮説にエラーが存在すると判定される。例えば、ドアが誤って壁とラベリングされている。この場合、画像には、エラーを正すための再処理が施される。このようにして、部屋のアクセシビリティに関する制約の強化は、画像処理のエラーのチェックポイントとしての役割も果たす。
理解されるように、データの2つのパイプライン処理の使用(CNNシステムによる画像処理によって入手されるセグメンテーションデータ、及び、OCRシステムによる画像処理によって入手されるOCRデータ)は、対象画像に関するデータ点群を提供する。更に、本明細書で開示されているように、1又は複数の制約の使用は、処理エラーのチェックポイントを提供する。これらの制約は、データの信頼性を高める。このように、画像のセグメンテーション及び認識の信頼性は、大きく向上する。
[グローバルコスト関数の定式化]
一般的に、エンジニアリング、ニューラルネットワーク、及び機械学習の分野においては、コスト関数は、ニューラルネットワークの出力の判定基準である限り、重要な概念である。CNNシステムの分野においては、コスト関数は、出力を正すためにネットワークが行う入力画像のマッピングの精度を表す数を返す。CNNシステムにより実行されるような学習アルゴリズムは、可能な限りコストを低くする答えを見つけるために、複数の回答を探索する。
本実施形態では、改善された画像セグメンテーション及び認識のためのグローバルコスト関数を下記の通りとする。
Figure 2019082979
globalはグローバルコストである。HSはハードセグメンテーション仮説である。PSは確率的セグメンテーションである。OCRは光学文字認識の結果である。λは第1のスケーリング因子である。λは第2のスケーリング因子である。λは第3のスケーリング因子である。なお、スケーリング因子が必要でない場合、λの値は単純に1とすればよい。ここでは、各コスト関数因子については大まかに記載し、詳細については後述する。
C(HS,PS)は、入力である所定のPS(確率的セグメンテーション)からHS(ハードセグメンテーション)出力の蓋然性又は正確度を評価するコスト関数である。大まかには、間取図画像は、完全に訓練された畳み込みニューラルネットワークシステムに入力され、確率的セグメンテーションの結果が計算される。このプロセスにおいて、入力画像の各画素は、ラベルのセットの全てにわたって確率分布が割り当てられる。この出力は、確率的セグメンテーションと呼ばれる。そして、確率的セグメンテーションに基づくハードセグメンテーションが決定される。このプロセスでは、各画素には、確率的セグメンテーションにより決定された、最も確率の高いラベルが割り当てられる。ハードセグメンテーションとは、画素セグメンテーションの一形態である。ハードセグメンテーションは、最も確率の高い画素ラベルに限られず、あらゆる確率の画素ラベルであってよい。ハードセグメンテーションのデータは、システム制約関数に対して評価される。
(HSn,OCR)は、制約C(例:部屋サイズの一貫性)に合致しない特定のHS(ハードセグメンテーション)出力に対し、ペナルティを課すためのコスト関数である。後述するように、部屋サイズの一貫性に係る制約は、部屋サイズに基づくハードセグメンテーション仮説のエラーのチェックを行う。ここでコスト関数は、HSデータとOCRデータを比較した場合に、各部屋のサイズ仮説が一貫していれば、Cコストは非常に低くなり、部屋サイズが一致すれば、ゼロになるように設計されている。サイズの違い又は相対的なエラーは、Cコストを増加させる。
最後に、C(HSn,OCR)は、制約C(例:部屋へのアクセシビリティ)に合致しない特定のHS(ハードセグメンテーション)出力に対し、ペナルティを課すためのコスト関数である。後述するように、この制約は、部屋へのアクセシビリティに基づくハードセグメンテーション仮説のエラーのチェックを行う。ハードセグメンテーション仮説の判定対象となる各部屋は、ドア、引き戸、又はオープンスペースを経由してアクセス可能でなければならない。本願では、「アクセス」及び「アクセシビリティ」とは、所定の最低限の幅よりも大きな幅を有する経路が存在することを意味する。少なくともWminの幅を有する経路によって全ての部屋に到達できる場合、Cコスト関数はゼロ(低コスト)となる。そうではない場合、Cコスト関数は正の値を返す。
本明細書で使用するグローバルコスト関数を含む各コスト関数を含み、かつ、各コスト関数に影響を与える各因子について検討する。各コスト関数のコンポーネントが互いに関連していており、推定結果の一貫性が提供されるように制約された2つのパイプライン処理からのデータが利用されるので、各構成要素について十分に説明してから、グローバルコスト関数について説明する。
[部屋サイズの制約に係る第1の実施形態]
先述したように、部屋サイズの無矛盾性に係る制約は、他から独立して決定又は推定された部屋サイズに基づくハードセグメンテーション仮説に対するエラーチェックとして機能する。入力画像からの第2のデータソースを利用し(即ち、部屋サイズの文字表現を抽出するために光学文字認識(OCR)を利用することによって)、当該文字表現の位置を知ることによって、このデータと、セグメンテーション出力によって決定された部屋サイズと、を比較することができる。他から独立して決定される部屋サイズの間の関連性が高いほど、画像セグメンテーション及び認識が正確に行われた確率は高くなる。
図3は、部屋比率コストを決定するための第1の実施形態を示す。部屋比率コストとは、直感的には、「既知の」結果を用いた2つの部屋の予想面積比率と比較した場合の2つの部屋の面積比率に関する特定のセグメンテーション仮説のコストである。既知の結果とは、OCR結果を利用して得られる2つの部屋の面積比率である。本願では、特定のセグメンテーション仮説は、ハードセグメンテーション仮説又はHSと同じ意味である。
図3のステップ301においては、セグメント化される間取図の入力画像が得られる。間取図の入力画像は、セグメント化されておらず、JPEG,TIFF,GIF,BMP,PNGなどのファイル形式であってよい。ファイル形式は、特定のタイプに限定されない。本実施形態のシステムによって処理される間取図の入力図画像の例は、図2Aの間取図画像20に示されている。
例えば、図2Aは、リビングルーム22、キッチン24、窓25、クローゼット26、クローゼットドア27、キッチンカウンター28、トイレ32、及び浴室ドア35を含む間取図画像20を示す。間取図画像は、キッチン24の部屋サイズを記述するテキスト36をも含む。例えば、間取図画像20は、キッチンのサイズが5平方メートルであることを示している。間取図では、部屋のタイプ及び部屋のサイズが常に表示されているわけではない。例えば、間取図画像20では、リビングルーム22とトイレ32のサイズは示されていない。
ステップ302において、OCR処理が間取図の入力画像に施される。OCR処理は、間取図の入力画像に含まれるテキスト情報を特定するために使用される。OCR処理は、正確な情報を提供し、かつ、入力画像から英数字データを抽出する既知の技術である。このため、OCR処理に係る情報は、間取図のレイアウトについてセマンティックな判断をする際に、ある程度は信頼できる。OCR処理技術は、例えばTESSERACT、GOOGLE、MICROSOFT、ADOBE等の任意のものを使用可能であり、本実施形態のシステムは、特定のOCR処理技術に限定されない。しかしながら、本実施形態のシステムでは、利用するOCR処理が正確であり、画像上の英数字のテキストデータを全て認識するものとする。この点は、画像上のいかなる数字、文字、シンボルなどを認識することについてもあてはまる。更に、利用するOCR処理技術は、当該技術分野において従来からそうであるように、最も確からしい文字認識結果又は確率的文字認識結果を出力するものとする。
例えば、図2Aの間取図画像20に示すように、キッチン24は、5mのエリアを有する。この5平方メートルのエリアデータは、OCR処理によって検出され、出力されてメモリに記憶される。しかしながら、OCR処理は、常に完全に正確なわけでなく、典型例を挙げると、最も可能性の高い記号(例えば、入力画像にマッチする文字、数字、シンボルなど)だけが処理システムによって出力される。このような信頼度に係るエラーに対処するために、利用するOCR処理システムは、確率的データを出力してもよい。即ち、OCR処理出力は、処理システムが処理対象画像から英数字コンテンツをどれだけ正確に抽出したかを示す信頼度を出力してもよい。図2Eは、このタイプのOCR処理の出力結果の例を示す。キッチンのサイズについての参照符号37は、キッチンのサイズである5平方メートルを示しているが、OCR処理の結果は、可能性のある5つの記号の組が示されている。各記号は、正確性を示す特定の確率を有する。例えば、意味論的ラベルの参照符号38が示すように、数字5は、OCR処理結果による5つのラベル又は結果を有する。例えば、キッチンの37番は、80%の確率で数字5であり、10%の確率で大文字のSであり、5%の確率で大文字のRであり、3%の確率でポンドを表す記号(£)であり、2%の確率で数字8である。通常、最も高い確率を持つOCR処理結果が、正しい出力結果として選ばれる。更に、詳細は後述するが、確率的なOCRデータは、部屋サイズ制約のコストの計算と関連付けてなされるOCR処理コストを計算するために用いられるようにしてもよい。
なお、入力画像又は対象画像に含まれる部屋サイズの英数字標記を検出することに加えて、OCR処理は、間取図画像に示される部屋サイズの表示箇所(x−y画素座標)をも出力可能である。この表示箇所データは、少なくとも、詳細を後述する画素サイズを部屋サイズにスケーリングするシステムによって使用される。本実施形態では、一般的な間取図画像のように、部屋サイズの表記は、部屋の中央に記載されるものとする。中央に記載されていない部屋サイズは、処理システムのエラーを引き起こすことがある。この種のエラーは、OCRコスト推定の計算に含めることもできる。他にも、OCRの部屋サイズ情報の記載が、壁又は廊下に近すぎるために信頼性が低いと判定される場合、部屋サイズの一貫性に係る制約のコストを計算する処理は停止してもよい。
ひとたび対象画像に対してOCR処理が実行されると、ステップ303に示すように、少なくとも2つの部屋サイズが検出されたか否かについての判定が実行される。部屋サイズは、例えば平方フィート、平方メートル、畳(日本で使用される)などといった種々の単位で表現可能であり典型的には、サイズを示す数字(例えば、アラビア数字)を有する。OCR処理が数字を検出した場合には、当該数字は間取図における部屋サイズを意味するので、次のステップ304の処理に移行する。しかしながら、画像において数字が認識されなかった場合、画像内に部屋サイズの記載がなかった、又は、画像の質が悪いためOCR処理が部屋サイズの記号を十分抽出できなかったものとして、部屋サイズ制約処理は終了する。
ステップ304では、間取図の他の部屋に部屋サイズがもとの間取図画像にない場合に、当該部屋サイズが計算される。未知の部屋サイズは、既知の部屋サイズから推定される。好ましくは、ステップ303及びOCR処理の間において、少なくとも2つの部屋サイズが対象間取図画像から発見される。OCRで検出された2つの部屋サイズは、部屋サイズ推定の信頼度を向上させる。なお、これらの計算では、入力画像において同一の計測単位が使用され、OCRスキャニングによって検出されるものとする。当然ながら、異なる単位が提供されて検出された場合、例えばある部屋では「畳」が使用されて、他の部屋では「平方メートル」が使用された場合などにおいては、適切な変換ステップが実行される。部屋サイズデータから一般的な単位への変換は、部屋比率の計算、部屋サイズデータの推定、又は画素サイズを部屋サイズデータにスケーリングする処理の前に実行される。
上記の例を図2Bに示す。5平方メートルを示す36番のキッチンに基づいて、他の部屋のサイズを決定するための推定が行われる。例えば、リビングルーム22は7.5平方メートルのサイズであり、クローゼット26は2平方メートルのサイズであり、トイレ32は1.5平方メートルのサイズであり、シャワールーム30は2.2平方メートルのサイズである。部屋サイズの推定は、多くの方法により実行可能であるが、計算コストがとりわけ低い部屋サイズ推定方法は、下記に説明するように、図8に示されている。
少なくとも2又はそれ以上の間取図画像の部屋サイズが取得されると、2つの部屋エリアが選択され、ステップ305において、選択された2つの部屋エリアの部屋比率が取得される。先述したように、OCRは、部屋を認識できず、単に部屋サイズと数字の位置座標(例えば、間取図画像における数字の位置)を認識できるだけである。システムは、対象入力画像に対するCNNシステムの処理から得られるハードセグメンテーション仮説を使用し、画像における部屋サイズの位置に基づいて、所定のハードセグメントの正確な部屋に部屋サイズを関連づける。即ち、ハードセグメンテーション仮説によれば、特定の部屋の部屋サイズが判定される。このため、OCR処理は、部屋であるか否かですら認識することはできないが、OCRの結果をハードセグメンテーション仮説に組み合わせれば、OCR処理結果から部屋のリストと部屋の大きさを推定することができ、部屋サイズについての制約を利用できる。
ステップ305の部屋比率は、第1の部屋面積を第2の部屋面積で割ることにより生成される。例えば、図2Bに図示するように、キッチン24は、5平方メートルの表示エリアを有し、リビングルーム22は、7.5平方メートルの表示エリアを有する。5を7.5で割ることにより、キッチンのリビングルームに対する部屋比率として0.667を得る。これは部屋エリアが特定された全ての部屋の組に対して実行される。計算される部屋比率が多くなるほど、部屋比率コストをより正確に判定できるようになる。このため、可能であれば、間取図における複数の組み合わせについて、部屋比率を計算することが好ましい。
セグメント化されていない画像の部屋比率が取得されると、この情報は、後で使用するためにひとまず保管され(ストレージに格納され)、ステップ306において、確率的セグメンテーション(PS)情報がCNNシステムから取得される。確率的セグメンテーションは、画像における特定の画素が所定のセマンティックラベルと適切に関連する確率又は蓋然性の集まりである。
図2Cは、例えば、畳み込みニューラルネットワーク(CCN)により出力された確率的セグメンテーション出力を示す。図2Cは、非常に簡略化しており、2つの画素42及び44だけを示している。確率的画像は、何千又は何百万の画素を含むことがあり、各画素は、自身が特定のラベルである確率を有する。CNNによる確率的セグメンテーションは、間取図画像1の確率的セグメンテーションを取得するための方法の1つに過ぎず、本実施形態に係る発明は、当該方法には限定されない。図2Cを例に挙げると、画素42及び44は、確率的セグメンテーション情報を含む間取図画像40における2つの画素である。この例においては、画素42及び44は、ドア、壁、部屋、窓、及び屋外といった5つの異なるラベルの何れかとなる。実際には、より多数のラベルが存在してもよいが、説明の簡略化のために、画素ラベルの数を5とする。
図2Cに示される確率的セグメンテーションによると、画素44は、99%の確率で部屋であり、0%の確率でドアであり、0%の確率で壁であり、0%の確率で窓であり、1%の確率で(間取図の)屋外である。一方、画素42の確率的セグメンテーション結果は、より不確定である。図2Cに示す確率的セグメンテーションによると、画素42は20%の確率で部屋であり、40%の確率で壁であり、30%の確率でドアであり、5%の確率で窓であり、5%の確率で屋外である。確率的セグメンテーションデータは、画像内の全ての画素の確率を含むが、説明の簡略化のために、2つの画素のみを示している。
ステップ306において取得された確率的セグメンテーションを使用し、ステップ307においてハードセグメンテーション仮説が実行される。このハードセグメンテーション仮説をHSと記載する。HSは、ハードセグメンテーションを表し、nは、特定のハードセグメンテーション仮説又は繰り返しを表す。確率的セグメンテーションデータにより、多数のハードセグメンテーション仮説が生成される。例えば、第1のハードセグメンテーション仮説は、確率的セグメンテーションのラベルの確率が最大となるものを選択することによって取得される。例えば、図2Cは、2つの画素42及び44を示す。確率が最大のラベルを使用すると、画素42の第1のハードセグメンテーション仮説は壁であり、画素44の第1のハードセグメンテーション仮説は部屋となる。全てのハードセグメンテーション仮説について、各画素は仮説的なラベルを有する。先述したように、間取図画像は、何千又は何百万の画素を有していてもよい。
ステップ307において、ハードセグメンテーション仮説が決定されると、ステップ308において、少なくとも2つの部屋について、部屋ごとの画素数が判定される。この点は、単に、ハードセグメンテーション仮説HSの各部屋における画素数を数えることによって実行される。これらの画素は、「壁」にラベリングされる。図2Dの例では、各部屋エリアが画素カウント数に関連付けられている(ただし、縮尺は描かれていない)。各部屋の画素数は、部屋サイズの絶対的な情報を与えるものでないが、相対的な部屋サイズ、即ち部屋サイズの比率についての情報を与えることができる。この点は、間取図画像が画像全体にわたって同一の縮尺を有するためである。
ステップ309においては、ステップ305において選択された部屋(例えばキッチン24とリビングルーム22)と同じ2部屋が選択される。ステップ308においては、セグメント化された画像の第1及び第2の部屋の画素のカウントが取得され、ステップ305と同様に、各画素のカウントが割り算の対象となる。図2Dを例に挙げると、キッチン24は5405画素を有し、一方でリビングルーム22は7540画素を有する。5405を7540で割ることで、リビングルームに対するキッチンの部屋比率0.717が取得される。
次いで、ステップ310においては、特定のハードセグメンテーション仮説HSの部屋比率の相対コストが実行される。ステップ310において部屋比率を決定するために、コスト関数を使用可能である。コスト関数は、予測値が実測値(又は推定された実測値)からどの程度外れているか測定するために使用可能である。
例えば、部屋比率コストは、直感的には、下記のように捉えることができる。OCRデータを用いた部屋比率が正確だとすると、OCR部屋比率に最も近い部屋比率を有するハードセグメンテーション仮説が望まれる。先述した例においては、OCR部屋比率は0.667であり、特定のHSの部屋比率は0.717である。部屋比率が近いと、ハードセグメンテーション仮説が正しい傾向にあり、部屋比率が遠いと、ハードセグメンテーション仮説が正しくない傾向にある。例えば、HSの部屋比率が5.3だとすると、OCR部屋比率の0.667と大きく異なっているので、ハードセグメンテーション仮説HSが正しくないことを示す。確率的セグメンテーションコスト及びOCR逸脱コストの計算を含むコスト計算の詳細な説明については、図9におけるコスト関数の記載を参照されたい。
他の実施形態として、ステップ310におけるコストについて、部屋比率コストの計算の他に種々の他の潜在的コストが分析されてもよい。例えば、確率的セグメンテーションコスト、部屋比率コスト、及びOCR処理逸脱コストが計算されてもよい。もし所望するのであれば、他の潜在的コストは、(下記に説明する)グローバルコストの計算に使用可能である。
ステップ310において、特定のHSについてのコストが決定されると、ステップ311において、多数のハードセグメンテーションが最小コストを生んだか否かが判定される。例えば、ハードセグメンテーション仮説の最小コストが発見されたことを確定させるために、コスト関数の最適化が実行される。即ち、コスト関数の最小コストが発見されるまで、HSが繰り返えされてよい。ステップ311において最小コストが発見されなかった場合、ステップ313においてHSが繰り返され、ステップ307からプロセスが繰り返されて、別のハードセグメンテーション仮説が検証される。ステップ313において仮説を繰り返すことができる。また、画素連続性を保持する繰り返しが探索されてもよいが、これは、既に確率的セグメンテーションに組み込まれている。このプロセスは、最小HSコストが発見されるまで繰り返される。最小コストを発見する例は、図12に示されており、詳細は後述する。
最小コストが発見されると、最小コストを有するHSが、少なくとも部屋比率に係る制約を考慮したうえで、間取図のセグメンテーションの最適解であると判定される。下記に説明するように、他の制約もこのプロセスで使用可能である。ステップ312において、コストが出力される。最小コストを有するHS及びHSコスト関数は、改良されたセグメンテーション及び認識のデバイスにおける最終的な出力としてもよいし、部屋のセグメンテーションを更に改良するために、下記に説明するアクセシビリティに係る制約などの異なる制約とともに使用されてもよい。
更に、部屋の制約は、2つの部屋についてのみ決定されてもよいし、全体的なハードセグメンテーションコストを突き止めるために、間取図内の全ての部屋の組み合わせについて決定されてもよい。
上記のように、部屋サイズの制約に係る処理の結果、最小のハードセグメンテーション出力に係るHSn関数により決定される各部屋のサイズ仮説のリストが作成される。OCR結果から決定及び/又は推定された各画像エリアについて、部屋サイズの仮説のリストも取得される。サイズの比率を比較することによって、エリアの単位は無関係になる。(CNN処理を経て決定される)画素サイズの比率は、単なる数字となり、(OCR処理を経て決定される)単位の2乗の比率も同様に単なる数字となる。これらの数字は、所定の間取図の同一の2つのエリアを表すとすると比較可能になる。このため、OCR処理により得られたデータにより、各部屋について部屋サイズセグメンテーション仮説を比較するために必要なデータが得られたことになる。部屋サイズの制約のためのコスト関数C1が決定される。この点の詳細は、図9を参照して後述する。
[部屋サイズの制約に係る第2の実施形態]
部屋サイズの制約に係る第2の実施形態を図4に示す。この実施形態は、同時にハードセグメンテーション仮説のセットを処理することができる。このため、部屋サイズの制約に係る第1の実施形態よりも、処理結果が早く決定される。
ステップ351に示すように、OCR結果とともに、ハードセグメンテーション仮説のセットが入力される。上記の実施形態と同様に、OCR結果は、通常、単位(メートル、畳、フィートなど)を伴うアラビア数字である。更に、上記の実施形態と同様に、ハードセグメンテーション仮説の最初のセットがCNNシステムから取得される。
OCR結果及びハードセグメンテーション仮説が取得されると、ステップ354において、少なくとも2つのOCR数字が取得されるか否かが判定される。2つのOCR数字を取得する必要があるのは、たった1つのOCR数字しか取得できず、その数字しか他の部屋のサイズの推定に使用できないときは、OCR数字/部屋の最初の誤差が他の部屋に伝播するためである。OCR結果及び特定のハードセグメンテーション仮説を利用して部屋の比率についての比較が実行された場合、その結果はささいなものにしかならない。なぜなら、特定のハードセグメンテーション仮説に対しては、部屋サイズを抽出するために一つのデータ点のみが使用されているため、OCRに係る部屋のサイズは、必然的に特定のハードセグメンテーション仮説に対し矛盾が生じないからである。このため、本実施形態においては、制約を適切に行うためには、少なくとも2つのOCR数字/部屋サイズが望まれる。この点は、ステップ358及び360の記載によっても明らかになるであろう。
ステップ352においては、少なくとも2つのOCR数字が利用可能であるか否かが判定される。少なくとも2つのOCR数字が利用可能でない場合、プロセスは終了し、ステップ361において0が戻される。少なくとも2つのOCR数字が利用可能である場合、プロセスはステップ354へと進む。ステップ354においては、ハードセグメンテーション仮説のセットが、OCR結果と比較されるべき部屋のそれぞれに対して使用される。例えば、第1のハードセグメンテーション仮説はリビングルーム22を7540画素と推定するかもしれない。一方で、第2のハードセグメンテーション仮説は、リビングルーム22を9000画素と推定するかもしれない。このような推定を、ハードセグメンテーション仮説における各部屋について実行することができる。
次にステップ356において、OCR結果は、所定のハードセグメンテーション仮説と関連付けられる。先述したように、所定の部屋にOCR結果を関連付けることは、特定のハードセグメンテーション仮説と、抽出された英数字データのX−Y画素位置を出力するOCRの能力と、に基づくものである。例えば、図2Aに示すように、キッチン24のOCR結果は、ハードセグメンテーション仮説の対応する位置及び部屋に配置される。このため、OCR結果によると、キッチン24には、特定のハードセグメンテーション仮設として、5mのサイズが割り当てられる。このようなことが、OCR結果に基づいて、全ての部屋に対して実行される。
ステップ358においては、OCR結果を有する各部屋について、他の部屋のサイズを推定可能である。このため、キッチン24のOCR結果が5mであれば、画素当たりのサイズは、特定のハードセグメンテーション仮説により推定される。OCRデータとセグメンテーション仮説に基づいて部屋サイズを推定することについては、図8を参照されたい。即ち、画素当たりの面積を特定するためには、画素数をカウントし、当該画素数を部屋の面積で割ればよい。このプロセスでは、間取図画像に描かれた部屋の実際のサイズが、画素ベースの間取図の画像サイズにスケーリングされる。
そして、所定のハードセグメンテーション仮説及び所定のOCR結果について、他の部屋の画素数をカウントすることができ、他の部屋のそれぞれに対し面積又は部屋サイズが付与される。次に、このプロセスは、他のOCR結果を有する部屋に繰り返すことができる。これは、OCR結果を有する全ての部屋についてなされる。この情報に基づいて、最も確からしいハードセグメンテーション仮説と実際のハードセグメンテーション結果との差異について、コストが計算される。
次に、ステップ360において、ハードセグメンテーション仮説ごとに、コスト関数を使用してコストが計算される。複数のハードセグメンテーション仮説のコストは、一回の繰り返しで計算可能である。即ち、ハードセグメンテーション仮説のセットにおける各ハードセグメンテーション仮説のコストを計算可能である。このコストは、期待値からの逸脱として考えることができる。コスト関数の例については、後述の記載を参照されたい。
図5Aの例に示すように、間取図500には、2つの部屋505及び550が示されている。部屋505には、部屋サイズ510により特定される5mのOCR結果が示されており、一方で部屋550には、部屋サイズ560により特定される10mのOCR結果が示されている。壁530は、部屋を仕切るものとして描かれているが、OCRでは、壁530が何であるかを知ることはできず、単に5m及び10mの結果だけを知ることができる。
図5Bは、第1のハードセグメンテーション仮説を示す。壁530は、ハードセグメンテーション仮説であることを示すために、点線で描かれている。部屋550からのOCR結果だけを使用し、特定のハードセグメンテーション仮説の1画素のサイズを決定可能である。この例では、部屋550の画素数は、916である。このため、各画素のサイズは、0.011mである。この画素サイズを使用し、部屋505の部屋サイズを決定可能である。特定のハードセグメンテーション仮説に基づいて、部屋505内に、824画素があることを知ることができる。824画素を0.011m/画素に乗算し面積として9mが算出される。このため、部屋505の面積は、第1のセグメンテーション仮説によると9mである。
次に、図5Cに示すように、この手順が同一のOCR値(ただし、異なるハードセグメンテーション仮説)である第2のハードセグメンテーション仮説を使用して繰り返される。まず、部屋550の1画素あたりのサイズが、上記手順と同様の手順を使用して決定される。部屋550のOCR値は、10mであり、部屋550内には、1200画素存在する。従って、1画素のサイズは0.0083mである。この画素サイズを使用して、部屋505の部屋サイズを決定可能である。特定のハードセグメンテーション仮説に基づいて、部屋505内に、540画素存在することを知ることができる。540画素を0.00833m/画素に乗算し、面積として4.5mが算出される。このため、部屋505の面積は、第2のセグメンテーション仮説によると4.5mである。
両方の部屋のOCR結果を使用し、第1及び第2のハードセグメンテーション仮説の結果を比較することができる。例えば、第1のハードセグメンテーション仮説においては、両方の部屋のサイズは、各部屋の画素数に基づくと類似し、部屋505は9mであると決定され、部屋550は10mであると推定される。部屋505のサイズの結果は、部屋505のOCR結果である5mと比較することができる。このため、第1のハードセグメンテーション仮説は、OCR結果とそれほど一致しない。
第2のハードセグメンテーション仮説によると、部屋505は4.5mであると計算され、部屋550は10mであると推定される。この結果は、部屋505のサイズを5mとし、部屋550のサイズを10mとするOCR結果と良く一致する。このため、コスト関数が異なるセグメンテーション仮説のコストの決定に使用される時は、第1のハードセグメンテーション仮説は、第2のハードセグメンテーション仮説よりも高いコストを有する。
[アクセシビリティの制約:第3の実施形態]
間取図のレイアウトを決定するにあたり、間取図を解析するまでもなく、いくつかの基本情報については既知である。例えば、全ての部屋は、出入口、廊下、階段といった入口を有する必要がある。間取図画像のセグメンテーション処理の後に、部屋とラベリングされたエリアが出入りのための通路を有していないとすれば、間取図のセグメンテーションの決定に際して間違いがあったとみなしても構わないであろう。
例えば、ドアを壁とラベリングする、廊下を窓とラベリングする、などといった誤りは、入口のない部屋になってしまう。この情報は、間取図画像の結果をチェックすることにより、間取図画像の適切なセマンティックラベリングを決定するための手助けとして使用可能である。本実施形態では、部屋のアクセシビリティに関する要求を、画像セグメンテーションの信頼度を向上させるための第2の制約として利用される。
図2Aに示すように、例えば、間取図画像20は、リビングルーム22、キッチン24、窓25、クローゼット26、キッチンカウンター28、トイレ32、及びシャワールーム30などを含む。この間取図は、キッチン24の部屋サイズが記述されたテキスト36も含む。例えば、間取図画像20は、キッチンのサイズが5平方メートルと示している。間取図画像においては、部屋のタイプと部屋のサイズが常に与えられるとは限らない。例えば、間取図画像20においては、リビングルーム22及びトイレ32のサイズは示されていない。
図6は、アクセシビリティに係る制約の実施形態を実現するためのプロセスを示す。本実施形態では、適切な画像セグメンテーションを決定する手助けをするために、アクセシビリティに係る制約が使用される。即ち、部屋には出入り口が必要であるとの仮定と、出入り口のサイズは少なくとも最低限のサイズであるとの仮定と、に基づいて、CNNシステムは、より確からしいセグメンテーション結果(間取図画像の場合にはより確からしい間取図)を、決定することができる。
ステップ4010においては、画像のハードセグメンテーション仮説及びOCR処理結果のセットがシステムに入力される。対象入力画像のハードセグメンテーション仮説及びOCR結果については先述した通りである。アクセシビリティに係る制約を使用する実施形態は、先に生成されたデータを使用する。
ステップ4020においては、少なくとも1つのOCR結果が利用可能かの判定が実行される。部屋の出入り口のサイズを特定できるように、少なくとも1つのOCR結果が存在することが望ましい。OCR結果が利用可能ではない場合、簡略化された部屋アクセシビリティがチェックされる。
簡略化された部屋アクセシビリティのチェックは、ステップ4070に示される。ステップ4070においては、出入り口の大きさを問わず、各部屋に出入り口があるか否かの判定が実行される。例えば、この簡略化されたチェックは、「部屋」とラベリングされた画素の判定と、部屋の縁の画素をチェックして画素のグループが「ドア」とラベリングされているか否かの確認と、を含んでよい。他にも、2つの画素エリアが「部屋」とラベリングされ、これらが「壁」によって分けられていると判定されれば、ラベリングされた壁に出入り口(通路、廊下)があるか否かを判定するように、チェックが実行されてもよい。他の代替的な簡略化されたチェックのアルゴリズムも可能である。出入り口が発見されると、ステップ4075において当該特定のセグメンテーションのコストが低い(例えば、0)と判定され、出入り口を持たない部屋があると、ステップ4080において当該特定のセグメンテーションのコストが高い(例えば、1)と判定される。
OCR結果が利用な場合、ステップ4030において、ハードセグメンテーション仮説における部屋が設定され、ステップ4040において、各部屋の縮尺が、先に取得されたOCRの処理結果に基づいて計算される。別の言い方をすれば、先述したように、1画素のサイズは、所定の部屋のOCR結果を使用し、部屋内の画素数をカウントすることにより決定される。画素の縮尺をどのように決定するかについては、図8も参照されたい。ハードセグメンテーション仮説における全ての部屋サイズは、このデータに基づいて、部屋内の画素数を単純にカウントし、上記のように決定された1画素の面積と掛けあわせることによって決定される。
次に、ステップ4050において、ハードセグメンテーション仮説における部屋の各ペア(「屋外」とラベリングされた画素も、ここでは「部屋」として扱われる)について、全ての部屋の組み合わせの間で最低限の幅を有する経路を決定するように、計算が実行される。部屋を選択する順番は任意であってよく、最初にどの部屋が選択されてもよい。しかしながら、ひとたび部屋が選択されてアクセシビリティの解析がなされると、当該部屋はアクセシビリティに係る制約を目的として、再び解析されないようにしてよい。別の言い方をすれば、図2Aの間取図画像20を例に挙げると、シャワールーム30とリビングルーム22の間の最小幅を有する経路が計算される。図2Aに示すように、最小幅を有する経路を制限するエリアは、シャワールームドア33及び引き戸29である。従って、これらの2つの値のうち小さい方が、ステップ4050における計算対象である最小の経路幅となる。このプロセスは、部屋の組み合わせ全てについて繰り返され、全ての部屋の組み合わせの中の最小の経路幅が選択される。
上記説明したように、各部屋は、アクセス可能であるために、少なくとも1つの出入り口を有する必要がある。全ての部屋nの出入り口のサイズが決定される。複数の出入り口を有する部屋もある。部屋nが一切出入り口を有さないと決定された場合、この情報も決定される。この状況では、セグメンテーションのラベリングでエラーが発生したと考えられる。
下記に説明するように、最終ステップ4060は、アクセシビリティの制約に関するコスト関数を計算するためのものである。
例えば、図7Aは、間取図60において部屋22がチェックされた際に、出入り口が無いと判定された部屋を示している。即ち、66aが示すように、最小の出入り口が存在せず、出入り口が実際のところ存在していない。この場合、セグメンテーションプロセスは、部屋が最低限のアクセシビリティを有しておらず、出入り口のない部屋であるとの結果を返すので、コストC2は、セグメンテーションエラーが起きた可能性が高いことを示す1(高いコスト)に設定される。図7Bの要素66bに示すように、経路幅が小さいと判定された場合、即ち既定の最小経路幅よりも経路幅が小さいと判定された場合、関数は、中程度のコスト(例えば、0.5など)を返す。最後に、図7Cに示すように2つの部屋の間の経路の幅が十分大きく、最小限のアクセシビリティの制約に関する幅よりも大きいと判定された場合には、コスト関数C2は、ハードセグメンテーション処理が妥当であった可能性が高いことを示す0.0の値を返す。従って、アクセシビリティの制約に従って処理された場合に、最も低いコストを有するハードセグメンテーション仮説が、最も確からしいセグメンテーション仮説として選択される。
[画素サイズの推定]
図8は、画素の推定に基づく部屋サイズの計算のプロセスを示すフローチャートである。このプロセスは、部屋サイズ比率の制約の計算と、部屋アクセシビリティの制約の計算と、の両方に有用である。図8の最初のステップ801に示すように、少なくとも1つの部屋サイズが示されたOCR画像が取得される。ステップ802においては、サイズが示された部屋の画素数がカウントされる。ステップ803と804において、部屋サイズ(面積)が画素数によって割られ、面積/画素が取得される。次に、ステップ805において、各部屋の画素数をカウントし、ステップ804において計算された面積/画素を掛け合わせることによって、間取図画像における他の部屋のサイズが決定される。
[部屋比率セグメンテーションのコスト関数]
コスト関数は、予測値が実測値からずれている度合を定量化するために使用される。例えば、コスト関数は、理想的な部屋比率からのずれ具合を評価するために使用される。更に、コスト関数は、ハードセグメンテーション仮説HSを用いて確率的セグメンテーションからのずれを評価するために使用される。コスト関数は、仮説を理想的なOCR結果と比較しときのずれを評価するためにも使用される。
図9は、上記の実施形態で説明した部屋比率のずれのコストを計算する方法の一例を示すフローチャートである。図9のステップ901に示すように、第1のコストは、所定のHSに対して確率的セグメンテーションからのずれを判定することである。直感的にいうと、該当する確率が100%未満のラベルを使用するときのコストである。使用されるラベルが該当しない確率が高くなるほど、コストは高くなる。
例えば、図2Cの画素44の最小のコストは、壁のラベルを使用することであって、その次に低いコストは、ドアのラベルを使用することである。その次に低いコストは、部屋のラベルを使用することであって、1番目と2番目に高いコストは、窓又は屋外のラベルを使用することである。勿論、先述したように、本例は、説明の簡単化のために、ラベルが5つしかないが、ラベルを多くてもよい。
図2Cに示す画素42の確率値によると、当該画素のラベルとして最も確率が高いのは壁であり、確率は40%である。このため、ハードセグメンテーション仮説が画素42を壁と判定する場合、ラベルとしては最も確率が高いので、これに関連するコストは、他のいかなるコストよりも低い。ハードセグメンテーション仮説が画素42を30%の確率でドアと判定するのであれば、このラベルには低いコストが関連付けられるが、壁のラベルのコストより高くなる。ハードセグメンテーション仮説が画素42を部屋と判定するのであれば、このコストは、壁又はドアのコストよりも高く、中程度の値を有する。ハードセグメンテーション仮説が画素42を5%の確率で窓又は屋外と判定するのであれば、コストは、そこまで高くはならない。ここではラベルは5つのみしか示していないが、勿論ラベルの数は多くてもよい。画素に特定のラベルが付けられる確率が減少すると、関連するコストは増加する。
数式として記載すると、特定のハードセグメンテーションHSは、下記のようになる。
Figure 2019082979
ここで、iは、画像HSにおける全ての画素位置に係るインデックスであり(i=1,…,幅*高さ)、jは、ラベルのインデックス(例えば、j∈{壁、部屋、…その他})であり、p(i)は、画素iにおけるラベルjの確率である。
確率的セグメンテーションに係るコストが計算されると、ステップ902において、コストが重み付けされる。重み付けは、単純なスカラー量としてもよいし、ニューラルネットワークで学習されてもよい。例えば、確率的コストの重要度が部屋比率よりも低い場合、部屋比率コストをスケールアップしてもよいし、確率的コストをスケールダウンしてもよい。
次に、ステップ903において、部屋比率のずれのコストが決定される。簡単に説明したように、HS部屋比率及びOCR部屋比率を計算し、その違いが大きければ大きいほど、コストは大きくなる。この比率を計算するには、下記の数式を使用してもよい。
Figure 2019082979
上記数式においては、各部屋を、r=1.…Rに対する部屋(ハードセグメンテーションHSより)とし、仮説のリストを、(M個のOCR結果がある場合にsizer,1,...,sizer,M(そのそれぞれ1つのOCR結果からのサイズ推定である)とする。max(sizer,j)という項は、部屋サイズを正規化するのに使用され、|max(j)|*|sizer,i−sizer,j|)という項は、部屋サイズについて絶対値での差を決定するのに使われる。
部屋比率コストが決定されると、ステップ902と同様に、結果は、ステップ904において重み係数を使用してスケーリングされる。
その他のコストは、ハードセグメンテーションHSnの正確性の決定に役立てるために計算され、ステップ905に示すように、OCR結果が使用される。ここでは、OCRが100%正確であるものとしているが、これは、現実世界における状況が反映されていない。このため、図3では明示してはいないが、OCRの値も、コスト関数の最小値を発見するために、含まれていてもよいし繰り返されてもよい。実際には、OCR結果は、画像に含まれうる文字/数字/シンボル/等が何であるか、どのような確率値を有するかを示す。図2Eを例に挙げると、OCR結果の例は、数字5である確率が80%であり、文字Sである確率が10%であり、文字Rである確率が5%であり、ポンド記号(£)である確率が3%であり、数字8である確率が2%である。
先述したようn、特定のOCR値が、正しいOCR値の推定値から遠ざかれば遠ざかるほど、関連するコストは高くなる。このコストは、ステップ906で決定される。OCR値のずれのコストは、先述したものと似たコスト関数を使用して計算可能である。ステップ906においては、先述した重み付けに類似した方法により、OCRコストに重みが付けられる。ステップ907においては、確率的セグメンテーション、部屋比率、及びOCRの合計のコストを足し合わせることによって、グローバル部屋比率コストが取得される。
[アクセシビリティセグメンテーションのコスト関数]
図10は、アクセシビリティに関するハードセグメンテーション仮説のコストを決定するためのアクセシビリティコスト関数の一例を示す。ステップ1001及び1002に関しては、プロセスが同様であるため、先述したステップ901及び902を参照されたい。ステップ1003においては、アクセシビリティコストが所定のHSについて決定される。図4を参照して説明したように、解析された各々の部屋へのアクセシビリティは、あるコストを有する。例えば、図6Cに示すように、解析された部屋である部屋nが最小サイズの出入り口を有する場合、アクセシビリティコストは低くなる。図6Bに示すように、解析された部屋が出入り口を有していても、最小サイズよりも小さければ、中程度のコストとなる。図6Aに示すように、解析された部屋がいかなる出入り口も有していないとすれば、関連するコストは高くなる。所定の部屋に対してのアクセシビリティの決定のためのコスト関数は、以下のように記されてもよい。
Figure 2019082979
上記数式は、部屋iと他の部屋j(j=1,部屋の番号)の間に、有効な経路pi,jがある場合の数式であり、fは、経路が狭すぎる場合にペナルティを科すための関数(例:f(w,wmin)=max(wmin−w))である。指数qは、関数を非線形にすることができる。本実施形態では、線形又は非線形のコスト曲線を使用可能である。正のq値は、指数コスト曲線をもたらす。このため、出入り口の幅が最小幅より少しだけ小さければ、コストは小さくなるが、出入り口の幅が最小幅よりもずっと小さければ、コストは線形コスト曲線よりも指数関数的に大きいものとなる。別の言い方をすれば、qは、コスト関数のペナルティ項を線形コストから指数コストへと調整する。このコストは、ステップ1004に示すようにスケーリングすることもできる。
次に、ステップ1005においてOCRコストが決定され、ステップ1006においてOCRコストがスケーリングされる。ステップ1005及び1006については、同様の手続となるステップ905及び906をそれぞれ参照されたい。
ハードセグメンテーションの総コスト(全ての解析された部屋)は下記のように表される。
Figure 2019082979
ステップ1007に示すように、総コストは、重み付けされた確率的セグメンテーションコスト、重み付けされた部屋アクセシビリティコスト、及び重み付けされたOCRのずれのコストの総和である。
勿論、本実施形態に係る発明は、上記の特定のコスト関数には限定されず、いかなる数の既知のコスト関数を使用してもよい。
[グローバルコスト関数]
図11は、先述した2つの制約(部屋サイズの制約とアクセシビリティの制約)を使用してグローバルコストを計算する一例を示す。単一の制約を使用することが可能である一方で、ハードセグメンテーション仮説は、最小のコストを発見するように最適化することができる。最終的なハードセグメンテーション結果は、複数の制約を使用して改善することもできる。例えば、図11に示すように、確率的セグメンテーションコスト関数データはステップ1100で得られる。次に、部屋比率コスト関数データとアクセシビリティコスト関数データは、それぞれステップ1101及び1104で取得される。このデータは、先述した第1、第2、及び第3の実施形態におけるプロセスを実行することで取得される。図3の例では、ステップ311は、全てのハードセグメンテーション仮説HSの中から、最小の部屋サイズコストの決定を模索する。
部屋比率コスト関数データ及びアクセシビリティコスト関数データは、それぞれステップ1103及び1105でスケーリングされる。データをスケーリングする方法については、図9の記載を参照されたい。
確率的セグメンテーションコスト、部屋サイズコスト、及びアクセシビリティコストのコスト関数データが取得され、必要に応じてスケーリングされると、ステップ1106に示すように、各コストを合算することにより、グローバルコスト関数が取得される。このグローバルコスト関数は、下記のように定義される。
Figure 2019082979
globalはグローバルコストであり、HSはハードセグメンテーション仮説であり、PSは確率的セグメンテーションであり、OCRは光学文字認識の結果であり、λは第1のスケーリング因子であり、λは第2のスケーリング因子であり、λは第3のスケーリング因子である。スケーリング因子が不要であれば、λの値は単に1とすればよい。C(HS,PS)は、PSを入力とした場合のHSの確度を評価するコスト関数である。C(HS,OCR)は、制約C(即ち部屋サイズの一貫性)に反した場合にペナルティを課すコスト関数である。C(HS,OCR)は、制約C(即ち部屋のアクセシビリティ)に反した場合にペナルティを課すコスト関数である。
最終的には、下記及びステップ1107に示すように、最小グローバルコストを決定するために、最小のハードセグメンテーション値を求めるようにグローバルコスト関数が最適化される。例えば、最適化は、多数のハードセグメンテーション値について繰り返し、どのハードセグメンテーション値が最小コストを有するかを決定することによって実行される。この最小グローバルコストは、間取図画像の正確なセマンティック表現である可能性が最も高いセグメンテーション値を表す。
[最適化]
図3のステップ313に記載したように、画素を個別にサンプリングして繰り返し処理を実行することができる。画素の連続性を保つ繰り返しを探索することもできるが、それは既に確率的セグメンテーションに組み込まれている。このプロセスは、最小のHSが見つかるまで繰り返すことが可能である。しかし、あらゆる可能なハードセグメンテーションを、画素ごとに繰り返すと、計算コストが非常に高くなる。本明細書で開示の実施形態においては、最適化プロセスにおけるハードセグメンテーションの無作為な反復サンプリングが使用される。
本願の実施形態は、画像のセマンティックなセグメンテーションを行う従来型のCNNシステムと比べて、計算コストの大幅な削減に成功している。例えば、CNNシステムの有効性は、平均精度、インターセクションオーバーユニオン、及びジャカード係数を含む複数の方法で測定可能である。上記の実施形態に依らずに、比較可能なセグメンテーション結果を得るには、CNNシステムの更なる実行時間が必要となるであろう。更なる実行時間は、当然のことながら、CNNシステムの訓練や訓練完了後のCNNシステムによるセグメント化の対象となる画像の他に、CNNシステムの正確な構造に依存する。しかしながら、発明者は、上記実施形態に類似する結果を取得するために、CNNシステムの実行時間を更に5%から20%増やす必要があることを予測している。
本実施形態において、0.12秒で画像をセグメント化できるとすれば、同実施形態に依存しないCNNシステムは、同セグメント化に0.126秒から0.144秒かかると考えられる。計算コストも、同様に5%から20%増大すると考えられる。計算コストとは、以下に列挙するものの何れか又は全てを意味する。例えば、CPU又はGPUによる更なる算術ステップ、更なるメモリの使用、更なるキャッシュの使用、更なる電力の使用、更なる時間の使用などである。
図13は、ハードセグメンテーション(HS)コスト値に関するコスト関数の最適化の一例を示す。y軸は、低値から中値又は高値にわたる相対的なコストを示す。x軸は、ハードセグメンテーションの繰り返し回数を示す。最適化の際、繰り返しによりコストが更に小さくなる場合に限り、コスト仮説を最小化するために、コストが再計算される。図13は、図12に記載の最適化アルゴリズムと併せて参照することで、更に理解が深まるであろう。
図12は、最適化アルゴリズムを示す。図12は、最小コストを有するハードセグメンテーションを決定するために、CNNシステムに対する様々な制約を最適化するためのフローチャートの一例である。先述したように、これは画像画素のラベリングであって、エラーが最も少ないと思われるものである。処理画像が数十万から数百万の画素を含む場合、最小コストのセグメンテーションを決定するために、ありとあらゆる画素ラベリングを考慮に入れてハードセグメンテーションを計算すると、計算コストが非常に高くなってしまう。このため、疑似的なルーチンを開発した。
例えば、ステップ5010において、CNNシステムに画像が入力される。ステップ5020において、入力画像に対し、確率的セグメンテーションが計算され、ステップ5030において、光学文字認識が実行される。これらのステップを実現する例については、先述した記載を参照されたい。次いで、ステップ5040において、最初のハードセグメンテーション仮説が生成される。
この最初のハードセグメンテーション仮説は、図13の0番目の繰り返しで示される単一の仮説であってもよいし、複数のハードセグメンテーション仮説よりなるセットであってもよい(簡略化のため不図示)。
次いで、ステップ5050において、ハードセグメンテーションは繰り返され、複数のハードセグメンテーション仮説が生成される。ハードセグメンテーション仮説の数は、例えば、百、千、一万、又はそれより多くすることができる。図13に示すように、簡略化のために、6つのハードセグメンテーション仮説だけを描いているが、通常は更に多数のハードセグメンテーション仮説が生成される。図13においては、不図示のハードセグメンテーション仮説は、最も高いコストを有する仮説の更に上にあるため、説明の簡略化のために関連を持たないものとする。ハードセグメンテーション仮説は、その前のハードセグメンテーション仮説(利用可能であれば)と同様に、先述した確率的セグメンテーションと制約を使用して生成することができる。
次いで、ステップ5070において、各ハードセグメンテーション仮説のコストが決定される。先述したように、数百以上のハードセグメンテーション仮説が存在することがあるので、これらのコストの全てが決定される。コストの決定に際しては、先述した方法を使用可能である。
ステップ5080においては、コストが最も小さいM個の仮説が選択される。図13における例では、Mの値は6である。このため、6つの最も小さいコストを持つハードセグメンテーション仮説が繰り返し回数1に示されている。このハードセグメンテーション仮説のグループは、関連するmincost(t)を有する(tは繰り返し番号である)。mincost(t)は、時間ステップtにおいて、全てのハードセグメンテーション仮説の中での最小のコスト値である。
ステップ5090においては、mincost(t)は、mincost(t−1)と比較される。即ち、システムは、繰り返し番号に従ってコストが増加しているか減少しているかを判定する。コストが減少を続けているならば、mincost(t)は、mincost(t−1)はより小さくなり、システムは別の繰り返しを実行する。mincost(t)がmincost(t−1)以上であれば、コスト関数の極小値又はそれに近い値が発見されたことになる。
mincost(t)がmincost(t−1)よりも小さい場合には、先述したように、システムは別の繰り返しを実行し、ステップ5050へと戻る。次の繰り返しにおいては、その前のイテレーションにおいて最小のコストを持っていた2つのハードセグメンテーション仮説が繰り返される。繰り返される仮説の数は、2より大きいことも小さいこともあるが、説明の簡略化のためには、2のような小さい数が適切である。
ハードセグメンテーション仮説の繰り返しとは、1以上の画素に対する画素ラベルの変更及びコストの再計算を意味する。例えば、決定された部屋の境界近傍では、壁の画素ラベルは、部屋の画素ラベルに変更される可能性があり、ドアの画素ラベルは、壁の画素ラベルに変更されるかもしれない。実際には、多数の画素ラベルが各繰り返しにおいて変更される。コストは、先述した方法のうちの何れかによって計算可能である。先述したケースと同様、ステップ5060において、何百、何千、何万ものハードセグメンテーション仮説が生成され、ステップ5070において、これらのコストが計算される。ステップ5080においては、最も小さいコストを有するM個の仮説が選択され、mincostが決定される。ステップ5090において、mincostは以前のmincostと比較され、コストが以前のmincostに対して増加しているか減少しているかが判定される。
先述したように、コストが減少していれば、同様にして更なる繰り返しが行われる。ハードセグメンテーション仮説122のように、コストが上昇していれば、ステップ5100において、最小コストを有するハードセグメンテーション仮説120が出力される。
他の実施形態においては、最小コストを決定する際の最終ステップにおいて、多数のハードセグメンテーション仮説が繰り返されるという特殊な最適化がなされることがある。このような例が、図13のイテレーション4、5、及び6に示される。この実施形態では、M個のハードセグメンテーション仮説の一部に対してのみ繰り返す代わりに、最小コストを有する仮説を決定するために、M個のハードセグメンテーション仮説のそれぞれを繰り返してもよい。M個の仮説のそれぞれを繰り返す方法は、通常、計算コストを減少させるために、以前の実施形態の数回のイテレーションの後に行われる。
[画像のセグメンテーション及び認識の応用]
本明細書の詳細な記述から分かることであるが、コンピュータビジョン画像処理は、画像特徴をセグメント化して抽出するために、膨大な量の計算処理を必要とするのが技術的な課題となっている。計算技術として効率的かつ精確なセグメンテーション及び画像特徴認識のプロセスとすることによって、本明細書に記載の実施形態は、技術的な解決策を提供する。このような利点は、画像のセグメンテーション及び特徴の認識の精度及び計算速度を向上させるものであり、制限なく応用することができる。この技術の多様な応用は、間取図画像の処理から把握できる。
図14は、第1の応用実施形態を示す。この実施形態においては、2次元間取図画像が処理システムに入力される。例えば、賃貸又は購入等の可能なアパートを広告する不動産関連の雑誌に間取図画像が掲載され、潜在的な買い手や借り手が当該間取図画像の3次元的な表示を望むかもしれない。本発明の応用実施形態においては、ユーザは、携帯電話のカメラや他のカメラによって関心のある間取図の写真を撮影するかもしれない。又は、ユーザが間取図画像をスキャンしたりウェブブラウザで画像を見たりすることがあるかもしれない。間取図の生画像データが取得されると、それは本明細書で開示の処理システムにアップロードされたり転送されたりする。本明細書で開示された、改良された画像のセグメンテーション及び認識技術に対するコスト関数によるアプローチ及び訓練されたCNNを使用することで、生画像データは最小コスト(即ち、最高の精度)を有するハードセグメンテーションへと素早く解析され得る。
壁画素が特定されると、壁画素の3次元レイヤがハードセグメンテーション画像データに追加/構築され、それにより間取図画像空間の3次元表示の実行及び当該画像のユーザへの返送が可能になる。3次元表示が構築されると、視覚的に歩き回ることを可能にする標準的な流し撮り及びスクロールなどが可能になる。
一実施形態においては、バックエンドサーバが処理を実行し、入力画像及び出力画像をユーザのコンピュータや携帯電話に比較的に短時間に届けることが可能になる。他の実施形態においては、処理は、ユーザのコンピュータ、携帯電話、又は他のモバイル通信機器において実行することができる。
図15は、第2の応用実施形態を示す。この実施形態は、図14に関連する記載に基づいている。ここで、ユーザはシステムの写真を撮ったり、システムに他の入力(例えば、ユーザが3次元空間内で見たい家具又は家具の寸法)を提供したりすることもできる。例えば、ユーザは、自分の長椅子が戸口及び/又は廊下を通り抜けることができるかを判定したり、決定された間取プランの部屋に対する長椅子の相対的なサイズ知りたいと考えたりすることもある。ユーザは、提供された家具の画像集の中から、自身の所望する家具に近い大きさの家具の画像を選んでもよい。又は、間取図画像と同様にユーザの家具の画像を処理し、画像画素から家具サイズを推定する画像処理ルーチンが含まれていてもよい。例えば、このデータは、ユーザによって設けられた画像処理アカウントと関連付けられて記憶されてもよい。興味のある対象間取図画像の3次元レンダリングが生成されると、ユーザは、本物の家具画像を追加して、3次元の処理画像空間内において家具の配置を色々試してよい。
本明細書で開示の技術を利用する上記の実際的な応用例は、説明を目的とするものであり、網羅的な性質を有さない。当業者であれば、他の応用例にも想到するであろう。
[ハードウェア]
図15は、本発明の改良されたセグメンテーションデバイスを動かすことのできるデバイスの例である。改良されたセグメンテーションデバイスはコンピュータ、モバイルデバイス、若しくは他のいかなる処理プラットフォーム上にも実装できる。当該改良されたセグメンテーションデバイスはウェブブラウザ、携帯電話アプリ、大規模ネットワーク、等において動作することができる。
図15は、本明細書で開示の画像を解析するために採用された当該改良されたセグメンテーションデバイスの様々なコンピュータ機器を実装するのに使用可能な、計算デバイス1510の例示構成要素の図である。
さまざまな計算デバイスが、クライアントとして、或いは単一若しくは複数のサーバとして、本明細書で開示のシステムと方法の実装に使用されてもよい。計算デバイスとの語は、デジタルコンピュータの様々な形態、例えばノート型パソコン、デスクトップパソコン、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、その他の適切なコンピュータを表現するのに使用される。その他の計算デバイスとしては、様々な形態の携帯デバイス、例えば携帯情報端末、携帯電話、スマートフォン、及び他の類似の計算デバイスが含まれる。上記のコンポーネントについては、それらの接続や互いの関係、及びそれらの機能は単なる例示であり、本明細書や特許請求の範囲で記載され、及び/又は権利主張される本発明の実施形態を限定するものではない。
計算デバイス1510の各構成物品は様々なバスを使用して相互接続されるが、共通基板への搭載又は他の適切な方法によりなされてよい。プロセッサは、計算デバイス内部における実行の処理についての指示(ディスプレイ上に画像情報を表示するためにメモリ又は記憶装置に記憶される指示を含む指示を含む)を行ってもよい。計算デバイス1510上の改良されたセグメンテーションデバイスの出力は、ディスプレイ上に表示されたり、他の計算デバイスに送信されたり、3次元レンダリングに使用されたり、他の装置で使用されたりしてよい。他の実施形態においては、複数のメモリや複数のタイプのメモリとともに、複数のプロセッサ及び/又は複数のバスが適宜使用されてよい。また、複数の計算デバイスが相互に接続され、各デバイスが、必要な処理の一部を提供する(例えばサーババンク、ブレードサーバのグループ、マルチプロセッサシステムなどとして)こととしても良い。
プロセッサは、複数の個別のアナログ/デジタルプロセッサを含むチップのチップセットとして実装されてよい。加えて、プロセッサは数種類のアーキテクチャのうちのいずれを用いて実装されてもよい。例えば、プロセッサは、x86プロセッサ、RISC(Reduced Instruction Set Computer:縮小指示セットコンピュータ)プロセッサとしてよい。プロセッサは当該デバイスの他の構成要素、例えばユーザインターフェースの制御部、当該デバイスで実行されるアプリ、及び無線通信と協調して動いてもよい。複数のプロセッサや、マルチコアプロセッサを使用してもよい。
プロセッサは操作インターフェースと、ディスプレイと結びついた表示インターフェースとを通じ、ユーザと通信しても良い。ディスプレイは、例えばLEDディスプレイ若しくは他の適切なディスプレイ技術に係るものとすることができる。表示インターフェースは画像情報やその他の情報をユーザに表示するディスプレイを稼働するために適した回路を含んでもよい。操作インターフェースはユーザからの指示を受信し、それらをプロセッサに送るために変換してもよい。加えて、他のデバイスとの近距離無線通信を可能にするために、プロセッサと通信状態にある外部インターフェースを設けてもよい。外部インターフェースは、例えば無線及び/又は有線の通信を提供してもよい。また、複数のインターフェースが用いられてもよい。
大規模な並列処理能力を備えたコンピュータシステム、例えばGPU(Graphics Processing Unit)などは単一のプロセッサよりずっと早く動作する傾向がある。GPUは以下でより詳細に論ずる。
特に、画像処理アプリにおいては、CPUよりも強力な計算機能を持つGPUが使用されてもよい。実施に際しては、数十、数百、数千のGPUのセットが、大規模な情報をより素早く計算するために使用されてよい。GPUは通常、プロセッサと共有メモリを含む。それぞれのプロセッサは共有メモリから効率的にデータを取得し、共通プログラムを実行することで算術処理を行う。使用可能なGPUの例は、GeForce 1080 GPUである。
複数の計算ユニット1510A,1510B,1510C,及び1510Dが図示されている。改良されたセグメンテーションデバイスはこの構成に限定される訳ではなく、単一のコンピュータや多数のコンピュータであってもよい。同様に、改良されたセグメンテーションデバイスは、複数の並列CPU若しくは複数の並列GPU、若しくはこれらの組み合わせを含んでもよい。改良されたセグメンテーションデバイス1500はCPU1520、メモリ1550、通信ユニット1530、並列計算デバイス1560、およびバス1540を含む。改良されたセグメンテーションデバイス1500は、画像の形式若しくは恐らくは各画素のセマンティックな決定の形式を取ることが可能なセグメンテーション結果を出力するディスプレイ(不図示)を有してもよい。
改良されたセグメンテーションデバイス1550への入力は、パソコン、サーバ、又は他の計算デバイス1590によってなされてよい。
CPU1520はメモリ1550に記憶されたプログラムに従って動作する。CPU1520は通信ユニット1530及び並列計算デバイス1560を制御する。プログラムは、例えばインターネット等のネットワーク1580を通じて供給されてもよいし、DVD−ROM又はUSBメモリ等のコンピュータ読み取り可能な情報記憶媒体に記憶される形で供給されてもよい。
メモリ1550は、例えば、RAM又はROM、及びハードディスクドライブ等のメモリ機器を含む。メモリ1550はプログラムを記憶する。また、メモリは各ユニットから入力された情報又は計算結果も記憶する。
通信ユニット1530は、ウェブサーバ又は他のコンピュータと言った他のデバイスと通信するように構成されたネットワークカードであってもよい。通信ユニット1530はCPU1520の制御に基づき、他のデバイスから受信した情報をCPU1520又はメモリ1550に入力し、当該情報を他の機器へと送信する。
バス1540は、CPU1520,メモリ1550、通信ユニット1530、及び並列計算デバイス1560との間でデータを送受信するよう構成されている。例えば、CPU1520又はメモリ1550は、バス1540内の拡張バスを通じて並列計算デバイス1560へと接続されている。
並列計算デバイス1560は、並列計算によって、同種の計算を大量に行うことを得意とするハードウェアである。並列計算デバイス1560は、例えばGPUである。並列計算デバイス1560は、並列プロセッサユニット及びデバイス備え付け(in-device)メモリを含む。各並列実行ユニットは、例えば複数のプロセッサ、指示ユニット、及び高速メモリを含む。
各並列プロセッサは、浮動小数点演算とデータの読み書きをデバイス備え付けメモリ及び高速メモリとともに行う。指示ユニットは、指示ユニットを含む並列実行ユニットに含まれる並列プロセッサに、デバイス備え付けメモリ等に記憶されたプログラムに基づく処理を行わせる。並列実行ユニットの1つに含まれる並列プロセッサは、そのような並列実行ユニットに含まれる指示ユニットからの指示に従って、同一の指示を処理する。この方法によると、複数の並列プロセッサを1つの指示ユニットによって制御することができ、そのことによって指示ユニットの回路サイズの増大を抑えることができる。このように、CPU1520の場合に比して、並列計算デバイス1560に含まれる並列プロセッサの数を増やすことができる。
デバイス備え付けメモリはDRAMによって構成されてよい。デバイス備え付けメモリは、バス1540を通じてCPU1520及びメモリ1550に接続される。並列計算デバイス1560も、DMA転送によって、デバイス備え付けメモリとメモリ1550との間でデータの転送をするための回路を含む。高速メモリは、例えば、デバイス備え付けメモリよりも高速なアクセスが可能なSRAMより構成される。デバイス備え付けメモリ及び高速メモリのそれぞれは、GPU1560の並列プロセッサからアクセス可能な共有メモリである。
ブロック図やフローチャートは、処理の中の特定の論理関数やステップを実行するための1以上の実行可能な指示を含む、コードのモジュール、セグメント、又は部分を表す処理のステップやブロックを描いている。特定の例は特定の処理ステップや手続を表しているが、これらに代わる多くの実装も可能である。ある処理ステップは、例えば機能、目的、規格への適合、レガシー構造、ユーザインターフェースの設計等に対する考慮に基づき、本明細書での具体的記載とは異なる順序で実行されてよい。
本発明の実施形態を多く記述した。本発明の範囲や要旨から逸脱せずに、様々な修正を加えてよいことが理解されるべきである。例えば、上で記載したフローは、ステップの順序変更、追加、又は削除により、様々な形態で使用されてよい。また、遠隔端末や携帯デバイスの使用を認める複数の実施形態を記載したが、これとは異なる多数の応用が予想されることが認識されるべきである。従って、他の実施形態も特許請求の範囲に包含される。

Claims (20)

  1. 互いに通信状態にあるプロセッサ、メモリ、及びディスプレイを含む、特別にプログラムされた装置を使用し、間取図を決定する方法であって、
    第1の間取図画像を前記装置が取得し、
    前記間取図画像のセマンティックセグメンテーションデータを取得し、
    前記間取図画像の光学文字認識(OCR)データを取得し、
    前記装置を使用し、部屋のサイズに関し、前記OCRデータの結果を前記セマンティックセグメンテーションデータと比較し、
    比較結果に基づいて、第2の間取図画像を出力する、
    方法。
  2. 前記セマンティックセグメンテーションデータは、前記間取図画像を解析するための畳み込みニューラルネットワークを使用することにより取得される、
    請求項1に記載の方法。
  3. 前記OCRデータは、部屋のサイズに関連している数値である、
    請求項1に記載の方法。
  4. 前記OCRデータの出力は、確率的セグメンテーションデータに従って、各部屋に関連付けられる、
    請求項1に記載の方法。
  5. 前記関連付けられたOCRデータを有する各部屋は、前記第1の間取図画像における他の部屋の推測に使用される、
    請求項4に記載の方法。
  6. 前記セマンティックセグメンテーションデータは、複数のセグメンテーション仮説を含む、
    請求項5に記載の方法。
  7. コスト関数は、各セグメンテーション仮説のコストを決定するために使用される、
    請求項6に記載の方法。
  8. 前記コスト関数は、各セグメンテーション仮説の相対的コストを計算し、最小コストを有する前記セグメンテーション仮説を出力する、
    請求項7に記載の方法。
  9. 前記OCRデータは、部屋のサイズに関連づけられたユニットである、
    請求項1に記載の方法。
  10. 前記コスト関数は、
    Figure 2019082979
    であり、
    セグメンテーションSにおける各部屋は、room(r=1…R)であり、仮説のリストは、1つのOCR結果からの推定サイズであるsizer,1,…,sizer,M,であり、項(|maxi,j|*|sizer,i−sizer,j|)は部屋サイズの規格化に使用され、項(|maxi,j|*|sizer,i−sizer,j|)は部屋サイズにおける絶対値の相違の決定に使用される、
    請求項8に記載の方法。
  11. 互いに通信状態にあるプロセッサ、メモリ、及びディスプレイを含む、間取図決定装置であって、
    第1の間取図画像を取得し、
    前記第1の間取図画像のセマンティックセグメンテーションデータを取得し、
    前記第1の間取図画像の光学文字認識(OCR)データを取得し、
    部屋のアクセシビリティに関し、前記OCRデータの結果と前記セマンティックセグメンテーションデータとを比較し、
    比較結果に基づいて、第2の間取図画像を出力する、
    ようにプログラムされた間取図決定装置。
  12. 前記第1の間取図画像の画素のスケールを計算するように構成された、
    請求項11に記載の間取図決定装置。
  13. 前記第1の間取図画像における2つの部屋の間の通路の幅を計算するように構成された、
    請求項12に記載の間取図決定装置。
  14. 全ての部屋の組み合わせの中で最小の幅を、2つの部屋の間の通路の幅として決定するように構成された、
    請求項13に記載の間取図決定装置。
  15. 前記OCRデータは、部屋のサイズである、 請求項11に記載の間取図決定装置。
  16. 画素のスケールは、前記部屋のサイズを前記部屋における画素数で割ることによって計算される、
    請求項15に記載の間取図決定装置。
  17. 前記画素のスケールは、前記最小の幅を計算するために使用される、
    請求項15に記載の間取図決定装置。
  18. 前記第2の間取図画像は、コスト関数の最小コストに基づいて出力される、
    請求項17に記載の間取図決定装置。
  19. 互いに通信状態にあるプロセッサ、メモリ、及びディスプレイを含む、特別にプログラムされた装置を使用し、間取図を決定する方法であって、
    第1の間取図画像を前記装置に取得させ、
    前記第1の間取図画像のセマンティックセグメンテーションデータを取得し、
    前記第1の間取図画像の光学文字認識(OCR)データを取得し、
    前記装置を使用し、部屋アクセシビリティに関し、前記OCRデータと前記セマンティックセグメンテーションデータとを比較し、
    前記装置を使用し、部屋サイズに関し、前記OCRデータと前記セマンティックセグメンテーションデータと比較し、
    比較結果に基づいて、第2の間取図画像を出力する、
    方法。
  20. 前記第2の間取図画像は、部屋サイズコストと部屋アクセシビリティコストが合成された最小のコストに基づいて、出力される、
    請求項19に記載の方法。
JP2017214986A 2017-10-30 2017-11-07 画像の改良されたセグメンテーション及び認識のための方法と装置 Active JP6584478B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/798,343 US10395147B2 (en) 2017-10-30 2017-10-30 Method and apparatus for improved segmentation and recognition of images
US15/798,343 2017-10-30

Publications (2)

Publication Number Publication Date
JP2019082979A true JP2019082979A (ja) 2019-05-30
JP6584478B2 JP6584478B2 (ja) 2019-10-02

Family

ID=66243952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017214986A Active JP6584478B2 (ja) 2017-10-30 2017-11-07 画像の改良されたセグメンテーション及び認識のための方法と装置

Country Status (2)

Country Link
US (1) US10395147B2 (ja)
JP (1) JP6584478B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021039516A (ja) * 2019-09-02 2021-03-11 株式会社Aiプランナー 建築物の採点システム及びプログラム
KR20220122671A (ko) 2019-12-27 2022-09-02 가부시키가이샤 한도오따이 에네루기 켄큐쇼 뉴럴 네트워크 모델 및 그 학습 방법

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101638378B1 (ko) 2014-11-28 2016-07-11 주식회사 어반베이스 2차원 도면에 기반한 3차원 자동 입체모델링 방법 및 프로그램
US10395147B2 (en) * 2017-10-30 2019-08-27 Rakuten, Inc. Method and apparatus for improved segmentation and recognition of images
WO2019241771A1 (en) * 2018-06-15 2019-12-19 Riegle Christopher Methods and systems for recognizing geometric units in a computer image
US10956626B2 (en) * 2019-07-15 2021-03-23 Ke.Com (Beijing) Technology Co., Ltd. Artificial intelligence systems and methods for interior design
US11763478B1 (en) 2020-01-17 2023-09-19 Apple Inc. Scan-based measurements
US11551422B2 (en) 2020-01-17 2023-01-10 Apple Inc. Floorplan generation based on room scanning
CN111814575B (zh) * 2020-06-12 2023-02-03 上海品览数据科技有限公司 一种基于深度学习和图像处理的户型图识别方法
CN117744196A (zh) * 2020-10-13 2024-03-22 弗莱瑞尔公司 通过自动分析传感器数据生成物理结构和环境的测量结果
US11797733B2 (en) 2021-03-09 2023-10-24 Togal.Ai Inc Artificial intelligence determination of building metrics for code compliance
US11481704B2 (en) 2021-03-09 2022-10-25 Togal.Ai Inc. Methods and apparatus for artificial intelligence conversion of change orders into an actionable interface
US11475174B2 (en) 2021-03-09 2022-10-18 Togal.Ai Inc. Methods and apparatus for artificial intelligence conversion of a two-dimensional reference into an actionable interface
CN113674418B (zh) * 2021-08-26 2024-04-19 深圳须弥云图空间科技有限公司 针对户型图中元素的处理方法、装置、介质及电子设备
CN114973297A (zh) * 2022-06-17 2022-08-30 广州市圆方计算机软件工程有限公司 一种平面户型图的墙体区域识别方法、系统、设备及介质
US11928395B1 (en) * 2023-04-14 2024-03-12 Hubstar International Limited Floorplan drawing conversion and analysis for space management

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128418A (ja) * 1995-10-27 1997-05-16 Ricoh Co Ltd 建設図面の寸法情報認識方法及び認識装置
JP6116746B1 (ja) * 2016-11-17 2017-04-19 株式会社ネクスト 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US20100275018A1 (en) * 2007-12-20 2010-10-28 Pedersen Thomas Jam System and method for conversion and distribution of graphical objects
US8339417B2 (en) * 2008-07-25 2012-12-25 Navteq B.V. Open area maps based on vector graphics format images
US8229176B2 (en) * 2008-07-25 2012-07-24 Navteq B.V. End user image open area maps
US8099237B2 (en) * 2008-07-25 2012-01-17 Navteq North America, Llc Open area maps
US8774525B2 (en) * 2012-02-03 2014-07-08 Eagle View Technologies, Inc. Systems and methods for estimation of building floor area
WO2016205246A1 (en) * 2015-06-15 2016-12-22 Knit Health, Inc. Remote biometric monitoring system
CN106548127B (zh) * 2015-09-18 2022-11-04 松下电器(美国)知识产权公司 图像识别方法
US10426364B2 (en) * 2015-10-27 2019-10-01 Cardiologs Technologies Sas Automatic method to delineate or categorize an electrocardiogram
US9965705B2 (en) * 2015-11-03 2018-05-08 Baidu Usa Llc Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering
US10115032B2 (en) * 2015-11-04 2018-10-30 Nec Corporation Universal correspondence network
US10192129B2 (en) * 2015-11-18 2019-01-29 Adobe Systems Incorporated Utilizing interactive deep learning to select objects in digital visual media
US9881234B2 (en) * 2015-11-25 2018-01-30 Baidu Usa Llc. Systems and methods for end-to-end object detection
CN108475415B (zh) 2015-12-21 2022-05-27 商汤集团有限公司 用于图像处理的方法和系统
US10402700B2 (en) 2016-01-25 2019-09-03 Deepmind Technologies Limited Generating images using neural networks
US10657376B2 (en) 2017-03-17 2020-05-19 Magic Leap, Inc. Room layout estimation methods and techniques
US10395147B2 (en) * 2017-10-30 2019-08-27 Rakuten, Inc. Method and apparatus for improved segmentation and recognition of images
US10410350B2 (en) * 2017-10-30 2019-09-10 Rakuten, Inc. Skip architecture neural network machine and method for improved semantic segmentation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128418A (ja) * 1995-10-27 1997-05-16 Ricoh Co Ltd 建設図面の寸法情報認識方法及び認識装置
JP6116746B1 (ja) * 2016-11-17 2017-04-19 株式会社ネクスト 情報処理装置、情報処理方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021039516A (ja) * 2019-09-02 2021-03-11 株式会社Aiプランナー 建築物の採点システム及びプログラム
KR20220122671A (ko) 2019-12-27 2022-09-02 가부시키가이샤 한도오따이 에네루기 켄큐쇼 뉴럴 네트워크 모델 및 그 학습 방법

Also Published As

Publication number Publication date
US10395147B2 (en) 2019-08-27
JP6584478B2 (ja) 2019-10-02
US20190130233A1 (en) 2019-05-02

Similar Documents

Publication Publication Date Title
JP6584478B2 (ja) 画像の改良されたセグメンテーション及び認識のための方法と装置
JP6765487B2 (ja) 人工知能を用いるコンピュータ実施方法、aiシステム、及びプログラム
US10297070B1 (en) 3D scene synthesis techniques using neural network architectures
Wang et al. Uncertainty estimation for stereo matching based on evidential deep learning
US10796452B2 (en) Optimizations for structure mapping and up-sampling
US10733431B2 (en) Systems and methods for optimizing pose estimation
CN106204522B (zh) 对单个图像的联合深度估计和语义标注
US20220414911A1 (en) Three-dimensional reconstruction method and three-dimensional reconstruction apparatus
US11003956B2 (en) System and method for training a neural network for visual localization based upon learning objects-of-interest dense match regression
JP2019082978A (ja) スキップアーキテクチャ・ニューラルネットワーク装置及び改良されたセマンティックセグメンテーションのための方法
CN109858333B (zh) 图像处理方法、装置、电子设备及计算机可读介质
US20130223740A1 (en) Salient Object Segmentation
Peng et al. Model and context‐driven building extraction in dense urban aerial images
Lu et al. Data-driven floor plan understanding in rural residential buildings via deep recognition
US20070025594A1 (en) On optimizing template matching via performance characterization
CN111523169B (zh) 一种装修方案生成方法、装置、电子设备及存储介质
CN114120454A (zh) 活体检测模型的训练方法、装置、电子设备及存储介质
CN114387642A (zh) 图像分割方法、装置、设备和存储介质
Fond et al. Model-image registration of a building’s facade based on dense semantic segmentation
Qian et al. A reliable online method for joint estimation of focal length and camera rotation
CN111161238A (zh) 图像质量评价方法及装置、电子设备、存储介质
Miao et al. Road centreline extraction from classified images by using the geodesic method
CN116188478A (zh) 图像分割方法、装置、电子设备及存储介质
Midwinter et al. Unsupervised defect segmentation with pose priors
CN114693642A (zh) 一种结节匹配方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20171204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190903

R150 Certificate of patent or registration of utility model

Ref document number: 6584478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250