JP2022154447A - 景観分析支援装置及び景観分析支援プログラム - Google Patents

景観分析支援装置及び景観分析支援プログラム Download PDF

Info

Publication number
JP2022154447A
JP2022154447A JP2021057491A JP2021057491A JP2022154447A JP 2022154447 A JP2022154447 A JP 2022154447A JP 2021057491 A JP2021057491 A JP 2021057491A JP 2021057491 A JP2021057491 A JP 2021057491A JP 2022154447 A JP2022154447 A JP 2022154447A
Authority
JP
Japan
Prior art keywords
information
analysis support
landscape
evaluation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021057491A
Other languages
English (en)
Inventor
邦明 安藤
Kuniaki Ando
邦彦 藤原
Kunihiko Fujiwara
勇志 ▲高▼井
Takeshi Takai
美音子 今西
Mineko Imanishi
拓郎 岡田
Takuo Okada
理恵 鈴木
Rie Suzuki
裕一郎 冨岡
Yuichiro Tomioka
祐士 佐野
Yuji Sano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to JP2021057491A priority Critical patent/JP2022154447A/ja
Publication of JP2022154447A publication Critical patent/JP2022154447A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】分析対象とする領域に対する、景観に関する主観的な評価結果の根拠を把握することができる景観分析支援装置及び景観分析支援プログラムを得る。【解決手段】景観分析支援装置10は、分析対象とする領域を撮影して得られた撮影画像を示す画像情報が入力情報とされ、当該撮影画像に対する景観に関する主観的な評価を示す主観評価情報、及び当該景観に関する客観的な評価を示す客観評価情報が出力情報とされた景観分析支援モデル13Dを用いた景観分析支援装置10であって、画像情報を取得する取得部11Bと、取得部11Bによって取得された画像情報を景観分析支援モデル13Dに入力することで主観評価情報及び客観評価情報を導出する導出部11Cと、導出部11Cによって導出された主観評価情報及び客観評価情報の双方を示す情報である総合評価情報を提示する提示部11Dと、を備える。【選択図】図4

Description

本発明は、景観分析支援装置及び景観分析支援プログラムに関する。
従来、画像に対する評価に関する技術として、以下の技術があった。
特許文献1には、第1の表示手段および受付手段を有する端末と、制御装置とを備える評価システムが開示されている。この評価システムは、前記端末の前記表示手段が、第1の画像データに基づいて、評価対象物が含まれる第1の画像を表示し、前記端末の前記受付手段が、前記第1の表示手段に表示された前記第1の画像における、評価者による、注目部の指定および前記注目部に対する評価情報の入力を受け付ける。また、この評価システムは、前記制御装置が、複数の、前記注目部の指定に関する情報と前記評価情報とが関連付けられた受付情報に基づいて、前記第1の画像における位置ごとの注目度を表す注目度分布データを生成し、前記第1の画像および前記注目度分布データに基づいて第2の画像データを生成して、第2の画像として第2の表示手段に表示させる。そして、この評価システムは、複数の前記受付情報に含まれる複数の前記注目部に関する情報に基づいて、前記第1の画像における位置ごとの注目度を決定し、前記位置ごとの注目度に応じて前記注目度分布データを生成する。
特許文献2には、ドキュメントのデザインの印象を評価するためのデザイン制作支援装置が開示されている。このデザイン制作支援装置は、ドキュメントの印象を表現する選択肢群を含むデータベースであって、互いに異なる選択肢群を含む複数の印象表現データベースと、前記複数の印象表現データベースに含まれる選択肢に対してドキュメントを見た人間が感じる印象を表す印象情報を関連付けた印象評価データベースと、を記憶する記憶手段を含む。また、このデザイン制作支援装置は、ドキュメントのデザイン制作の目標とする印象に合った選択肢を前記複数の印象表現データベースからそれぞれ少なくとも1つをユーザに選択させて取得する印象情報取得手段を含む。そして、このデザイン制作支援装置は、前記印象評価データベースを参照して、前記複数の印象表現データベースから選択された選択肢に関連付けられている印象情報を抽出して、抽出された印象情報の少なくとも1つをドキュメントのデザイン制作の目標とする印象を表す目標印象情報とする目標印象情報設定手段を含む。
特開2018-136604号公報 特開2007-279923号公報
ところで、従来、機械学習されたモデルを用いて、撮影された画像が示す景観に関する評価として、安心感がある、活気がある、といった主観的な評価結果を得ることは可能であったが、当該主観的な評価に至る根拠が何であるかを把握することはできなかった。
なお、上記特許文献1及び特許文献2に開示されている技術においても、上記根拠については考慮されておらず、この問題を解決することはできない。
本開示は、以上の事情を鑑みて成されたものであり、分析対象とする領域に対する、景観に関する主観的な評価結果の根拠を把握することができる景観分析支援装置及び景観分析支援プログラムを提供することを目的とする。
請求項1に記載の本発明に係る景観分析支援装置は、分析対象とする領域を撮影して得られた撮影画像を示す画像情報が入力情報とされ、当該撮影画像に対する景観に関する主観的な評価を示す主観評価情報、及び当該景観に関する客観的な評価を示す客観評価情報が出力情報とされた景観分析支援モデルを用いた景観分析支援装置であって、前記画像情報を取得する取得部と、前記取得部によって取得された画像情報を前記景観分析支援モデルに入力することで前記主観評価情報及び前記客観評価情報を導出する導出部と、前記導出部によって導出された前記主観評価情報及び前記客観評価情報の双方を示す情報である総合評価情報を提示する提示部と、を備える。
請求項1に記載の本発明に係る景観分析支援装置によれば、撮影画像を示す画像情報が入力情報とされ、当該撮影画像に対する景観に関する主観的な評価を示す主観評価情報、及び当該景観に関する客観的な評価を示す客観評価情報が出力情報とされた景観分析支援モデルに、取得した画像情報を入力することで主観評価情報及び客観評価情報を導出し、導出した主観評価情報及び客観評価情報の双方を示す情報である総合評価情報を提示することで、上記客観的な評価は主観的な評価に及ぼす影響が大きく、当該主観的な評価の根拠となっていることが多いため、分析対象とする領域に対する、景観に関する主観的な評価結果の根拠を把握することができる。
請求項2に記載の本発明に係る景観分析支援装置は、請求項1に記載の景観分析支援装置であって、前記主観評価情報が、安心感に関する情報、活況感に関する情報、及び魅力感に関する情報の少なくとも1つを含むものである。
請求項2に記載の本発明に係る景観分析支援装置によれば、主観評価情報を、安心感に関する情報、活況感に関する情報、及び魅力感に関する情報の少なくとも1つを含むものとすることで、主観評価情報に含まれる情報が示す評価結果の根拠を把握することができる。
請求項3に記載の本発明に係る景観分析支援装置は、請求項1又は請求項2に記載の景観分析支援装置であって、前記客観評価情報が、対応する前記主観評価情報に関する要素及び特徴の少なくとも一方を含むものである。
請求項3に記載の本発明に係る景観分析支援装置によれば、客観評価情報を、対応する主観評価情報に関する要素及び特徴の少なくとも一方を含むものとすることで、主観評価情報が示す評価結果の根拠を、より具体的に把握することができる。
請求項4に記載の本発明に係る景観分析支援装置は、請求項1~請求項3の何れか1項に記載の景観分析支援装置であって、学習に用いる学習用画像情報を取得する学習用画像取得部、を更に備え、前記景観分析支援モデルが、前記学習用画像取得部によって取得された学習用画像情報を入力情報とし、当該学習用画像情報に対応する前記主観評価情報及び前記客観評価情報を出力情報として機械学習されたものとするものである。
請求項4に記載の本発明に係る景観分析支援装置によれば、学習に用いる学習用画像情報を取得する一方、景観分析支援モデルを、取得した学習用画像情報を入力情報とし、当該学習用画像情報に対応する主観評価情報及び客観評価情報を出力情報として機械学習されたものとすることで、より簡易に景観分析支援モデルを構築することができる。
請求項5に記載の本発明に係る景観分析支援プログラムは、分析対象とする領域を撮影して得られた撮影画像を示す画像情報が入力情報とされ、当該撮影画像に対する景観に関する主観的な評価を示す主観評価情報、及び当該景観に関する客観的な評価を示す客観評価情報が出力情報とされた景観分析支援モデルを用いた景観分析支援プログラムであって、前記画像情報を取得し、取得した画像情報を前記景観分析支援モデルに入力することで前記主観評価情報及び前記客観評価情報を導出し、導出した前記主観評価情報及び前記客観評価情報の双方を示す情報である総合評価情報を提示する、処理をコンピュータに実行させる。
請求項5に記載の本発明に係る景観分析支援プログラムによれば、撮影画像を示す画像情報が入力情報とされ、当該撮影画像に対する景観に関する主観的な評価を示す主観評価情報、及び当該景観に関する客観的な評価を示す客観評価情報が出力情報とされた景観分析支援モデルに、取得した画像情報を入力することで主観評価情報及び客観評価情報を導出し、導出した主観評価情報及び客観評価情報の双方を示す情報である総合評価情報を提示することで、上記客観的な評価は主観的な評価に及ぼす影響が大きく、当該主観的な評価の根拠となっていることが多いため、分析対象とする領域に対する、景観に関する主観的な評価結果の根拠を把握することができる。
以上説明したように、本発明によれば、分析対象とする領域に対する、景観に関する主観的な評価結果の根拠を把握することができる。
実施形態に係る景観分析支援システムの構成の一例を示すブロック図である。 実施形態に係る景観分析支援装置のハードウェア構成の一例を示すブロック図である。 実施形態に係る景観分析支援装置の、景観分析支援モデルの学習時における機能的な構成の一例を示すブロック図である。 実施形態に係る景観分析支援装置の、景観分析支援モデルの運用時における機能的な構成の一例を示すブロック図である。 実施形態に係る学習用情報データベースの構成の一例を示す模式図である。 実施形態に係る画像情報データベースの構成の一例を示す模式図である。 実施形態に係る評価結果情報データベースの構成の一例を示す模式図である。 実施形態に係る評価入力処理の一例を示すフローチャートである。 実施形態に係る評価入力画面の構成の一例を示す正面図である。 実施形態に係る学習処理の一例を示すフローチャートである。 実施形態に係る景観分析支援処理の一例を示すフローチャートである。 実施形態に係る初期情報入力画面の構成の一例を示す正面図である。 実施形態に係る評価結果画面の構成の一例を示す正面図である。
以下、図面を参照して、本発明を実施するための形態例を詳細に説明する。
まず、図1を参照して、本実施形態に係る景観分析支援システム1の構成を説明する。図1は、本実施形態に係る景観分析支援システム1の構成の一例を示すブロック図である。
図1に示すように、本実施形態に係る景観分析支援システム1は、本システムの中心的な役割を担う景観分析支援装置10と、情報蓄積装置90と、を含む。本実施形態に係る景観分析支援装置10は、予め構築した景観分析支援モデルに対して、分析対象とする領域を撮影して得られた撮影画像を示す画像情報を入力することで、当該撮影画像に対する景観に関する主観的な評価を示す主観評価情報、及び当該景観に関する客観的な評価を示す客観評価情報を導出するものである。また、本実施形態に係る情報蓄積装置90は、景観分析支援装置10で取り扱う各種情報を蓄積するものである。
本実施形態に係る情報蓄積装置90は不揮発性の記憶部92を備えている。記憶部92はHDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現される。記憶媒体としての記憶部92には、学習用情報データベース92A、画像情報データベース92B、及び評価結果情報データベース92Cが記憶されている。学習用情報データベース92A、画像情報データベース92B、及び評価結果情報データベース92Cについては、詳細を後述する。
景観分析支援装置10と、情報蓄積装置90とは、ネットワークNを介して接続されており、景観分析支援装置10は、情報蓄積装置90とネットワークNを介して相互に通信可能とされている。なお、本実施形態では、ネットワークNとしてLAN(Local Area Network)、WAN(Wide Area Network)等の企業内の通信回線を適用しているが、この形態に限定されるものではない。ネットワークNとして、例えば、インターネット、電話回線等の公共の通信回線を適用してもよく、これらの企業内の通信回線及び公共の通信回線を組み合わせて適用してもよい。また、本実施形態では、ネットワークNとして有線の通信回線を適用しているが、この形態に限定されるものではなく、無線の通信回線を適用してもよく、有線及び無線の各通信回線を組み合わせて適用してもよい。
次に、図2を参照して、本実施形態に係る景観分析支援装置10のハードウェア構成を説明する。図2は、本実施形態に係る景観分析支援装置10のハードウェア構成の一例を示すブロック図である。なお、景観分析支援装置10の例としては、パーソナルコンピュータ及びサーバコンピュータ等の各種コンピュータが挙げられる。
本実施形態に係る景観分析支援装置10は、CPU(Central Processing Unit)11、一時記憶領域としてのメモリ12、不揮発性の記憶部13、キーボードとマウス等の入力部14、液晶ディスプレイ等の表示部15、媒体読み書き装置(R/W)16及び通信インタフェース(I/F)部18を備えている。CPU11、メモリ12、記憶部13、入力部14、表示部15、媒体読み書き装置16及び通信I/F部18はバスBを介して互いに接続されている。媒体読み書き装置16は、記録媒体17に書き込まれている情報の読み出し及び記録媒体17への情報の書き込みを行う。
記憶部13はHDD、SSD、フラッシュメモリ等によって実現される。記憶媒体としての記憶部13には、評価入力プログラム13A、学習プログラム13B、及び景観分析支援プログラム13Cが記憶されている。評価入力プログラム13A、学習プログラム13B、及び景観分析支援プログラム13Cの各プログラムは、当該各プログラムが書き込まれた記録媒体17が媒体読み書き装置16にセットされ、媒体読み書き装置16が記録媒体17からの上記各プログラムの読み出しを行うことで、記憶部13へ記憶(インストール)される。CPU11は、評価入力プログラム13A、学習プログラム13B、及び景観分析支援プログラム13Cの各プログラムを記憶部13から順次読み出してメモリ12に展開し、当該各プログラムが有するプロセスを順次実行する。
また、記憶部13には、景観分析支援モデル13Dが記憶される。本実施形態に係る景観分析支援モデル13Dは、上述したように、分析対象とする領域を撮影して得られた撮影画像を示す画像情報(以下、単に「画像情報」という。)が入力情報とされている。また、本実施形態に係る景観分析支援モデル13Dは、上述したように、当該撮影画像に対する景観に関する主観的な評価を示す主観評価情報(以下、単に「主観評価情報」という。)、及び当該景観に関する客観的な評価を示す客観評価情報(以下、単に「客観評価情報」という。)が出力情報とされている。
本実施形態に係る景観分析支援モデル13Dは、CNN(Convolutional Neural Network、畳み込みニューラルネットワーク)を用いたAI(Artificial Intelligence、人工知能)によるモデルとされているが、これに限るものではない。CNN以外のAI等の他の機械学習モデルを景観分析支援モデル13Dとして適用する形態としてもよい。
なお、本実施形態では、主観評価情報として、安心感に関する情報、活況感に関する情報、及び魅力感に関する情報を含む情報を適用しているが、これに限るものではない。例えば、これらの情報に加えて、美しさに関する情報、清潔感に関する情報、色彩感に関する情報、歴史観に関する情報等の他の主観に関する情報を含めて、1つ、又は複数の組み合わせを含む情報を主観評価情報とする形態としてもよい。
また、本実施形態では、客観評価情報として、対応する主観評価情報に関する要素及び特徴を含む情報を適用しているが、これに限るものではない。例えば、当該要素及び特徴の何れか一方のみを含む情報を客観評価情報とする形態としてもよい。
次に、図3を参照して、本実施形態に係る景観分析支援装置10の、景観分析支援モデル13Dの学習時における機能的な構成について説明する。図3は、本実施形態に係る景観分析支援装置10の、景観分析支援モデル13Dの学習時における機能的な構成の一例を示すブロック図である。
図3に示すように、景観分析支援モデル13Dの学習時における景観分析支援装置10は、学習用画像取得部11Aを含む。景観分析支援装置10のCPU11が学習プログラム13Bを実行することで、学習用画像取得部11Aとして機能する。
本実施形態に係る学習用画像取得部11Aは、学習に用いる学習用画像情報(以下、単に「学習用画像情報」という。)を取得する。
なお、本実施形態では、上記学習用画像情報を、後述する学習用情報データベース92A(図5も参照。)から読み出すことにより取得する。但し、この形態に限るものではなく、SNS(Social Networking Service)等に投稿されている、不特定多数の景観に関する画像情報を学習用画像情報として、通信I/F部18等を介して直接取得する形態としてもよい。
そして、本実施形態に係る景観分析支援モデル13Dは、学習用画像取得部11Aによって取得された学習用画像情報を入力情報とし、当該学習用画像情報に対応する、上述した主観評価情報及び客観評価情報を出力情報として機械学習される。
次に、図4を参照して、本実施形態に係る景観分析支援装置10の、景観分析支援モデル13Dの運用時における機能的な構成について説明する。図4は、本実施形態に係る景観分析支援装置10の、景観分析支援モデル13Dの運用時における機能的な構成の一例を示すブロック図である。
図4に示すように、景観分析支援モデル13Dの運用時における景観分析支援装置10は、取得部11B、導出部11C、及び提示部11Dを含む。景観分析支援装置10のCPU11が景観分析支援プログラム13Cを実行することで、取得部11B、導出部11C、及び提示部11Dとして機能する。
本実施形態に係る取得部11Bは、分析対象とする領域を撮影して得られた撮影画像を示す画像情報(以下、単に「画像情報」という。)を取得する。
なお、本実施形態では、上記画像情報を、後述する画像情報データベース92B(図6も参照。)から読み出すことにより取得する。但し、この形態に限るものではなく、SNS等に投稿されている、不特定多数の景観に関する画像情報のうちの1つを画像情報として、通信I/F部18等を介して直接取得する形態としてもよい。
また、本実施形態に係る導出部11Cは、取得部11Bによって取得された画像情報を景観分析支援モデル13Dに入力することで主観評価情報及び客観評価情報を導出する。そして、本実施形態に係る提示部11Dは、導出部11Cによって導出された主観評価情報及び客観評価情報の双方を示す情報である総合評価情報(以下、単に「総合評価情報」という。)を提示する。
なお、本実施形態では、提示部11Dが、総合評価情報を表示部による表示により提示する場合について説明するが、これに限定されない。例えば、スピーカ等の音声生成装置による音声によって総合評価情報を提示する形態としてもよいし、プリンタ等の画像形成装置による印刷によって総合評価情報を提示する形態としてもよい。
次に、図5を参照して、本実施形態に係る学習用情報データベース92Aについて説明する。図5は、本実施形態に係る学習用情報データベース92Aの構成の一例を示す模式図である。本実施形態に係る学習用情報データベース92Aは、景観分析支援モデル13Dの学習に用いる情報を記憶するためのものである。
図5に示すように、本実施形態に係る学習用情報データベース92Aは、学習用画像ID(Identification)、学習用画像情報、主観評価、客観評価、及び指定領域の各情報が関連付けられて記憶される。
上記学習用画像IDは、学習用画像情報を個別に識別するために、学習用画像情報の各々毎に異なる情報として予め割り振られた情報であり、上記学習用画像情報は、学習用画像情報そのものを示す情報である。
また、上記主観評価は、対応する学習用画像情報が示す画像に対する、ユーザによる主観的な評価の結果を示す情報であり、上記客観評価は、対応する学習用画像情報が示す画像に対する、ユーザによる客観的な評価の結果を示す情報である。
図5に示す例では、学習用画像IDとして「L001」が割り振られた学習用画像情報が示す画像に対する主観評価が「安心感がある」との評価であり、客観評価が「道路の幅員が広い」との評価であることが記憶されている。ここで、客観評価における「道路の幅員」が上述した「要素」に相当し、「広い」が上述した「特徴」に相当する。
更に、上記指定領域は、対応する学習用画像情報が示す画像に対して客観評価を行う際に、ユーザによって指定された領域を示す情報である。
次に、図6を参照して、本実施形態に係る画像情報データベース92Bについて説明する。図6は、本実施形態に係る画像情報データベース92Bの構成の一例を示す模式図である。本実施形態に係る画像情報データベース92Bは、分析対象とする画像情報を記憶するためのものである。
図6に示すように、本実施形態に係る画像情報データベース92Bは、地区名、分析用画像ID、及び分析用画像情報の各情報が関連付けられて記憶される。
上記地区名は、対応する分析用画像情報を得るために撮影を行った地区の名称を示す情報である。また、上記分析用画像IDは、対応する分析用画像情報を個別に識別するために、分析用画像情報の各々毎に異なる情報として予め割り振られた情報であり、上記分析用画像情報は、分析用画像情報そのものを示す情報である。
次に、図7を参照して、本実施形態に係る評価結果情報データベース92Cについて説明する。図7は、本実施形態に係る評価結果情報データベース92Cの構成の一例を示す模式図である。本実施形態に係る評価結果情報データベース92Cは、分析対象とする画像に対する主観評価及び客観評価の各評価の結果を示す情報を記憶するためのものである。
図7に示すように、本実施形態に係る評価結果情報データベース92Cは、分析用画像ID、主観評価、及び客観評価の各情報が関連付けられて記憶される。
上記分析用画像IDは、画像情報データベース92Bの分析用画像IDと同一の情報であり、上記主観評価及び客観評価は、各々、対応する分析用画像情報が示す画像に対する主観評価の結果、及び客観評価の結果を示す情報である。
次に、図8~図13を参照して、本実施形態に係る景観分析支援装置10の作用を説明する。
まず、図8~図9を参照して、本実施形態に係る評価入力処理を実行する場合の景観分析支援装置10の作用を説明する。図8は、本実施形態に係る評価入力処理の一例を示すフローチャートである。
景観分析支援装置10のCPU11が評価入力プログラム13Aを実行することによって、図8に示す評価入力処理が実行される。図8に示す評価入力処理は、ユーザにより、評価入力プログラム13Aの実行を開始する指示入力が入力部14を介して行われた場合に実行される。なお、ここでは、錯綜を回避するために、学習用情報データベース92Aに学習用画像ID及び学習用画像情報が既に登録されている場合について説明する。また、ここでは、主観評価の対象とする、「安心感がある」、「活気がある」といった種類を示す種類情報が予め記憶部13に登録されている場合について説明する。
図8のステップ100で、CPU11は、上記種類情報を記憶部13から読み出し、ステップ102で、CPU11は、学習用情報データベース92Aから2つの学習用画像情報(以下、「処理対象学習用画像群」という。)を読み出す。
なお、本実施形態では、処理対象学習用画像群として、学習用情報データベース92Aに登録されている学習用画像情報のうち、主観評価及び客観評価の各情報が学習用情報データベース92Aに登録されていない画像情報で、かつ、任意の2つの画像情報を適用しているが、これに限るものではない。例えば、主観評価及び客観評価の各情報が学習用情報データベース92Aに登録されていない画像情報で、かつ、学習用情報データベース92Aへの登録が古い順から2つの画像情報を処理対象学習用画像群として適用する形態としてもよい。
ステップ104で、CPU11は、読み出した種類情報及び処理対象学習用画像群を用いて、予め定められた構成とされた評価入力画面を表示するように表示部15を制御し、ステップ106で、CPU11は、所定情報が入力されるまで待機する。
図9には、本実施形態に係る評価入力画面の構成の一例が示されている。図9に示すように、本実施形態に係る評価入力画面では、読み出した種類情報における1種類の主観評価(図9に示す例では、「安心感がある」との評価であり、以下、「処理対象主観評価」という。)を感じる方の画像の指定を促すメッセージが表示される。また、本実施形態に係る評価入力画面では、処理対象主観評価を感じた根拠となる要素を四角で囲む旨と、当該要素の名称及び特徴の入力を促す旨とのメッセージが表示される。そして、本実施形態に係る評価入力画面では、読み出した処理対象学習用画像群が示す画像15A1及び画像15A2が並べられた状態で表示され、上記要素の名称及び特徴を入力するための入力領域15Bが表示される。
一例として図9に示す評価入力画面が表示部15に表示されると、ユーザは、入力部14を用いて、表示されている画像15A1及び画像15A2のうち、処理対象主観評価を、より強く感じる側の画像に対して、当該処理対象主観評価を感じる根拠となる領域を四角15Fで囲む。そして、ユーザは、入力部14を用いて、上述した要素の名称及び特徴を対応する入力領域15Bに入力し、その後に終了ボタン15Gを指定する。
ユーザによって終了ボタン15Gが指定されると、ステップ106が肯定判定となってステップ108に移行する。
ステップ108で、CPU11は、処理対象主観評価、評価入力画面においてユーザにより入力された要素の名称及び特徴により構成される客観評価、及び四角15Fの領域を示す指定領域の各情報を学習用情報データベース92Aの対応する記憶領域に記憶する。なお、本実施形態では、上記指定領域の記憶を、対応する四角15Fの一対の対角の位置を示す2次元座標値を記憶することにより行っているが、これに限るものでないことは言うまでもない。
ステップ110で、CPU11は、主観評価及び客観評価の各情報が学習用情報データベース92Aに登録されていない全ての学習用画像情報について、ステップ102~108の処理が終了したか否かを判定し、否定判定となった場合はステップ102に戻る一方、肯定判定となった場合は本評価入力処理を終了する。なお、ステップ102~ステップ110の繰り返し処理を実行する際に、CPU11は、主観評価及び客観評価の各情報が学習用情報データベース92Aに登録されていない学習用画像情報の2つの組み合わせを処理対象学習用画像群として適用する。また、この繰り返し処理を実行する際に、CPU11は、前回適用しなかった主観評価を処理対象主観評価として適用する。
以上の評価入力処理により、一例として図5に示す学習用情報データベース92Aが構築されることになる。
次に、図10を参照して、景観分析支援モデル13Dを学習させる場合における景観分析支援装置10の作用を説明する。図10は、本実施形態に係る学習処理の一例を示すフローチャートである。
景観分析支援装置10のCPU11が学習プログラム13Bを実行することによって、図10に示す学習処理が実行される。図10に示す学習処理は、ユーザにより、学習プログラム13Bの実行を開始する指示入力が入力部14を介して行われた場合に実行される。なお、錯綜を回避するために、以下では、学習用情報データベース92Aが既に構築されている場合について説明する。
図10のステップ200で、CPU11は、学習用情報データベース92Aから一組の学習用画像情報、主観評価、客観評価、及び指定領域の各情報を読み出す。ステップ202で、CPU11は、読み出した学習用画像情報から、読み出した指定領域が示す領域の画像情報を切り出す。
ステップ204で、CPU11は、切り出した画像情報を入力情報とし、読み出した主観評価及び客観評価の各情報を出力情報(正解情報)として、景観分析支援モデル13Dを機械学習する。ステップ206で、CPU11は、学習用情報データベース92Aに記憶されている全ての情報についてステップ204による機械学習が終了したか否かを判定し、否定判定となった場合はステップ200に戻る一方、肯定判定となった場合は本学習処理を終了する。なお、ステップ200~ステップ206の処理を繰り返し実行する場合にCPU11は、それまでに学習対象としなかった情報を学習対象とするようにする。
以上の学習処理により、景観分析支援モデル13Dが学習されることになる。
次に、図11~図13を参照して、景観分析支援モデル13Dを運用する場合における景観分析支援装置10の作用を説明する。図11は、本実施形態に係る景観分析支援処理の一例を示すフローチャートである。
景観分析支援装置10のCPU11が景観分析支援プログラム13Cを実行することによって、図11に示す景観分析支援処理が実行される。図11に示す景観分析支援処理は、ユーザにより、景観分析支援プログラム13Cの実行を開始する指示入力が入力部14を介して行われた場合に実行される。なお、錯綜を回避するために、以下では、景観分析支援モデル13Dの学習が終了しており、画像情報データベース92Bが既に構築されている場合について説明する。
図11のステップ300で、CPU11は、予め定められた構成とされた初期情報入力画面を表示するように表示部15を制御し、ステップ302で、CPU11は、所定情報が入力されるまで待機する。
図12には、本実施形態に係る初期情報入力画面の構成の一例が示されている。図12に示すように、本実施形態に係る初期情報入力画面では、景観の分析対象とする対象地区の名称(以下、「対象地区名」という。)の入力を促すメッセージが表示される。また、本実施形態に係る初期情報入力画面では、対象地区名を入力するための入力領域15Cが表示される。
一例として図12に示す初期情報入力画面が表示部15に表示されると、ユーザは、入力部14を用いて、景観の分析対象とする対象地区名を入力領域15Cに入力した後、終了ボタン15Gを指定する。
ユーザによって終了ボタン15Gが指定されると、ステップ302が肯定判定となってステップ304に移行する。
ステップ304で、CPU11は、対象地区名が示す対象地区に対応する情報のうち、何れか1組の分析用画像ID及び分析用画像情報を画像情報データベース92Bから読み出す。ステップ306で、CPU11は、読み出した分析用画像情報を景観分析支援モデル13Dに入力する。
ステップ308で、CPU11は、分析用画像情報の入力に応じて景観分析支援モデル13Dから出力される主観評価及び客観評価の各情報を取得する。ステップ310で、CPU11は、取得した主観評価及び客観評価の各情報を、対応する分析用画像IDに対応付けて評価結果情報データベース92Cに記憶する。
ステップ312で、CPU11は、以上のステップ304~ステップ310の処理が、画像情報データベース92Bに登録されている、対象地区名が示す対象地区の全ての分析用画像情報について終了したか否かを判定し、否定判定となった場合はステップ304に戻る一方、肯定判定となった場合はステップ314に移行する。なお、ステップ304~ステップ312の繰り返し処理を実行する際に、CPU11は、それまでに処理対象としなかった分析用画像情報を処理対象として適用する。
以上の処理により、対象地区名に対応する対象地区(以下、「処理対象地区」という。)に関して、一例として図7に示す評価結果情報データベース92Cが構築されることになる。
ステップ314で、CPU11は、評価結果情報データベース92Cから処理対象地区に対応する全ての主観評価及び客観評価の各情報を読み出す。ステップ316で、CPU11は、読み出した主観評価及び客観評価の各情報を用いて、予め定められた構成とされた評価結果画面を表示するように表示部15を制御し、ステップ318で、CPU11は、所定情報が入力されるまで待機する。
図13には、本実施形態に係る評価結果画面の構成の一例が示されている。図13に示すように、本実施形態に係る評価結果画面では、読み出した主観評価及び客観評価の各情報の各々毎に、各評価の度数が、対応する評価の内容別にレーダーチャート15D1として表示される。このレーダーチャート15D1が本発明の総合評価情報の一例である。また、本実施形態に係る評価結果画面では、処理対象地区に対応する分析用画像情報が示す画像15D2が表示される。
なお、一例として図13に示すように、本実施形態では、分析用画像情報として360度カメラによる撮影によって得られた撮影画像(以下、「360度画像」という。)を適用している。このため、一例として図6に示す画像情報データベース92Bに登録されている分析用画像情報が示す画像は、上記360度画像から所定角度(一例として、5度)毎に切り出した複数の撮影画像とされている。但し、この形態に限るものではなく、画像情報データベース92Bに登録されている分析用画像情報は、対応する対象地区において異なる地点で一方向に対して撮影されて得られた画像情報を適用する形態としてもよい。
また、本実施形態に係る評価結果画面では、ユーザによって指定された処理対象地区が含まれる地図画像15Eが表示される。このため、景観分析支援装置10の記憶部13、又は情報蓄積装置90の記憶部92には、景観分析支援システム1が対応している領域の地図情報が予め記憶されている。
そして、本実施形態に係る評価結果画面では、地図画像15Eに対して、上述したレーダーチャート15D1及び画像15D2が、処理対象地区を指し示す吹き出し15Dに含まれる状態で表示される。従って、ユーザは、評価結果画面を参照することにより、処理対象地区に対する総合的な主観評価、及び当該主観評価の根拠となる総合的な客観評価を、その位置及び対応する撮影画像と共に直感的に把握することができる。
一例として図13に示す評価結果画面が表示部15に表示されると、ユーザは、評価内容を把握した後、入力部14を用いて終了ボタン15Gを指定する。ユーザによって終了ボタン15Gが指定されると、本景観分析支援処理が終了する。
以上説明したように、本実施形態に係る景観分析支援装置10は、分析対象とする領域を撮影して得られた撮影画像を示す画像情報が入力情報とされ、当該撮影画像に対する景観に関する主観的な評価を示す主観評価情報、及び当該景観に関する客観的な評価を示す客観評価情報が出力情報とされた景観分析支援モデル13Dを用いた景観分析支援装置10であって、上記画像情報を取得する取得部11Bと、取得部11Bによって取得された画像情報を景観分析支援モデル13Dに入力することで主観評価情報及び客観評価情報を導出する導出部11Cと、導出部11Cによって導出された主観評価情報及び客観評価情報の双方を示す情報である総合評価情報を提示する提示部11Dと、を備えている。従って、上記客観的な評価は主観的な評価に及ぼす影響が大きく、当該主観的な評価の根拠となっていることが多いため、分析対象とする領域に対する、景観に関する主観的な評価結果の根拠を把握することができる。
また、本実施形態によれば、主観評価情報を、安心感に関する情報、活況感に関する情報、及び魅力感に関する情報の少なくとも1つを含むものとしている。従って、主観評価情報に含まれる情報が示す評価結果の根拠を把握することができる。
また、本実施形態によれば、客観評価情報を、対応する主観評価情報に関する要素及び特徴の少なくとも一方を含むものとしている。従って、主観評価情報が示す評価結果の根拠を、より具体的に把握することができる。
更に、本実施形態によれば、学習に用いる学習用画像情報を取得する一方、景観分析支援モデル13Dを、取得した学習用画像情報を入力情報とし、当該学習用画像情報に対応する主観評価情報及び客観評価情報を出力情報として機械学習されたものとしている。従って、より簡易に景観分析支援モデル13Dを構築することができる。
なお、上記実施形態において例示した各種画面の構成は各々一例であり、変更を加えてもよいことは言うまでもない。例えば、図13に示すレーダーチャート15D1は、円グラフ、棒グラフ等の他のグラフによって、対象とする情報(上記実施形態では、主観評価及び客観評価の各情報に関する情報)を表示する形態としてもよい。
また、上記実施形態では、客観評価をユーザが行う場合について説明したが、これに限るものではない。例えば、客観評価の要素及び特徴が「緑視率が高い」や「天空率が高い」といった撮影画像から機械的に得ることができるものである場合、当該客観評価を機械学習されたAI等によって自動的に導出する形態としてもよい。
また、上記実施形態では、評価入力画面に2つの学習用画像を表示する場合について説明したが、これに限るものではない。例えば、1つのみの学習用画像を評価入力画面に表示する形態としてもよいし、3つ以上の学習用画像を評価入力画面に表示する形態としてもよい。
また、上記実施形態では、評価入力処理による評価結果の入力を、一例として図9に示した評価入力画面を用いた、入力部14を介した手入力により行う場合について説明したが、これに限るものではない。例えば、視線計測(所謂アイトラッキング)が可能なソフトウェアを利用して、評価対象とする撮影画像における、ユーザが注目している要素を自動的に特定することで、主観評価及び客観評価の少なくとも一方の評価結果の入力を省力化する形態としてもよい。
また、上記実施形態では、特に言及しなかったが、景観分析支援処理によって得られた総合評価情報をデータベース化する等によって記憶しておき、単なる表示に留まらず、他の評価等に再利用する形態としてもよい。
また、上記実施形態では、本発明の景観分析支援装置を、景観分析支援装置10及び情報蓄積装置90を用いた景観分析支援システム1として適用した場合について説明したが、これに限るものではない。例えば、景観分析支援装置10及び情報蓄積装置90を一体化した単一の装置で本発明の景観分析支援装置を構成する形態としてもよい。
また、上記実施形態において、例えば、学習用画像取得部11A、取得部11B、導出部11C、及び提示部11Dの各処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、処理部を1つのプロセッサで構成してもよい。
処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
1 景観分析支援システム
10 景観分析支援装置
11 CPU
11A 学習用画像取得部
11B 取得部
11C 導出部
11D 提示部
12 メモリ
13 記憶部
13A 評価入力プログラム
13B 学習プログラム
13C 景観分析支援プログラム
13D 景観分析支援モデル
14 入力部
15 表示部
15A1、15A2 画像
15B 入力領域
15C 入力領域
15D 吹き出し
15D1 レーダーチャート
15D2 画像
15E 地図画像
15F 四角
15G 終了ボタン
16 媒体読み書き装置
17 記録媒体
18 通信I/F部
90 情報蓄積装置
92 記憶部
92A 学習用情報データベース
92B 画像情報データベース
92C 評価結果情報データベース

Claims (5)

  1. 分析対象とする領域を撮影して得られた撮影画像を示す画像情報が入力情報とされ、当該撮影画像に対する景観に関する主観的な評価を示す主観評価情報、及び当該景観に関する客観的な評価を示す客観評価情報が出力情報とされた景観分析支援モデルを用いた景観分析支援装置であって、
    前記画像情報を取得する取得部と、
    前記取得部によって取得された画像情報を前記景観分析支援モデルに入力することで前記主観評価情報及び前記客観評価情報を導出する導出部と、
    前記導出部によって導出された前記主観評価情報及び前記客観評価情報の双方を示す情報である総合評価情報を提示する提示部と、
    を備えた景観分析支援装置。
  2. 前記主観評価情報は、安心感に関する情報、活況感に関する情報、及び魅力感に関する情報の少なくとも1つを含む、
    請求項1に記載の景観分析支援装置。
  3. 前記客観評価情報は、対応する前記主観評価情報に関する要素及び特徴の少なくとも一方を含む、
    請求項1又は請求項2に記載の景観分析支援装置。
  4. 学習に用いる学習用画像情報を取得する学習用画像取得部、を更に備え、
    前記景観分析支援モデルは、前記学習用画像取得部によって取得された学習用画像情報を入力情報とし、当該学習用画像情報に対応する前記主観評価情報及び前記客観評価情報を出力情報として機械学習されたものである、
    請求項1~請求項3の何れか1項に記載の景観分析支援装置。
  5. 分析対象とする領域を撮影して得られた撮影画像を示す画像情報が入力情報とされ、当該撮影画像に対する景観に関する主観的な評価を示す主観評価情報、及び当該景観に関する客観的な評価を示す客観評価情報が出力情報とされた景観分析支援モデルを用いた景観分析支援プログラムであって、
    前記画像情報を取得し、
    取得した画像情報を前記景観分析支援モデルに入力することで前記主観評価情報及び前記客観評価情報を導出し、
    導出した前記主観評価情報及び前記客観評価情報の双方を示す情報である総合評価情報を提示する、
    処理をコンピュータに実行させるための景観分析支援プログラム。
JP2021057491A 2021-03-30 2021-03-30 景観分析支援装置及び景観分析支援プログラム Pending JP2022154447A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021057491A JP2022154447A (ja) 2021-03-30 2021-03-30 景観分析支援装置及び景観分析支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021057491A JP2022154447A (ja) 2021-03-30 2021-03-30 景観分析支援装置及び景観分析支援プログラム

Publications (1)

Publication Number Publication Date
JP2022154447A true JP2022154447A (ja) 2022-10-13

Family

ID=83557295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021057491A Pending JP2022154447A (ja) 2021-03-30 2021-03-30 景観分析支援装置及び景観分析支援プログラム

Country Status (1)

Country Link
JP (1) JP2022154447A (ja)

Similar Documents

Publication Publication Date Title
US20190355102A1 (en) Digital Image Completion by Learning Generation and Patch Matching Jointly
CN1691740B (zh) 放大显示装置以及放大显示方法
JP2016528571A (ja) パーソナル感情アイコンを提供するための方法及びシステム
CN109740571A (zh) 图像采集的方法、图像处理的方法、装置和电子设备
US9202299B2 (en) Hint based spot healing techniques
TWI780919B (zh) 人臉影像的處理方法、裝置、電子設備及儲存媒體
WO2016067704A1 (ja) 体の部位に装着される印刷商品を提供するシステム、プログラム及び方法
JP7008081B2 (ja) ニューラルネットワークの学習方法、学習装置、学習済みモデル及びプログラム
JP2022159514A (ja) 画像処理装置,画像処理方法ならびに画像処理プログラムおよびそのプログラムを格納した記録媒体
WO2024077909A1 (zh) 基于视频的交互方法、装置、计算机设备和存储介质
CN109635021A (zh) 一种基于人体检测的数据信息录入方法、装置及设备
JP6804125B1 (ja) 3dデータシステム及び3dデータ生成方法
JP2020086542A (ja) データ編集装置、データ編集方法及びプログラム
CN111798549A (zh) 舞蹈的编辑方法、装置及计算机存储介质
JP2019212202A (ja) 画像処理装置,画像処理方法,画像処理プログラムおよびそのプログラムを格納した記録媒体
JP2022154447A (ja) 景観分析支援装置及び景観分析支援プログラム
JP2015114946A (ja) 画像処理装置、プログラムおよび画像処理方法
US11170474B2 (en) Systems and methods for presenting latent figures in digital imagery
JP2021086462A (ja) データ生成方法、データ生成装置、モデル生成方法、モデル生成装置及びプログラム
JP2020101860A (ja) 医用画像処理装置、システム及びプログラム
JP7278084B2 (ja) 情報処理装置および情報処理方法ならびにプログラム
JP2014203275A (ja) 歯科治療シミュレーション装置、および歯科治療シミュレーションプログラム
CN114117161A (zh) 展示方法及装置
JP5528410B2 (ja) ビューワ装置、サーバ装置、表示制御方法、電子コミック編集方法及びプログラム
JP6028188B1 (ja) 情報提供装置及び情報提供方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231221