JP2014167761A - 環境評価装置、方法およびプログラム - Google Patents
環境評価装置、方法およびプログラム Download PDFInfo
- Publication number
- JP2014167761A JP2014167761A JP2013039951A JP2013039951A JP2014167761A JP 2014167761 A JP2014167761 A JP 2014167761A JP 2013039951 A JP2013039951 A JP 2013039951A JP 2013039951 A JP2013039951 A JP 2013039951A JP 2014167761 A JP2014167761 A JP 2014167761A
- Authority
- JP
- Japan
- Prior art keywords
- image
- index
- sensory
- unit
- processing target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Library & Information Science (AREA)
- Computing Systems (AREA)
- Quality & Reliability (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】人の感覚へ与える影響を評価することができる。
【解決手段】本開示の一実施形態に係る環境評価装置は、生成部と、格納部、比較部を含む。生成部は、処理対象画像を周波数解析して得られる第1指標、処理対象画像をヒストグラム解析して得られる第2指標、および、画像の部分領域から色および輝度の少なくとも1つに関する画素の特徴量である第3指標の1以上を要素とする、処理対象画像から受ける感覚を表現する感覚指標を生成する。格納部は、前記処理対象画像と比較するための比較画像から受ける感覚を表現する比較感覚指標を用いて、画像から受ける感覚に基づく分類である感覚カテゴリに複数の比較画像を分類して、該感覚カテゴリごとに比較画像と比較感覚指標とを対応付けて格納する。比較部は、感覚指標と比較感覚指標とを比較し、感覚指標との類似度が閾値以上である比較感覚指標に対応する比較画像を類似画像として抽出する。
【選択図】図2
【解決手段】本開示の一実施形態に係る環境評価装置は、生成部と、格納部、比較部を含む。生成部は、処理対象画像を周波数解析して得られる第1指標、処理対象画像をヒストグラム解析して得られる第2指標、および、画像の部分領域から色および輝度の少なくとも1つに関する画素の特徴量である第3指標の1以上を要素とする、処理対象画像から受ける感覚を表現する感覚指標を生成する。格納部は、前記処理対象画像と比較するための比較画像から受ける感覚を表現する比較感覚指標を用いて、画像から受ける感覚に基づく分類である感覚カテゴリに複数の比較画像を分類して、該感覚カテゴリごとに比較画像と比較感覚指標とを対応付けて格納する。比較部は、感覚指標と比較感覚指標とを比較し、感覚指標との類似度が閾値以上である比較感覚指標に対応する比較画像を類似画像として抽出する。
【選択図】図2
Description
本開示は、環境を評価する環境評価装置、方法およびプログラムに関する。
室内空間などの生活環境を評価することは、空間の居住者、その空間を利用する利用者、また、その空間そのものおよび空間での用途や目的にとって大きな影響があり、非常に重要である。
日常生活をおこなう屋内空間の照明設計を行なう場合、照明設計において考慮される明るさの評価は、照度と照明器具の不快グレア(いわゆるまぶしさ)との評価が中心であったが、近年は人の主観を基にした輝度中心の評価方法が提案されている。
日常生活をおこなう屋内空間の照明設計を行なう場合、照明設計において考慮される明るさの評価は、照度と照明器具の不快グレア(いわゆるまぶしさ)との評価が中心であったが、近年は人の主観を基にした輝度中心の評価方法が提案されている。
しかし、輝度中心の評価方法では、空間全体の明るさを評価することはできるが、空間が人の感覚へ与える影響を評価することはできない。
本開示は、上述の課題を解決するためになされたものであり、人の感覚へどのような影響を与えるかを評価することができる環境評価装置、方法およびプログラムを提供することを目的とする。
本発明の一実施形態に係る環境評価装置は、生成部と、格納部、比較部を含む。生成部は、処理対象となる画像である処理対象画像を周波数解析して得られる第1指標、該処理対象画像をヒストグラム解析して得られる第2指標、および、画像の部分領域から色および輝度の少なくとも1つに関する画素の特徴量である第3指標の少なくとも1つを要素とする、前記処理対象画像から受ける感覚を表現する感覚指標を生成する。格納部は、前記処理対象画像と比較するための画像である比較画像から受ける感覚を表現する比較感覚指標を用いて、画像から受ける感覚に基づく分類である感覚カテゴリに該複数の比較画像を分類して、該比較画像と該比較感覚指標とを対応付けて格納する。比較部は、前記感覚指標と前記比較感覚指標とを比較し、該感覚指標との類似度が閾値以上である比較感覚指標に対応する比較画像を類似画像として抽出する。
以下、図面を参照しながら本開示の一実施形態に係る環境評価装置、方法およびプログラムについて詳細に説明する。なお、以下の実施形態では、同一の番号を付した部分については同様の動作を行なうものとして、重ねての説明を省略する。
(第1の実施形態)
第1の実施形態に係る環境評価装置について図1のブロック図を参照して説明する。
第1の実施形態に係る環境評価装置100は、解析部101、解析評価演算部102、記憶部103および表示部104を含む。
(第1の実施形態)
第1の実施形態に係る環境評価装置について図1のブロック図を参照して説明する。
第1の実施形態に係る環境評価装置100は、解析部101、解析評価演算部102、記憶部103および表示部104を含む。
解析部101は、外部から画像データを受け取り、画像データにより表現される処理対象となる画像である処理対象画像に対してフィルタ処理などの解析処理を行ない、再合成画像を生成する。なお、本実施形態で用いる画像データは、静止画像、複数の静止画像をつなげたパノラマ画像でもよいし、動画像であってもよく、環境を特定できればよい。
解析評価演算部102は、解析部101から再合成画像を受け取り、再合成画像に対して解析評価を行い、感覚指標を生成する。感覚指標は、画像から受ける感覚を表現する指標であり、例えば、輝度、色に関する情報より算出されるテンソルまたはベクトルである。本実施形態では、感覚指標として9次元のベクトルを用いた例で説明する。
なお、解析評価演算部102は、基準画像および比較画像についても、処理対象画像と同様の処理手順で感覚指標を生成する。基準画像は、画像から受ける感覚に基づく分類である1以上の感覚カテゴリごとに、基準となる感覚指標である基準感覚指標を生成するための画像である。言い換えると、基準感覚指標は、基準画像から受ける感覚を表現する。基準画像については、図4を参照して後述する。比較画像は、処理対象画像と比較するための画像であり、解析評価演算部102は、比較画像に基づく比較感覚指標を生成する。本実施形態では、室内空間の照明環境に関する画像を比較画像とするが、これに限らず、モノトーンやポップなどユーザの感覚のコンセプトに基づく画像でもよい。
解析評価演算部102は、解析部101から再合成画像を受け取り、再合成画像に対して解析評価を行い、感覚指標を生成する。感覚指標は、画像から受ける感覚を表現する指標であり、例えば、輝度、色に関する情報より算出されるテンソルまたはベクトルである。本実施形態では、感覚指標として9次元のベクトルを用いた例で説明する。
なお、解析評価演算部102は、基準画像および比較画像についても、処理対象画像と同様の処理手順で感覚指標を生成する。基準画像は、画像から受ける感覚に基づく分類である1以上の感覚カテゴリごとに、基準となる感覚指標である基準感覚指標を生成するための画像である。言い換えると、基準感覚指標は、基準画像から受ける感覚を表現する。基準画像については、図4を参照して後述する。比較画像は、処理対象画像と比較するための画像であり、解析評価演算部102は、比較画像に基づく比較感覚指標を生成する。本実施形態では、室内空間の照明環境に関する画像を比較画像とするが、これに限らず、モノトーンやポップなどユーザの感覚のコンセプトに基づく画像でもよい。
さらに、解析評価演算部102は、後述の記憶部103から比較感覚指標を受け取り、処理対象画像の感覚指標と比較感覚指標とを比較し、感覚指標と比較感覚指標との類似度が閾値以上である比較感覚指標に対応する比較画像を、類似画像として抽出する。
記憶部103は、基準画像および基準感覚指標、比較画像および比較感覚指標をそれぞれ記憶する。
表示部104は、例えばディスプレイであり、処理対象画像と、比較画像および基準画像の少なくともどちらか一方とを表示する。
表示部104は、例えばディスプレイであり、処理対象画像と、比較画像および基準画像の少なくともどちらか一方とを表示する。
次に、解析部101および解析評価演算部102の詳細について図2のブロック図を参照して説明する。
解析部101は、画像分離部201、第1フィルタ格納部202、畳み込みフィルタ選択部203、畳み込み計算部204、再合成部205を含む。解析評価演算部102は、第2フィルタ格納部206、周波数演算部207、ヒストグラム演算部208、部分特徴量演算部209、感覚指標生成部210、部分特徴量データベース211、基準感覚指標データベース212、比較感覚指標データベース213および比較部214を含む。
解析部101は、画像分離部201、第1フィルタ格納部202、畳み込みフィルタ選択部203、畳み込み計算部204、再合成部205を含む。解析評価演算部102は、第2フィルタ格納部206、周波数演算部207、ヒストグラム演算部208、部分特徴量演算部209、感覚指標生成部210、部分特徴量データベース211、基準感覚指標データベース212、比較感覚指標データベース213および比較部214を含む。
画像分離部201は、外部から画像データを受け取り、画素ごとに、R(red)、G(green)、B(blue)、Y(Yellow)といった色成分、および輝度に関する情報を抽出し、色成分および輝度に関する情報を画素情報として得る。
第1フィルタ格納部202は、第1フィルタおよび第1フィルタに対応するフィルタ係数を格納する。第1フィルタは、人の視覚を通じて画像から受ける感覚を再現するためのフィルタであり、適応フィルタおよび非線形フィルタなどが含まれる。
フィルタ選択部203は、第1フィルタ格納部202からフィルタを選択する。
畳み込み計算部204は、画像分離部201から画素情報を、フィルタ選択部203から選択されたフィルタをそれぞれ受け取り、フィルタを用いて処理対象画像の画素情報に対して畳み込み演算を行なう。
再合成部205は、畳み込み計算部204から畳み込み後の画素情報を受け取り、画素情報に基づいて画像を再合成して再合成画像を得る。この際、色に関する画素情報の再合成画像と、輝度に関する画素情報の再合成画像と、色および輝度に関する画素情報の再合成画像とを得ることができるが、必要な処理に応じて再合成画像を選択して後段の処理に用いればよい。
第2フィルタ格納部206は、第2フィルタおよび第2フィルタに対応するフィルタ係数を格納する。第2フィルタは画像を解析するためのフィルタであり、第1フィルタ格納部202に格納されるフィルタと同一でも異なっていてもよい。
本実施形態では、フーリエ変換およびフラクタル係数計算、またはボックスカウンティングを行うための解析パラメータを格納する。
周波数演算部207は、再合成部205から再合成画像を、第2フィルタ格納部206から第2フィルタをそれぞれ受け取り、周波数解析を行なって周波数解析結果(第1指標ともいう)を得る。本実施形態では、フーリエ変換およびフラクタル係数計算またはボックスカウンティングを主に行うことを想定しているが、時間および周波数変換、2次元構造を基にした周波数解析を本質的に行なう計算であればよい。
ヒストグラム演算部208は、再合成部205から再合成画像を受け取り、再合成画像についてヒストグラム解析を行い、色ヒストグラムと輝度ヒストグラムとの偏りを計算し、ヒストグラム解析結果(第2指標ともいう)を得る。
部分特徴量演算部209は、再合成部205から再合成画像を受け取り、再合成画像から抽出した部分領域の画素群に基づいて、任意の画像基底に対する一致度を計算し、部分特徴量(第3指標ともいう)を抽出する。本実施形態では、例えば色分布であれば、色分布をテンソルとして扱い、ベクトルに圧縮して用いればよい。
感覚指標生成部210は、周波数演算部207から周波数解析結果を、ヒストグラム演算部208からヒストグラム解析結果を、部分特徴量演算部209から部分特徴量をそれぞれ受け取り、周波数解析結果、ヒストグラム処理結果および部分特徴量の少なくとも1つを要素とする感覚指標を生成する。
部分特徴量データベース211は、部分特徴量演算部209から部分特徴量を受け取り部分特徴量と部分特徴量により表現される領域を含む画像とを対応付けて格納する。
基準感覚指標データベース212は、感覚指標生成部210から基準感覚指標を受け取り、基準画像と基準感覚指標とを対応付けて格納する。なお、基準画像は、基準画像の画像データが解析部101に入力されると共に基準感覚指標データベース212に格納され、基準感覚指標が生成されたのち対応付けられてもよい。または、再合成画像が生成されるときに基の基準画像が保持され、基準感覚指標を生成したのち、基準感覚指標に基準画像が対応付けられて基準感覚指標データベース212に格納されてもよい。
比較感覚指標データベース213は、感覚指標生成部210から比較感覚指標を受け取り、比較画像と比較感覚指標とを対応付けて格納する。なお、比較画像も同様に、比較画像の画像データが解析部101に入力されると共に比較感覚指標データベース213に格納されてもよい。
比較部214は、感覚指標生成部210から感覚指標を、比較感覚指標データベース213から比較感覚指標をそれぞれ受け取る。比較部214は、感覚指標と比較感覚指標とを比較して、類似度が閾値以上である比較感覚指標に対応する比較画像を、類似画像として抽出する。
次に、第1の実施形態に係る環境評価装置の動作について図3のフローチャートを参照して説明する。
ステップS301では、解析部101が、基準画像を取得する。
ステップS302では、解析部101が、基準画像を解析処理して再合成画像を生成する。
ステップS303では、解析評価演算部102が、再合成画像から基準感覚指標を生成する。
ステップS304では、記憶部103が、基準感覚指標と基準画像とを感覚カテゴリごとに格納する。
ステップS305では、解析評価演算部102が、一定数の基準感覚指標を生成したかどうかを判定する。一定数の基準感覚指標を生成した場合はステップS306へ進み、一定数の基準感覚指標を生成していない場合は、ステップS301へ戻り同様の処理を繰り返す。
ステップS301では、解析部101が、基準画像を取得する。
ステップS302では、解析部101が、基準画像を解析処理して再合成画像を生成する。
ステップS303では、解析評価演算部102が、再合成画像から基準感覚指標を生成する。
ステップS304では、記憶部103が、基準感覚指標と基準画像とを感覚カテゴリごとに格納する。
ステップS305では、解析評価演算部102が、一定数の基準感覚指標を生成したかどうかを判定する。一定数の基準感覚指標を生成した場合はステップS306へ進み、一定数の基準感覚指標を生成していない場合は、ステップS301へ戻り同様の処理を繰り返す。
ステップS306では、解析部101が、比較画像を取得する。
ステップS307では、解析部101が、比較画像を解析処理して再合成画像を生成する。
ステップS308では、解析評価演算部102が、再合成画像から比較感覚指標を生成する。
ステップS309では、記憶部103が、比較感覚指標と比較画像とを感覚カテゴリごとに格納する。
ステップS310では、解析評価演算部102が、一定数の比較感覚指標を生成したかどうかを判定する。一定数の比較感覚指標を生成した場合はステップS306へ進み、一定数の比較感覚指標を生成していない場合は、ステップS306へ戻り、ステップS306からステップS310までの処理を繰り返す。
ステップS307では、解析部101が、比較画像を解析処理して再合成画像を生成する。
ステップS308では、解析評価演算部102が、再合成画像から比較感覚指標を生成する。
ステップS309では、記憶部103が、比較感覚指標と比較画像とを感覚カテゴリごとに格納する。
ステップS310では、解析評価演算部102が、一定数の比較感覚指標を生成したかどうかを判定する。一定数の比較感覚指標を生成した場合はステップS306へ進み、一定数の比較感覚指標を生成していない場合は、ステップS306へ戻り、ステップS306からステップS310までの処理を繰り返す。
ステップS311では、解析部101が、処理対象画像を取得する。
ステップS312では、解析部101が、処理対象画像を解析処理して再合成画像を生成する。
ステップS313では、解析評価演算部102が、再合成画像から感覚指標を生成する。
ステップS314では、解析評価演算部102が、評価指標と比較感覚指標とを比較し、閾値以上の類似度を有する類似画像を抽出する。
ステップS315では、処理対象画像と類似画像とを画面に表示する。以上で第1の実施形態に係る環境評価装置の動作を終了する。
なお、計算の高速化のため、再合成前の画像に対して感覚指標を計算してもよく、この場合は、基準画像、比較画像および処理対象画像のそれぞれについて、解析部101における解析処理を行わずに解析評価演算部102での処理を行ない、基準感覚指標、比較感覚指標、感覚指標を算出すればよい。
ステップS312では、解析部101が、処理対象画像を解析処理して再合成画像を生成する。
ステップS313では、解析評価演算部102が、再合成画像から感覚指標を生成する。
ステップS314では、解析評価演算部102が、評価指標と比較感覚指標とを比較し、閾値以上の類似度を有する類似画像を抽出する。
ステップS315では、処理対象画像と類似画像とを画面に表示する。以上で第1の実施形態に係る環境評価装置の動作を終了する。
なお、計算の高速化のため、再合成前の画像に対して感覚指標を計算してもよく、この場合は、基準画像、比較画像および処理対象画像のそれぞれについて、解析部101における解析処理を行わずに解析評価演算部102での処理を行ない、基準感覚指標、比較感覚指標、感覚指標を算出すればよい。
次に、基準感覚指標データベース212に格納される基準画像の一例について図4を参照して説明する。
図4に示すように基準感覚指標データベース212には、感覚カテゴリ401ごとに基準画像402が分類されて格納される。
図4に示すように基準感覚指標データベース212には、感覚カテゴリ401ごとに基準画像402が分類されて格納される。
また、各感覚カテゴリには複数の基準画像が格納され、図4の例では、各感覚カテゴリについて5枚の基準画像が含まれる。なお、基準画像は感覚カテゴリごとに5枚以上格納するようにしてもよいし、重み付けを行うために、ある感覚カテゴリに分類される基準画像の数が他の感覚カテゴリに分類される基準画像の数よりも多くなるように格納してもよい。例えば、ひらめきの感覚カテゴリに関しての評価の重みを高める場合は、ひらめきに関する基準画像を増やすことにより次元拡張を行なえばよい。
さらに、基準画像と基準感覚指標との対応付けについて図5を参照して説明する。
図5に示すように、基準画像402と基準画像ごとに算出された基準感覚指標501とが対応付けられて格納される。
図5に示すように、基準画像402と基準画像ごとに算出された基準感覚指標501とが対応付けられて格納される。
基準感覚指標の算出方法としては、fMRI(functional Magnetic Resonance Imaging)、MEG(magnetoencephalogram)、NIRS(Near Infra-Red Spectoroscopy)、fNIRS(functional NIRS)、光トポグラフィー、EEG(electroencephalogram)、SD(semantic differential)法などを用いればよく、神経科学、心理学、生理学に基づいた手法によって、潜在レベルも含めて人の感覚が定量的および定性的に評価があったものを使用することが望ましい。ここでは、fMRIで計測した結果、基準画像について、自然、リラックス、集中力、創発(ひらめき)、美しさ、勉強についての一般的な脳活動と同様の脳活動を示す基準画像の基準感覚指標をそれぞれの感覚カテゴリに分類する。感覚カテゴリへのカテゴリ分けは、Deep Learningのような手法を用いて機械学習でカテゴリ分けを行ってもよいし、ユーザがカテゴリ分けを行ってもよい。
このように部分特徴量を用いて感覚カテゴリ分けを行うことにより、自然、集中、リラックスなどの人が画像から受ける感覚を部分特徴量を用いて定量的に分類することができる。なお、基準画像として、ユーザの好みの画像を用いてもよい。この場合、好みの画像の感覚カテゴリ分けを行なうことができるので、処理対象画像を好みの画像で例えるなどの処理を行なうことができる。
このように部分特徴量を用いて感覚カテゴリ分けを行うことにより、自然、集中、リラックスなどの人が画像から受ける感覚を部分特徴量を用いて定量的に分類することができる。なお、基準画像として、ユーザの好みの画像を用いてもよい。この場合、好みの画像の感覚カテゴリ分けを行なうことができるので、処理対象画像を好みの画像で例えるなどの処理を行なうことができる。
また、感覚指標とは別に、部分特徴量により画像中の物体の感覚カテゴリを認識することができるので、例えば室内の画像であれば、室内にある物体そのものから人が感じる感覚についても、画像全体の感覚への評価に加えることができる。
本実施形態では、図5に示すように、基準感覚指標として、周波数解析、明暗ヒストグラム解析、RGBYヒストグラム解析、部分特徴ベクトル解析を行った結果である(第1周波数解析ベクトル)、(第2周波数解析ベクトル)、(明暗ヒストグラム解析ベクトル)、(Rヒストグラム解析ベクトル)、(Gヒストグラム解析ベクトル)、(Bヒストグラム解析ベクトル)、(Yヒストグラム解析ベクトル)、(第1部分特徴ベクトル)、(第2部分特徴ベクトル)を要素とした、9次元ベクトルを用いる。
なお、周波数解析1ベクトルは、例えば、フーリエ変換による級数展開の指標であればよく、周波数解析2ベクトルは、フラクタル周波数解析による指標であればよい。また、部分特徴量演算部209では、色分布であれば、色分布をテンソルとして扱い、ベクトルに圧縮して用いればよい。すなわち、それぞれのベクトルは、異なる数学的手法または異なる解析結果から抽出され、評価に適した解析処理によるベクトルを選択すればよい。
本実施形態では、9次元のベクトルとしているが、周波数演算部207、ヒストグラム演算部208および部分特徴量演算部209のそれぞれの処理の中で、評価に必要な解析結果を要素としたベクトルを選択すればよい。
本実施形態では、9次元のベクトルとしているが、周波数演算部207、ヒストグラム演算部208および部分特徴量演算部209のそれぞれの処理の中で、評価に必要な解析結果を要素としたベクトルを選択すればよい。
また、各感覚カテゴリの基準感覚指標としては、各感覚カテゴリに含まれる基準画像のそれぞれに対して、基準感覚指標を算出してもよいし、複数の基準感覚指標の重み付け総和をとることにより、1つの新しい基準感覚指標を生成してもよい。この場合SIFTによる次元圧縮を行うことが有効である。
次に、部分特徴量演算部209における部分特徴量の算出方法について図6および図7を参照して説明する。
部分特徴量は、L1−正則化(ラッソ正則化)によって適応可能な特徴量が好ましいが、L2−正則化、または、完全にスパースな解でなくとも部分的なスパース性があれば、部分特徴量の組み合わせで対象物を区別することができる。
部分特徴量は、図6(a)に示すように、まず1枚の画像601から部分領域602を抽出し、輝度などに基づいて部分領域602からさらに小さい画像領域を部分特徴量603として抽出する。なお、図6(b)に示すように、画像601から切り出した最初の部分領域602を部分特徴量として用いてもよく、色のヒストグラム特徴量または色の方向性特徴量を部分特徴量として用いてもよい。
また、部分特徴量を抽出した後、部分特徴量が共通するかどうかを各基準画像に適用し、部分特徴量が類似する画像があれば、図7に示すように、1つの部分特徴量を共通特徴量701として用いることもできる。なお、部分特徴量は、PCAまたはICAなどで抽出した基準画像でもよいし、ユーザの好みを学習させた結果を用いてもよい。
部分特徴量は、L1−正則化(ラッソ正則化)によって適応可能な特徴量が好ましいが、L2−正則化、または、完全にスパースな解でなくとも部分的なスパース性があれば、部分特徴量の組み合わせで対象物を区別することができる。
部分特徴量は、図6(a)に示すように、まず1枚の画像601から部分領域602を抽出し、輝度などに基づいて部分領域602からさらに小さい画像領域を部分特徴量603として抽出する。なお、図6(b)に示すように、画像601から切り出した最初の部分領域602を部分特徴量として用いてもよく、色のヒストグラム特徴量または色の方向性特徴量を部分特徴量として用いてもよい。
また、部分特徴量を抽出した後、部分特徴量が共通するかどうかを各基準画像に適用し、部分特徴量が類似する画像があれば、図7に示すように、1つの部分特徴量を共通特徴量701として用いることもできる。なお、部分特徴量は、PCAまたはICAなどで抽出した基準画像でもよいし、ユーザの好みを学習させた結果を用いてもよい。
次に、第1の実施形態に係る環境評価装置の表示例について図8を参照して説明する。
図8は、表示部104に表示されるインターフェースの一例であり、処理対象画像801に対し、処理対象画像801に最も類似する比較画像802が表示される。ここでは、処理対象画像801に最も類似した室内空間の照度環境を有する画像が表示される。また、画面下部には、他の比較画像803を類似度順に表示する。
このようにすることで、処理対象画像と視覚的に類似する室内空間の照度環境を有する画像としてどのようなものがあるかを、容易に把握することができる。なお、比較画像に限らず、処理対象画像の感覚カテゴリに対応する基準画像を表示するようにしてもよい。
図8は、表示部104に表示されるインターフェースの一例であり、処理対象画像801に対し、処理対象画像801に最も類似する比較画像802が表示される。ここでは、処理対象画像801に最も類似した室内空間の照度環境を有する画像が表示される。また、画面下部には、他の比較画像803を類似度順に表示する。
このようにすることで、処理対象画像と視覚的に類似する室内空間の照度環境を有する画像としてどのようなものがあるかを、容易に把握することができる。なお、比較画像に限らず、処理対象画像の感覚カテゴリに対応する基準画像を表示するようにしてもよい。
(第1の実施形態の変形例)
第1の実施形態の変形例として、各感覚カテゴリの数値、検索条件、また補正のあるなしなどについてパラメータを、ユーザが自由に変更できるようにしてもよい。
第1の実施形態の変形例に係る環境評価装置について図9を参照して説明する。
図9に示す環境評価装置900は、図2に示す第1の実施形態に係る環境評価装置100に加え、パラメータ設定部901を含む。パラメータ設定部901以外の動作については、環境評価装置100と同様であるのでここでの説明は省略する。
第1の実施形態の変形例として、各感覚カテゴリの数値、検索条件、また補正のあるなしなどについてパラメータを、ユーザが自由に変更できるようにしてもよい。
第1の実施形態の変形例に係る環境評価装置について図9を参照して説明する。
図9に示す環境評価装置900は、図2に示す第1の実施形態に係る環境評価装置100に加え、パラメータ設定部901を含む。パラメータ設定部901以外の動作については、環境評価装置100と同様であるのでここでの説明は省略する。
パラメータ設定部901は、ユーザから感覚カテゴリの重み付けの変更や、比較方法の変更などの指示を受け付け、変更に応じた感覚指標を生成する。
次に、表示部104においてパラメータ変更ウィンドウを表示する一例を図10に示す。
図10に示すように、パラメータ変更ウィンドウ1001を表示し、バーをスクロールすることで各感覚カテゴリの数値(重み付け)を変更する。数値の変更に応じて比較部214で変更された感覚指標と比較感覚指標とが比較され、処理対象画像に最も感覚カテゴリが近い比較画像が類似画像として表示される。また、画面表示の設定または画像の比較方法を変えるための設定ウィンドウ1002を表示し、比較方法を設定することで感覚指標に含まれるどの指標(ベクトル)を優先して評価するかを設定する。
図10に示すように、パラメータ変更ウィンドウ1001を表示し、バーをスクロールすることで各感覚カテゴリの数値(重み付け)を変更する。数値の変更に応じて比較部214で変更された感覚指標と比較感覚指標とが比較され、処理対象画像に最も感覚カテゴリが近い比較画像が類似画像として表示される。また、画面表示の設定または画像の比較方法を変えるための設定ウィンドウ1002を表示し、比較方法を設定することで感覚指標に含まれるどの指標(ベクトル)を優先して評価するかを設定する。
これによって、処理対象画像について感覚カテゴリを変更すると室内空間の照度環境からどのような感覚を受けるかを、パラメータを設定することで容易に把握することができる。
また、表示部104における画像表示の別例を図11に示す。
図11に示すように、複数の類似画像を一覧表示することにより、処理対象画像801の現在の部屋の感覚がどのような位置づけにあり、さらに、同じような感覚を有する部屋の一覧、さらに、より自然な方向性にするとどのような部屋があるのかを容易に把握することができる。
図11に示すように、複数の類似画像を一覧表示することにより、処理対象画像801の現在の部屋の感覚がどのような位置づけにあり、さらに、同じような感覚を有する部屋の一覧、さらに、より自然な方向性にするとどのような部屋があるのかを容易に把握することができる。
以上に示した第1の実施形態によれば、画像から感覚指標を算出し、ユーザが画像から受ける印象である感覚カテゴリごとに分類した比較画像のうち、感覚指標に類似する画像を表示することで、現在の環境と同程度の環境としてどのような環境があるかを容易に把握することができ、さらに感覚カテゴリのパラメータを変更し、感覚指標の重み付けを変更することで、現在の環境がどのような変化するかを容易に把握することができる。
(第2の実施形態)
第2の実施形態では、家庭内に設置されるTVとの連携する場合について説明する。TVは明るさを測定するためのセンサを実装していることが多く、また、放送番組のコンテンツをEPGなどにより予め知ることができるので、周囲の明るさをコンテンツに応じて連携させることができる。さらに、第2の実施形態では、コンテンツを視聴するユーザの感覚を推定し、照明の変化によりユーザが受ける感覚の変化に基づいて照明を変化させることができる。
第2の実施形態では、家庭内に設置されるTVとの連携する場合について説明する。TVは明るさを測定するためのセンサを実装していることが多く、また、放送番組のコンテンツをEPGなどにより予め知ることができるので、周囲の明るさをコンテンツに応じて連携させることができる。さらに、第2の実施形態では、コンテンツを視聴するユーザの感覚を推定し、照明の変化によりユーザが受ける感覚の変化に基づいて照明を変化させることができる。
第2の実施形態に係る環境評価装置を使用する一例を示す概念図について図12を参照して説明する。
図12は、ユーザ1201がTV1202に表示される放送番組を視聴している例である。TV1202には、センサ1203が内蔵され、可変照明1204により照射される室内の照度が測定される。
図12は、ユーザ1201がTV1202に表示される放送番組を視聴している例である。TV1202には、センサ1203が内蔵され、可変照明1204により照射される室内の照度が測定される。
次に、第2の実施形態に係る環境評価装置について図13のブロック図を参照して説明する。
第2の実施形態に係る環境評価装置1300は、解析部101、解析評価演算部102、スペクトル性質設定部1301、スペクトル性質設定テーブル1302、スペクトルマスター取得部1303、スペクトルマスターテーブル1304、スペクトルデータベース1305、スペクトル変調部1306、スペクトル性能表示部1307およびスペクトル制御部1308を含む。
第2の実施形態に係る環境評価装置1300は、解析部101、解析評価演算部102、スペクトル性質設定部1301、スペクトル性質設定テーブル1302、スペクトルマスター取得部1303、スペクトルマスターテーブル1304、スペクトルデータベース1305、スペクトル変調部1306、スペクトル性能表示部1307およびスペクトル制御部1308を含む。
解析部101は、室内空間の照明環境の画像である室内空間画像を取得し、第1の実施形態と同様の解析を行う。
解析評価演算部102は、第1の実施形態と同様に、室内空間画像について、周波数解析、ヒストグラム解析、部分特徴量解析を行い、感覚指標を生成する。
スペクトル性質設定部1301は、解析評価演算部102から感覚指標に基づいて、感覚カテゴリごとに応じた照明スペクトルを設定する。ここでは、演色性を含む、肌、自然、集中、リラックス等の感覚に応じた照明のスペクトルである感覚スペクトルを設定する。なお、照明が一灯であれば、1つの照明のスペクトルとなり、照明が二灯以上であれば、複数の照明のスペクトルの空間分布となる。なお、感覚指標に限らず、感覚カテゴリごとの基準感覚指標に基づいて感覚スペクトルが生成されてもよい。
スペクトル性質設定テーブル1302は、スペクトル性質設定部1301から感覚スペクトルを受け取り、感覚カテゴリごとの感覚スペクトルを格納する。
解析評価演算部102は、第1の実施形態と同様に、室内空間画像について、周波数解析、ヒストグラム解析、部分特徴量解析を行い、感覚指標を生成する。
スペクトル性質設定部1301は、解析評価演算部102から感覚指標に基づいて、感覚カテゴリごとに応じた照明スペクトルを設定する。ここでは、演色性を含む、肌、自然、集中、リラックス等の感覚に応じた照明のスペクトルである感覚スペクトルを設定する。なお、照明が一灯であれば、1つの照明のスペクトルとなり、照明が二灯以上であれば、複数の照明のスペクトルの空間分布となる。なお、感覚指標に限らず、感覚カテゴリごとの基準感覚指標に基づいて感覚スペクトルが生成されてもよい。
スペクトル性質設定テーブル1302は、スペクトル性質設定部1301から感覚スペクトルを受け取り、感覚カテゴリごとの感覚スペクトルを格納する。
スペクトルマスター取得部1303は、現在の照明スペクトルを取得する。
スペクトルマスターテーブル1304は、スペクトルマスター取得部1303から現在の照明スペクトルを取得して格納する。
スペクトルDB1305は、理想となる照明のスペクトルを格納する。
スペクトル変調部1306は、スペクトルマスターテーブル1304から格納される現在の照明スペクトルを、スペクトル性質設定テーブルから感覚スペクトルをそれぞれ受け取る。スペクトル変調部1306は、スペクトルDB1305に、既に理想となる照明スペクトルが保存されていれば理想の照明スペクトルを目標として現在の照明スペクトルについてスペクトル合成を行ない、合成スペクトルを生成する。また、スペクトル変調部1306は、スペクトルDB1305に照明スペクトルが保存されていない場合は、感覚スペクトルを目標として現在の照明スペクトルについてスペクトル合成を行い、合成スペクトルを生成する。
スペクトル性能表示部1307は、スペクトル変調部1306により変更可能なパラメータを表示する。
スペクトルマスターテーブル1304は、スペクトルマスター取得部1303から現在の照明スペクトルを取得して格納する。
スペクトルDB1305は、理想となる照明のスペクトルを格納する。
スペクトル変調部1306は、スペクトルマスターテーブル1304から格納される現在の照明スペクトルを、スペクトル性質設定テーブルから感覚スペクトルをそれぞれ受け取る。スペクトル変調部1306は、スペクトルDB1305に、既に理想となる照明スペクトルが保存されていれば理想の照明スペクトルを目標として現在の照明スペクトルについてスペクトル合成を行ない、合成スペクトルを生成する。また、スペクトル変調部1306は、スペクトルDB1305に照明スペクトルが保存されていない場合は、感覚スペクトルを目標として現在の照明スペクトルについてスペクトル合成を行い、合成スペクトルを生成する。
スペクトル性能表示部1307は、スペクトル変調部1306により変更可能なパラメータを表示する。
スペクトル制御部1308は、スペクトル変調部1306から合成スペクトルを受け取り、合成スペクトルに基づいて、可変照明1309の点灯を制御する。具体的には、照明の照度、色温度、光の照射位置などを制御する。可変照明1309は、マルチスペクトルのLED照明を用いることを想定しているが、照度や色、光の照射位置を変更できる照明であれば何でもよい。
ここで、照明のスペクトルの概念図について図12を参照して説明する。
図12(a)は、照明による光の波長を示し、図12(b)は、照明からの距離とスペクトルの総幅との関係を示す。
スペクトルの幅は、青色領域(450nm以下)および赤色領域(650nm以上)のスペクトルの波長により決定される。よって、明るく感じる色温度などを調整する場合は、青色領域と赤色領域とで決まるスペクトルの総幅を調整すればよい。スペクトルの波長の変更は、異なる波長の光を出力する照明を用いて所望の波長の光を照射するようにすればよいし、単一の波長の光であれば、液晶または回折格子などを用いてスペクトルの波長を調整すればよい。
図12(a)は、照明による光の波長を示し、図12(b)は、照明からの距離とスペクトルの総幅との関係を示す。
スペクトルの幅は、青色領域(450nm以下)および赤色領域(650nm以上)のスペクトルの波長により決定される。よって、明るく感じる色温度などを調整する場合は、青色領域と赤色領域とで決まるスペクトルの総幅を調整すればよい。スペクトルの波長の変更は、異なる波長の光を出力する照明を用いて所望の波長の光を照射するようにすればよいし、単一の波長の光であれば、液晶または回折格子などを用いてスペクトルの波長を調整すればよい。
また、図12(b)に示すように、照明の直下の照射域から遠いほど、スペクトルの帯域を要求されないので、スペクトルの総幅は狭くてもよい。
例えば、学習を中心とした教養番組の場合は、色温度を高めることが望ましい。すなわち、感覚カテゴリとして「集中」または「勉強」のカテゴリに応じて、色温度が高くなるようにスペクトル制御部1308が可変照明のスペクトルを制御すればよい。また、照明が二灯以上ある場合で学習への集中力を高めたいときは、手元の照度が高くなるようにすればよい。
また、映画の視聴する場合では、テレビに実装されるシアターモードといった映像表示方法に加え、感覚カテゴリにおける「自然」、「リラックス」といったカテゴリの指標を高めることでよりユーザに快適な視聴環境を提供することができる。このとき、照明スペクトルは、赤色領域(650nm以上)の波長を有する部分を変化させ、室内の照明環境を変化させればよい。
また、映画の視聴する場合では、テレビに実装されるシアターモードといった映像表示方法に加え、感覚カテゴリにおける「自然」、「リラックス」といったカテゴリの指標を高めることでよりユーザに快適な視聴環境を提供することができる。このとき、照明スペクトルは、赤色領域(650nm以上)の波長を有する部分を変化させ、室内の照明環境を変化させればよい。
また、3Dテレビの場合には、メガネ式3Dで視聴するときは、メガネのセンサを利用することで視聴者の目線における室内の明るさを測定することができるので、視聴者の目線における室内の明るさを測定し、明るさと視聴コンテンツの内容とに応じて最適な照明環境を提供することができる。
また、裸眼3Dと呼ばれるグラスレスで実現される立体視の場合は、予めテレビと視聴者との距離が測定されている。よって、テレビと視聴者との距離に基づいて、テレビ画面の明るさおよびユーザの周囲の明るさを推定し、スペクトル制御部1308が、ユーザへの負担が下がるように、照明の照度を制御すればよい。
なお、照明環境の設定は、ユーザの好みを機械学習させてもよいし、手動の制御によって学習させてもよい。これにより、ユーザの好みと感覚カテゴリとに応じた処理を行なうことができる。
また、裸眼3Dと呼ばれるグラスレスで実現される立体視の場合は、予めテレビと視聴者との距離が測定されている。よって、テレビと視聴者との距離に基づいて、テレビ画面の明るさおよびユーザの周囲の明るさを推定し、スペクトル制御部1308が、ユーザへの負担が下がるように、照明の照度を制御すればよい。
なお、照明環境の設定は、ユーザの好みを機械学習させてもよいし、手動の制御によって学習させてもよい。これにより、ユーザの好みと感覚カテゴリとに応じた処理を行なうことができる。
また、室内にセンサを設置し、センサにより室内の照度環境を計測することで、リアルタイムで室内空間の照度環境を制御することができる。
さらに、解析部101で取得する室内空間画像として、テレビに表示中の番組の映像を含めた画像を解析評価することで、番組に合わせた照度環境を制御することができる。例えば、旅行番組であれば、放送されている環境(晴天、曇り、洞窟内など)との一体感を高めることができ、美容および化粧品に関する番組であれば、肌加減に合わせた環境を設定することができる。
さらに、解析部101で取得する室内空間画像として、テレビに表示中の番組の映像を含めた画像を解析評価することで、番組に合わせた照度環境を制御することができる。例えば、旅行番組であれば、放送されている環境(晴天、曇り、洞窟内など)との一体感を高めることができ、美容および化粧品に関する番組であれば、肌加減に合わせた環境を設定することができる。
次に、スペクトル性能表示部1307におけるスペクトル設定の表示例を図15および図16に示す。
図15は、設定画面の一例であり、色度図1501、色度図(拡大図)1502、計算結果1503、合成グラフ1504、操作ボタン1505、検索フォーム1506および照明スペクトル1507を表示する。色度図1501は、色度座標を示す図である。色度図(拡大図)1502は、色度図1501における測定点周辺の拡大図である。計算結果1503は、座標点のパラメータを示すウィンドウである。合成グラフ1504は、照明スペクトルを合成した場合のスペクトルを示す。操作ボタン1505は、スペクトルに対する演算指示や他のグラフの描画などを操作するためのボタンである。検索フォーム1506は、色度図の座標点の検索するためのウィンドウである。照明スペクトル1507は各照明の現在のスペクトルを示す図である。
ユーザは、スペクトル性能表示部1307により表示されるパラメータを手動で変更してスペクトルを設定することもできる。ユーザの指示により変更されたパラメータ値は、スペクトル変調部1306に入力され、スペクトル変調部1306がパラメータ値に応じてスペクトル合成すればよい。
図15は、設定画面の一例であり、色度図1501、色度図(拡大図)1502、計算結果1503、合成グラフ1504、操作ボタン1505、検索フォーム1506および照明スペクトル1507を表示する。色度図1501は、色度座標を示す図である。色度図(拡大図)1502は、色度図1501における測定点周辺の拡大図である。計算結果1503は、座標点のパラメータを示すウィンドウである。合成グラフ1504は、照明スペクトルを合成した場合のスペクトルを示す。操作ボタン1505は、スペクトルに対する演算指示や他のグラフの描画などを操作するためのボタンである。検索フォーム1506は、色度図の座標点の検索するためのウィンドウである。照明スペクトル1507は各照明の現在のスペクトルを示す図である。
ユーザは、スペクトル性能表示部1307により表示されるパラメータを手動で変更してスペクトルを設定することもできる。ユーザの指示により変更されたパラメータ値は、スペクトル変調部1306に入力され、スペクトル変調部1306がパラメータ値に応じてスペクトル合成すればよい。
また、演算結果を別ウィンドウで表示してもよい。演算結果の別ウィンドウでの表示例を図16に示す。このように独立して表示することで、複数の演算結果と比較が容易となる。
なお、第2の実施形態では、テレビとの連動を前提としているが、照明の制御に関しては、テレビは必ずしも必要ではなく、時間帯を考慮してもよい。
なお、第2の実施形態では、テレビとの連動を前提としているが、照明の制御に関しては、テレビは必ずしも必要ではなく、時間帯を考慮してもよい。
時間変化する照明スペクトルの概念図について図17を参照して説明する。
図17は、一日の時間帯の変化を示す概日リズム1701および季節の変化を示す概季リズム1702に合わせた色温度の設定例を示す。
スペクトル変調部1306は、例えば時間設定を考慮し、概日リズム1701にあわせて、スペクトル1703および1704のような変化を行うことも可能であり、さらに、日本の季節に合わせた概季リズム1702に応じて、照明をコントロールすることも可能である。国の季節感は様々であるので、それらは設定値の変更によって対応することが可能となる。概日リズム、概季リズムにおいては照明の位置、方向、間接、直接等の細かな設定での変更も同時に行うことでよりリズムに合わせ込むことが可能となる。
図17は、一日の時間帯の変化を示す概日リズム1701および季節の変化を示す概季リズム1702に合わせた色温度の設定例を示す。
スペクトル変調部1306は、例えば時間設定を考慮し、概日リズム1701にあわせて、スペクトル1703および1704のような変化を行うことも可能であり、さらに、日本の季節に合わせた概季リズム1702に応じて、照明をコントロールすることも可能である。国の季節感は様々であるので、それらは設定値の変更によって対応することが可能となる。概日リズム、概季リズムにおいては照明の位置、方向、間接、直接等の細かな設定での変更も同時に行うことでよりリズムに合わせ込むことが可能となる。
以上に示した第2の実施形態によれば、照明の照度および色温度、照射位置などについて、テレビの放送番組、概日リズムおよび概季リズムなどに応じて制御することで、ユーザにとって最適な照明環境を提供することができる。
(第3の実施形態)
第3の実施形態では、処理対象画像と類似した類似画像を表示するのではなく、測定する環境について拡張現実(以下、AR(Augmented Reality)という)を用いることにより、現在の室内環境がどのように変化するのかを容易に体験することができる。
第3の実施形態では、処理対象画像と類似した類似画像を表示するのではなく、測定する環境について拡張現実(以下、AR(Augmented Reality)という)を用いることにより、現在の室内環境がどのように変化するのかを容易に体験することができる。
第3の実施形態に係る環境評価装置について図18のブロック図を参照して説明する。
第3の実施形態に係る環境評価装置1800は、撮像部1801と、解析部101、解析評価演算部102、表示画像合成部1802および表示部104を含む。
第3の実施形態に係る環境評価装置1800は、撮像部1801と、解析部101、解析評価演算部102、表示画像合成部1802および表示部104を含む。
解析部101および解析評価演算部102は、第1の実施形態と同一の処理であるのでここでの説明を省略する。
撮像部1801は、例えばカメラであり、室内空間に撮像して処理対象画像を取得する。この際、撮像部1801は、画角内にマーカを含むように処理対象画像を撮像する。
表示画像合成部1802は、撮像部1801から処理対象画像を、解析評価演算部102から感覚カテゴリの基準感覚指標をそれぞれ受け取り、基準感覚指標に基づく照明画像を生成し、処理対象画像に照明画像を合成し合成画像を得る。
表示画像合成部1802は、撮像部1801から処理対象画像を、解析評価演算部102から感覚カテゴリの基準感覚指標をそれぞれ受け取り、基準感覚指標に基づく照明画像を生成し、処理対象画像に照明画像を合成し合成画像を得る。
次に、表示部における合成画像の表示例について図19を参照して説明する。
表示部で合成画像を表示させるためのデバイスとしては、メガネ型ディスプレイ、スマートフォン、タブレット、PCなどであり、ブラウザ機能を有するものが好ましいが、画面に情報を出力できるものであれば何でもよく、AR環境が実現できればよい。
図19は、ARを用いてマーカを撮像した場合の合成画像の具体例を示す。ARの処理前である画像1901に対して、第3の実施形態に係る環境評価装置を用いて合成画像を生成した例が画像1902となる。マーカ1903の位置に感覚指標に基づく照明を生成し、照明からの光線1904も表示する。光線は、角度広がりなどを計算に基づいて表示してもよいし、擬似的な評価のために、誇張して表示してもよく、図19は誇張して表示した場合を示す。
表示部で合成画像を表示させるためのデバイスとしては、メガネ型ディスプレイ、スマートフォン、タブレット、PCなどであり、ブラウザ機能を有するものが好ましいが、画面に情報を出力できるものであれば何でもよく、AR環境が実現できればよい。
図19は、ARを用いてマーカを撮像した場合の合成画像の具体例を示す。ARの処理前である画像1901に対して、第3の実施形態に係る環境評価装置を用いて合成画像を生成した例が画像1902となる。マーカ1903の位置に感覚指標に基づく照明を生成し、照明からの光線1904も表示する。光線は、角度広がりなどを計算に基づいて表示してもよいし、擬似的な評価のために、誇張して表示してもよく、図19は誇張して表示した場合を示す。
また、画像1905の環境評価処理後の合成画像1906は、照明が一灯から複数灯に変化させた例である。室内の壁面などの部分的な反射具合を確認するために、例えば壁の透過率αを実際の値よりも高くすることで、背景の壁面などと照明との関係を比較することができる。また、暖色系または寒色系などの照明の色の変化も合わせて表示することで、室内全体の設計上の評価も行うことができる。
第3の実施形態によれば、ARを用いて環境評価を行うことで、種々の照明環境やARで実現可能な室内環境の変更を行うことができるため、処理対象画像と類似の画像ではなく、処理対象画像上に感覚指標に基づいた擬似的な照明または室内環境を合成することができる。よって、自身が評価したい室内環境で、感覚カテゴリに基づいた照明変化や環境変化を体験することができる。
(第4の実施形態)
第4の実施形態では、ARの環境を含め環境評価をクラウドコンピューティングで行なう場合を想定する。
第4の実施形態では、ARの環境を含め環境評価をクラウドコンピューティングで行なう場合を想定する。
また、第4の実施形態に係る環境評価装置について図20のブロック図を参照して説明する。
第4の実施形態に係る環境評価装置2000は、サーバ2001とクライアント2002とを含み、サーバ2001は、解析部101、解析評価演算部102、記憶部103および送受信部2003を含み、クライアント2002は、撮像部1801、表示画像合成部1802、表示部104および送受信部2004を含む。
解析部101、解析評価演算部102、記憶部103、表示部104、撮像部1801および表示画像合成部1802の動作は、上述の実施形態に係る環境評価装置のそれぞれのブロックと同様であるので詳細な説明は省略する。
第4の実施形態に係る環境評価装置2000は、サーバ2001とクライアント2002とを含み、サーバ2001は、解析部101、解析評価演算部102、記憶部103および送受信部2003を含み、クライアント2002は、撮像部1801、表示画像合成部1802、表示部104および送受信部2004を含む。
解析部101、解析評価演算部102、記憶部103、表示部104、撮像部1801および表示画像合成部1802の動作は、上述の実施形態に係る環境評価装置のそれぞれのブロックと同様であるので詳細な説明は省略する。
送受信部2003および送受信部2004は、それぞれデータの送受信を行なう。
次に、サーバ2001とクライアント2002との環境評価処理の流れについて説明する。
クライアント2002の撮像部1801は、処理対象画像を撮像し、サーバ2001に処理対象画像の画像データを送信部2004を介して送信する。
サーバ2001の解析部101は、クライアント2002から処理対象画像の画像データを送受信部2003を介して受け取り、解析処理を行なう。続いて、解析評価演算部102は、解析処理後の画像に対して解析評価を行なって感覚指標を得て、クライアント2002に感覚指標を送受信部2003を介して送信する。
クライアント2002の表示画像合成部1802は、サーバ2001から感覚指標を送受信部2004を介して受け取り、感覚指標に基づく照明画像を生成し、撮像部1801で撮像した処理対象画像に照明画像を合成して合成画像を得る。その後、表示部104で合成画像を表示する。
クライアント2002の撮像部1801は、処理対象画像を撮像し、サーバ2001に処理対象画像の画像データを送信部2004を介して送信する。
サーバ2001の解析部101は、クライアント2002から処理対象画像の画像データを送受信部2003を介して受け取り、解析処理を行なう。続いて、解析評価演算部102は、解析処理後の画像に対して解析評価を行なって感覚指標を得て、クライアント2002に感覚指標を送受信部2003を介して送信する。
クライアント2002の表示画像合成部1802は、サーバ2001から感覚指標を送受信部2004を介して受け取り、感覚指標に基づく照明画像を生成し、撮像部1801で撮像した処理対象画像に照明画像を合成して合成画像を得る。その後、表示部104で合成画像を表示する。
なお、GPS(global positioning system)を用いることにより、環境評価装置1800が用いられる地理情報を収集してもよい。
例えば、クライアント2002がGPS情報を付加した処理対象画像をサーバ2001に送信し、処理対象画像についての解析評価処理後の画像を受信する。クライアント2002がARでの環境変更のシミュレーションや室内環境の検索などにより、ユーザが好みの環境を選択する。サーバ2001側では、ユーザの処理対象画像および環境選択などの一連の情報を有しており、これらの情報をGPS情報と関連付けることで、ユーザの地域ごとのデータである地域データを収集することができる。
地域データを用いて、例えば、boostingのような機械学習を行うことにより、さらにきめ細かい環境評価と環境推薦とをおこなうことができる。
例えば、クライアント2002がGPS情報を付加した処理対象画像をサーバ2001に送信し、処理対象画像についての解析評価処理後の画像を受信する。クライアント2002がARでの環境変更のシミュレーションや室内環境の検索などにより、ユーザが好みの環境を選択する。サーバ2001側では、ユーザの処理対象画像および環境選択などの一連の情報を有しており、これらの情報をGPS情報と関連付けることで、ユーザの地域ごとのデータである地域データを収集することができる。
地域データを用いて、例えば、boostingのような機械学習を行うことにより、さらにきめ細かい環境評価と環境推薦とをおこなうことができる。
次に、地域データの一例について図21を参照して説明する。
図21は、世界における国別の伝統色をマンセル形式2101で示している。サーバ2001が、GPS情報とユーザの環境選択の情報および好みの環境の情報とを収集することで、各地域の伝統色のような文化的背景を含めて環境評価を行うことができる。このような伝統色に関する情報は、例えば、ヒストグラム演算部208において色ヒストグラム解析を行なう際に用いればよい。
図21は、世界における国別の伝統色をマンセル形式2101で示している。サーバ2001が、GPS情報とユーザの環境選択の情報および好みの環境の情報とを収集することで、各地域の伝統色のような文化的背景を含めて環境評価を行うことができる。このような伝統色に関する情報は、例えば、ヒストグラム演算部208において色ヒストグラム解析を行なう際に用いればよい。
以上に示した第4の実施形態によれば、サーバとクライアントとを用いたクラウドコンピューティングにより、ARを用いた環境評価処理をサーバ側で行うことで、クライアント側では処理量を大幅に軽減することができる。また、サーバ側でGPS情報を付加した処理対象画像を収集することで、国および地域ごとの特色に関する情報を収集することができ、よりユーザフレンドリーな環境評価を行うことができる。
上述した実施形態では、基準画像から予め決められた感覚カテゴリに分類することを想定しているが、SIFTにより、画像の感覚指標であるベクトルの圧縮をおこない、感覚カテゴリを再構成することで新たな感覚カテゴリを生成してもよい。
この感覚カテゴリを用いて環境評価した一例を図22に示す。
図22は、明るさ、自然という感覚カテゴリがあった場合に、新たな感覚カテゴリとしてリラックス、集中というカテゴリを生成した例を示す。このよう感覚指標により、4つの感覚カテゴリに対して、画像2201および画像2202のうち、どちらが高い値となるかを容易に比較することができる。
図22は、明るさ、自然という感覚カテゴリがあった場合に、新たな感覚カテゴリとしてリラックス、集中というカテゴリを生成した例を示す。このよう感覚指標により、4つの感覚カテゴリに対して、画像2201および画像2202のうち、どちらが高い値となるかを容易に比較することができる。
次に、上述した環境評価装置の実装例について図23を参照して説明する。
図23に示したように、環境評価装置は、CPU2301、RAM2302、ROM2303、GPU2304、記憶媒体2305が入出力ポート2306に接続されたコンピュータ構成に実装されてもよい。この入出力ポート2306には、各種データやプログラムをインターネット等の外部ネットワーク環境に接続するためのネットワーク端子2307が接続されている。ただし、ネットワーク端子は無線に限るものではなく、有線でもかまわない。GPU2304に関しては同等機能がCPU2301に内蔵されている場合もある。記憶媒体2305についてはSSD、HDDに限定されるわけではなくクラウド上の記憶領域等、評価装置に接続された記憶媒体すべてがその機能の置き換えとなる。
図23に示したように、環境評価装置は、CPU2301、RAM2302、ROM2303、GPU2304、記憶媒体2305が入出力ポート2306に接続されたコンピュータ構成に実装されてもよい。この入出力ポート2306には、各種データやプログラムをインターネット等の外部ネットワーク環境に接続するためのネットワーク端子2307が接続されている。ただし、ネットワーク端子は無線に限るものではなく、有線でもかまわない。GPU2304に関しては同等機能がCPU2301に内蔵されている場合もある。記憶媒体2305についてはSSD、HDDに限定されるわけではなくクラウド上の記憶領域等、評価装置に接続された記憶媒体すべてがその機能の置き換えとなる。
入出力ポート(I/O)2306には、データ入力のためのキーボード2308、コマンドやデータを表示するためのディスプレイ(図では、タッチパネル液晶)2309が接続されている。コマンドやデータを印刷するためのプリンタ2310はネットワーク越しにネットワーク端子2307を介して接続される。
さらに、入出力ポート2306には室内などの環境撮影のためのカメラすなわち撮影装置2311が接続されている。入力としてはさらにデジタルカメラから出力される画像データを入力するための入力装置2312も接続されている。
なお、本実施の形態では、環境評価装置に撮影装置2311からの画像データを入力した場合を説明するが、環境評価装置で評価するためのデータとしては、撮影装置2311によるデータを入力に限定されない。すなわち入力装置2312を使用した画像でも、記憶媒体2305に内在しているデータ、画像でもよい。環境評価装置は、画像データ演算を及ぼしその結果を利用するので画像データを入力可能であればよく、ネットワーク越しに、撮影装置2311を直接接続したり、画像データの入力インターフェースを備えたりすることができる。
つぎに、本実施形態で利用する視覚の性質について図24を参照して説明する。
従来の照明環境計測においては魚眼レンズを使用することが一般的である。これは、ひとの視覚の性質を反映してのことであるが、本発明に置いては、より視覚、特に網膜像に忠実な画像を処理の中で仮定するために図24に示されるように、サッカード現象2401を加味し、かつ、網膜中心像つまり手を伸ばした状態での指3本分2402がリアルタイムでの視覚像であるという事実から、処理の重み付けを行なう部分領域2403、2404を行い、画像処理に重み付けを行う。重み付けの一例としては、ガウス分布2405に従って重み付けを行えばよい。これにより、面内分布よりはるかに現実に即したものとなり、そのためレンズを選ばない。
従来の照明環境計測においては魚眼レンズを使用することが一般的である。これは、ひとの視覚の性質を反映してのことであるが、本発明に置いては、より視覚、特に網膜像に忠実な画像を処理の中で仮定するために図24に示されるように、サッカード現象2401を加味し、かつ、網膜中心像つまり手を伸ばした状態での指3本分2402がリアルタイムでの視覚像であるという事実から、処理の重み付けを行なう部分領域2403、2404を行い、画像処理に重み付けを行う。重み付けの一例としては、ガウス分布2405に従って重み付けを行えばよい。これにより、面内分布よりはるかに現実に即したものとなり、そのためレンズを選ばない。
次に、奥行き知覚の概念について図25および図26を参照して説明する。
一般的に、人の注意が視覚に影響を及ぼすことが見いだされており、環境を評価する場合の注意についての影響を考慮することが望ましい。例えば、図25に示すように、画像2501と画像2502とでは、人の視覚として、画像中心の長方形が小さい画像2502の方が奥行きを感じる。よって、画像2502の中心にある円は、画像2501の中心にある円よりも輝度を暗くすることが望ましい。
一般的に、人の注意が視覚に影響を及ぼすことが見いだされており、環境を評価する場合の注意についての影響を考慮することが望ましい。例えば、図25に示すように、画像2501と画像2502とでは、人の視覚として、画像中心の長方形が小さい画像2502の方が奥行きを感じる。よって、画像2502の中心にある円は、画像2501の中心にある円よりも輝度を暗くすることが望ましい。
また、図26に示すように、奥行きの推定が可能な場合に、画像中の照明が、奥行きのどの位置にあるのかにより明るさを補正する。本実施形態に係る視覚補正は、奥行き方向に関して従来と異なる手法を用いている。具体的には、視点からの距離により明るさに関して補正係数2601により輝度補正することも含んだ上で、空間全体の明るさを算出する。
上述の実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した環境評価装置による効果と同様な効果を得ることも可能である。上述の実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RW、Blu−ray(登録商標)Discなど)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータまたは組み込みシステムが読み取り可能な記録媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の環境評価装置と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合又は読み込む場合はネットワークを通じて取得又は読み込んでもよい。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
なお、本実施形態におけるコンピュータまたは組み込みシステムは、記録媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100,900,1300,1800,2000・・・環境評価装置、101・・・解析部、102・・・解析評価演算部、103・・・記憶部、104・・・表示部、201・・・画像分離部、202・・・第1フィルタ格納部、203・・・フィルタ選択部、204・・・畳み込み計算部、205・・・再合成部、206・・・第2フィルタ格納部、207・・・周波数演算部、208・・・ヒストグラム演算部、209・・・部分特徴量演算部、210・・・感覚指標生成部、211・・・部分特徴量データベース、212・・・基準感覚指標データベース、213・・・比較感覚指標データベース、214・・・比較部、401・・・感覚カテゴリ、402・・・基準画像、501・・・基準感覚指標、601,1901,1902,1905,1906,2201,2202,2501,2502・・・画像、602・・・部分領域、603・・・部分特徴量、701・・・共通特徴量、801・・・処理対象画像、802,803・・・比較画像、901・・・パラメータ設定部、1001・・・パラメータ変更ウィンドウ、1002・・・設定ウィンドウ、1201・・・ユーザ、1202・・・TV、1203・・・センサ、1204,1309・・・可変照明、1301・・・スペクトル性質取得部、1301・・・スペクトル性質設定部、1302・・・スペクトル性質設定テーブル、1303・・・スペクトルマスター取得部、1304・・・スペクトルマスターテーブル、1305・・・スペクトルデータベース、1306・・・スペクトル変調部、1307・・・スペクトル性能表示部、1308・・・スペクトル制御部、1501・・・色度図、1502・・・色度図(拡大図)、1503・・・計算結果、1504・・・合成グラフ、1505・・・操作ボタン、1506・・・検索フォーム、1507・・・照明スペクトル、1701・・・概日リズム、1702・・・概季リズム、1703,1704・・・スペクトル、1801・・・撮像部、1802・・・表示画像合成部、1903・・・マーカ、1904・・・光線、2001・・・サーバ、2002・・・クライアント、2101・・・マンセル形式、2301・・・CPU、2302・・・RAM、2303・・・ROM、2304・・・GPU、2305・・・記憶媒体、2306・・・入出力ポート、2307・・・ネットワーク端子、2308・・・キーボード、2310・・・プリンタ、2311・・・撮影装置、2312・・・入力装置、2401・・・サッカード現象、2402・・・指3本分、2403,2404・・・部分領域、2405・・・ガウス分布、2601・・・補正係数。
Claims (10)
- 処理対象となる画像である処理対象画像を周波数解析して得られる第1指標、該処理対象画像をヒストグラム解析して得られる第2指標、および、画像の部分領域から色および輝度の少なくとも1つに関する画素の特徴量である第3指標の少なくとも1つを要素とする、前記処理対象画像から受ける感覚を表現する感覚指標を生成する生成部と、
前記処理対象画像と比較するための画像である比較画像から受ける感覚を表現する比較感覚指標を用いて、画像から受ける感覚に基づく分類である感覚カテゴリに該複数の比較画像を分類して、該感覚カテゴリごとに該比較画像と該比較感覚指標とを対応付けて格納する格納部と、
前記感覚指標と前記比較感覚指標とを比較し、該感覚指標との類似度が閾値以上である比較感覚指標に対応する比較画像を類似画像として抽出する比較部と、を具備することを特徴とする環境評価装置。 - 画像から画素の色および輝度に関する値を含む画素情報を抽出する分離部と、
視覚を再現するためのフィルタを用いて前記画素情報に対して畳み込み演算する畳み込み部と、
畳み込み演算後の画素情報を再合成し再合成画像を生成する再合成部と、をさらに具備し、
前記生成部は、前記再合成画像を前記処理対象画像として、前記感覚指標を生成することを特徴とする請求項1に記載の環境評価装置。 - 前記感覚カテゴリは、ユーザが画像を見たときに受ける感覚に基づいて、基準となる画像である基準画像から受ける感覚を表現する基準感覚指標が類似するものをグループ分けすることにより生成されることを特徴とする請求項1または請求項2に記載の環境評価装置。
- 前記比較感覚指標および前記基準感覚指標は、前記感覚指標と同一の処理手順により生成されることを特徴とする請求項3に記載の環境評価装置。
- 前記処理対象画像と、前記比較画像および基準画像の少なくともどちらか一方とを表示する表示部をさらに具備することを特徴とする請求項1から請求項4のいずれか1項に記載の環境評価装置。
- 前記感覚カテゴリは、自然、リラックス、集中、創発、美、勉強の少なくとも1つを含むことを請求項1から請求項5のいずれか1項に記載の環境評価装置。
- 前記感覚カテゴリに応じた照明のスペクトルである感覚スペクトルを設定する設定部と、
現在の室内空間の照明スペクトルを取得する取得部と、
前記感覚スペクトルを目標として前記照明スペクトルについてスペクトル合成を行ない、合成スペクトルを得る変調部と、
可変照明から照射される光のスペクトルが前記合成スペクトルとなるように該可変照明を制御する制御部と、をさらに具備することを特徴とする請求項1から請求項6のいずれか1項に記載の環境評価装置。 - 前記処理対象画像を撮像する撮像部と、
前記処理対象画像と、前記感覚カテゴリに応じて生成される照明画像とを合成し合成画像を得る合成部と、をさらに具備することを特徴とする請求項1から請求項6のいずれか1項に記載の環境評価装置。 - 処理対象となる画像である処理対象画像を周波数解析して得られる第1指標、該処理対象画像をヒストグラム解析して得られる第2指標、および、画像の部分領域から、色および輝度の少なくとも1つに関する画素の特徴量である第3指標の少なくとも1つを要素とする、前記処理対象画像から受ける感覚を表現する感覚指標を生成し、
前記処理対象画像と比較するための画像である比較画像から受ける感覚を表現する比較感覚指標を用いて、画像から受ける感覚に基づく分類である感覚カテゴリに該複数の比較画像を分類し、該感覚カテゴリごとに該比較画像と該比較感覚指標とを対応付けて格納部に格納し、
前記感覚指標と前記比較感覚指標とを比較し、該感覚指標との類似度が閾値以上である比較感覚指標に対応する比較画像を類似画像として抽出することを特徴とする環境評価方法。 - コンピュータを、
処理対象となる画像である処理対象画像を撮像する撮像手段と、
前記処理対象画像をサーバに送信する送信手段と、
画像から受ける感覚に基づく分類である1以上の感覚カテゴリに応じて生成される照明画像を受信する受信手段と、
前記処理対象画像と前記照明画像とを合成し合成画像を得る合成手段と、
少なくとも合成画像を表示する表示手段として機能させるための環境評価プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013039951A JP2014167761A (ja) | 2013-02-28 | 2013-02-28 | 環境評価装置、方法およびプログラム |
EP14154960.0A EP2790153A3 (en) | 2013-02-28 | 2014-02-13 | Environment evaluation apparatus, method and program |
US14/184,105 US20140241627A1 (en) | 2013-02-28 | 2014-02-19 | Environment evaluation apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013039951A JP2014167761A (ja) | 2013-02-28 | 2013-02-28 | 環境評価装置、方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014167761A true JP2014167761A (ja) | 2014-09-11 |
Family
ID=50112748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013039951A Pending JP2014167761A (ja) | 2013-02-28 | 2013-02-28 | 環境評価装置、方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20140241627A1 (ja) |
EP (1) | EP2790153A3 (ja) |
JP (1) | JP2014167761A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017033452A (ja) * | 2015-08-05 | 2017-02-09 | 富士通株式会社 | 計算機、動作周波数決定プログラム及び動作周波数決定方法 |
WO2020067562A1 (ja) * | 2018-09-28 | 2020-04-02 | ダイキン工業株式会社 | クラスタ分類装置、環境生成装置及び環境生成システム |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11170037B2 (en) * | 2014-06-11 | 2021-11-09 | Kodak Alaris Inc. | Method for creating view-based representations from multimedia collections |
DE102014217675A1 (de) * | 2014-09-04 | 2016-03-24 | Zumtobel Lighting Gmbh | Augmented Reality-gestütztes Beleuchtungssystem und Verfahren |
CN105527232A (zh) * | 2015-12-07 | 2016-04-27 | 太原理工大学 | 一种空气质量等级判别系统及控制方法 |
WO2018120662A1 (zh) * | 2016-12-27 | 2018-07-05 | 华为技术有限公司 | 一种拍照方法,拍照装置和终端 |
CN111813964B (zh) * | 2020-09-14 | 2020-12-11 | 平安国际智慧城市科技股份有限公司 | 基于生态环境的数据处理方法及相关设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002299070A (ja) * | 2001-03-29 | 2002-10-11 | Toshiba Lighting & Technology Corp | 照明制御システム |
JP2004005303A (ja) * | 2002-06-03 | 2004-01-08 | Fuji Xerox Co Ltd | 画像検索装置、画像検索方法及び画像検索プログラム |
JP2006313549A (ja) * | 2005-05-03 | 2006-11-16 | Seac02 Srl | 実マーカオブジェクトを識別する拡張現実システム |
JP2009516882A (ja) * | 2005-11-23 | 2009-04-23 | セダラ ソフトウェア コーポレイション | ディジタル画像を強調する方法及びシステム |
JP2010067221A (ja) * | 2008-09-12 | 2010-03-25 | Nikon Corp | 画像分類装置 |
JP2012174273A (ja) * | 2011-02-22 | 2012-09-10 | Ricoh Co Ltd | 画像処理装置及び画像処理方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0818089D0 (en) * | 2008-10-03 | 2008-11-05 | Eastman Kodak Co | Interactive image selection method |
-
2013
- 2013-02-28 JP JP2013039951A patent/JP2014167761A/ja active Pending
-
2014
- 2014-02-13 EP EP14154960.0A patent/EP2790153A3/en not_active Withdrawn
- 2014-02-19 US US14/184,105 patent/US20140241627A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002299070A (ja) * | 2001-03-29 | 2002-10-11 | Toshiba Lighting & Technology Corp | 照明制御システム |
JP2004005303A (ja) * | 2002-06-03 | 2004-01-08 | Fuji Xerox Co Ltd | 画像検索装置、画像検索方法及び画像検索プログラム |
JP2006313549A (ja) * | 2005-05-03 | 2006-11-16 | Seac02 Srl | 実マーカオブジェクトを識別する拡張現実システム |
JP2009516882A (ja) * | 2005-11-23 | 2009-04-23 | セダラ ソフトウェア コーポレイション | ディジタル画像を強調する方法及びシステム |
JP2010067221A (ja) * | 2008-09-12 | 2010-03-25 | Nikon Corp | 画像分類装置 |
JP2012174273A (ja) * | 2011-02-22 | 2012-09-10 | Ricoh Co Ltd | 画像処理装置及び画像処理方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017033452A (ja) * | 2015-08-05 | 2017-02-09 | 富士通株式会社 | 計算機、動作周波数決定プログラム及び動作周波数決定方法 |
WO2020067562A1 (ja) * | 2018-09-28 | 2020-04-02 | ダイキン工業株式会社 | クラスタ分類装置、環境生成装置及び環境生成システム |
JP2020113241A (ja) * | 2018-09-28 | 2020-07-27 | ダイキン工業株式会社 | クラスタ分類装置、環境生成装置及び環境生成システム |
Also Published As
Publication number | Publication date |
---|---|
EP2790153A3 (en) | 2015-01-28 |
EP2790153A2 (en) | 2014-10-15 |
US20140241627A1 (en) | 2014-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014167761A (ja) | 環境評価装置、方法およびプログラム | |
Gross | Visual computing: the integration of computer graphics, visual perception and imaging | |
CN103430212B (zh) | 用于分析图像分级的设备和方法 | |
KR101799174B1 (ko) | 피부 진단 및 화상 처리 시스템, 장치 및 물품 | |
KR101800102B1 (ko) | 피부 진단 및 화상 처리 방법 | |
Smithson | Sensory, computational and cognitive components of human colour constancy | |
CN103945104B (zh) | 信息处理方法及电子设备 | |
JP6641012B2 (ja) | 視機能検査および光学特性算出システム | |
TW201639520A (zh) | 資訊處理裝置,資訊處理方法及程式 | |
KR20140077322A (ko) | 화장품 추천 방법 및 이를 이용하는 장치 | |
JP5266486B2 (ja) | 緑視率測定装置、方法及びプログラム | |
Wang et al. | Optimal illumination for local contrast enhancement based on the human visual system | |
Wu et al. | The composition of visual texture design on surface for color vision deficiency (CVD) | |
EP2902965B1 (en) | Heteroptics analysis device, heteroptically-altered image generating device for generating heteroptics to create perception approximating original image, heteroptics analysis method, method for generating heteroptically-altered image to create perception approximating original image, and program | |
Narwaria et al. | Effect of tone mapping operators on visual attention deployment | |
Bruno et al. | Image content enhancement through salient regions segmentation for people with color vision deficiencies | |
Koenderink et al. | Hue contrast and the sense of space | |
Shahrbabaki | Contribution of colour in guiding visual attention and in a computational model of visual saliency | |
Wang et al. | Non-local recoloring algorithm for color vision deficiencies with naturalness and detail preserving | |
Tai et al. | A study of color description and cognition | |
Wang et al. | Image quality metrics, personality traits, and subjective evaluation of indoor environment images | |
Miller et al. | Human Perception of Color | |
Morimoto et al. | Color and gloss constancy under diverse lighting environments | |
Park et al. | TV-watching enhancement and its medical trial for low vision people | |
Yan et al. | Assessment of color reproduction in text-generated images of common natural objects (sky, grass, fallen leaves, rocks) based on memory color |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160823 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170228 |