JP6393990B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6393990B2
JP6393990B2 JP2014007832A JP2014007832A JP6393990B2 JP 6393990 B2 JP6393990 B2 JP 6393990B2 JP 2014007832 A JP2014007832 A JP 2014007832A JP 2014007832 A JP2014007832 A JP 2014007832A JP 6393990 B2 JP6393990 B2 JP 6393990B2
Authority
JP
Japan
Prior art keywords
image
image processing
condition
unit
electroencephalogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014007832A
Other languages
English (en)
Other versions
JP2015136377A (ja
Inventor
義一 平山
義一 平山
知巳 高階
知巳 高階
芳之 山陸
芳之 山陸
正朝 水野
正朝 水野
彰 米沢
彰 米沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014007832A priority Critical patent/JP6393990B2/ja
Publication of JP2015136377A publication Critical patent/JP2015136377A/ja
Application granted granted Critical
Publication of JP6393990B2 publication Critical patent/JP6393990B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Description

本発明は、画像処理装置に関する。
ネットワークを介して送信されてきたサンプル画像を鑑賞している時の脳波を含む生体情報を測定して、サンプル画像毎に測定された生体情報の比較によって、ユーザ向きの画像であることが検出された場合に、当該画像を装飾画像としてユーザに表示する画像表示装置が知られている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1] 特開2003−177449号公報
しかしながら、上記画像表示装置は、ネットワークを介して送信された画像をそのまま表示するものであり、当該画像に使用者の記憶にあるイメージ画像に近いものがない場合には、使用者の記憶にあるイメージ画像に近い画像が生成できないという問題があった。
本発明の第1の態様においては、生体が想像した視覚的心象に沿った傾向の画像を前記生体が見たときに生じる脳波の条件を示す脳波条件を予め格納する条件格納部と、元画像に対して視覚上の処理を実行した処理画像を複数生成する画像処理部と、前記画像処理部により生成された複数の前記処理画像を順次、表示する画像表示部と前記複数の処理画像を前記画像表示部に表示した場合に前記生体に生じる脳波情報をそれぞれ取得し、取得した前記脳波情報が前記条件格納部に格納されている脳波条件を満たすか否かを判断し、前記条件を満たすと判断された前記脳波情報を取得した時点で前記画像表示部に表示されていた処理画像が、前記生体により選択されたことを示す指標を付与する条件判断部とを備える画像処理装置が提供される。
なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
画像処理システムの模式図を示す。 画像処理システムの機能ブロック図を示す。 画像処理装置の画像生成処理の一例を説明するフローチャートである。 画像選択処理の一例を説明するフローチャートである。 画像色選択処理の一例を説明するフローチャートである。 画像選択処理において画像表示部に表示される画像の一例を示す。 画像色選択処理において画像表示部に表示される画像の一例を示す。 画像位置選択処理において画像表示部に表示される画像の一例を示す。 画像の大きさ選択処理において画像表示部に表示される画像の一例を示す。 画像処理装置により生成された画像の一例を示す。 他の画像選択処理を説明するフローチャートである。 画像処理装置における他の画像処理を説明する図である。 他の画像処理を説明するフローチャートである。 画像表示部に表示される画像の一例を示す。 画像処理装置における他の画像処理を説明する図である。 他の画像処理を説明するフローチャートである。 他の画像処理を説明するフローチャートである。 他の画像処理システムの模式図を示す。 他の画像処理システムの機能ブロック図を示す。 画像処理装置の画像生成処理の一例を説明するフローチャートである。 画像生成処理において画像表示部に表示される画像の一例を示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、画像処理システム10の模式図を示す。画像処理システム10は、画像処理装置11と、脳波検出装置40とから構成される。画像処理システム10は、画像処理装置11と、脳波検出装置40とを用いて、使用者30の記憶にあるイメージ画像32に近い画像を生成する。なお、使用者30は生体の一例である。
画像処理装置11は、使用者30が操作部12を用いて入力したキーワードに基づいて元画像を検索する。画像処理装置11は、検索した元画像の色、元画像に含まれる要素の位置または大きさを変えた処理画像を生成して、画像表示部14に順次表示する。脳波検出装置40は、使用者30が当該処理画像を見たときの脳波情報を取得する。脳波検出装置40は、取得した脳波情報を、画像処理装置11に出力する。画像処理装置11は、使用者30の記憶にあるイメージ画像に近い処理画像を、脳波情報に基づいて選択する。画像処理装置11は、選択した処理画像から使用者30の記憶にあるイメージ画像32に近い画像を生成する。
図2は、画像処理システム10の機能ブロック図を示す。画像処理システム10は、上述したように、画像処理装置11と、脳波検出装置40とから構成される。画像処理装置11は、操作部12と、画像表示部14と、条件格納部16と、条件判断部18と、画像処理部20と、画像格納部22と、通信部24とを有する。
使用者30は、操作部12から元画像を検索するキーワードを入力する。操作部12の一例は、キーボードである。画像表示部14は、検索された複数の元画像または画像処理部20により生成された複数の処理画像を順次、表示する。画像表示部14の一例は、液晶ディスプレイ(LCD)である。画像条件格納部16は、使用者30が想像した視覚的心象に沿った傾向の画像を使用者30が見たときに生じる脳波の条件を示す脳波条件を予め格納する。なお、視覚的心象に沿った傾向の画像とは、例えば、使用者30の記憶にあるイメージ画像に近い画像のことである。
条件判断部18は、複数の処理画像を画像表示部14に表示した場合に使用者30に生じる脳波情報をそれぞれ取得する。条件判断部18は、取得した脳波情報が条件格納部16に格納されている脳波条件を満たすか否かを判断する。また、条件判断部18は、脳波条件を満たすと判断された脳波情報を取得した時点で画像表示部14に表示されていた処理画像が、使用者30により選択されたことを示す指標を付与する。
条件判断部18は、脳波情報として、脳波に生じるP300と呼ばれる事象関連電位を用いて、脳波条件を満たすか否かを判断する。ここで、P300とは、使用者30に発生した事象、例えば、画像の表示からおよそ300−600ms以降に、使用者30の頭皮上の中心部から後頭部にかけて陽性の振幅を有して出現する脳電位をいう。
P300は、使用者30に関連した項目を認識した場合に、関連しない項目を認識した場合と比較して、使用者30に高振幅の陽性の脳電位が生じることが知られている。したがって、画像表示部14に表示した画像が、使用者30の記憶にあるイメージ画像に近い画像である場合は、使用者30にP300が生じる。一方、使用者30に提示した画像が、使用者30の記憶にあるイメージ画像から遠い画像である場合は、使用者30にP300は生じない。したがって、P300の有無を判断できるP300の振幅の閾値を脳波条件として設定し、使用者30に画像を表示したときに検出された脳波にP300が生じているか否かを検知することによって、表示した画像が使用者30の記憶にあるイメージ画像に近い画像か否かを判断できる。本実施形態において、脳波条件の一例は、P300の発生の有無を判断する振幅の閾値であり、脳波情報の一例は、使用者30に画像を表示した300−600ms以降に脳波に発生した最大振幅値である。以後、上記例を用いて説明する。なお、脳波条件としては、上記P300の振幅の閾値以外に、P300の周波数分布、時間変化パターンなども利用できる。
画像処理部20は、キーワードにより検索された元画像に対して視覚上の処理を実行した処理画像を複数生成する。ここで、視覚上の処理を実行した処理画像とは、例えば、元画像の色を変えた画像であり、元画像に含まれる要素の位置または大きさを変えた画像である。
画像処理部20は、条件判断部18により指標が付与された処理画像を元画像としてさらに視覚上の処理を実行した処理画像を複数生成する。そして画像表示部14は、当該処理画像を表示するとともに、条件判断部18は、当該処理画像を表示した時点に取得した脳波情報が脳波条件を満たすかどうかの判断を繰り返し実行する。
画像格納部22は、種々の元画像を格納する。なお、元画像には、キーワードで検索できるように、例えば、Exif情報として、画像に関連するテキストが予め付与されている。また、画像格納部22は、脳波条件を満たさない他の画像を格納する。
通信部24は、ネットワーク50を介して外部サーバ60と通信する。通信部24は、キーワードに関連する画像を、外部サーバ60から検索して、キーワードに合致する画像を取得する。
脳波検出装置40は、複数の電極42と、通信部44とを有する。複数の電極42は、使用者の頭皮に接するように設けられ、使用者30の頭皮を介して使用者30の脳電位を検出する。各電極42検出された脳電位は、通信部44を介して、無線通信により条件判断部18に出力される。通信部44は、例えば、UWB(Ultra Wide Band)、ZigBee(登録商標)、Wi−Fi、Bluetooth(登録商標)、3G、および/または、LTE等の無線通信規格に準拠して条件判断部18と通信する。
図3は、画像処理装置11の画像生成処理の一例を説明するフローチャートである。図3に示した画像生成処理は、画像処理装置11が起動され、画像処理装置11と脳波検出装置40との通信が確立した場合に開始する。
まず、ステップS101において、画像処理部20は、画像選択処理を実行して、使用者30が入力したキーワードで検索した元画像から、使用者30の記憶にあるイメージ画像に近い画像を選択する。なお、画像選択処理については、図4を用いて説明する。
ステップS102において、画像処理部20は、画像選択処理にて指標が付与された元画像に対して画像色選択処理を実行して、元画像の色を選択する。なお、画像色選択処理については、図5を用いて説明する。
ステップS103において、画像処理部20は、画像選択処理にて指標が付与された元画像に対して画像位置選択処理を実行して、元画像に含まれる要素の位置を選択する。なお、画像位置選択処理についても、図5を用いて説明する。
ステップS104において、画像処理部20は、画像選択処理にて指標が付与された元画像に対して画像大きさ選択処理を実行して、元画像に含まれる要素の大きさを選択する。なお、画像選択処理についても、図5を用いて説明する。
画像処理部20は、ステップS101からステップS104で選択された元画像と、元画像の色と、元画像に含まれる要素の位置と、元画像に含まれる要素の大きさに基づいて、画像を生成する(S105)。画像処理部20は、生成した画像を画像表示部14に表示する(S106)。なお、ステップS102からステップS104の順序は、使用者30の指示により変更されてもよい。
画像処理部20は、使用者30より終了指示があったか否かを判断する(S107)。画像処理部20は、使用者30より終了指示があった場合に(S107:Yes)、画像生成処理は終了する。一方、画像処理部20は、使用者30より終了指示がないと判断した場合(S107:No)、処理をステップS101に戻して、再びステップS101より、画像選択処理を実行する。なお、終了指示の一例は、脳波検出装置40の脱着である。脳波検出装置40に、装着検知手段を設け、当該装着検知手段により脳波検出装置40が脱着されたことが検出された場合に、画像処理部20は、使用者30より終了指示があったと判断する。
図4は、画像選択処理の一例を説明するフローチャートである。画像選択処理において、まず、画像処理部20は、操作部12より、キーワードが入力されるのを待つ(S201:No)。画像処理部20は、操作部12よりキーワードが入力されたと判断すると(S201:Yes)、キーワードに基づいて、予め定められた数の元画像を検索する(S202)。予め定められた数は、使用者30により予め登録される。元画像の検索は、画像処理装置11内の画像格納部22を検索してもよく、通信部24からネットワーク50を経由して、外部サーバ60を検索してもよい。また、使用者30は、自分の意図に沿った検索をすることを目的として、画像格納部22または外部サーバ60のどちらを検索するか指定できてもよい。
画像処理部20は、検索した元画像の1つを読み出し(S203)、画像表示部14に表示する(S204)。条件判断部18は、脳波検出装置40から脳波情報を取得できたか否かを判断する(S205)。条件判断部18は、元画像を表示してから1秒間、脳波情報を検出された場合に、脳波情報が取得できたと判断し(S205:Yes)、検出した1秒間の脳波情報を記憶して、処理をステップS207へ進める。一方、電極42と頭皮とが密着しておらず、脳波検出装置40から取得した脳波振幅が著しく小さかったり、または観測されなかったりした場合に、条件判断部18は、脳波情報が取得できないと判断し(S205:No)、例えば、「脳波検出装置40を装着しなおしてください」といったエラー表示を、画像表示部14に表示させて(S206)、処理をステップS101へ戻す。
条件判断部18は、脳波情報が脳波条件を満たすか否かを判断する(S207)。条件判断部18は、脳波情報を検出し、脳波情報が、脳波条件として記録されたP300の振幅値の閾値を越えた場合に、条件判断部18は、脳波条件を満たすと判断し(S207:Yes)、条件判断部18は、記憶した脳波情報を消去するとともに、画像表示部14に表示している画像に、Exif情報として、使用者30に選択されたことを示す指標を付与する(S208)。一方、条件判断部18は、脳波情報が脳波条件として記録された振幅値を越えない場合に、条件判断部18は、脳波条件を満たさないと判断し(S207:No)、記憶した脳波情報を消去して、使用者30に選択されたことを示す指標を付与せずにステップS209の処理を実行する。
図6は、画像選択処理において画像表示部14に表示される画像の一例を示す。図6に示した例は、使用者30が「家族」というキーワードを入力して、検索された三枚の人物の画像を示している。画像処理部20は、図6(a)と、図6(b)と、図6(c)とを順次、画像表示部14に表示する。図1に示したように使用者30の記憶にあるイメージ画像32には、人物72と人物74が入っているが、人物70は入っていない。したがって、図6(a)を表示した場合には、P300は検出されず、図6(b)および図6(c)を表示した場合に、P300が検出され、条件判断部18は、図6(b)および図6(c)に示した画像に、Exif情報として、使用者30に選択されたことを示す指標を付与する。
画像処理部20は、検索した元画像を全て表示したか否かを判断する(S209)。画像処理部20は、検索された元画像を全て表示した場合(S209:Yes)、検索した元画像のうち、指標が付与された元画像以外を消去して、画像生成処理におけるステップS102に処理を進める。一方、画像処理部20は、検索された元画像を全て表示していない場合(S209:No)、処理をステップS204に戻し、表示していない元画像を、画像表示部14に表示する。
なお、図4に示した画像選択処理のフローチャートにおいて、一つの画像も使用者30に選択されたことを示す指標が付与されない場合においては、画像処理部20は、ステップS201で入力されたキーワードを用いて、再び予め定められた数であって、検索されていない元画像を検索してもよい。そして、画像処理部20は、検索された元画像で、再び、ステップS203以降の処理を実行してもよい。なお、上記処理を3回繰り返し実行しても、元画像が選択されない場合には、再びS201に処理を戻し、使用者30にキーワードを再入力させるとしてもよい。
図5は、画像色選択処理の一例を説明するフローチャートである。図5を用いて画像色選択処理(S102)を説明するとともに、画像位置選択処理(S103)と、画像の大きさ選択処理(S104)も併せて説明する。なお、図5に示したフローチャートにおいて、ステップS205、ステップS206の処理は、図4に示したフローチャートの処理と同じ処理を実行するので、重複する説明を省略する。
まず、画像処理部20は、指標が付された元画像を読み出す(S301)。なお、指標が付された画像が複数ある場合には、そのうちの一つの元画像を読み出す。画像処理部20は、予め定めた色に変更した画像を生成する(S302)。なお、ステップS302において、予め変更する色は定められており、本実施形態においては、例えば、画像処理部20は、赤、橙、黄、緑、青、藍、紫の七色に変更した画像を生成する。画像処理部20は、色を赤に変更した画像を画像表示部14に表示する(S303)。なお、人物の画像においては、パターンマッチング等により、人体と、服および装飾品とを区別して、人体の色は変えずに服および装飾品の色を変えた画像を生成することが好ましい。人体の色を赤等の色に変えた画像を表示することは、その部分が使用者30の記憶にあるイメージ画像と遠くなるので、P300の発生が阻害されるおそれがある。したがって、服および装飾品の色を変えた画像を生成することで、P300の検出精度を向上でき、使用者30の記憶にあるイメージ画像に近い画像を早く生成できる。
画像位置選択処理(S103)においては、図5に示したフローチャートのステップS302の処理で、元画像に含まれる要素の位置を変更した画像を生成する。なお、画像の位置についても予め定められており、本実施形態においては、例えば、画像を左右方向に三分割して、それぞれの領域に当該要素を配置した処理画像をそれぞれ生成して、その一つを画像表示部14に表示する。
また、画像の大きさ選択処理(S104)においては、図5に示したフローチャートのステップS302の処理で、元画像に含まれる要素の大きさを変更した画像を生成する。なお、画像の大きさについても予め定められており、本実施形態においては、例えば、元画像の大きさに対し、0.5倍および0.25倍の画像をそれぞれ生成して、その一つを画像表示部14に表示する。
ステップS205に続いて、条件判断部18は、脳波情報が脳波条件を満たすか否かを判断する(S304)。ステップS303で表示される画像は、使用者30の記憶にあるイメージ画像に含まれる画像であるのでP300は検出される。したがって、ステップS304における脳波情報が脳波条件を満たすか否かの判断は、色を変えていない元画像のP300の振幅値を閾値とした脳波条件に基づいて判断される。すなわち、検出した脳波情報が、元画像のP300の最大振幅値よりも大きな振幅値を含む場合に、条件判断部18は、脳波条件を満たしたと判断し(S304:Yes)、記憶した脳波情報を消去するとともに、画像表示部14に表示している処理画像にExif情報として、使用者30に選択されたことを示す指標を付与する(S305)。一方、条件判断部18は、検出した脳波情報が、元画像のP300の最大振幅値よりも大きな振幅値を含まない場合には、脳波条件を満たしていないと判断し(S304:No)、記憶した脳波情報を消去して、使用者30に選択されたことを示す指標を付与せずに、ステップS305の処理を実行する。
画像処理部20は、予め定めたすべての色を表示したか否かを判断する(S306)。画像処理部20は、ステップS302で生成した画像をすべて画像表示部14に表示した場合に、画像処理部20は、すべての色を表示したと判断して(S306:Yes)、処理をステップS307へ進める。一方、画像処理部20は、ステップS302で生成した画像を全て画像表示部14に表示していない場合に、画像処理部20は、すべての色を表示していないと判断し(S306:No)、処理をステップS303に戻す。そして、画像処理部20は、色を変更した画像のうち、画像表示部14に表示していない画像を画像表示部14に表示する(S303)。
画像位置選択処理(S103)においては、図5に示したフローチャートのステップS306の処理で、すべての位置を表示したか否かを判断する。そして、三つの領域に、元画像に含まれる要素をそれぞれ配置した画像のすべてを画像表示部14に表示した場合に、すべての位置を表示したと判断する。一方、当該画像のすべてを画像表示部14に表示していない場合に、すべての位置を表示していないと判断する。
画像の大きさ選択処理(S104)においては、図5に示したフローチャートのステップS306の処理で、すべての大きさを表示したか否かを判断する。そして、0.5倍および2倍に元画像に含まれる要素の大きさを変更した画像を画像表示部14に表示した場合に、すべての大きさを表示したと判断する。一方、当該画像のいずれかを表示していない場合に、すべての大きさを表示していないと判断する。
画像処理部20は、すべての元画像を表示したか否かを判断する(S307)。画像処理部20は、指標が付されたすべての元画像について、すべての色を表示したと判断した場合に、すべての画像を表示したと判断し(S307:Yes)、指標を付した画像以外を削除して(S308)、処理を画像生成処理におけるステップS103に進める。一方、画像処理部20は、指標が付されたすべての元画像について、すべての色を表示したと判断していない場合に、すべての画像を表示していないと判断し(S307:No)、処理をステップS301に戻して、色を変えた画像を生成していない、指標が付与された元画像を読み出す。
画像位置選択処理(S103)においても、図5に示したフローチャートのステップS307の処理で、すべての画像を表示したかを判断する。画像処理部20は、指標が付されたすべての元画像について、すべての位置を表示したと判断した場合に、すべての画像を表示したと判断し、指標を付した画像以外を削除して、処理を画像生成処理における次ステップへ進める。一方、画像処理部20は、すべての位置を表示したと判断していない場合に、すべての画像を表示していないと判断し、処理を戻して、元画像に含まれる要素の位置を変えた画像を生成していない、指標が付与された元画像を読み出す。
画像の大きさ選択処理(S104)においても、図5に示したフローチャートのステップS307の処理で、すべての画像を表示したかを判断する。画像処理部20は、指標が付されたすべての元画像について、すべての大きさを表示したと判断した場合に、すべての画像を表示したと判断し、指標を付した画像以外を削除して、処理を画像生成処理における次ステップへ進める。一方、画像処理部20は、すべての大きさを表示したと判断していない場合に、すべての画像を表示していないと判断し、処理を戻して、元画像に含まれる要素の大きさを変えた画像を生成していない、指標が付与された元画像を読み出す。
図7は、画像色選択処理(S102)において画像表示部14に表示される画像の一例を示す。図7(a)は、画像選択処理にて指標が付与された元画像を示しており、図7(b)および(c)は、元画像に対し服の色を変えた画像を示している。画像処理部20は、図7(b)と、図7(c)とを順次、画像表示部14に表示する。使用者30の記憶にあるイメージ画像には、図7(b)が含まれるので、図7(b)を表示した場合には、図7(a)を上回るP300が検出されるが、図7(c)を表示した場合には、図7(a)を上回るP300は検出されない。したがって、図7(b)に示した画像に、Exif情報として、使用者30が選択したことを示す指標が付与される。
図8は、画像位置選択処理(S103)において画像表示部14に表示される画像の一例を示す。図8(a)は、画像色選択処理にて指標が付与された元画像を示しており、図8(b)および(c)は、元画像に対し人物の位置を変えた画像を示している。画像処理部20は、図8(b)と、図8(c)とを順次、画像表示部14に表示する。使用者30の記憶にあるイメージ画像には、図8(b)が含まれるので、図8(b)を表示した場合には、図8(a)を上回るP300が検出されるが、図8(c)を表示した場合には、図8(a)を上回るP300は検出されない。したがって、図8(b)に示した画像に、Exif情報として、使用者30が選択したことを示す指標が付与される。
図9は、画像の大きさ選択処理(S104)において画像表示部14に表示される画像の一例を示す。図9(a)は、画像色選択処理にて指標が付与された元画像を示しており、図9(b)および(c)は、元画像に対し人物の大きさを0.5倍、0.25倍に変えた画像を示している。画像処理部20は、図9(b)と、図9(c)とを順次、画像表示部14に表示する。使用者30の記憶にあるイメージ画像には、図9(b)が含まれるので、図9(b)を表示した場合には、図9(a)を上回るP300が検出されるが、図9(c)を表示した場合には、図8(a)を上回るP300は検出されない。したがって、図9(b)に示した画像に、Exif情報として、使用者30が選択したことを示す指標が付与される。
図10は、画像処理装置11により生成された画像の一例を示す。人物74についても、画像色選択処理(S102)、画像位置選択処理(S103)および画像大きさ選択処理(S104)を実行して、画像処理部20によって処理された処理画像が生成され、そのうち、使用者の記憶にあるイメージ画像に近い処理画像が脳波情報に基づいて選択される。そして、画像処理部20は、それぞれの処理画像を合成することによって、使用者30の記憶にあるイメージ画像に近い画像を生成する。
以上、説明したように、画像処理装置11は、脳波情報を用いて、使用者30に表示した画像が、使用者30の記憶にあるイメージ画像に近い画像か否かを判断する。これにより、当該画像から使用者30の記憶にあるイメージ画像に近い画像を生成することができる。使用者の記憶にあるイメージ画像とは、例えば、使用者30が見た夢の画像であり、画像処理システム10を用いることによって、使用者30が見た夢の画像を具現化することができる。なお、本実施形態において、画像処理装置11と脳波検出装置40とを別体として設ける例で説明したが、画像処理装置11は、脳波検出装置40を含んでもよい。
なお、画像生成処理において、画像位置選択処理(S103)を行わずに、画像処理部20は、ステップS105において、選択された処理画像の位置を変えた複数の組み合わせ画像を生成して、当該組合せ画像を画像表示部14に順次表示させてもよい。条件判断部18は、当該画像を画像表示部14に表示させた場合の脳波情報を取得する。
そして、取得した脳波情報であるP300の最大振幅値が、最も大きいと判断された脳波情報を取得した時点で、画像表示部14に表示されていた組み合わせ画像が、使用者30の記憶にあるイメージ画像に近い画像であると判断してもよい。これにより、それぞれの処理画像同士の影響も考慮して、画像の配置を決定できるので、使用者30の記憶により近い画像を生成することができる。なお、条件判断部18は、取得した脳波情報が大きい状態で変化しなくなった場合に、脳波情報が最も大きいと判断してもよい。さらに、脳波条件の設定は、予め使用者30の記憶にある画像を提示して、当該画像の提示後に生じるP300の最大振幅値を参考にして設定してもよい。
また、組み合わせ画像の判断において、脳波情報とともに、近赤外線分光分析法(fNIRS: functional near−infrared spectroscopy)を用いて、脳内の活性部位を検出して、使用者30が画像表示部14に表示している画像の色に注目しているのか、形状に注目しているのか判断してもよい。
fNIRSは、血液の変化を検出する。具体的には、酸素含有のヘモグロビンと、還元型のヘモグロビンは、波長による光吸収度合が異なるので、吸収後の反射光を測定することで、酸素含有のヘモグロビン濃度が検出できる。脳の活動部位に多量の血液が流入し、酸素含有のヘモグロビンの量が増加する神経活動部位の酸素代謝変化はBOLD効果と呼ばれている。したがって、酸素含有のヘモグロビン濃度の上昇は、当該部位の脳活動が活発化していることを示すので、fNIRSを用いて、酸素含有のヘモグロビン濃度と還元型のヘモグロビン濃度を測定することで、脳内の活性部位を検出できる。
脳内において、色と形状とを認知する部位は異なっていることが知られており、例えばP300が発生した場合において、同時にfNIRSを用いて、脳内の活性部位を検出することで、使用者30が色を認識してP300が生じたのか、または形状を認識してP300が生じたのかを判断することができる。組み合わせ画像の判断においては、色および形状ともに変化するため、脳波とともにfNIRSを用いて脳内の活性部位を検出することで、色および形状のどちらが使用者30の記憶にあるイメージ画像に近いのかを判断できる。そして、これらの判断に基づいて、処理画像を組み合わせることで、使用者30の記憶にあるイメージ画像に近い画像が生成できる。
図11は、他の画像選択処理を説明するフローチャートである。図11に示したフローチャートにおいて、ステップS201からステップS206およびステップS208およびステップS210は、図4に示した画像選択処理と同じ処理を実行するので、重複する説明を省略する。本フローチャートを用いて、脳波情報が脳波条件を満たしたか否かの判断をより正確に行う処理について説明する。
ステップS205において、条件判断部18は、脳波情報が取得できたと判断した場合(S205:Yes)、条件判断部18は、当該脳波情報を積算して(S401)、当該積算値を記憶する。条件判断部18は、キーワードによって検索された画像を、予め定められた回数表示した場合(S402:Yes)、脳波情報の積算値が脳波条件を満たすか否かを判断する(S403)。
一方、条件判断部18は、キーワードによって検索された画像がそれぞれ予め定められた回数表示していない場合(S402:No)、処理をステップS204に戻し、予め定められた回数表示されていない画像を画像表示部14に表示する。
ステップS403において、条件判断部18は、脳波条件として、図4に示した画像選択処理で用いた脳波条件に、予め定められた回数を乗じた閾値を脳波条件として用いる。条件判断部18は、積算した脳波情報が、上記脳波条件の閾値を越えた場合に、脳波情報は、脳波条件を満たしたと判断し(S403:Yes)、記憶した脳波情報の積算値を消去して、処理をステップS208へと進める。一方、積算した脳波情報が、上記脳波条件を越えない場合に、脳波情報は、脳波条件を満たさないと判断し(S403:No)、記憶した積算した脳波情報を消去して、脳波条件を満たしたことを示す情報を画像処理部20へ出力せずにステップS210の処理を実行する。
このように、予め定められた回数を乗じた脳波条件と、積算した脳波情報とで条件を満たすか否かを判断できる。積算することで脳波情報の値と脳波条件の閾値との差が大きくなるので、これにより、脳波情報が脳波条件を満たしたか否かの判断をより正確に行うことができる。
また、画像処理部20は、図11に示した画像選択処理におけるステップS204において、キーワードによって検索された元画像に対し、キーワードによって検索されていなく、脳波条件を満たさない他の画像を挟んで、上記元画像を画像表示部14に順次表示させてもよい。脳波条件を満たさない他の画像は、例えば、使用者30が興味を示さない画像である。
画像表示部14に使用者30が興味を示す画像を表示すると、使用者30は、当該画像に興味をもち、画像処理装置11は、使用者30の記憶にあるイメージ画像と異なる画像を生成するおそれがある。そのため、画像処理部20は、脳波条件を満たさない他の画像を挟んで元画像を順次表示させることによって、画像表示部14に表示した画像に使用者30が興味をもってしまい、使用者30の記憶にあるイメージ画像と異なる画像を生成することを防ぐことができる。
図12は、画像処理装置11における他の画像処理を説明する図である。図12に示した画像処理装置11は、風景または建物など記憶や見覚えがあるが、具体的な場所や名称がわからない場合に、使用者30の記憶に近い画像を生成する。そして、画像処理装置11は、この画像と一致する実在の風景または建物を、ネットワークを介して外部のサーバから検索して、当該風景または建物の場所または名称を特定する。
使用者30は、図12に示したように、具体的な場所または名前が分からない風景画像33を記憶している。風景画像33は、山の上の湖を示している。この例を用いて、画像処理システム10における画像処理の説明をする。使用者30は、操作部12から単一または複数のキーワードを入力する。画像処理装置11は、入力されたキーワードに基づいて、予め定められた数の画像を抽出する。画像処理装置11は、抽出した画像を、当該画像を構成する要素に分解する。画像処理装置11は、分解した要素ごとに、色、大きさ、配置を、使用者30の脳波情報に基づいて、使用者30の記憶にある風景に近い画像を生成する。
図13は、他の画像処理を説明するフローチャートである。図13に示したフローチャートを用いて、使用者30が具体的な場所または名前が分からない風景画像を生成して、さらに、生成した風景画像に関連する関連情報を表示する処理について説明する。なお、図13に示すフローチャートにおいて、ステップS103、ステップS104、ステップS105、ステップS106、ステップS107の処理は、図3に示した処理と同じであるので、重複する説明を省略する。
ステップS501の画像選択処理は、図4に示した画像選択処理(S101)に対し、ステップS201の処理を変更した処理を実行する。ステップS201において、使用者30は、使用者30の記憶にある画像に基づいて操作部12より「山、湖、高原、雪」といったキーワードを入力する。画像処理部20は、入力されたキーワードに基づいて、元画像を検索して、画像表示部14に表示する。画像処理部20は、脳波条件を満たした元画像に指標を付して、指標が付されていない元画像を削除する。
画像処理部20は、指標が付された元画像を、使用者30が入力したキーワードに従って、要素を分解する(S502)。具体的には、使用者30が「山、湖、高原、雪」というキーワードを入力した場合においては、元画像を「山、湖、高原、雪」の要素に分解する。さらに、画像処理部20は、パターンマッチング等の画像分析により、キーワード以外の要素に分解してもよい。画像処理部20は、指標が付された元画像の全てにおいて、要素の分解を行う。
ステップS103、ステップS104において、分解した各要素の位置および大きさが決定される。ステップS503における画像色修正処理は、図5に示した画像色選択処理(S102)のステップS302の処理を変更した処理を実行する。ステップS302において、画像処理部20は、単純な色のバリエーションではなく、風景に合致した色の画像を生成する。条件格納部16には、予め、山、湖、高原、雪といった風景を構成する要素の名前に対応付けて、複数の色および画像の明るさ等が記録されている。画像処理部20は、分解した要素のキーワードに対応した色を読み出して、要素を読み出した色に変えた画像を生成する。
さらに、条件格納部16には、複数の色および画像の明るさ等は、天候(晴れ、曇り、雨、嵐)、または、季節(春、夏、秋、冬)、または時間(朝、昼、夜)、感性語(雄大な、荘厳な、明るい、爽やかな、陰鬱な)に対応つけて記録されていてもよい。この場合、使用者30は、画像色修正処理(S503)が実行される前に、天気、季節、時間または感性語を操作部12から入力する。
画像処理部20は、このようにして生成された要素の加工画像を画像表示部14に表示する。画像処理部20は、脳波条件を満たした加工画像に指標を付して、指標が付されていない加工画像を削除する。
画像処理部20は、指標が付された加工画像から画像を生成して(S105)、画像表示部14に表示する(S106)。さらに、画像処理部20は、生成した画像と種々の外部サーバ60に記録してある画像とを比較して、生成した画像と相関性の高い画像を特定する。画像処理部20は、相関性の高い画像に対応した地名等の関連情報を読み出して、画像表示部14に表示する(S504)。なお、関連性の高い画像の特定は、テンプレートマッチング法や類似度を用いた手法を用いる。また、画像を複数の領域に分割して特定する手法を用いてもよい。なお、使用者30の記憶にある風景画像は、必ずしも著名な観光地であるとは限らない。そのため、画像処理部20は、外部サーバ60に加えて、Google EarthまたはGoogle Street Viewのような網羅的な風景画像データを検索するとしてもよい。
図14は、画像表示部14に表示される画像の一例を示す。図14に示した例において、画像処理部20は、生成した画像に対し、3枚の関連性の高い画像を特定している。そして、画像処理部20は、特定した画像を、画像に対応した地名とともに、画像表示部14に表示する。
このように、上記実施形態では、画像処理装置11は、脳波情報を用いて、使用者30の記憶にある風景画像を生成して、画像表示部14に表示できる。また、画像処理装置11は、生成した風景画像に基づいて、地名等の関連情報を画像表示部14に表示できる。これにより、使用者30は、記憶にある風景を視認でき、さらに、当該風景に関連する地名を確認できる。
さらに、図13に示したフローチャートを用いて、モンタージュ写真の生成と実在の人物の検索を行ってもよい。この場合において、使用者30は、人物に関して年齢(乳児、幼児、小学生、・・・中年・老人)、性別(男、女)、人種(白人、黒人、有色人種)、感性語(美男の、美女の、威厳のある、恰幅のよい、貧相の、陽気な、陰気な)等のキーワードを入力する。ステップS501において、画像処理部20は、入力されたキーワードに基づいて、元画像となる顔画像を検索して画像表示部14に表示する。画像処理装置11は、脳波条件を満足した元画像に指標を付して、指標が付されていない元画像を削除する。
ステップS502において、画像処理部20は、人物の顔を要素(眼、鼻、口、耳、輪郭、髪)に分解する。画像処理部20は、指標が付された元画像の全てにおいて、要素の分解を行う。
ステップS103、ステップS104において、分解した各要素の位置および大きさが決定される。ステップS503の画像色修正処理は、図5に示した画像色選択処理(S102)のステップS302の処理を変更した処理を実行する。ステップS302において、画像処理部20は、単純な色のバリエーションではなく、人物の各要素に合致した色の画像を生成する。条件格納部16には、予め、眼、鼻、口、耳、輪郭、髪といった人物の部分を構成する要素に対応付けて、複数の色および画像の明るさ等が記録されている。画像処理部20は、対応する要素の色を読み出して、要素を読み出した色に変えた画像を生成する。
さらに、条件格納部16には、年齢(乳児、幼児、小学生、・・・中年・老人)、性別(男、女)、人種(白人、黒人、有色人種)、感性語(美男の、美女の、威厳のある、恰幅のよい、貧相の、陽気な、陰気な)等の属性と、画像の明るさ、または色調を対応つけて記録されていてもよい。この場合、使用者30は、画像色修正処理(S503)が実行される前に、年齢、性別、人種、または感性語を操作部12から入力する。
画像処理部20は、生成した要素の加工画像を画像表示部14に表示する。画像処理部20は、脳波条件を満足する加工画像に指標を付して、指標がふされていない加工画像を削除する。
画像処理部20は、指標が付された加工画像から画像を生成して(S105)、画像表示部14に表示する(S106)。さらに、画像処理部20は、生成した画像と種々の外部サーバ60に記録してある画像とを比較して、生成した画像と相関性の高い画像を特定する。画像処理部20は、特定した画像から、個人を特定する。画像処理部20は、当該個人のプロフィール等を読み出して、関連情報として画像表示部14に表示する(S504)。
このように、上記実施形態では、画像処理装置11は、脳波情報を用いて、使用者30の記憶にある人物のモンタージュ写真の生成できる。さらに、画像処理装置11は、当該モンタージュ写真に基づいて、実在の人物を検索して、当該人物のプロフィール等の関連情報を画像表示部14に表示できる。
図15は、画像処理装置11における他の画像処理を説明する図である。図15に示した画像処理装置11は、使用者30の記憶またはイメージとして仮想的にしか存在しない物体の3Dデータを生成して、画像表示部14に表示するものである。そして、画像処理システム10は、さらに3Dプリンタを備えていてもよい。3Dプリンタは、生成した3Dデータに対応した実物を作成する。
図16は、他の画像処理を説明するフローチャートである。図16に示したフローチャートを用いて、記憶やイメージとして仮想的にしか存在しない物体の3Dデータを生成して、表示する処理について説明する。なお、図16においてS107は、図3と同じ処理を実行するので、重複する説明を省略する。
ステップ601の画像選択処理は、図4に示した画像選択処理(S101)に対し、ステップS201の処理を変更した処理を実行する。ステップS201において、使用者30は、使用者30の記憶またはイメージに基づいて、操作部12から「自動車、2ドア、流線型・・・」といったキーワードを入力する。画像処理部20は、キーワードに基づいて元画像を検索して、画像表示部14に表示する。画像処理部20は、脳波条件を満たした元画像に指標を付して、指標が付されていない元画像を削除する。画像処理部20は、指標が付された元画像に対して、多方面から見た画像を検索する。具体的には、正面図、背面図、上面図、下面図、右側面図、左側面図等の他方向からの画像を検索する(S602)。なお、他方向からの画像として、使用者30は、手書きのスケッチ等を画像として読み込ませてもよい。この場合、画像処理システム10は、スキャナ部を有し、使用者30は、当該スキャナ部から、手書きのスケッチを読み込ませる。画像処理部20は、検索した多方面から見た画像、および/または、使用者30が読み込ませた手書きのスケッチを3次元解析して、3Dモデルを生成する(S603)。
ステップS604における3Dモデル形状変更処理は、図5に示したステップS102の画像色選択処理に対し、ステップS301、ステップS302、ステップS303の処理を変更した処理を実行する。ステップS301において、画像処理部20は、生成した3Dモデルを読み出して(S301)、予め定められた変更を加えた3Dモデルを生成する。なお、予め定められた変更の一例は、3Dモデルの各座標値に対して数値的な操作を行い、縮小または拡大、および局所的な微小変形を行うことである。画像処理部20は、加工した3Dモデルの特徴を最もよく表現する側から見た3D画像を生成する(S302)。なお、3D画像の一例は、3Dモデルの斜視図である。
画像処理部20は、生成した3D画像を画像表示部14に表示する(S303)。そして、図5に示した処理を実行して、脳波条件を満たした3D画像に指標を付与するとともに、指標が付されていない3D画像を削除する。
ステップS605における3Dモデル外観変更処理は、図5に示したステップS102の画像色選択処理に対し、ステップS301、ステップS302、ステップS303の処理を変更した処理を実行する。ステップS301において、画像処理部20は、指標の付された3D画像と、3D画像に対応した3Dモデルを読み出す(S301)。画像処理部20は、読み出した3Dモデルの色または模様を変更した3Dモデルを生成する。画像処理部20は、変更した3Dモデルの特徴を最もよく表現する側から見た3D画像を生成する(S302)。
画像処理部20は、生成した3D画像を画像表示部14に表示する(S303)。そして、図5に示した処理を実行して、脳波条件を満たした3D画像に指標を付与するとともに、指標が付されていない3D画像を削除する。
ステップS606において、画像処理部20は、指標が付された3D画像に対応する3Dモデルが、使用者30の記憶またはイメージにある物体の3Dモデルと特定する(S606)。画像処理部20は、3Dモデルを実体化するか否かを判断する(S607)。画像処理部20は、使用者30より、3Dモデルを実体化する指示があった場合に(S607:Yes)、3Dプリンタに3Dモデルデータを出力して、3Dモデルを実体化する(S608)。画像処理部20は、使用者30より3Dモデルを実体化する指示がない場合に(S607:No)、画像表示部14に3Dモデルを表示する(S609)。
上記実施形態では、使用者30の記憶またはイメージにある物体の形状、色、模様を持つ3Dモデルを生成することができる。また、生成した3Dモデルのデータを、3Dプリンタを用いて実体化できる。
図17は、他の画像処理を説明するフローチャートである。図17に示したフローチャートを用いて、記憶やイメージに合った動画を生成して、表示する処理について説明する。なお、図17においてステップS107は、図3に示したフローチャートと同じ処理を実行し、ステップS205とステップS206は、図4に示したフローチャートと同じ処理を実行するので、重複する説明を省略する。
ステップS701において、使用者30は、使用者30の記憶またはイメージに基づいて操作部12からキーワードを時系列に入力する(S701)。例えば、「南の海で泳いでいたら、大きな魚に追いかけられ、非常に怖い思いをした。必死に泳いでいたところ、空に飛び出てしまい、しばらく飛行していたが、力尽きて海に落ちた」という夢を見た場合においては、使用者30は、「南の海、水泳、大きな魚、非常に怖い、必死に泳ぐ、空を飛ぶ、力尽きる、海に落ちる」と入力する。さらに、使用者30は、各キーワードの表す動画の長さを入力する。また、使用者30は、動画全体の長さを指定した上で、各キーワードに対応する動画の長さを比率で入力してもよい。
画像処理部20は、入力されたキーワード毎に一致する数秒から数分の動画を検索して抽出する(S702)。画像処理部20は、抽出した動画をキーワードごとに読み出して、数秒程度の短い時間にカットする。画像処理部20は、当該カットした動画をそれぞれつなぎ合わせた元画像を生成する(S703)。例えば、「南の島」で検索された動画「南の島a」「南の島b」と「水泳」で検索された動画「水泳a」、「水泳b」があった場合、動画は、それぞれ短い時間にカットした動画を生成して「南の島a、南の島b」+「水泳a、水泳b」となるように接続する。なお、無意味な静止画をRIとすると、「南の島a、RI、南の島b」+「水泳a、RI、水泳b」となるように短い時間にカットした動画の間に、無意味な静止画を挟んでもよい。さらに、RIを数秒として、南の島aおよび南の島bを数フレームとしてもよい。この場合、使用者30は、意識的に上記動画を認識できなるが、サブリミナル刺激として動画が認識されるので、使用者30が、環境または提示条件の影響を受けることを防止できる。
画像処理部20は、生成した動画を画像表示部14に表示する(S704)。条件判断部18は、カットした動画を表示した場合の脳波情報を取得して、取得した脳波情報が脳波条件を満足するか否かを判断する(S705)。全てのキーワードに対応する動画について脳波条件を満足する動画が1つある場合に、条件判断部18は、脳波条件を満足すると判断し(S705:Yes)、画像処理部20は、動画の位置および順序を確定する(S706)。
一方、キーワードに対応する動画について脳波条件を満足する1つでもない場合、条件判断部18は、脳波条件を満足しないと判断し(S705:No)処理をステップS702に戻して、再び、入力されたキーワードに基づいて、前回作成した動画と異なる組み合わせの動画を生成する。なお、脳波条件を満足した動画と満足しない動画が混在する場合においては、ステップS702において、脳波条件を満足しない動画のみを交換するとしてもよい。なお、全ての組み合わせの画像を画像表示部14に表示しても脳波条件を満足しない場合、処理をステップS701に戻して、再び、使用者30からキーワードを入力させてもよい。また、複数の動画において、脳波条件を満足した場合、より大きな振幅値を示した脳波情報を取得した場合に表示した動画を採用するとしてもよい。
画像処理部20は、使用者30により入力された各キーワードに対する時間に対応して、それぞれの動画の時間を調整する。また、時間の指定が動画の長さ全体を指定した上で、各キーワードに対応する動画の長さを比率で入力されている場合においては、画像処理部20は、指定された全体の長さに対する比率でそれぞれの動画の時間を調整する。
また、画像処理部20は、動画のつなぎ目を、一般の動画編集のように、フェードイン、フェードアウト、ワイプイン、ワイプアウトといった処理を施す(S707)。これにより、つなぎ目が不自然となることを防ぐことができる。さらに、画像処理部20は、明るさ、色調、コントラストなどを各動画間で一致するように、画像処理する。これにより、つなぎ合わせた動画を、自然な動画とすることができる。
画像処理部20は、作成した動画を画像表示部14に表示する(S708)。これにより、使用者30は、使用者30の記憶やイメージに合った動画を視認できる。このように、画像処理装置11は、使用者30の記憶やイメージを動画として生成して、表示できる。これにより、使用者30の夢や過去の記憶など個人の脳に動画として記憶されているものを、動画化して表示することができる。
図18は、他の画像処理システム100の模式図を示す。図18において、図1と同じ要素には、同じ参照番号を付して、重複する説明を省略する。図18に示した画像処理システム100は、例えば、デパート等の洋服売り場で使用される。画像処理システム100は、使用者120が注目している商品130の一例である服が撮像され、当該撮像された画像を元に、使用者120が想像している商品イメージに近い画像を生成して表示する。なお、使用者120は、例えば、画像処理システム100を備える売り場のお客様である。
画像処理システム100は、画像処理装置101と、脳波検出装置40とから構成される。画像処理装置101は、画像表示部104として、アイグラスディスプレイ(EGD)を有し、メガネのように使用者120の耳および鼻に係止されて使用者120に装着される。画像処理装置101は、さらに、撮像部102と、投影部106とを有する。撮像部102は、使用者120が注目している商品を撮像する。なお、撮像部102の一例は、デジタルカメラであり、投影部106の一例は、プロジェクタである。
図19は、画像処理システム100の機能ブロック図を示す。なお、図19において、図2と同じ要素には、同じ参照番号を付して重複する説明を省略する。上述したように、画像処理システム100は、画像処理装置101と、脳波検出装置40とから構成される。
画像処理装置101は、撮像部102と、画像表示部104と、画像投影部106と、条件格納部16と、条件判断部18と、画像処理部108とを有する。撮像部102は、使用者120の側頭部に設けられ、使用者120の視界付近を撮像する。撮像部102は、例えば、撮像部102の撮像領域における商品が占める面積に基づいて、使用者120が注目している商品を特定する。
画像表示部104は、メガネのレンズ部に設けられたアイグラスディスプレイ(EGD)であり、使用者120に撮像部102で撮像した画像、および画像処理部108で生成した処理画像を表示する。画像表示部104の表示方式は、ディスプレイ方式および投影方式に何れを選択してもよい。
投影部106は、画像処理部108で生成した画像を外部の別デバイスへ表示する。例えば、投影部106は、スクリーンに画像処理部で生成した画像を投影して、店員に欲しいと考えている商品の色または形状を伝えることができる。
画像処理部108は、撮像部102で撮像した商品の画像を取得する。画像処理部108は、撮像した画像を元画像として、色、および/または、形状を変えた処理画像を生成して、画像表示部104に順次表示する。画像処理部108は、画像に対する処理として、条件判断部18が脳波条件を満たすと判断された脳波情報を取得した時点で、画像表示部104に表示されている処理画像に、使用者120により選択されたことを示す指標を付与する。なお、撮像部102で撮像した画像を元画像として色、および/または、形状をを変えるとしたが、撮像部102では商品の特定を行い、当該商品の画像を、別途設けられた画像サーバから取得するとしてもよく、また、ネットワークを介して外部サーバより当該商品の画像を取得してもよい。なお、この場合、商品には撮像部102で商品を特定できる識別票を予め付しておき、撮像部102は、当該識別票に記された番号または記号を撮像して、当該番号または記号に基づいて商品を特定する。画像処理部108は、撮像部102により特定された商品の画像を画像サーバまたは外部サーバより読み出すとしてもよい。
図20は、画像処理装置11の画像生成処理の一例を説明するフローチャートである。なお、図20に示したフローチャートにおいて、ステップS205、ステップS206およびステップS208の処理は、図4に示したフローチャートと同じ処理を実行するので、重複する説明を省略する。また、ステップS303およびステップS305の処理は、図5に示したフローチャートと同じ処理を実行するので、重複する説明を省略する。図20に示した処理は、使用者120に画像処理装置11および脳波検出装置40が装着され、画像処理装置11と脳波検出装置40との通信が確立した場合に開始する。
撮像部102は、撮像する対象を特定する(S801)。撮像部102は、撮像領域におけるそれぞれの商品が占める領域から、撮像する対象である商品を特定する。また、撮像する対象は、使用者120の指示により商品が特定されてもよい。
撮像部102は、特定した商品を撮像する(S802)。なお、撮像部102は、撮像するか否かの判断を、特定した商品を撮影した時間で判断してもよい。例えば、撮像部102が特定した商品が、10秒以上撮影された場合に、特定された商品を撮像して、一方、10秒より短い場合には、撮像しない。また、使用者120の指示により商品を撮像してもよい。撮像部102は撮像した画像データを画像処理部108へ出力する。
画像処理部108は、取得した画像の色を、予め定められた色に変更した画像を生成する(S803)。なお、ステップS603においても、変更する色は予め定めされており、本実施例においては、画像処理部20は、赤、橙、黄、緑、青、藍、紫の七色に変更した画像を生成する。
ステップS205において、条件判断部18は、脳波情報を取得できたと判断した場合(S205:Yes)、条件判断部18は、脳波情報が脳波条件を満たすか否かを判断する(S804)。本処理において、例えば、脳波条件は、P300の有無が判断できるP300の振幅の閾値を脳波条件として設定し、画像を表示したときに検出された脳波情報がP300であるか否かを検知することによって、表示した処理画像が、使用者120が想像している商品イメージに近い画像であるか否かを判断する。したがって、条件判断部18は、脳波情報が脳波条件の閾値を越えている場合に、脳波条件を満たすと判断し(S804:Yes)、記憶した脳波情報を消去して、処理をステップS208へ進める。一方、脳波情報が脳波条件の閾値を越えていない場合に、条件判断部18は、脳波情報は脳波条件を満たさないと判断し(S804:No)、記憶した脳波情報を消去して、使用者120により選択されたことを示す指標を付与せずに処理をステップS305へ進める。
画像処理部108は、全ての色を表示したと判断した場合(S305:Yes)、Exif情報に使用者120が選択したことを示す指標が付与されている画像を、投影部106を用いて、例えば、スクリーン上に投影する(S805)。これにより、使用者120だけでなく、店員も当該画像を見ることができ、当該画像に類似の商品の有無等を確認できる。
ステップS605に続いて、画像処理部108は、使用者30より終了指示があったか否かを判断する(S806)。画像処理部20は、使用者120より終了指示があった場合に(S806:Yes)、画像生成処理は終了する。一方、画像処理部20は、使用者120より終了指示がないと判断した場合(S806:No)、処理をステップS601に戻して、再びステップS601より、画像生成処理を実行する。なお、終了指示の一例は、脳波検出装置40の脱着である。脳波検出装置40に、装着検知手段を設け、当該装着検知手段により脳波検出装置40が脱着されたことが検出された場合に、画像処理部20は、使用者120より終了指示があったと判断する。
図21は、画像生成処理において画像表示部104に表示される画像の一例を示す。図21(a)は、撮像部102により商品「コート」が特定され、撮像された画像を示しており、図21(b)、および(c)は、当該画像の色を変えた画像を示している。画像処理部20は、図21(a)と、図21(b)と、図21(c)とを順次、画像表示部104に表示する。使用者120が想像している商品イメージに近い「コート」が図21(b)であった場合、図21(a)および図21(c)を表示した場合には、P300は検出されず、図21(b)を表示した場合に、P300が検出され、画像処理部108は、図21(b)に示した画像に、Exif情報として、使用者120に選択されたことを示す指標が付与される。なお図21に示した例においては、「コート」の色を変更した例を示したが、画像処理部20は、「コート」の形状を変更した画像を生成してもよい。例えば、「コート」のポケットを無くした画像を生成してもよく、「コート」の丈を長くした画像を生成してもよい。
以上、説明したように、画像処理システム100は、脳波情報を用いて、使用者120が表示した商品の画像が、使用者120が想像している商品イメージに近いかどうかを判断する。これにより、当該画像から、使用者120が想像している商品イメージに近い画像を生成することができる。また、当該画像をスクリーン等に表示することによって、使用者120当該商品の有無を確認できるとともに、店員からのアドバイス等につながり、売り場に対する使用者120の満足度が向上される。また、売り場側においても、使用者120であるお客様の潜在的なニーズをつかむことができ、その結果、商品の売り上げの向上が期待できる。なお、本実施形態において画像処理装置101と脳波検出装置40とを別体として設ける例で説明したが、画像処理装置11は、脳波検出装置40を含んでもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10、100 画像処理システム、11、101 画像処理装置、12 操作部、14、104 画像表示部、16 条件格納部、18 条件判断部、20、108 画像処理部、22 画像格納部、24、44 通信部、30、120 使用者、32 イメージ画像、33 風景画像、40 脳波検出装置、42 電極、50 ネットワーク、60 外部サーバ、70、72、74 人物、102 撮像部、106 投影部、130 商品

Claims (17)

  1. 生体が想像した視覚的心象に沿った傾向の画像を生成するための画像処理装置であって、
    前記画像を前記生体が見たときに生じる脳波の条件を示す脳波条件を予め格納する条件格納部と、
    関連するテキストが予め付与され、前記生体により入力されるキーワードに基づいて前記テキストから検索される元画像に対して視覚上の処理を実行した処理画像を複数生成する画像処理部と、
    前記画像処理部により生成された複数の前記処理画像を順次、表示する画像表示部と、
    前記複数の処理画像を前記画像表示部に表示した場合に前記生体に生じる脳波情報をそれぞれ取得し、取得した前記脳波情報が前記条件格納部に格納されている脳波条件を満たすか否かを判断し、前記条件を満たすと判断された前記脳波情報を取得した時点で前記画像表示部に表示されていた処理画像が、前記生体により選択されたことを示す指標を付与する条件判断部と
    を備え
    前記画像処理部は、前記条件判断部により前記指標が付与された処理画像を前記元画像としてさらに視覚上の処理を実行した処理画像を複数生成し、
    前記画像処理部によりさらに生成された前記処理画像に対し、前記画像表示部による表示および前記条件判断部による判断が繰り返される、
    画像処理装置。
  2. 前記画像処理部は、前記視覚上の処理として前記元画像の色を変えた複数の処理画像を生成する請求項1に記載の画像処理装置。
  3. 前記画像処理部は、前記視覚上の処理として前記元画像に含まれる要素の位置を変えた複数の処理画像を生成する請求項1または2に記載の画像処理装置。
  4. 前記画像処理部は、前記指標が付与された処理画像が複数ある場合に、前記指標が付与された複数の処理画像を合成した処理画像を生成する請求項1から3のいずれか1項に記載の画像処理装置。
  5. 生体が想像した視覚的心象に沿った傾向の画像を生成するための画像処理装置であって、
    前記画像を前記生体が見たときに生じる脳波の条件を示す脳波条件を予め格納する条件格納部と、
    関連するテキストが予め付与され、前記生体により入力されるキーワードに基づいて前記テキストから検索される元画像に対して色を変える視覚上の処理を実行した処理画像を複数生成する画像処理部と、
    前記画像処理部により生成された複数の前記処理画像を順次、表示する画像表示部と、
    前記複数の処理画像を前記画像表示部に表示した場合に前記生体に生じる脳波情報をそれぞれ取得し、取得した前記脳波情報が前記条件格納部に格納されている脳波条件を満たすか否かを判断し、前記条件を満たすと判断された前記脳波情報を取得した時点で前記画像表示部に表示されていた処理画像が、前記生体により選択されたことを示す指標を付与する条件判断部と
    を備える画像処理装置。
  6. 前記画像処理部は、前記視覚上の処理として前記元画像に含まれる要素の位置を変えた複数の処理画像を生成する請求項5に記載の画像処理装置。
  7. 前記画像処理部は、前記指標が付与された処理画像が複数ある場合に、前記指標が付与された複数の処理画像を合成した処理画像を生成する請求項5または6に記載の画像処理装置。
  8. 生体が想像した視覚的心象に沿った傾向の画像を生成するための画像処理装置であって、
    前記画像を前記生体が見たときに生じる脳波の条件を示す脳波条件を予め格納する条件格納部と、
    関連するテキストが予め付与され、前記生体により入力されるキーワードに基づいて前記テキストから検索される元画像に対して、前記元画像に含まれる要素の位置を変える視覚上の処理を実行した処理画像を複数生成する画像処理部と、
    前記画像処理部により生成された複数の前記処理画像を順次、表示する画像表示部と、
    前記複数の処理画像を前記画像表示部に表示した場合に前記生体に生じる脳波情報をそれぞれ取得し、取得した前記脳波情報が前記条件格納部に格納されている脳波条件を満たすか否かを判断し、前記条件を満たすと判断された前記脳波情報を取得した時点で前記画像表示部に表示されていた処理画像が、前記生体により選択されたことを示す指標を付与する条件判断部と
    を備える画像処理装置。
  9. 前記画像処理部は、前記指標が付与された処理画像が複数ある場合に、前記指標が付与された複数の処理画像を合成した処理画像を生成する請求項8に記載の画像処理装置。
  10. 生体が想像した視覚的心象に沿った傾向の画像を生成するための画像処理装置であって、
    前記画像を前記生体が見たときに生じる脳波の条件を示す脳波条件を予め格納する条件格納部と、
    関連するテキストが予め付与され、前記生体により入力されるキーワードに基づいて前記テキストから検索される元画像に対して視覚上の処理を実行した処理画像を複数生成する画像処理部と、
    前記画像処理部により生成された複数の前記処理画像を順次、表示する画像表示部と、
    前記複数の処理画像を前記画像表示部に表示した場合に前記生体に生じる脳波情報をそれぞれ取得し、取得した前記脳波情報が前記条件格納部に格納されている脳波条件を満たすか否かを判断し、前記条件を満たすと判断された前記脳波情報を取得した時点で前記画像表示部に表示されていた処理画像が、前記生体により選択されたことを示す指標を付与する条件判断部と
    を備え、
    前記画像処理部は、前記指標が付与された処理画像が複数ある場合に、前記指標が付与された複数の処理画像を合成した処理画像を生成する、
    画像処理装置。
  11. 生体が想像した視覚的心象に沿った傾向の画像を生成するための画像処理装置であって、
    前記生体が注目している対象物および前記対象物の識別子の少なくとも一方を撮像する撮像部と、
    前記生体が前記対象物を注目することによって想像した視覚的心象に沿った傾向の画像を前記生体が見たときに生じる脳波の条件を示す脳波条件を予め格納する条件格納部と、
    前記撮像部によって撮像された前記対象物の画像である元画像、および、前記撮像部によって撮像された前記識別子に基づいて取得した前記対象物の画像である元画像の何れか一方に対して視覚上の処理を実行した処理画像を複数生成する画像処理部と、
    前記画像処理部により生成された複数の前記処理画像を順次、表示する画像表示部と、
    前記複数の処理画像を前記画像表示部に表示した場合に前記生体に生じる脳波情報をそれぞれ取得し、取得した前記脳波情報が前記条件格納部に格納されている脳波条件を満たすか否かを判断し、前記条件を満たすと判断された前記脳波情報を取得した時点で前記画像表示部に表示されていた処理画像が、前記生体が前記対象物を注目することによって想像した前記視覚的心象に沿った傾向の画像であると判断して、前記生体により選択されたことを示す指標を付与する条件判断部と
    を備える画像処理装置。
  12. 前記画像処理部は、前記条件判断部により前記指標が付与された処理画像を前記元画像としてさらに視覚上の処理を実行した処理画像を複数生成し、
    前記画像処理部によりさらに生成された前記処理画像に対し、前記画像表示部による表示および前記条件判断部による判断が繰り返される請求項11に記載の画像処理装置。
  13. 前記画像処理部は、前記視覚上の処理として前記元画像の色を変えた複数の処理画像を生成する請求項11または12に記載の画像処理装置。
  14. 前記画像処理部は、前記視覚上の処理として前記元画像に含まれる要素の位置を変えた複数の処理画像を生成する請求項11から13のいずれか1項に記載の画像処理装置。
  15. 前記画像処理部は、前記指標が付与された処理画像が複数ある場合に、前記指標が付与された複数の処理画像を合成した処理画像を生成する請求項11から14の何れか1項に記載の画像処理装置。
  16. 前記脳波条件は、事象関連に関する脳電位が前記画像の表示から300ms以降に陽性の振幅を有して出現することを含む請求項1から15の何れか一項に記載の画像処理装置。
  17. 前記生体が見たときに前記脳波条件を満たさない他の画像を予め格納した画像格納部をさらに備え、
    前記画像表示部は、前記複数の処理画像の間に前記他の画像を挟んで順次表示する請求項1から16のいずれか1項に記載の画像処理装置。
JP2014007832A 2014-01-20 2014-01-20 画像処理装置 Active JP6393990B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014007832A JP6393990B2 (ja) 2014-01-20 2014-01-20 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014007832A JP6393990B2 (ja) 2014-01-20 2014-01-20 画像処理装置

Publications (2)

Publication Number Publication Date
JP2015136377A JP2015136377A (ja) 2015-07-30
JP6393990B2 true JP6393990B2 (ja) 2018-09-26

Family

ID=53767827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014007832A Active JP6393990B2 (ja) 2014-01-20 2014-01-20 画像処理装置

Country Status (1)

Country Link
JP (1) JP6393990B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046403A (ja) * 2017-09-07 2019-03-22 富士ゼロックス株式会社 造形対象抽出制御装置、造形対象抽出制御プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0360905U (ja) * 1989-10-16 1991-06-14
JP3753625B2 (ja) * 2001-04-03 2006-03-08 株式会社国際電気通信基礎技術研究所 表情アニメーション生成装置および表情アニメーション生成方法
JP2004029961A (ja) * 2002-06-21 2004-01-29 Fuji Xerox Co Ltd 画像検索支援装置、画像検索支援方法、画像検索支援プログラムおよびコンピュータ読み取り可能な記録媒体
JP2004199301A (ja) * 2002-12-18 2004-07-15 Renesas Technology Corp 画像加工装置
JP2004275619A (ja) * 2003-03-19 2004-10-07 Kumamoto Technology & Industry Foundation 画像刺激−脳波意思伝達方法、及びそれに用いるシステム
JP4369290B2 (ja) * 2003-07-02 2009-11-18 尚之 加納 事象関連電位を利用したヒトの心理状態等の判定装置
JP5544620B2 (ja) * 2010-09-01 2014-07-09 独立行政法人産業技術総合研究所 意思伝達支援装置及び方法
JP6198530B2 (ja) * 2013-08-30 2017-09-20 株式会社ニコン 画像処理装置
JP6356963B2 (ja) * 2013-12-27 2018-07-11 株式会社ニコン 機械装置

Also Published As

Publication number Publication date
JP2015136377A (ja) 2015-07-30

Similar Documents

Publication Publication Date Title
US20220036055A1 (en) Person identification systems and methods
US8300064B2 (en) Apparatus and method for forming a combined image by combining images in a template
US11450075B2 (en) Virtually trying cloths on realistic body model of user
US9445087B2 (en) Systems, devices, and methods for providing products and consultations
Tsouri et al. On the benefits of alternative color spaces for noncontact heart rate measurements using standard red-green-blue cameras
US10617301B2 (en) Information processing device and information processing method
JP2022179680A5 (ja) 服飾品検索システム
CN107808136A (zh) 图像处理方法、装置、可读存储介质和计算机设备
KR101644843B1 (ko) 얼굴의 온도분포 특이성을 이용한 상태 분석 방법
JP4710550B2 (ja) 画像におけるコメントレイアウト
KR101725357B1 (ko) 휴대용 단말기를 사용하는 맥파 신호 측정 방법
KR20150107565A (ko) 건강 상태 정보를 제공하는 전자 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
JP2016170542A (ja) 画像処理装置、画像処理方法及びプログラム
JP2011150595A (ja) 顔形状評価装置、顔形状評価方法、及び顔形状評価プログラム
JP2009000410A (ja) 画像処理装置及び画像処理方法
JP6393990B2 (ja) 画像処理装置
JP2006081847A (ja) 肌解析ネットワークシステム
CN110279406B (zh) 一种基于摄像头的无接触式的脉率测量方法及装置
JP5782540B2 (ja) 美容カウンセリング方法
JP2006086732A (ja) 画像処理装置及び画像処理方法
KR20200008484A (ko) 피부 진단을 통한 화장품 추천 시스템
CN217907732U (zh) 检测装置及医疗器械
Tatsuzawa et al. Analyzing the individual relationship between habit of UV protection and melanin pigmentation based on the change of facial images for 7 years
Deglint et al. Photoplethysmographic imaging via spectrally demultiplexed erythema fluctuation analysis for remote heart rate monitoring
WO2022185596A1 (ja) 推定システム、推定方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180813

R150 Certificate of patent or registration of utility model

Ref document number: 6393990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250