JP2015136377A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2015136377A
JP2015136377A JP2014007832A JP2014007832A JP2015136377A JP 2015136377 A JP2015136377 A JP 2015136377A JP 2014007832 A JP2014007832 A JP 2014007832A JP 2014007832 A JP2014007832 A JP 2014007832A JP 2015136377 A JP2015136377 A JP 2015136377A
Authority
JP
Japan
Prior art keywords
image
image processing
condition
electroencephalogram
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014007832A
Other languages
Japanese (ja)
Other versions
JP6393990B2 (en
Inventor
義一 平山
Giichi Hirayama
義一 平山
知巳 高階
Tomomi Takashina
知巳 高階
芳之 山陸
Yoshiyuki Yamariku
芳之 山陸
正朝 水野
Masatomo Mizuno
正朝 水野
彰 米沢
Akira Yonezawa
彰 米沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014007832A priority Critical patent/JP6393990B2/en
Publication of JP2015136377A publication Critical patent/JP2015136377A/en
Application granted granted Critical
Publication of JP6393990B2 publication Critical patent/JP6393990B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that an image close to an image existing in memory of a user cannot be generated in the case that there is no image close to the image existing in the memory of the user.SOLUTION: An image processor includes a condition storage part for preliminarily storing a brain wave condition showing a condition of a brain wave that is generated when a living body looks at an image of a tendency according to visual impression imagined by the living body, an image processing part for generating a plurality of processed images obtained by executing visual processing to an original image, an image display part for sequentially displaying the plurality of processed images generated by the image processing part, and a condition determination part for respectively acquiring brain wave information that is generated in the living body in the case that the plurality of processed images are displayed in the image display part, determining whether the acquired brain wave information satisfies the brain wave condition stored in the condition storage part, and giving indicator indicating that the living body selects a processed image displayed in the image display part when acquiring the brain wave information determined to satisfy the condition.

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

ネットワークを介して送信されてきたサンプル画像を鑑賞している時の脳波を含む生体情報を測定して、サンプル画像毎に測定された生体情報の比較によって、ユーザ向きの画像であることが検出された場合に、当該画像を装飾画像としてユーザに表示する画像表示装置が知られている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1] 特開2003−177449号公報
It is detected that the image is suitable for the user by measuring the biological information including brain waves when viewing the sample image transmitted over the network and comparing the measured biological information for each sample image. In such a case, an image display device that displays the image as a decoration image to the user is known (for example, see Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2003-177449

しかしながら、上記画像表示装置は、ネットワークを介して送信された画像をそのまま表示するものであり、当該画像に使用者の記憶にあるイメージ画像に近いものがない場合には、使用者の記憶にあるイメージ画像に近い画像が生成できないという問題があった。   However, the image display device displays an image transmitted via the network as it is, and if there is no image close to the image in the user's memory, the image display device is in the user's memory. There was a problem that an image close to an image could not be generated.

本発明の第1の態様においては、生体が想像した視覚的心象に沿った傾向の画像を前記生体が見たときに生じる脳波の条件を示す脳波条件を予め格納する条件格納部と、元画像に対して視覚上の処理を実行した処理画像を複数生成する画像処理部と、前記画像処理部により生成された複数の前記処理画像を順次、表示する画像表示部と前記複数の処理画像を前記画像表示部に表示した場合に前記生体に生じる脳波情報をそれぞれ取得し、取得した前記脳波情報が前記条件格納部に格納されている脳波条件を満たすか否かを判断し、前記条件を満たすと判断された前記脳波情報を取得した時点で前記画像表示部に表示されていた処理画像が、前記生体により選択されたことを示す指標を付与する条件判断部とを備える画像処理装置が提供される。   In the first aspect of the present invention, a condition storage unit that stores in advance an electroencephalogram condition indicating a condition of an electroencephalogram generated when the living body sees an image having a tendency along the visual image imagined by the living body, and an original image An image processing unit that generates a plurality of processed images that have been visually processed, an image display unit that sequentially displays the plurality of processed images generated by the image processing unit, and the plurality of processed images When the brain wave information generated in the living body is displayed when displayed on the image display unit, the acquired brain wave information is determined whether or not the brain wave condition stored in the condition storage unit is satisfied, and the condition is satisfied An image processing apparatus is provided that includes a condition determination unit that provides an index indicating that the processed image displayed on the image display unit at the time of acquiring the determined electroencephalogram information is selected by the living body.

なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The summary of the invention does not enumerate all the features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

画像処理システムの模式図を示す。1 shows a schematic diagram of an image processing system. 画像処理システムの機能ブロック図を示す。1 shows a functional block diagram of an image processing system. 画像処理装置の画像生成処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the image generation process of an image processing apparatus. 画像選択処理の一例を説明するフローチャートである。It is a flowchart explaining an example of an image selection process. 画像色選択処理の一例を説明するフローチャートである。It is a flowchart explaining an example of an image color selection process. 画像選択処理において画像表示部に表示される画像の一例を示す。An example of the image displayed on an image display part in an image selection process is shown. 画像色選択処理において画像表示部に表示される画像の一例を示す。An example of the image displayed on an image display part in an image color selection process is shown. 画像位置選択処理において画像表示部に表示される画像の一例を示す。An example of the image displayed on an image display part in an image position selection process is shown. 画像の大きさ選択処理において画像表示部に表示される画像の一例を示す。An example of an image displayed on the image display unit in the image size selection process is shown. 画像処理装置により生成された画像の一例を示す。An example of the image produced | generated by the image processing apparatus is shown. 他の画像選択処理を説明するフローチャートである。It is a flowchart explaining another image selection process. 画像処理装置における他の画像処理を説明する図である。It is a figure explaining other image processing in an image processing device. 他の画像処理を説明するフローチャートである。It is a flowchart explaining other image processing. 画像表示部に表示される画像の一例を示す。An example of the image displayed on an image display part is shown. 画像処理装置における他の画像処理を説明する図である。It is a figure explaining other image processing in an image processing device. 他の画像処理を説明するフローチャートである。It is a flowchart explaining other image processing. 他の画像処理を説明するフローチャートである。It is a flowchart explaining other image processing. 他の画像処理システムの模式図を示す。The schematic diagram of another image processing system is shown. 他の画像処理システムの機能ブロック図を示す。The functional block diagram of another image processing system is shown. 画像処理装置の画像生成処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the image generation process of an image processing apparatus. 画像生成処理において画像表示部に表示される画像の一例を示す。An example of the image displayed on an image display part in an image generation process is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、画像処理システム10の模式図を示す。画像処理システム10は、画像処理装置11と、脳波検出装置40とから構成される。画像処理システム10は、画像処理装置11と、脳波検出装置40とを用いて、使用者30の記憶にあるイメージ画像32に近い画像を生成する。なお、使用者30は生体の一例である。   FIG. 1 shows a schematic diagram of an image processing system 10. The image processing system 10 includes an image processing device 11 and an electroencephalogram detection device 40. The image processing system 10 uses the image processing device 11 and the electroencephalogram detection device 40 to generate an image close to the image image 32 stored in the user 30 memory. The user 30 is an example of a living body.

画像処理装置11は、使用者30が操作部12を用いて入力したキーワードに基づいて元画像を検索する。画像処理装置11は、検索した元画像の色、元画像に含まれる要素の位置または大きさを変えた処理画像を生成して、画像表示部14に順次表示する。脳波検出装置40は、使用者30が当該処理画像を見たときの脳波情報を取得する。脳波検出装置40は、取得した脳波情報を、画像処理装置11に出力する。画像処理装置11は、使用者30の記憶にあるイメージ画像に近い処理画像を、脳波情報に基づいて選択する。画像処理装置11は、選択した処理画像から使用者30の記憶にあるイメージ画像32に近い画像を生成する。   The image processing apparatus 11 searches for an original image based on a keyword input by the user 30 using the operation unit 12. The image processing apparatus 11 generates a processed image in which the color of the searched original image and the position or size of the elements included in the original image are changed, and sequentially displays them on the image display unit 14. The electroencephalogram detection apparatus 40 acquires electroencephalogram information when the user 30 views the processed image. The electroencephalogram detection apparatus 40 outputs the acquired electroencephalogram information to the image processing apparatus 11. The image processing apparatus 11 selects a processed image close to the image image stored in the user 30 based on the brain wave information. The image processing apparatus 11 generates an image close to the image 32 stored in the user 30 from the selected processed image.

図2は、画像処理システム10の機能ブロック図を示す。画像処理システム10は、上述したように、画像処理装置11と、脳波検出装置40とから構成される。画像処理装置11は、操作部12と、画像表示部14と、条件格納部16と、条件判断部18と、画像処理部20と、画像格納部22と、通信部24とを有する。   FIG. 2 shows a functional block diagram of the image processing system 10. As described above, the image processing system 10 includes the image processing device 11 and the electroencephalogram detection device 40. The image processing apparatus 11 includes an operation unit 12, an image display unit 14, a condition storage unit 16, a condition determination unit 18, an image processing unit 20, an image storage unit 22, and a communication unit 24.

使用者30は、操作部12から元画像を検索するキーワードを入力する。操作部12の一例は、キーボードである。画像表示部14は、検索された複数の元画像または画像処理部20により生成された複数の処理画像を順次、表示する。画像表示部14の一例は、液晶ディスプレイ(LCD)である。画像条件格納部16は、使用者30が想像した視覚的心象に沿った傾向の画像を使用者30が見たときに生じる脳波の条件を示す脳波条件を予め格納する。なお、視覚的心象に沿った傾向の画像とは、例えば、使用者30の記憶にあるイメージ画像に近い画像のことである。   The user 30 inputs a keyword for searching for an original image from the operation unit 12. An example of the operation unit 12 is a keyboard. The image display unit 14 sequentially displays a plurality of retrieved original images or a plurality of processed images generated by the image processing unit 20. An example of the image display unit 14 is a liquid crystal display (LCD). The image condition storage unit 16 stores in advance an electroencephalogram condition indicating an electroencephalogram condition generated when the user 30 views an image having a tendency along the visual image imagined by the user 30. In addition, the image of the tendency along a visual image is an image close | similar to the image image in the memory of the user 30, for example.

条件判断部18は、複数の処理画像を画像表示部14に表示した場合に使用者30に生じる脳波情報をそれぞれ取得する。条件判断部18は、取得した脳波情報が条件格納部16に格納されている脳波条件を満たすか否かを判断する。また、条件判断部18は、脳波条件を満たすと判断された脳波情報を取得した時点で画像表示部14に表示されていた処理画像が、使用者30により選択されたことを示す指標を付与する。   The condition determination unit 18 acquires brain wave information generated in the user 30 when a plurality of processed images are displayed on the image display unit 14. The condition determination unit 18 determines whether the acquired electroencephalogram information satisfies the electroencephalogram conditions stored in the condition storage unit 16. In addition, the condition determination unit 18 provides an index indicating that the processed image displayed on the image display unit 14 at the time of acquiring the electroencephalogram information determined to satisfy the electroencephalogram condition is selected by the user 30. .

条件判断部18は、脳波情報として、脳波に生じるP300と呼ばれる事象関連電位を用いて、脳波条件を満たすか否かを判断する。ここで、P300とは、使用者30に発生した事象、例えば、画像の表示からおよそ300−600ms以降に、使用者30の頭皮上の中心部から後頭部にかけて陽性の振幅を有して出現する脳電位をいう。   The condition determination unit 18 determines whether or not an electroencephalogram condition is satisfied by using an event-related potential called P300 generated in the electroencephalogram as electroencephalogram information. Here, P300 is an event that has occurred in the user 30, for example, a brain that appears with a positive amplitude from the center of the user's 30 scalp to the back of the head after approximately 300-600 ms from the display of the image. Refers to electric potential.

P300は、使用者30に関連した項目を認識した場合に、関連しない項目を認識した場合と比較して、使用者30に高振幅の陽性の脳電位が生じることが知られている。したがって、画像表示部14に表示した画像が、使用者30の記憶にあるイメージ画像に近い画像である場合は、使用者30にP300が生じる。一方、使用者30に提示した画像が、使用者30の記憶にあるイメージ画像から遠い画像である場合は、使用者30にP300は生じない。したがって、P300の有無を判断できるP300の振幅の閾値を脳波条件として設定し、使用者30に画像を表示したときに検出された脳波にP300が生じているか否かを検知することによって、表示した画像が使用者30の記憶にあるイメージ画像に近い画像か否かを判断できる。本実施形態において、脳波条件の一例は、P300の発生の有無を判断する振幅の閾値であり、脳波情報の一例は、使用者30に画像を表示した300−600ms以降に脳波に発生した最大振幅値である。以後、上記例を用いて説明する。なお、脳波条件としては、上記P300の振幅の閾値以外に、P300の周波数分布、時間変化パターンなども利用できる。   As for P300, when the item relevant to the user 30 is recognized, compared with the case where the item which is not related is recognized, it is known that the positive brain potential of a high amplitude will arise in the user 30. FIG. Therefore, when the image displayed on the image display unit 14 is an image close to the image image stored in the user 30, P300 is generated in the user 30. On the other hand, when the image presented to the user 30 is an image far from the image stored in the user 30, P300 does not occur for the user 30. Therefore, the threshold value of the amplitude of P300 that can determine the presence or absence of P300 is set as the electroencephalogram condition, and the display is performed by detecting whether or not P300 is generated in the electroencephalogram detected when the image is displayed to the user 30. It can be determined whether or not the image is close to the image stored in the memory of the user 30. In this embodiment, an example of the electroencephalogram condition is an amplitude threshold value for determining whether or not P300 is generated, and an example of electroencephalogram information is the maximum amplitude generated in the electroencephalogram after 300 to 600 ms when an image is displayed on the user 30. Value. Hereinafter, the above example will be described. In addition to the P300 amplitude threshold, the P300 frequency distribution, time change pattern, and the like can be used as the electroencephalogram conditions.

画像処理部20は、キーワードにより検索された元画像に対して視覚上の処理を実行した処理画像を複数生成する。ここで、視覚上の処理を実行した処理画像とは、例えば、元画像の色を変えた画像であり、元画像に含まれる要素の位置または大きさを変えた画像である。   The image processing unit 20 generates a plurality of processed images obtained by performing visual processing on the original image searched by the keyword. Here, the processed image obtained by executing the visual processing is, for example, an image in which the color of the original image is changed, and an image in which the position or size of the elements included in the original image is changed.

画像処理部20は、条件判断部18により指標が付与された処理画像を元画像としてさらに視覚上の処理を実行した処理画像を複数生成する。そして画像表示部14は、当該処理画像を表示するとともに、条件判断部18は、当該処理画像を表示した時点に取得した脳波情報が脳波条件を満たすかどうかの判断を繰り返し実行する。   The image processing unit 20 generates a plurality of processed images obtained by performing further visual processing using the processed image to which the index is given by the condition determining unit 18 as an original image. Then, the image display unit 14 displays the processed image, and the condition determining unit 18 repeatedly determines whether the electroencephalogram information acquired at the time when the processed image is displayed satisfies the electroencephalogram condition.

画像格納部22は、種々の元画像を格納する。なお、元画像には、キーワードで検索できるように、例えば、Exif情報として、画像に関連するテキストが予め付与されている。また、画像格納部22は、脳波条件を満たさない他の画像を格納する。   The image storage unit 22 stores various original images. In addition, the text relevant to an image is previously given to the original image as Exif information so that it can search with a keyword, for example. The image storage unit 22 stores other images that do not satisfy the electroencephalogram conditions.

通信部24は、ネットワーク50を介して外部サーバ60と通信する。通信部24は、キーワードに関連する画像を、外部サーバ60から検索して、キーワードに合致する画像を取得する。   The communication unit 24 communicates with the external server 60 via the network 50. The communication unit 24 searches the external server 60 for an image related to the keyword, and acquires an image that matches the keyword.

脳波検出装置40は、複数の電極42と、通信部44とを有する。複数の電極42は、使用者の頭皮に接するように設けられ、使用者30の頭皮を介して使用者30の脳電位を検出する。各電極42検出された脳電位は、通信部44を介して、無線通信により条件判断部18に出力される。通信部44は、例えば、UWB(Ultra Wide Band)、ZigBee(登録商標)、Wi−Fi、Bluetooth(登録商標)、3G、および/または、LTE等の無線通信規格に準拠して条件判断部18と通信する。   The electroencephalogram detection apparatus 40 includes a plurality of electrodes 42 and a communication unit 44. The plurality of electrodes 42 are provided in contact with the user's scalp, and detect the brain potential of the user 30 through the user's 30 scalp. The brain potential detected by each electrode 42 is output to the condition determination unit 18 by wireless communication via the communication unit 44. For example, the communication unit 44 is based on a wireless communication standard such as UWB (Ultra Wide Band), ZigBee (registered trademark), Wi-Fi, Bluetooth (registered trademark), 3G, and / or LTE. Communicate with.

図3は、画像処理装置11の画像生成処理の一例を説明するフローチャートである。図3に示した画像生成処理は、画像処理装置11が起動され、画像処理装置11と脳波検出装置40との通信が確立した場合に開始する。   FIG. 3 is a flowchart for explaining an example of image generation processing of the image processing apparatus 11. The image generation process shown in FIG. 3 starts when the image processing apparatus 11 is activated and communication between the image processing apparatus 11 and the electroencephalogram detection apparatus 40 is established.

まず、ステップS101において、画像処理部20は、画像選択処理を実行して、使用者30が入力したキーワードで検索した元画像から、使用者30の記憶にあるイメージ画像に近い画像を選択する。なお、画像選択処理については、図4を用いて説明する。   First, in step S <b> 101, the image processing unit 20 executes an image selection process, and selects an image close to the image image stored in the user 30 from the original image searched with the keyword input by the user 30. The image selection process will be described with reference to FIG.

ステップS102において、画像処理部20は、画像選択処理にて指標が付与された元画像に対して画像色選択処理を実行して、元画像の色を選択する。なお、画像色選択処理については、図5を用いて説明する。   In step S <b> 102, the image processing unit 20 performs image color selection processing on the original image to which the index is given in the image selection processing, and selects the color of the original image. The image color selection process will be described with reference to FIG.

ステップS103において、画像処理部20は、画像選択処理にて指標が付与された元画像に対して画像位置選択処理を実行して、元画像に含まれる要素の位置を選択する。なお、画像位置選択処理についても、図5を用いて説明する。   In step S <b> 103, the image processing unit 20 performs image position selection processing on the original image to which the index is given in the image selection processing, and selects the positions of elements included in the original image. The image position selection process will also be described with reference to FIG.

ステップS104において、画像処理部20は、画像選択処理にて指標が付与された元画像に対して画像大きさ選択処理を実行して、元画像に含まれる要素の大きさを選択する。なお、画像選択処理についても、図5を用いて説明する。   In step S <b> 104, the image processing unit 20 performs an image size selection process on the original image to which the index is given in the image selection process, and selects the size of an element included in the original image. The image selection process will also be described with reference to FIG.

画像処理部20は、ステップS101からステップS104で選択された元画像と、元画像の色と、元画像に含まれる要素の位置と、元画像に含まれる要素の大きさに基づいて、画像を生成する(S105)。画像処理部20は、生成した画像を画像表示部14に表示する(S106)。なお、ステップS102からステップS104の順序は、使用者30の指示により変更されてもよい。   The image processing unit 20 selects an image based on the original image selected in step S101 to step S104, the color of the original image, the position of the element included in the original image, and the size of the element included in the original image. Generate (S105). The image processing unit 20 displays the generated image on the image display unit 14 (S106). Note that the order of step S102 to step S104 may be changed according to an instruction from the user 30.

画像処理部20は、使用者30より終了指示があったか否かを判断する(S107)。画像処理部20は、使用者30より終了指示があった場合に(S107:Yes)、画像生成処理は終了する。一方、画像処理部20は、使用者30より終了指示がないと判断した場合(S107:No)、処理をステップS101に戻して、再びステップS101より、画像選択処理を実行する。なお、終了指示の一例は、脳波検出装置40の脱着である。脳波検出装置40に、装着検知手段を設け、当該装着検知手段により脳波検出装置40が脱着されたことが検出された場合に、画像処理部20は、使用者30より終了指示があったと判断する。   The image processing unit 20 determines whether or not there is an end instruction from the user 30 (S107). When receiving an end instruction from the user 30 (S107: Yes), the image processing unit 20 ends the image generation process. On the other hand, if the image processing unit 20 determines that the user 30 has not given an end instruction (S107: No), the process returns to step S101, and the image selection process is executed again from step S101. An example of the end instruction is attachment / detachment of the electroencephalogram detection apparatus 40. The electroencephalogram detection apparatus 40 is provided with a mounting detection unit, and when the mounting detection unit detects that the electroencephalogram detection apparatus 40 is detached, the image processing unit 20 determines that an end instruction has been received from the user 30. .

図4は、画像選択処理の一例を説明するフローチャートである。画像選択処理において、まず、画像処理部20は、操作部12より、キーワードが入力されるのを待つ(S201:No)。画像処理部20は、操作部12よりキーワードが入力されたと判断すると(S201:Yes)、キーワードに基づいて、予め定められた数の元画像を検索する(S202)。予め定められた数は、使用者30により予め登録される。元画像の検索は、画像処理装置11内の画像格納部22を検索してもよく、通信部24からネットワーク50を経由して、外部サーバ60を検索してもよい。また、使用者30は、自分の意図に沿った検索をすることを目的として、画像格納部22または外部サーバ60のどちらを検索するか指定できてもよい。   FIG. 4 is a flowchart illustrating an example of the image selection process. In the image selection process, first, the image processing unit 20 waits for a keyword to be input from the operation unit 12 (S201: No). When the image processing unit 20 determines that a keyword has been input from the operation unit 12 (S201: Yes), the image processing unit 20 searches a predetermined number of original images based on the keyword (S202). The predetermined number is registered in advance by the user 30. The search for the original image may be performed by searching the image storage unit 22 in the image processing apparatus 11 or by searching the external server 60 from the communication unit 24 via the network 50. Further, the user 30 may be able to specify which of the image storage unit 22 and the external server 60 is searched for the purpose of searching according to his / her intention.

画像処理部20は、検索した元画像の1つを読み出し(S203)、画像表示部14に表示する(S204)。条件判断部18は、脳波検出装置40から脳波情報を取得できたか否かを判断する(S205)。条件判断部18は、元画像を表示してから1秒間、脳波情報を検出された場合に、脳波情報が取得できたと判断し(S205:Yes)、検出した1秒間の脳波情報を記憶して、処理をステップS207へ進める。一方、電極42と頭皮とが密着しておらず、脳波検出装置40から取得した脳波振幅が著しく小さかったり、または観測されなかったりした場合に、条件判断部18は、脳波情報が取得できないと判断し(S205:No)、例えば、「脳波検出装置40を装着しなおしてください」といったエラー表示を、画像表示部14に表示させて(S206)、処理をステップS101へ戻す。   The image processing unit 20 reads one of the retrieved original images (S203) and displays it on the image display unit 14 (S204). The condition determination unit 18 determines whether or not the electroencephalogram information has been acquired from the electroencephalogram detection apparatus 40 (S205). The condition determination unit 18 determines that the electroencephalogram information has been acquired when the electroencephalogram information is detected for one second after displaying the original image (S205: Yes), and stores the detected electroencephalogram information for one second. Then, the process proceeds to step S207. On the other hand, when the electrode 42 and the scalp are not in close contact and the electroencephalogram amplitude acquired from the electroencephalogram detection apparatus 40 is extremely small or not observed, the condition determination unit 18 determines that electroencephalogram information cannot be acquired. (S205: No), for example, an error display such as “Please reattach the electroencephalogram detection device 40” is displayed on the image display unit 14 (S206), and the process returns to step S101.

条件判断部18は、脳波情報が脳波条件を満たすか否かを判断する(S207)。条件判断部18は、脳波情報を検出し、脳波情報が、脳波条件として記録されたP300の振幅値の閾値を越えた場合に、条件判断部18は、脳波条件を満たすと判断し(S207:Yes)、条件判断部18は、記憶した脳波情報を消去するとともに、画像表示部14に表示している画像に、Exif情報として、使用者30に選択されたことを示す指標を付与する(S208)。一方、条件判断部18は、脳波情報が脳波条件として記録された振幅値を越えない場合に、条件判断部18は、脳波条件を満たさないと判断し(S207:No)、記憶した脳波情報を消去して、使用者30に選択されたことを示す指標を付与せずにステップS209の処理を実行する。   The condition determination unit 18 determines whether the electroencephalogram information satisfies the electroencephalogram condition (S207). The condition determination unit 18 detects the electroencephalogram information, and when the electroencephalogram information exceeds the threshold value of the amplitude value of P300 recorded as the electroencephalogram condition, the condition determination unit 18 determines that the electroencephalogram condition is satisfied (S207: Yes), the condition determination unit 18 erases the stored brain wave information and assigns an index indicating that the user 30 has selected as Exif information to the image displayed on the image display unit 14 (S208). ). On the other hand, when the brain wave information does not exceed the amplitude value recorded as the brain wave condition, the condition determination unit 18 determines that the brain wave condition is not satisfied (S207: No), and stores the stored brain wave information. The process of step S209 is executed without deleting the index indicating that the user 30 has been selected.

図6は、画像選択処理において画像表示部14に表示される画像の一例を示す。図6に示した例は、使用者30が「家族」というキーワードを入力して、検索された三枚の人物の画像を示している。画像処理部20は、図6(a)と、図6(b)と、図6(c)とを順次、画像表示部14に表示する。図1に示したように使用者30の記憶にあるイメージ画像32には、人物72と人物74が入っているが、人物70は入っていない。したがって、図6(a)を表示した場合には、P300は検出されず、図6(b)および図6(c)を表示した場合に、P300が検出され、条件判断部18は、図6(b)および図6(c)に示した画像に、Exif情報として、使用者30に選択されたことを示す指標を付与する。   FIG. 6 shows an example of an image displayed on the image display unit 14 in the image selection process. The example shown in FIG. 6 shows images of three persons searched by the user 30 entering the keyword “family”. The image processing unit 20 sequentially displays FIG. 6A, FIG. 6B, and FIG. 6C on the image display unit 14. As shown in FIG. 1, the image 32 stored in the user 30 includes a person 72 and a person 74, but does not include a person 70. Therefore, when FIG. 6A is displayed, P300 is not detected. When FIG. 6B and FIG. 6C are displayed, P300 is detected. An index indicating that the user 30 has selected is given as Exif information to the images shown in (b) and FIG. 6 (c).

画像処理部20は、検索した元画像を全て表示したか否かを判断する(S209)。画像処理部20は、検索された元画像を全て表示した場合(S209:Yes)、検索した元画像のうち、指標が付与された元画像以外を消去して、画像生成処理におけるステップS102に処理を進める。一方、画像処理部20は、検索された元画像を全て表示していない場合(S209:No)、処理をステップS204に戻し、表示していない元画像を、画像表示部14に表示する。   The image processing unit 20 determines whether or not all searched original images are displayed (S209). When all the searched original images are displayed (S209: Yes), the image processing unit 20 deletes the searched original images other than the original image to which the index is assigned, and performs the process in step S102 in the image generation process. To proceed. On the other hand, when all the retrieved original images are not displayed (S209: No), the image processing unit 20 returns the process to step S204, and displays the undisplayed original image on the image display unit 14.

なお、図4に示した画像選択処理のフローチャートにおいて、一つの画像も使用者30に選択されたことを示す指標が付与されない場合においては、画像処理部20は、ステップS201で入力されたキーワードを用いて、再び予め定められた数であって、検索されていない元画像を検索してもよい。そして、画像処理部20は、検索された元画像で、再び、ステップS203以降の処理を実行してもよい。なお、上記処理を3回繰り返し実行しても、元画像が選択されない場合には、再びS201に処理を戻し、使用者30にキーワードを再入力させるとしてもよい。   In the flowchart of the image selection process shown in FIG. 4, when an index indicating that one image is also selected by the user 30 is not given, the image processing unit 20 selects the keyword input in step S201. It is also possible to search for an original image that is a predetermined number and has not been searched again. Then, the image processing unit 20 may execute the processes after step S203 again on the retrieved original image. Note that if the original image is not selected even after the above process is repeated three times, the process may be returned to S201 again and the keyword may be re-input by the user 30.

図5は、画像色選択処理の一例を説明するフローチャートである。図5を用いて画像色選択処理(S102)を説明するとともに、画像位置選択処理(S103)と、画像の大きさ選択処理(S104)も併せて説明する。なお、図5に示したフローチャートにおいて、ステップS205、ステップS206の処理は、図4に示したフローチャートの処理と同じ処理を実行するので、重複する説明を省略する。   FIG. 5 is a flowchart illustrating an example of image color selection processing. The image color selection process (S102) will be described with reference to FIG. 5, and the image position selection process (S103) and the image size selection process (S104) will also be described. In the flowchart shown in FIG. 5, the processes in steps S205 and S206 execute the same processes as those in the flowchart shown in FIG.

まず、画像処理部20は、指標が付された元画像を読み出す(S301)。なお、指標が付された画像が複数ある場合には、そのうちの一つの元画像を読み出す。画像処理部20は、予め定めた色に変更した画像を生成する(S302)。なお、ステップS302において、予め変更する色は定められており、本実施形態においては、例えば、画像処理部20は、赤、橙、黄、緑、青、藍、紫の七色に変更した画像を生成する。画像処理部20は、色を赤に変更した画像を画像表示部14に表示する(S303)。なお、人物の画像においては、パターンマッチング等により、人体と、服および装飾品とを区別して、人体の色は変えずに服および装飾品の色を変えた画像を生成することが好ましい。人体の色を赤等の色に変えた画像を表示することは、その部分が使用者30の記憶にあるイメージ画像と遠くなるので、P300の発生が阻害されるおそれがある。したがって、服および装飾品の色を変えた画像を生成することで、P300の検出精度を向上でき、使用者30の記憶にあるイメージ画像に近い画像を早く生成できる。   First, the image processing unit 20 reads an original image to which an index is attached (S301). When there are a plurality of images with indices, one of the original images is read out. The image processing unit 20 generates an image changed to a predetermined color (S302). In step S302, the color to be changed is determined in advance. In the present embodiment, for example, the image processing unit 20 changes the image that has been changed to seven colors of red, orange, yellow, green, blue, indigo, and purple. Generate. The image processing unit 20 displays the image whose color has been changed to red on the image display unit 14 (S303). In the human image, it is preferable to distinguish the human body from clothes and accessories by pattern matching or the like, and to generate an image in which the colors of the clothes and accessories are changed without changing the color of the human body. Displaying an image in which the color of the human body is changed to a color such as red is far from the image image stored in the memory of the user 30, so that the generation of P300 may be hindered. Therefore, by generating an image in which the colors of clothes and decorations are changed, the detection accuracy of P300 can be improved, and an image close to the image image stored in the user 30 can be generated quickly.

画像位置選択処理(S103)においては、図5に示したフローチャートのステップS302の処理で、元画像に含まれる要素の位置を変更した画像を生成する。なお、画像の位置についても予め定められており、本実施形態においては、例えば、画像を左右方向に三分割して、それぞれの領域に当該要素を配置した処理画像をそれぞれ生成して、その一つを画像表示部14に表示する。   In the image position selection process (S103), an image in which the position of the element included in the original image is changed is generated in the process of step S302 of the flowchart shown in FIG. Note that the position of the image is also determined in advance. In the present embodiment, for example, each of the processed images is generated by dividing the image into three parts in the left-right direction and arranging the elements in the respective regions. Are displayed on the image display unit 14.

また、画像の大きさ選択処理(S104)においては、図5に示したフローチャートのステップS302の処理で、元画像に含まれる要素の大きさを変更した画像を生成する。なお、画像の大きさについても予め定められており、本実施形態においては、例えば、元画像の大きさに対し、0.5倍および0.25倍の画像をそれぞれ生成して、その一つを画像表示部14に表示する。   In the image size selection process (S104), an image in which the size of an element included in the original image is changed is generated in step S302 of the flowchart shown in FIG. Note that the size of the image is also determined in advance. In the present embodiment, for example, an image that is 0.5 times and 0.25 times the size of the original image is generated, respectively. Is displayed on the image display unit 14.

ステップS205に続いて、条件判断部18は、脳波情報が脳波条件を満たすか否かを判断する(S304)。ステップS303で表示される画像は、使用者30の記憶にあるイメージ画像に含まれる画像であるのでP300は検出される。したがって、ステップS304における脳波情報が脳波条件を満たすか否かの判断は、色を変えていない元画像のP300の振幅値を閾値とした脳波条件に基づいて判断される。すなわち、検出した脳波情報が、元画像のP300の最大振幅値よりも大きな振幅値を含む場合に、条件判断部18は、脳波条件を満たしたと判断し(S304:Yes)、記憶した脳波情報を消去するとともに、画像表示部14に表示している処理画像にExif情報として、使用者30に選択されたことを示す指標を付与する(S305)。一方、条件判断部18は、検出した脳波情報が、元画像のP300の最大振幅値よりも大きな振幅値を含まない場合には、脳波条件を満たしていないと判断し(S304:No)、記憶した脳波情報を消去して、使用者30に選択されたことを示す指標を付与せずに、ステップS305の処理を実行する。   Subsequent to step S205, the condition determination unit 18 determines whether the electroencephalogram information satisfies the electroencephalogram condition (S304). Since the image displayed in step S303 is an image included in the image image stored in the user 30, P300 is detected. Therefore, whether or not the electroencephalogram information in step S304 satisfies the electroencephalogram condition is determined based on the electroencephalogram condition using the amplitude value of P300 of the original image whose color is not changed as a threshold value. That is, when the detected electroencephalogram information includes an amplitude value larger than the maximum amplitude value of P300 of the original image, the condition determination unit 18 determines that the electroencephalogram condition is satisfied (S304: Yes), and stores the stored electroencephalogram information. At the same time, the processing image displayed on the image display unit 14 is erased, and an index indicating that the user 30 has selected is added as Exif information (S305). On the other hand, if the detected brain wave information does not include an amplitude value larger than the maximum amplitude value of P300 of the original image, the condition determining unit 18 determines that the brain wave condition is not satisfied (S304: No), and stores it. The process of step S305 is executed without erasing the electroencephalogram information and giving the user 30 an index indicating that it has been selected.

画像処理部20は、予め定めたすべての色を表示したか否かを判断する(S306)。画像処理部20は、ステップS302で生成した画像をすべて画像表示部14に表示した場合に、画像処理部20は、すべての色を表示したと判断して(S306:Yes)、処理をステップS307へ進める。一方、画像処理部20は、ステップS302で生成した画像を全て画像表示部14に表示していない場合に、画像処理部20は、すべての色を表示していないと判断し(S306:No)、処理をステップS303に戻す。そして、画像処理部20は、色を変更した画像のうち、画像表示部14に表示していない画像を画像表示部14に表示する(S303)。   The image processing unit 20 determines whether all predetermined colors have been displayed (S306). When the image processing unit 20 displays all the images generated in step S302 on the image display unit 14, the image processing unit 20 determines that all colors have been displayed (S306: Yes), and the process is performed in step S307. Proceed to On the other hand, when all the images generated in step S302 are not displayed on the image display unit 14, the image processing unit 20 determines that all the colors are not displayed (S306: No). The process returns to step S303. Then, the image processing unit 20 displays an image not displayed on the image display unit 14 among the images whose colors have been changed on the image display unit 14 (S303).

画像位置選択処理(S103)においては、図5に示したフローチャートのステップS306の処理で、すべての位置を表示したか否かを判断する。そして、三つの領域に、元画像に含まれる要素をそれぞれ配置した画像のすべてを画像表示部14に表示した場合に、すべての位置を表示したと判断する。一方、当該画像のすべてを画像表示部14に表示していない場合に、すべての位置を表示していないと判断する。   In the image position selection process (S103), it is determined whether all positions have been displayed in the process of step S306 of the flowchart shown in FIG. Then, when all the images in which the elements included in the original image are arranged in the three areas are displayed on the image display unit 14, it is determined that all positions are displayed. On the other hand, when all the images are not displayed on the image display unit 14, it is determined that all the positions are not displayed.

画像の大きさ選択処理(S104)においては、図5に示したフローチャートのステップS306の処理で、すべての大きさを表示したか否かを判断する。そして、0.5倍および2倍に元画像に含まれる要素の大きさを変更した画像を画像表示部14に表示した場合に、すべての大きさを表示したと判断する。一方、当該画像のいずれかを表示していない場合に、すべての大きさを表示していないと判断する。   In the image size selection process (S104), it is determined whether or not all sizes have been displayed in the process of step S306 of the flowchart shown in FIG. Then, when an image in which the size of the element included in the original image is changed to 0.5 times and 2 times is displayed on the image display unit 14, it is determined that all sizes are displayed. On the other hand, when any of the images is not displayed, it is determined that not all sizes are displayed.

画像処理部20は、すべての元画像を表示したか否かを判断する(S307)。画像処理部20は、指標が付されたすべての元画像について、すべての色を表示したと判断した場合に、すべての画像を表示したと判断し(S307:Yes)、指標を付した画像以外を削除して(S308)、処理を画像生成処理におけるステップS103に進める。一方、画像処理部20は、指標が付されたすべての元画像について、すべての色を表示したと判断していない場合に、すべての画像を表示していないと判断し(S307:No)、処理をステップS301に戻して、色を変えた画像を生成していない、指標が付与された元画像を読み出す。   The image processing unit 20 determines whether all original images have been displayed (S307). The image processing unit 20 determines that all the images have been displayed for all the original images with the indexes (S307: Yes), and other than the images with the indexes. Is deleted (S308), and the process proceeds to step S103 in the image generation process. On the other hand, the image processing unit 20 determines that all the images are not displayed when it is determined that all the colors are displayed for all the original images with the index (S307: No). The process returns to step S301, and an original image to which an index has been assigned that has not generated an image with a changed color is read.

画像位置選択処理(S103)においても、図5に示したフローチャートのステップS307の処理で、すべての画像を表示したかを判断する。画像処理部20は、指標が付されたすべての元画像について、すべての位置を表示したと判断した場合に、すべての画像を表示したと判断し、指標を付した画像以外を削除して、処理を画像生成処理における次ステップへ進める。一方、画像処理部20は、すべての位置を表示したと判断していない場合に、すべての画像を表示していないと判断し、処理を戻して、元画像に含まれる要素の位置を変えた画像を生成していない、指標が付与された元画像を読み出す。   Also in the image position selection process (S103), it is determined whether all images have been displayed in the process of step S307 in the flowchart shown in FIG. The image processing unit 20 determines that all the images have been displayed for all the original images to which the index is attached, determines that all the images have been displayed, deletes images other than the image with the index, The process proceeds to the next step in the image generation process. On the other hand, if the image processing unit 20 does not determine that all positions have been displayed, the image processing unit 20 determines that all images are not displayed, returns processing, and changes the positions of the elements included in the original image. An original image to which an index has been assigned that has not been generated is read.

画像の大きさ選択処理(S104)においても、図5に示したフローチャートのステップS307の処理で、すべての画像を表示したかを判断する。画像処理部20は、指標が付されたすべての元画像について、すべての大きさを表示したと判断した場合に、すべての画像を表示したと判断し、指標を付した画像以外を削除して、処理を画像生成処理における次ステップへ進める。一方、画像処理部20は、すべての大きさを表示したと判断していない場合に、すべての画像を表示していないと判断し、処理を戻して、元画像に含まれる要素の大きさを変えた画像を生成していない、指標が付与された元画像を読み出す。   Also in the image size selection process (S104), it is determined whether all the images are displayed in the process of step S307 of the flowchart shown in FIG. The image processing unit 20 determines that all the images have been displayed for all the original images to which the index is attached and determines that all the images have been displayed, and deletes images other than the image to which the index is attached. The process proceeds to the next step in the image generation process. On the other hand, if the image processing unit 20 has not determined that all the sizes have been displayed, the image processing unit 20 determines that all the images have not been displayed, returns processing, and determines the size of the elements included in the original image. An original image with an index that has not been generated is read.

図7は、画像色選択処理(S102)において画像表示部14に表示される画像の一例を示す。図7(a)は、画像選択処理にて指標が付与された元画像を示しており、図7(b)および(c)は、元画像に対し服の色を変えた画像を示している。画像処理部20は、図7(b)と、図7(c)とを順次、画像表示部14に表示する。使用者30の記憶にあるイメージ画像には、図7(b)が含まれるので、図7(b)を表示した場合には、図7(a)を上回るP300が検出されるが、図7(c)を表示した場合には、図7(a)を上回るP300は検出されない。したがって、図7(b)に示した画像に、Exif情報として、使用者30が選択したことを示す指標が付与される。   FIG. 7 shows an example of an image displayed on the image display unit 14 in the image color selection process (S102). FIG. 7A shows an original image to which an index is given in the image selection process, and FIGS. 7B and 7C show images in which the color of clothes is changed with respect to the original image. . The image processing unit 20 sequentially displays FIG. 7B and FIG. 7C on the image display unit 14. 7B is included in the image image stored in the user 30. When FIG. 7B is displayed, P300 exceeding FIG. 7A is detected, but FIG. When (c) is displayed, P300 exceeding FIG. 7 (a) is not detected. Therefore, an index indicating that the user 30 has selected is added as Exif information to the image illustrated in FIG.

図8は、画像位置選択処理(S103)において画像表示部14に表示される画像の一例を示す。図8(a)は、画像色選択処理にて指標が付与された元画像を示しており、図8(b)および(c)は、元画像に対し人物の位置を変えた画像を示している。画像処理部20は、図8(b)と、図8(c)とを順次、画像表示部14に表示する。使用者30の記憶にあるイメージ画像には、図8(b)が含まれるので、図8(b)を表示した場合には、図8(a)を上回るP300が検出されるが、図8(c)を表示した場合には、図8(a)を上回るP300は検出されない。したがって、図8(b)に示した画像に、Exif情報として、使用者30が選択したことを示す指標が付与される。   FIG. 8 shows an example of an image displayed on the image display unit 14 in the image position selection process (S103). FIG. 8A shows an original image to which an index is assigned in the image color selection process, and FIGS. 8B and 8C show images in which the position of a person is changed with respect to the original image. Yes. The image processing unit 20 sequentially displays FIG. 8B and FIG. 8C on the image display unit 14. Since the image stored in the memory of the user 30 includes FIG. 8B, when FIG. 8B is displayed, P300 exceeding FIG. 8A is detected. When (c) is displayed, P300 exceeding FIG. 8 (a) is not detected. Therefore, an index indicating that the user 30 has selected is added as Exif information to the image shown in FIG.

図9は、画像の大きさ選択処理(S104)において画像表示部14に表示される画像の一例を示す。図9(a)は、画像色選択処理にて指標が付与された元画像を示しており、図9(b)および(c)は、元画像に対し人物の大きさを0.5倍、0.25倍に変えた画像を示している。画像処理部20は、図9(b)と、図9(c)とを順次、画像表示部14に表示する。使用者30の記憶にあるイメージ画像には、図9(b)が含まれるので、図9(b)を表示した場合には、図9(a)を上回るP300が検出されるが、図9(c)を表示した場合には、図8(a)を上回るP300は検出されない。したがって、図9(b)に示した画像に、Exif情報として、使用者30が選択したことを示す指標が付与される。   FIG. 9 shows an example of an image displayed on the image display unit 14 in the image size selection process (S104). FIG. 9A shows an original image to which an index is given in the image color selection process, and FIGS. 9B and 9C show that the size of a person is 0.5 times that of the original image. An image changed to 0.25 times is shown. The image processing unit 20 sequentially displays FIG. 9B and FIG. 9C on the image display unit 14. 9B is included in the image image stored in the user 30. Therefore, when FIG. 9B is displayed, P300 exceeding FIG. 9A is detected. When (c) is displayed, P300 exceeding FIG. 8 (a) is not detected. Therefore, an index indicating that the user 30 has selected is added as Exif information to the image shown in FIG. 9B.

図10は、画像処理装置11により生成された画像の一例を示す。人物74についても、画像色選択処理(S102)、画像位置選択処理(S103)および画像大きさ選択処理(S104)を実行して、画像処理部20によって処理された処理画像が生成され、そのうち、使用者の記憶にあるイメージ画像に近い処理画像が脳波情報に基づいて選択される。そして、画像処理部20は、それぞれの処理画像を合成することによって、使用者30の記憶にあるイメージ画像に近い画像を生成する。   FIG. 10 shows an example of an image generated by the image processing apparatus 11. Also for the person 74, the image color selection process (S102), the image position selection process (S103), and the image size selection process (S104) are executed, and a processed image processed by the image processing unit 20 is generated. A processed image close to the image image stored in the user's memory is selected based on the electroencephalogram information. Then, the image processing unit 20 generates an image close to the image image stored in the user 30 by combining the processed images.

以上、説明したように、画像処理装置11は、脳波情報を用いて、使用者30に表示した画像が、使用者30の記憶にあるイメージ画像に近い画像か否かを判断する。これにより、当該画像から使用者30の記憶にあるイメージ画像に近い画像を生成することができる。使用者の記憶にあるイメージ画像とは、例えば、使用者30が見た夢の画像であり、画像処理システム10を用いることによって、使用者30が見た夢の画像を具現化することができる。なお、本実施形態において、画像処理装置11と脳波検出装置40とを別体として設ける例で説明したが、画像処理装置11は、脳波検出装置40を含んでもよい。   As described above, the image processing apparatus 11 determines whether the image displayed on the user 30 is an image close to the image image stored in the user 30 using the electroencephalogram information. Thereby, an image close to the image image stored in the user 30 can be generated from the image. The image image stored in the user's memory is, for example, a dream image seen by the user 30, and the dream image seen by the user 30 can be realized by using the image processing system 10. . In the present embodiment, the example in which the image processing apparatus 11 and the electroencephalogram detection apparatus 40 are provided separately has been described. However, the image processing apparatus 11 may include the electroencephalogram detection apparatus 40.

なお、画像生成処理において、画像位置選択処理(S103)を行わずに、画像処理部20は、ステップS105において、選択された処理画像の位置を変えた複数の組み合わせ画像を生成して、当該組合せ画像を画像表示部14に順次表示させてもよい。条件判断部18は、当該画像を画像表示部14に表示させた場合の脳波情報を取得する。   In the image generation process, without performing the image position selection process (S103), in step S105, the image processing unit 20 generates a plurality of combination images in which the positions of the selected processed images are changed, and the combination. Images may be sequentially displayed on the image display unit 14. The condition determination unit 18 acquires brain wave information when the image is displayed on the image display unit 14.

そして、取得した脳波情報であるP300の最大振幅値が、最も大きいと判断された脳波情報を取得した時点で、画像表示部14に表示されていた組み合わせ画像が、使用者30の記憶にあるイメージ画像に近い画像であると判断してもよい。これにより、それぞれの処理画像同士の影響も考慮して、画像の配置を決定できるので、使用者30の記憶により近い画像を生成することができる。なお、条件判断部18は、取得した脳波情報が大きい状態で変化しなくなった場合に、脳波情報が最も大きいと判断してもよい。さらに、脳波条件の設定は、予め使用者30の記憶にある画像を提示して、当該画像の提示後に生じるP300の最大振幅値を参考にして設定してもよい。   The combined image displayed on the image display unit 14 at the time of acquiring the electroencephalogram information determined that the maximum amplitude value of P300, which is the acquired electroencephalogram information, is the largest is the image stored in the user 30 memory. It may be determined that the image is close to the image. Thereby, since the arrangement of the images can be determined in consideration of the influence between the processed images, an image closer to the memory of the user 30 can be generated. The condition determination unit 18 may determine that the electroencephalogram information is the largest when the acquired electroencephalogram information does not change in a large state. Furthermore, the setting of the electroencephalogram conditions may be set with reference to the maximum amplitude value of P300 that is generated after the image in the memory of the user 30 is presented in advance and the image is presented.

また、組み合わせ画像の判断において、脳波情報とともに、近赤外線分光分析法(fNIRS: functional near−infrared spectroscopy)を用いて、脳内の活性部位を検出して、使用者30が画像表示部14に表示している画像の色に注目しているのか、形状に注目しているのか判断してもよい。   Further, in determining the combination image, the active region in the brain is detected using near-infrared spectroscopy (fNIRS) together with the electroencephalogram information, and the user 30 displays it on the image display unit 14. It may be determined whether the user is paying attention to the color or the shape of the image.

fNIRSは、血液の変化を検出する。具体的には、酸素含有のヘモグロビンと、還元型のヘモグロビンは、波長による光吸収度合が異なるので、吸収後の反射光を測定することで、酸素含有のヘモグロビン濃度が検出できる。脳の活動部位に多量の血液が流入し、酸素含有のヘモグロビンの量が増加する神経活動部位の酸素代謝変化はBOLD効果と呼ばれている。したがって、酸素含有のヘモグロビン濃度の上昇は、当該部位の脳活動が活発化していることを示すので、fNIRSを用いて、酸素含有のヘモグロビン濃度と還元型のヘモグロビン濃度を測定することで、脳内の活性部位を検出できる。   fNIRS detects blood changes. Specifically, oxygen-containing hemoglobin and reduced hemoglobin have different degrees of light absorption depending on the wavelength. Therefore, the concentration of oxygen-containing hemoglobin can be detected by measuring the reflected light after absorption. A change in oxygen metabolism in a nerve active site where a large amount of blood flows into the brain active site and the amount of oxygen-containing hemoglobin increases is called the BOLD effect. Therefore, an increase in the oxygen-containing hemoglobin concentration indicates that the brain activity at the relevant site is activated. Therefore, by measuring the oxygen-containing hemoglobin concentration and the reduced hemoglobin concentration using fNIRS, Active sites can be detected.

脳内において、色と形状とを認知する部位は異なっていることが知られており、例えばP300が発生した場合において、同時にfNIRSを用いて、脳内の活性部位を検出することで、使用者30が色を認識してP300が生じたのか、または形状を認識してP300が生じたのかを判断することができる。組み合わせ画像の判断においては、色および形状ともに変化するため、脳波とともにfNIRSを用いて脳内の活性部位を検出することで、色および形状のどちらが使用者30の記憶にあるイメージ画像に近いのかを判断できる。そして、これらの判断に基づいて、処理画像を組み合わせることで、使用者30の記憶にあるイメージ画像に近い画像が生成できる。   It is known that the site for recognizing color and shape is different in the brain. For example, when P300 is generated, the user can detect the active site in the brain using fNIRS at the same time. It can be determined whether 30 recognizes the color and P300 occurs, or recognizes the shape and P300 occurs. In determining the combination image, both the color and the shape change. Therefore, by detecting the active site in the brain using fNIRS together with the electroencephalogram, it is possible to determine which color or shape is closer to the image in the memory of the user 30. I can judge. Based on these determinations, an image close to the image image stored in the user 30 can be generated by combining the processed images.

図11は、他の画像選択処理を説明するフローチャートである。図11に示したフローチャートにおいて、ステップS201からステップS206およびステップS208およびステップS210は、図4に示した画像選択処理と同じ処理を実行するので、重複する説明を省略する。本フローチャートを用いて、脳波情報が脳波条件を満たしたか否かの判断をより正確に行う処理について説明する。   FIG. 11 is a flowchart for explaining another image selection process. In the flowchart shown in FIG. 11, steps S201 to S206 and steps S208 and S210 execute the same processing as the image selection processing shown in FIG. A process for more accurately determining whether the electroencephalogram information satisfies the electroencephalogram condition will be described using this flowchart.

ステップS205において、条件判断部18は、脳波情報が取得できたと判断した場合(S205:Yes)、条件判断部18は、当該脳波情報を積算して(S401)、当該積算値を記憶する。条件判断部18は、キーワードによって検索された画像を、予め定められた回数表示した場合(S402:Yes)、脳波情報の積算値が脳波条件を満たすか否かを判断する(S403)。   In step S205, when the condition determining unit 18 determines that the electroencephalogram information has been acquired (S205: Yes), the condition determining unit 18 integrates the electroencephalogram information (S401), and stores the integrated value. When the image searched for by the keyword is displayed a predetermined number of times (S402: Yes), the condition determining unit 18 determines whether the integrated value of the electroencephalogram information satisfies the electroencephalogram condition (S403).

一方、条件判断部18は、キーワードによって検索された画像がそれぞれ予め定められた回数表示していない場合(S402:No)、処理をステップS204に戻し、予め定められた回数表示されていない画像を画像表示部14に表示する。   On the other hand, if the image searched for by the keyword has not been displayed for a predetermined number of times (S402: No), the condition determination unit 18 returns the process to step S204, and selects an image that has not been displayed for the predetermined number of times. The image is displayed on the image display unit 14.

ステップS403において、条件判断部18は、脳波条件として、図4に示した画像選択処理で用いた脳波条件に、予め定められた回数を乗じた閾値を脳波条件として用いる。条件判断部18は、積算した脳波情報が、上記脳波条件の閾値を越えた場合に、脳波情報は、脳波条件を満たしたと判断し(S403:Yes)、記憶した脳波情報の積算値を消去して、処理をステップS208へと進める。一方、積算した脳波情報が、上記脳波条件を越えない場合に、脳波情報は、脳波条件を満たさないと判断し(S403:No)、記憶した積算した脳波情報を消去して、脳波条件を満たしたことを示す情報を画像処理部20へ出力せずにステップS210の処理を実行する。   In step S403, the condition determination unit 18 uses, as an electroencephalogram condition, a threshold obtained by multiplying the electroencephalogram condition used in the image selection process shown in FIG. 4 by a predetermined number of times. The condition determination unit 18 determines that the electroencephalogram information satisfies the electroencephalogram condition when the electroencephalogram information exceeds the threshold value of the electroencephalogram condition (S403: Yes), and erases the accumulated value of the stored electroencephalogram information. Then, the process proceeds to step S208. On the other hand, if the accumulated electroencephalogram information does not exceed the above electroencephalogram conditions, it is determined that the electroencephalogram information does not satisfy the electroencephalogram conditions (S403: No), and the accumulated electroencephalogram information stored is erased to satisfy the electroencephalogram conditions. The process of step S210 is executed without outputting the information indicating this to the image processing unit 20.

このように、予め定められた回数を乗じた脳波条件と、積算した脳波情報とで条件を満たすか否かを判断できる。積算することで脳波情報の値と脳波条件の閾値との差が大きくなるので、これにより、脳波情報が脳波条件を満たしたか否かの判断をより正確に行うことができる。   In this way, it can be determined whether or not the condition is satisfied by the electroencephalogram condition multiplied by a predetermined number of times and the accumulated electroencephalogram information. Since the difference between the value of the electroencephalogram information and the threshold value of the electroencephalogram condition is increased by the accumulation, it is possible to more accurately determine whether the electroencephalogram information satisfies the electroencephalogram condition.

また、画像処理部20は、図11に示した画像選択処理におけるステップS204において、キーワードによって検索された元画像に対し、キーワードによって検索されていなく、脳波条件を満たさない他の画像を挟んで、上記元画像を画像表示部14に順次表示させてもよい。脳波条件を満たさない他の画像は、例えば、使用者30が興味を示さない画像である。   In addition, the image processing unit 20 sandwiches another image that is not searched by the keyword and does not satisfy the electroencephalogram condition with respect to the original image searched by the keyword in step S204 in the image selection process shown in FIG. The original image may be sequentially displayed on the image display unit 14. Other images that do not satisfy the electroencephalogram conditions are, for example, images that the user 30 is not interested in.

画像表示部14に使用者30が興味を示す画像を表示すると、使用者30は、当該画像に興味をもち、画像処理装置11は、使用者30の記憶にあるイメージ画像と異なる画像を生成するおそれがある。そのため、画像処理部20は、脳波条件を満たさない他の画像を挟んで元画像を順次表示させることによって、画像表示部14に表示した画像に使用者30が興味をもってしまい、使用者30の記憶にあるイメージ画像と異なる画像を生成することを防ぐことができる。   When an image showing the interest of the user 30 is displayed on the image display unit 14, the user 30 is interested in the image, and the image processing device 11 generates an image different from the image image stored in the user 30. There is a fear. For this reason, the image processing unit 20 sequentially displays the original image with other images not satisfying the electroencephalogram condition, so that the user 30 becomes interested in the image displayed on the image display unit 14, and the memory of the user 30 is stored. It is possible to prevent the generation of an image different from the image in the image.

図12は、画像処理装置11における他の画像処理を説明する図である。図12に示した画像処理装置11は、風景または建物など記憶や見覚えがあるが、具体的な場所や名称がわからない場合に、使用者30の記憶に近い画像を生成する。そして、画像処理装置11は、この画像と一致する実在の風景または建物を、ネットワークを介して外部のサーバから検索して、当該風景または建物の場所または名称を特定する。   FIG. 12 is a diagram for explaining other image processing in the image processing apparatus 11. The image processing apparatus 11 shown in FIG. 12 generates an image close to the memory of the user 30 when there is a memory or familiarity such as a landscape or a building but a specific place or name is unknown. Then, the image processing apparatus 11 searches for an actual landscape or building that matches the image from an external server via the network, and specifies the location or name of the landscape or building.

使用者30は、図12に示したように、具体的な場所または名前が分からない風景画像33を記憶している。風景画像33は、山の上の湖を示している。この例を用いて、画像処理システム10における画像処理の説明をする。使用者30は、操作部12から単一または複数のキーワードを入力する。画像処理装置11は、入力されたキーワードに基づいて、予め定められた数の画像を抽出する。画像処理装置11は、抽出した画像を、当該画像を構成する要素に分解する。画像処理装置11は、分解した要素ごとに、色、大きさ、配置を、使用者30の脳波情報に基づいて、使用者30の記憶にある風景に近い画像を生成する。   As shown in FIG. 12, the user 30 stores a landscape image 33 whose specific place or name is unknown. The landscape image 33 shows a lake on the mountain. Image processing in the image processing system 10 will be described using this example. The user 30 inputs a single keyword or a plurality of keywords from the operation unit 12. The image processing apparatus 11 extracts a predetermined number of images based on the input keyword. The image processing apparatus 11 decomposes the extracted image into elements constituting the image. The image processing apparatus 11 generates an image close to the landscape in the memory of the user 30 based on the brain wave information of the user 30 with respect to the color, size, and arrangement for each decomposed element.

図13は、他の画像処理を説明するフローチャートである。図13に示したフローチャートを用いて、使用者30が具体的な場所または名前が分からない風景画像を生成して、さらに、生成した風景画像に関連する関連情報を表示する処理について説明する。なお、図13に示すフローチャートにおいて、ステップS103、ステップS104、ステップS105、ステップS106、ステップS107の処理は、図3に示した処理と同じであるので、重複する説明を省略する。   FIG. 13 is a flowchart for explaining another image processing. A process in which the user 30 generates a landscape image whose specific location or name is unknown and displays related information related to the generated landscape image will be described using the flowchart shown in FIG. In the flowchart shown in FIG. 13, the processing in step S103, step S104, step S105, step S106, and step S107 is the same as the processing shown in FIG.

ステップS501の画像選択処理は、図4に示した画像選択処理(S101)に対し、ステップS201の処理を変更した処理を実行する。ステップS201において、使用者30は、使用者30の記憶にある画像に基づいて操作部12より「山、湖、高原、雪」といったキーワードを入力する。画像処理部20は、入力されたキーワードに基づいて、元画像を検索して、画像表示部14に表示する。画像処理部20は、脳波条件を満たした元画像に指標を付して、指標が付されていない元画像を削除する。   The image selection process in step S501 executes a process in which the process in step S201 is changed with respect to the image selection process (S101) shown in FIG. In step S <b> 201, the user 30 inputs a keyword such as “mountain, lake, plateau, snow” from the operation unit 12 based on the image stored in the user 30. The image processing unit 20 searches for the original image based on the input keyword and displays it on the image display unit 14. The image processing unit 20 attaches an index to the original image that satisfies the electroencephalogram condition, and deletes the original image without the index.

画像処理部20は、指標が付された元画像を、使用者30が入力したキーワードに従って、要素を分解する(S502)。具体的には、使用者30が「山、湖、高原、雪」というキーワードを入力した場合においては、元画像を「山、湖、高原、雪」の要素に分解する。さらに、画像処理部20は、パターンマッチング等の画像分析により、キーワード以外の要素に分解してもよい。画像処理部20は、指標が付された元画像の全てにおいて、要素の分解を行う。   The image processing unit 20 decomposes the elements of the original image with the index according to the keyword input by the user 30 (S502). Specifically, when the user 30 inputs the keyword “mountain, lake, plateau, snow”, the original image is decomposed into elements of “mountain, lake, plateau, snow”. Further, the image processing unit 20 may be decomposed into elements other than keywords by image analysis such as pattern matching. The image processing unit 20 decomposes elements in all of the original images with indexes.

ステップS103、ステップS104において、分解した各要素の位置および大きさが決定される。ステップS503における画像色修正処理は、図5に示した画像色選択処理(S102)のステップS302の処理を変更した処理を実行する。ステップS302において、画像処理部20は、単純な色のバリエーションではなく、風景に合致した色の画像を生成する。条件格納部16には、予め、山、湖、高原、雪といった風景を構成する要素の名前に対応付けて、複数の色および画像の明るさ等が記録されている。画像処理部20は、分解した要素のキーワードに対応した色を読み出して、要素を読み出した色に変えた画像を生成する。   In step S103 and step S104, the position and size of each decomposed element are determined. The image color correction process in step S503 executes a process obtained by changing the process in step S302 of the image color selection process (S102) shown in FIG. In step S <b> 302, the image processing unit 20 generates an image having a color that matches the landscape, not a simple color variation. In the condition storage unit 16, a plurality of colors, brightness of images, and the like are recorded in advance in association with names of elements constituting a landscape such as mountains, lakes, plateaus, and snow. The image processing unit 20 reads a color corresponding to the keyword of the decomposed element, and generates an image in which the element is changed to the read color.

さらに、条件格納部16には、複数の色および画像の明るさ等は、天候(晴れ、曇り、雨、嵐)、または、季節(春、夏、秋、冬)、または時間(朝、昼、夜)、感性語(雄大な、荘厳な、明るい、爽やかな、陰鬱な)に対応つけて記録されていてもよい。この場合、使用者30は、画像色修正処理(S503)が実行される前に、天気、季節、時間または感性語を操作部12から入力する。   Further, the condition storage unit 16 includes a plurality of colors, image brightness, and the like in weather (sunny, cloudy, rain, storm), season (spring, summer, autumn, winter), or time (morning, daytime). , Night), sensitivity words (major, majestic, bright, refreshing, gloomy) may be recorded. In this case, the user 30 inputs the weather, season, time, or sensitivity word from the operation unit 12 before the image color correction process (S503) is executed.

画像処理部20は、このようにして生成された要素の加工画像を画像表示部14に表示する。画像処理部20は、脳波条件を満たした加工画像に指標を付して、指標が付されていない加工画像を削除する。   The image processing unit 20 displays the processed image of the element thus generated on the image display unit 14. The image processing unit 20 attaches an index to the processed image that satisfies the electroencephalogram condition, and deletes the processed image without the index.

画像処理部20は、指標が付された加工画像から画像を生成して(S105)、画像表示部14に表示する(S106)。さらに、画像処理部20は、生成した画像と種々の外部サーバ60に記録してある画像とを比較して、生成した画像と相関性の高い画像を特定する。画像処理部20は、相関性の高い画像に対応した地名等の関連情報を読み出して、画像表示部14に表示する(S504)。なお、関連性の高い画像の特定は、テンプレートマッチング法や類似度を用いた手法を用いる。また、画像を複数の領域に分割して特定する手法を用いてもよい。なお、使用者30の記憶にある風景画像は、必ずしも著名な観光地であるとは限らない。そのため、画像処理部20は、外部サーバ60に加えて、Google EarthまたはGoogle Street Viewのような網羅的な風景画像データを検索するとしてもよい。   The image processing unit 20 generates an image from the processed image with the index (S105) and displays it on the image display unit 14 (S106). Furthermore, the image processing unit 20 compares the generated image with images recorded in various external servers 60, and identifies an image having a high correlation with the generated image. The image processing unit 20 reads related information such as a place name corresponding to the highly correlated image and displays it on the image display unit 14 (S504). Note that a highly relevant image is identified using a template matching method or a technique using similarity. Alternatively, a method of dividing an image into a plurality of areas and specifying the image may be used. The landscape image stored in the memory of the user 30 is not necessarily a well-known tourist spot. Therefore, in addition to the external server 60, the image processing unit 20 may search for comprehensive landscape image data such as Google Earth or Google Street View.

図14は、画像表示部14に表示される画像の一例を示す。図14に示した例において、画像処理部20は、生成した画像に対し、3枚の関連性の高い画像を特定している。そして、画像処理部20は、特定した画像を、画像に対応した地名とともに、画像表示部14に表示する。   FIG. 14 shows an example of an image displayed on the image display unit 14. In the example illustrated in FIG. 14, the image processing unit 20 specifies three highly relevant images for the generated image. Then, the image processing unit 20 displays the identified image on the image display unit 14 together with the place name corresponding to the image.

このように、上記実施形態では、画像処理装置11は、脳波情報を用いて、使用者30の記憶にある風景画像を生成して、画像表示部14に表示できる。また、画像処理装置11は、生成した風景画像に基づいて、地名等の関連情報を画像表示部14に表示できる。これにより、使用者30は、記憶にある風景を視認でき、さらに、当該風景に関連する地名を確認できる。   Thus, in the above-described embodiment, the image processing apparatus 11 can generate a landscape image stored in the memory of the user 30 using the electroencephalogram information and display it on the image display unit 14. Further, the image processing apparatus 11 can display related information such as a place name on the image display unit 14 based on the generated landscape image. Thereby, the user 30 can visually recognize the scenery in the memory, and can further confirm the place name related to the scenery.

さらに、図13に示したフローチャートを用いて、モンタージュ写真の生成と実在の人物の検索を行ってもよい。この場合において、使用者30は、人物に関して年齢(乳児、幼児、小学生、・・・中年・老人)、性別(男、女)、人種(白人、黒人、有色人種)、感性語(美男の、美女の、威厳のある、恰幅のよい、貧相の、陽気な、陰気な)等のキーワードを入力する。ステップS501において、画像処理部20は、入力されたキーワードに基づいて、元画像となる顔画像を検索して画像表示部14に表示する。画像処理装置11は、脳波条件を満足した元画像に指標を付して、指標が付されていない元画像を削除する。   Furthermore, a montage photo may be generated and a real person may be searched using the flowchart shown in FIG. In this case, the user 30 is related to a person's age (infant, infant, elementary school student, middle-aged / old), gender (male, female), race (white, black, colored race), sensitivity word ( Enter keywords such as beautiful men, beautiful women, dignified, generous, poor, cheerful, and intimidating. In step S <b> 501, the image processing unit 20 searches for a face image to be an original image based on the input keyword and displays it on the image display unit 14. The image processing apparatus 11 attaches an index to the original image that satisfies the electroencephalogram condition, and deletes the original image without the index.

ステップS502において、画像処理部20は、人物の顔を要素(眼、鼻、口、耳、輪郭、髪)に分解する。画像処理部20は、指標が付された元画像の全てにおいて、要素の分解を行う。   In step S502, the image processing unit 20 disassembles the face of a person into elements (eye, nose, mouth, ear, contour, hair). The image processing unit 20 decomposes elements in all of the original images with indexes.

ステップS103、ステップS104において、分解した各要素の位置および大きさが決定される。ステップS503の画像色修正処理は、図5に示した画像色選択処理(S102)のステップS302の処理を変更した処理を実行する。ステップS302において、画像処理部20は、単純な色のバリエーションではなく、人物の各要素に合致した色の画像を生成する。条件格納部16には、予め、眼、鼻、口、耳、輪郭、髪といった人物の部分を構成する要素に対応付けて、複数の色および画像の明るさ等が記録されている。画像処理部20は、対応する要素の色を読み出して、要素を読み出した色に変えた画像を生成する。   In step S103 and step S104, the position and size of each decomposed element are determined. The image color correction process in step S503 executes a process obtained by changing the process in step S302 of the image color selection process (S102) shown in FIG. In step S <b> 302, the image processing unit 20 generates an image of a color that matches each element of the person, not a simple color variation. In the condition storage unit 16, a plurality of colors, image brightness, and the like are recorded in advance in association with elements constituting a human part such as eyes, nose, mouth, ears, contours, and hair. The image processing unit 20 reads the color of the corresponding element and generates an image in which the element is changed to the read color.

さらに、条件格納部16には、年齢(乳児、幼児、小学生、・・・中年・老人)、性別(男、女)、人種(白人、黒人、有色人種)、感性語(美男の、美女の、威厳のある、恰幅のよい、貧相の、陽気な、陰気な)等の属性と、画像の明るさ、または色調を対応つけて記録されていてもよい。この場合、使用者30は、画像色修正処理(S503)が実行される前に、年齢、性別、人種、または感性語を操作部12から入力する。   Furthermore, the condition storage unit 16 includes age (infant, infant, elementary school student, middle-aged / elderly), sex (male, female), race (white, black, colored race), and sensitivity word (beautiful man's). , Beauty, dignified, generous, poor, cheerful, and timid) and the brightness or color tone of the image may be recorded in association with each other. In this case, the user 30 inputs age, sex, race, or a sensitivity word from the operation unit 12 before the image color correction process (S503) is executed.

画像処理部20は、生成した要素の加工画像を画像表示部14に表示する。画像処理部20は、脳波条件を満足する加工画像に指標を付して、指標がふされていない加工画像を削除する。   The image processing unit 20 displays the processed image of the generated element on the image display unit 14. The image processing unit 20 attaches an index to the processed image that satisfies the electroencephalogram condition, and deletes the processed image that is not touched by the index.

画像処理部20は、指標が付された加工画像から画像を生成して(S105)、画像表示部14に表示する(S106)。さらに、画像処理部20は、生成した画像と種々の外部サーバ60に記録してある画像とを比較して、生成した画像と相関性の高い画像を特定する。画像処理部20は、特定した画像から、個人を特定する。画像処理部20は、当該個人のプロフィール等を読み出して、関連情報として画像表示部14に表示する(S504)。   The image processing unit 20 generates an image from the processed image with the index (S105) and displays it on the image display unit 14 (S106). Furthermore, the image processing unit 20 compares the generated image with images recorded in various external servers 60, and identifies an image having a high correlation with the generated image. The image processing unit 20 specifies an individual from the specified image. The image processing unit 20 reads the personal profile or the like and displays it on the image display unit 14 as related information (S504).

このように、上記実施形態では、画像処理装置11は、脳波情報を用いて、使用者30の記憶にある人物のモンタージュ写真の生成できる。さらに、画像処理装置11は、当該モンタージュ写真に基づいて、実在の人物を検索して、当該人物のプロフィール等の関連情報を画像表示部14に表示できる。   Thus, in the above embodiment, the image processing apparatus 11 can generate a montage photograph of a person stored in the user 30 using the brain wave information. Furthermore, the image processing apparatus 11 can search for an actual person based on the montage photo and display related information such as the profile of the person on the image display unit 14.

図15は、画像処理装置11における他の画像処理を説明する図である。図15に示した画像処理装置11は、使用者30の記憶またはイメージとして仮想的にしか存在しない物体の3Dデータを生成して、画像表示部14に表示するものである。そして、画像処理システム10は、さらに3Dプリンタを備えていてもよい。3Dプリンタは、生成した3Dデータに対応した実物を作成する。   FIG. 15 is a diagram for explaining other image processing in the image processing apparatus 11. The image processing apparatus 11 shown in FIG. 15 generates 3D data of an object that exists virtually only as a memory or an image of the user 30 and displays it on the image display unit 14. The image processing system 10 may further include a 3D printer. The 3D printer creates a real object corresponding to the generated 3D data.

図16は、他の画像処理を説明するフローチャートである。図16に示したフローチャートを用いて、記憶やイメージとして仮想的にしか存在しない物体の3Dデータを生成して、表示する処理について説明する。なお、図16においてS107は、図3と同じ処理を実行するので、重複する説明を省略する。   FIG. 16 is a flowchart for explaining another image processing. A process of generating and displaying 3D data of an object that exists only virtually as a memory or an image will be described using the flowchart shown in FIG. In FIG. 16, S107 executes the same process as in FIG.

ステップ601の画像選択処理は、図4に示した画像選択処理(S101)に対し、ステップS201の処理を変更した処理を実行する。ステップS201において、使用者30は、使用者30の記憶またはイメージに基づいて、操作部12から「自動車、2ドア、流線型・・・」といったキーワードを入力する。画像処理部20は、キーワードに基づいて元画像を検索して、画像表示部14に表示する。画像処理部20は、脳波条件を満たした元画像に指標を付して、指標が付されていない元画像を削除する。画像処理部20は、指標が付された元画像に対して、多方面から見た画像を検索する。具体的には、正面図、背面図、上面図、下面図、右側面図、左側面図等の他方向からの画像を検索する(S602)。なお、他方向からの画像として、使用者30は、手書きのスケッチ等を画像として読み込ませてもよい。この場合、画像処理システム10は、スキャナ部を有し、使用者30は、当該スキャナ部から、手書きのスケッチを読み込ませる。画像処理部20は、検索した多方面から見た画像、および/または、使用者30が読み込ませた手書きのスケッチを3次元解析して、3Dモデルを生成する(S603)。   The image selection process in step 601 executes a process in which the process in step S201 is changed with respect to the image selection process (S101) shown in FIG. In step S <b> 201, the user 30 inputs a keyword such as “automobile, 2-door, streamline type...” From the operation unit 12 based on the memory or image of the user 30. The image processing unit 20 searches for an original image based on the keyword and displays it on the image display unit 14. The image processing unit 20 attaches an index to the original image that satisfies the electroencephalogram condition, and deletes the original image without the index. The image processing unit 20 searches for images viewed from many directions with respect to the original image with the index. Specifically, images from other directions such as a front view, a rear view, a top view, a bottom view, a right side view, and a left side view are searched (S602). Note that the user 30 may read a handwritten sketch or the like as an image from another direction. In this case, the image processing system 10 includes a scanner unit, and the user 30 reads a handwritten sketch from the scanner unit. The image processing unit 20 performs a three-dimensional analysis on the searched images viewed from various directions and / or a handwritten sketch read by the user 30 to generate a 3D model (S603).

ステップS604における3Dモデル形状変更処理は、図5に示したステップS102の画像色選択処理に対し、ステップS301、ステップS302、ステップS303の処理を変更した処理を実行する。ステップS301において、画像処理部20は、生成した3Dモデルを読み出して(S301)、予め定められた変更を加えた3Dモデルを生成する。なお、予め定められた変更の一例は、3Dモデルの各座標値に対して数値的な操作を行い、縮小または拡大、および局所的な微小変形を行うことである。画像処理部20は、加工した3Dモデルの特徴を最もよく表現する側から見た3D画像を生成する(S302)。なお、3D画像の一例は、3Dモデルの斜視図である。   The 3D model shape changing process in step S604 executes a process in which the processes in steps S301, S302, and S303 are changed with respect to the image color selection process in step S102 shown in FIG. In step S301, the image processing unit 20 reads the generated 3D model (S301), and generates a 3D model with a predetermined change. An example of the predetermined change is that a numerical operation is performed on each coordinate value of the 3D model, and reduction or enlargement and local minute deformation are performed. The image processing unit 20 generates a 3D image viewed from the side that best represents the characteristics of the processed 3D model (S302). An example of a 3D image is a perspective view of a 3D model.

画像処理部20は、生成した3D画像を画像表示部14に表示する(S303)。そして、図5に示した処理を実行して、脳波条件を満たした3D画像に指標を付与するとともに、指標が付されていない3D画像を削除する。   The image processing unit 20 displays the generated 3D image on the image display unit 14 (S303). Then, the process shown in FIG. 5 is executed to add an index to the 3D image that satisfies the electroencephalogram condition, and delete the 3D image without the index.

ステップS605における3Dモデル外観変更処理は、図5に示したステップS102の画像色選択処理に対し、ステップS301、ステップS302、ステップS303の処理を変更した処理を実行する。ステップS301において、画像処理部20は、指標の付された3D画像と、3D画像に対応した3Dモデルを読み出す(S301)。画像処理部20は、読み出した3Dモデルの色または模様を変更した3Dモデルを生成する。画像処理部20は、変更した3Dモデルの特徴を最もよく表現する側から見た3D画像を生成する(S302)。   The 3D model appearance change process in step S605 executes a process in which the processes in step S301, step S302, and step S303 are changed with respect to the image color selection process in step S102 shown in FIG. In step S301, the image processing unit 20 reads a 3D image with an index and a 3D model corresponding to the 3D image (S301). The image processing unit 20 generates a 3D model in which the color or pattern of the read 3D model is changed. The image processing unit 20 generates a 3D image viewed from the side that best represents the characteristics of the changed 3D model (S302).

画像処理部20は、生成した3D画像を画像表示部14に表示する(S303)。そして、図5に示した処理を実行して、脳波条件を満たした3D画像に指標を付与するとともに、指標が付されていない3D画像を削除する。   The image processing unit 20 displays the generated 3D image on the image display unit 14 (S303). Then, the process shown in FIG. 5 is executed to add an index to the 3D image that satisfies the electroencephalogram condition, and delete the 3D image without the index.

ステップS606において、画像処理部20は、指標が付された3D画像に対応する3Dモデルが、使用者30の記憶またはイメージにある物体の3Dモデルと特定する(S606)。画像処理部20は、3Dモデルを実体化するか否かを判断する(S607)。画像処理部20は、使用者30より、3Dモデルを実体化する指示があった場合に(S607:Yes)、3Dプリンタに3Dモデルデータを出力して、3Dモデルを実体化する(S608)。画像処理部20は、使用者30より3Dモデルを実体化する指示がない場合に(S607:No)、画像表示部14に3Dモデルを表示する(S609)。   In step S606, the image processing unit 20 specifies that the 3D model corresponding to the 3D image to which the index is attached is the 3D model of the object in the memory or image of the user 30 (S606). The image processing unit 20 determines whether or not to instantiate the 3D model (S607). When the user 30 gives an instruction to materialize the 3D model (S607: Yes), the image processing unit 20 outputs 3D model data to the 3D printer to materialize the 3D model (S608). When there is no instruction for materializing the 3D model from the user 30 (S607: No), the image processing unit 20 displays the 3D model on the image display unit 14 (S609).

上記実施形態では、使用者30の記憶またはイメージにある物体の形状、色、模様を持つ3Dモデルを生成することができる。また、生成した3Dモデルのデータを、3Dプリンタを用いて実体化できる。   In the above embodiment, a 3D model having the shape, color, and pattern of an object in the memory or image of the user 30 can be generated. Further, the generated 3D model data can be materialized using a 3D printer.

図17は、他の画像処理を説明するフローチャートである。図17に示したフローチャートを用いて、記憶やイメージに合った動画を生成して、表示する処理について説明する。なお、図17においてステップS107は、図3に示したフローチャートと同じ処理を実行し、ステップS205とステップS206は、図4に示したフローチャートと同じ処理を実行するので、重複する説明を省略する。   FIG. 17 is a flowchart for explaining another image processing. A process for generating and displaying a moving image suitable for storage and an image will be described using the flowchart shown in FIG. In FIG. 17, Step S107 executes the same processing as the flowchart shown in FIG. 3, and Step S205 and Step S206 execute the same processing as the flowchart shown in FIG.

ステップS701において、使用者30は、使用者30の記憶またはイメージに基づいて操作部12からキーワードを時系列に入力する(S701)。例えば、「南の海で泳いでいたら、大きな魚に追いかけられ、非常に怖い思いをした。必死に泳いでいたところ、空に飛び出てしまい、しばらく飛行していたが、力尽きて海に落ちた」という夢を見た場合においては、使用者30は、「南の海、水泳、大きな魚、非常に怖い、必死に泳ぐ、空を飛ぶ、力尽きる、海に落ちる」と入力する。さらに、使用者30は、各キーワードの表す動画の長さを入力する。また、使用者30は、動画全体の長さを指定した上で、各キーワードに対応する動画の長さを比率で入力してもよい。   In step S701, the user 30 inputs a keyword in time series from the operation unit 12 based on the memory or image of the user 30 (S701). For example, “When I was swimming in the southern sea, I was very scared because I was chased by a big fish. I was swimming desperately, I jumped into the sky and flew for a while, but I was exhausted and fell into the sea. When the user 30 has a dream, the user 30 inputs “south sea, swimming, big fish, very scary, desperately swimming, flying in the sky, exhausting, falling into the sea”. Furthermore, the user 30 inputs the length of the moving image represented by each keyword. Further, the user 30 may input the length of the moving image corresponding to each keyword in a ratio after designating the length of the entire moving image.

画像処理部20は、入力されたキーワード毎に一致する数秒から数分の動画を検索して抽出する(S702)。画像処理部20は、抽出した動画をキーワードごとに読み出して、数秒程度の短い時間にカットする。画像処理部20は、当該カットした動画をそれぞれつなぎ合わせた元画像を生成する(S703)。例えば、「南の島」で検索された動画「南の島a」「南の島b」と「水泳」で検索された動画「水泳a」、「水泳b」があった場合、動画は、それぞれ短い時間にカットした動画を生成して「南の島a、南の島b」+「水泳a、水泳b」となるように接続する。なお、無意味な静止画をRIとすると、「南の島a、RI、南の島b」+「水泳a、RI、水泳b」となるように短い時間にカットした動画の間に、無意味な静止画を挟んでもよい。さらに、RIを数秒として、南の島aおよび南の島bを数フレームとしてもよい。この場合、使用者30は、意識的に上記動画を認識できなるが、サブリミナル刺激として動画が認識されるので、使用者30が、環境または提示条件の影響を受けることを防止できる。   The image processing unit 20 searches for and extracts moving images from several seconds to several minutes that match each input keyword (S702). The image processing unit 20 reads the extracted moving image for each keyword and cuts it in a short time of about several seconds. The image processing unit 20 generates an original image obtained by connecting the cut moving images (S703). For example, if there are videos “swimming a” and “swimming b” searched for “south island a” “south island b” and “swimming” searched for “south island”, A moving image cut in a short time is generated and connected so that “south island a, south island b” + “swimming a, swimming b”. If the meaningless still image is RI, between the videos cut in a short time such that “South Island a, RI, South Island b” + “Swimming a, RI, Swimming b” A meaningful still image may be sandwiched. Further, the RI may be several seconds, and the south island a and the south island b may be several frames. In this case, the user 30 can consciously recognize the moving image, but since the moving image is recognized as a subliminal stimulus, the user 30 can be prevented from being affected by the environment or presentation conditions.

画像処理部20は、生成した動画を画像表示部14に表示する(S704)。条件判断部18は、カットした動画を表示した場合の脳波情報を取得して、取得した脳波情報が脳波条件を満足するか否かを判断する(S705)。全てのキーワードに対応する動画について脳波条件を満足する動画が1つある場合に、条件判断部18は、脳波条件を満足すると判断し(S705:Yes)、画像処理部20は、動画の位置および順序を確定する(S706)。   The image processing unit 20 displays the generated moving image on the image display unit 14 (S704). The condition determination unit 18 acquires brain wave information when the cut video is displayed, and determines whether the acquired brain wave information satisfies the brain wave condition (S705). When there is one moving image that satisfies the electroencephalogram conditions for the moving images corresponding to all keywords, the condition determination unit 18 determines that the electroencephalogram conditions are satisfied (S705: Yes), and the image processing unit 20 The order is determined (S706).

一方、キーワードに対応する動画について脳波条件を満足する1つでもない場合、条件判断部18は、脳波条件を満足しないと判断し(S705:No)処理をステップS702に戻して、再び、入力されたキーワードに基づいて、前回作成した動画と異なる組み合わせの動画を生成する。なお、脳波条件を満足した動画と満足しない動画が混在する場合においては、ステップS702において、脳波条件を満足しない動画のみを交換するとしてもよい。なお、全ての組み合わせの画像を画像表示部14に表示しても脳波条件を満足しない場合、処理をステップS701に戻して、再び、使用者30からキーワードを入力させてもよい。また、複数の動画において、脳波条件を満足した場合、より大きな振幅値を示した脳波情報を取得した場合に表示した動画を採用するとしてもよい。   On the other hand, when the video corresponding to the keyword is not one that satisfies the electroencephalogram condition, the condition determination unit 18 determines that the electroencephalogram condition is not satisfied (S705: No), returns the process to step S702, and is input again. Based on the keyword, a video with a different combination from the video created last time is generated. Note that in the case where a moving image that satisfies the electroencephalogram condition and a moving image that does not satisfy the electroencephalogram condition are mixed, only the moving image that does not satisfy the electroencephalogram condition may be exchanged in step S702. If the brain wave conditions are not satisfied even if all combinations of images are displayed on the image display unit 14, the process may return to step S <b> 701 and a keyword may be input from the user 30 again. In addition, when a brain wave condition is satisfied in a plurality of moving images, a moving image displayed when brain wave information indicating a larger amplitude value is acquired may be adopted.

画像処理部20は、使用者30により入力された各キーワードに対する時間に対応して、それぞれの動画の時間を調整する。また、時間の指定が動画の長さ全体を指定した上で、各キーワードに対応する動画の長さを比率で入力されている場合においては、画像処理部20は、指定された全体の長さに対する比率でそれぞれの動画の時間を調整する。   The image processing unit 20 adjusts the time of each moving image corresponding to the time for each keyword input by the user 30. In addition, when the time designation designates the entire length of the moving image, and the length of the moving image corresponding to each keyword is input in a ratio, the image processing unit 20 determines the designated overall length. Adjust the time of each video by the ratio to.

また、画像処理部20は、動画のつなぎ目を、一般の動画編集のように、フェードイン、フェードアウト、ワイプイン、ワイプアウトといった処理を施す(S707)。これにより、つなぎ目が不自然となることを防ぐことができる。さらに、画像処理部20は、明るさ、色調、コントラストなどを各動画間で一致するように、画像処理する。これにより、つなぎ合わせた動画を、自然な動画とすることができる。   In addition, the image processing unit 20 performs processing such as fade-in, fade-out, wipe-in, and wipe-out on the joint of the moving images as in general moving image editing (S707). Thereby, it can prevent that a joint becomes unnatural. Furthermore, the image processing unit 20 performs image processing so that the brightness, color tone, contrast, and the like match between the moving images. Thereby, the joined moving image can be a natural moving image.

画像処理部20は、作成した動画を画像表示部14に表示する(S708)。これにより、使用者30は、使用者30の記憶やイメージに合った動画を視認できる。このように、画像処理装置11は、使用者30の記憶やイメージを動画として生成して、表示できる。これにより、使用者30の夢や過去の記憶など個人の脳に動画として記憶されているものを、動画化して表示することができる。   The image processing unit 20 displays the created moving image on the image display unit 14 (S708). Thereby, the user 30 can visually recognize a moving image that matches the memory and image of the user 30. As described above, the image processing apparatus 11 can generate and display the memory and the image of the user 30 as a moving image. Thereby, what is stored as a moving image in the individual's brain, such as the user's 30 dream or past memory, can be displayed as a moving image.

図18は、他の画像処理システム100の模式図を示す。図18において、図1と同じ要素には、同じ参照番号を付して、重複する説明を省略する。図18に示した画像処理システム100は、例えば、デパート等の洋服売り場で使用される。画像処理システム100は、使用者120が注目している商品130の一例である服が撮像され、当該撮像された画像を元に、使用者120が想像している商品イメージに近い画像を生成して表示する。なお、使用者120は、例えば、画像処理システム100を備える売り場のお客様である。   FIG. 18 is a schematic diagram of another image processing system 100. 18, the same elements as those in FIG. 1 are denoted by the same reference numerals, and redundant description is omitted. The image processing system 100 shown in FIG. 18 is used, for example, at a clothes department such as a department store. The image processing system 100 captures clothes as an example of the product 130 that the user 120 is paying attention to, and generates an image close to the product image imagined by the user 120 based on the captured image. To display. Note that the user 120 is, for example, a customer on the sales floor including the image processing system 100.

画像処理システム100は、画像処理装置101と、脳波検出装置40とから構成される。画像処理装置101は、画像表示部104として、アイグラスディスプレイ(EGD)を有し、メガネのように使用者120の耳および鼻に係止されて使用者120に装着される。画像処理装置101は、さらに、撮像部102と、投影部106とを有する。撮像部102は、使用者120が注目している商品を撮像する。なお、撮像部102の一例は、デジタルカメラであり、投影部106の一例は、プロジェクタである。   The image processing system 100 includes an image processing apparatus 101 and an electroencephalogram detection apparatus 40. The image processing apparatus 101 has an eyeglass display (EGD) as the image display unit 104 and is attached to the user 120 while being locked to the ear and nose of the user 120 like glasses. The image processing apparatus 101 further includes an imaging unit 102 and a projection unit 106. The imaging unit 102 captures an image of a product that the user 120 is paying attention to. An example of the imaging unit 102 is a digital camera, and an example of the projection unit 106 is a projector.

図19は、画像処理システム100の機能ブロック図を示す。なお、図19において、図2と同じ要素には、同じ参照番号を付して重複する説明を省略する。上述したように、画像処理システム100は、画像処理装置101と、脳波検出装置40とから構成される。   FIG. 19 shows a functional block diagram of the image processing system 100. In FIG. 19, the same elements as those in FIG. As described above, the image processing system 100 includes the image processing apparatus 101 and the electroencephalogram detection apparatus 40.

画像処理装置101は、撮像部102と、画像表示部104と、画像投影部106と、条件格納部16と、条件判断部18と、画像処理部108とを有する。撮像部102は、使用者120の側頭部に設けられ、使用者120の視界付近を撮像する。撮像部102は、例えば、撮像部102の撮像領域における商品が占める面積に基づいて、使用者120が注目している商品を特定する。   The image processing apparatus 101 includes an imaging unit 102, an image display unit 104, an image projection unit 106, a condition storage unit 16, a condition determination unit 18, and an image processing unit 108. The imaging unit 102 is provided in the temporal region of the user 120 and images near the field of view of the user 120. For example, the imaging unit 102 identifies the product that the user 120 is paying attention to based on the area occupied by the product in the imaging region of the imaging unit 102.

画像表示部104は、メガネのレンズ部に設けられたアイグラスディスプレイ(EGD)であり、使用者120に撮像部102で撮像した画像、および画像処理部108で生成した処理画像を表示する。画像表示部104の表示方式は、ディスプレイ方式および投影方式に何れを選択してもよい。   The image display unit 104 is an eyeglass display (EGD) provided in the lens unit of the glasses, and displays an image captured by the imaging unit 102 and a processed image generated by the image processing unit 108 to the user 120. As the display method of the image display unit 104, any of the display method and the projection method may be selected.

投影部106は、画像処理部108で生成した画像を外部の別デバイスへ表示する。例えば、投影部106は、スクリーンに画像処理部で生成した画像を投影して、店員に欲しいと考えている商品の色または形状を伝えることができる。   The projection unit 106 displays the image generated by the image processing unit 108 on another external device. For example, the projection unit 106 can project the image generated by the image processing unit on the screen and convey the color or shape of the product that the store clerk wants.

画像処理部108は、撮像部102で撮像した商品の画像を取得する。画像処理部108は、撮像した画像を元画像として、色、および/または、形状を変えた処理画像を生成して、画像表示部104に順次表示する。画像処理部108は、画像に対する処理として、条件判断部18が脳波条件を満たすと判断された脳波情報を取得した時点で、画像表示部104に表示されている処理画像に、使用者120により選択されたことを示す指標を付与する。なお、撮像部102で撮像した画像を元画像として色、および/または、形状をを変えるとしたが、撮像部102では商品の特定を行い、当該商品の画像を、別途設けられた画像サーバから取得するとしてもよく、また、ネットワークを介して外部サーバより当該商品の画像を取得してもよい。なお、この場合、商品には撮像部102で商品を特定できる識別票を予め付しておき、撮像部102は、当該識別票に記された番号または記号を撮像して、当該番号または記号に基づいて商品を特定する。画像処理部108は、撮像部102により特定された商品の画像を画像サーバまたは外部サーバより読み出すとしてもよい。   The image processing unit 108 acquires the product image captured by the imaging unit 102. The image processing unit 108 generates a processed image in which the color and / or shape is changed using the captured image as an original image, and sequentially displays the processed image on the image display unit 104. The image processing unit 108 selects the processed image displayed on the image display unit 104 by the user 120 when the condition determination unit 18 acquires the electroencephalogram information determined to satisfy the electroencephalogram condition as processing for the image. An index indicating that this has been done is given. Although the color and / or shape of the image captured by the image capturing unit 102 is changed as an original image, the image capturing unit 102 identifies a product and obtains an image of the product from a separately provided image server. You may acquire, and the image of the said goods may be acquired from an external server via a network. In this case, an identification tag that can identify the product by the imaging unit 102 is attached to the product in advance, and the imaging unit 102 captures the number or symbol recorded on the identification tag and uses the number or symbol as a label. Identify the product based on. The image processing unit 108 may read an image of a product specified by the imaging unit 102 from an image server or an external server.

図20は、画像処理装置11の画像生成処理の一例を説明するフローチャートである。なお、図20に示したフローチャートにおいて、ステップS205、ステップS206およびステップS208の処理は、図4に示したフローチャートと同じ処理を実行するので、重複する説明を省略する。また、ステップS303およびステップS305の処理は、図5に示したフローチャートと同じ処理を実行するので、重複する説明を省略する。図20に示した処理は、使用者120に画像処理装置11および脳波検出装置40が装着され、画像処理装置11と脳波検出装置40との通信が確立した場合に開始する。   FIG. 20 is a flowchart illustrating an example of image generation processing of the image processing apparatus 11. In the flowchart shown in FIG. 20, the processes in steps S205, S206, and S208 execute the same processes as those in the flowchart shown in FIG. Moreover, since the process of step S303 and step S305 performs the same process as the flowchart shown in FIG. 5, the overlapping description is abbreviate | omitted. The process illustrated in FIG. 20 starts when the image processing apparatus 11 and the electroencephalogram detection apparatus 40 are attached to the user 120 and communication between the image processing apparatus 11 and the electroencephalogram detection apparatus 40 is established.

撮像部102は、撮像する対象を特定する(S801)。撮像部102は、撮像領域におけるそれぞれの商品が占める領域から、撮像する対象である商品を特定する。また、撮像する対象は、使用者120の指示により商品が特定されてもよい。   The imaging unit 102 specifies a target to be imaged (S801). The imaging unit 102 identifies a product to be imaged from an area occupied by each product in the imaging area. Moreover, the product to be imaged may be specified by an instruction from the user 120.

撮像部102は、特定した商品を撮像する(S802)。なお、撮像部102は、撮像するか否かの判断を、特定した商品を撮影した時間で判断してもよい。例えば、撮像部102が特定した商品が、10秒以上撮影された場合に、特定された商品を撮像して、一方、10秒より短い場合には、撮像しない。また、使用者120の指示により商品を撮像してもよい。撮像部102は撮像した画像データを画像処理部108へ出力する。   The imaging unit 102 images the specified product (S802). Note that the imaging unit 102 may determine whether or not to capture an image based on the time when the specified product is captured. For example, when the product specified by the imaging unit 102 is photographed for 10 seconds or more, the specified product is imaged. On the other hand, when the product is shorter than 10 seconds, no image is taken. Moreover, you may image goods according to the instruction | indication of the user 120. FIG. The imaging unit 102 outputs the captured image data to the image processing unit 108.

画像処理部108は、取得した画像の色を、予め定められた色に変更した画像を生成する(S803)。なお、ステップS603においても、変更する色は予め定めされており、本実施例においては、画像処理部20は、赤、橙、黄、緑、青、藍、紫の七色に変更した画像を生成する。   The image processing unit 108 generates an image in which the color of the acquired image is changed to a predetermined color (S803). Also in step S603, the color to be changed is determined in advance, and in this embodiment, the image processing unit 20 generates an image that has been changed to seven colors of red, orange, yellow, green, blue, indigo, and purple. To do.

ステップS205において、条件判断部18は、脳波情報を取得できたと判断した場合(S205:Yes)、条件判断部18は、脳波情報が脳波条件を満たすか否かを判断する(S804)。本処理において、例えば、脳波条件は、P300の有無が判断できるP300の振幅の閾値を脳波条件として設定し、画像を表示したときに検出された脳波情報がP300であるか否かを検知することによって、表示した処理画像が、使用者120が想像している商品イメージに近い画像であるか否かを判断する。したがって、条件判断部18は、脳波情報が脳波条件の閾値を越えている場合に、脳波条件を満たすと判断し(S804:Yes)、記憶した脳波情報を消去して、処理をステップS208へ進める。一方、脳波情報が脳波条件の閾値を越えていない場合に、条件判断部18は、脳波情報は脳波条件を満たさないと判断し(S804:No)、記憶した脳波情報を消去して、使用者120により選択されたことを示す指標を付与せずに処理をステップS305へ進める。   In step S205, when the condition determination unit 18 determines that the electroencephalogram information has been acquired (S205: Yes), the condition determination unit 18 determines whether the electroencephalogram information satisfies the electroencephalogram condition (S804). In this process, for example, the electroencephalogram condition is set as an electroencephalogram condition threshold value of the amplitude of P300 that can determine the presence or absence of P300, and detects whether or not the electroencephalogram information detected when the image is displayed is P300. Thus, it is determined whether or not the displayed processed image is an image close to the product image imagined by the user 120. Therefore, the condition determination unit 18 determines that the electroencephalogram condition is satisfied when the electroencephalogram information exceeds the threshold value of the electroencephalogram condition (S804: Yes), deletes the stored electroencephalogram information, and advances the process to step S208. . On the other hand, if the electroencephalogram information does not exceed the electroencephalogram condition threshold value, the condition determination unit 18 determines that the electroencephalogram information does not satisfy the electroencephalogram condition (S804: No), erases the stored electroencephalogram information, and the user The process proceeds to step S305 without providing an index indicating that the selection has been made at 120.

画像処理部108は、全ての色を表示したと判断した場合(S305:Yes)、Exif情報に使用者120が選択したことを示す指標が付与されている画像を、投影部106を用いて、例えば、スクリーン上に投影する(S805)。これにより、使用者120だけでなく、店員も当該画像を見ることができ、当該画像に類似の商品の有無等を確認できる。   When the image processing unit 108 determines that all the colors have been displayed (S305: Yes), the projection unit 106 uses the projection unit 106 to display an image to which the user 120 has selected the Exif information. For example, the image is projected on the screen (S805). As a result, not only the user 120 but also the store clerk can see the image, and can confirm the presence or absence of a product similar to the image.

ステップS605に続いて、画像処理部108は、使用者30より終了指示があったか否かを判断する(S806)。画像処理部20は、使用者120より終了指示があった場合に(S806:Yes)、画像生成処理は終了する。一方、画像処理部20は、使用者120より終了指示がないと判断した場合(S806:No)、処理をステップS601に戻して、再びステップS601より、画像生成処理を実行する。なお、終了指示の一例は、脳波検出装置40の脱着である。脳波検出装置40に、装着検知手段を設け、当該装着検知手段により脳波検出装置40が脱着されたことが検出された場合に、画像処理部20は、使用者120より終了指示があったと判断する。   Subsequent to step S605, the image processing unit 108 determines whether an end instruction has been received from the user 30 (S806). When receiving an end instruction from the user 120 (S806: Yes), the image processing unit 20 ends the image generation process. On the other hand, if the image processing unit 20 determines that there is no end instruction from the user 120 (S806: No), the process returns to step S601, and the image generation process is executed again from step S601. An example of the end instruction is attachment / detachment of the electroencephalogram detection apparatus 40. When the electroencephalogram detection device 40 is provided with an attachment detection means, and the attachment detection means detects that the electroencephalogram detection device 40 is detached, the image processing unit 20 determines that an end instruction has been received from the user 120. .

図21は、画像生成処理において画像表示部104に表示される画像の一例を示す。図21(a)は、撮像部102により商品「コート」が特定され、撮像された画像を示しており、図21(b)、および(c)は、当該画像の色を変えた画像を示している。画像処理部20は、図21(a)と、図21(b)と、図21(c)とを順次、画像表示部104に表示する。使用者120が想像している商品イメージに近い「コート」が図21(b)であった場合、図21(a)および図21(c)を表示した場合には、P300は検出されず、図21(b)を表示した場合に、P300が検出され、画像処理部108は、図21(b)に示した画像に、Exif情報として、使用者120に選択されたことを示す指標が付与される。なお図21に示した例においては、「コート」の色を変更した例を示したが、画像処理部20は、「コート」の形状を変更した画像を生成してもよい。例えば、「コート」のポケットを無くした画像を生成してもよく、「コート」の丈を長くした画像を生成してもよい。   FIG. 21 shows an example of an image displayed on the image display unit 104 in the image generation process. FIG. 21A shows an image obtained by specifying the product “coat” by the imaging unit 102, and FIGS. 21B and 21C show images obtained by changing the color of the image. ing. The image processing unit 20 sequentially displays FIG. 21A, FIG. 21B, and FIG. 21C on the image display unit 104. When the “coat” close to the product image imagined by the user 120 is FIG. 21B, when FIG. 21A and FIG. 21C are displayed, P300 is not detected, When FIG. 21B is displayed, P300 is detected, and the image processing unit 108 adds an index indicating that the user 120 has selected as Exif information to the image illustrated in FIG. Is done. In the example illustrated in FIG. 21, an example in which the color of “coat” is changed is shown, but the image processing unit 20 may generate an image in which the shape of “coat” is changed. For example, an image without the “coat” pocket may be generated, or an image with a longer “coat” may be generated.

以上、説明したように、画像処理システム100は、脳波情報を用いて、使用者120が表示した商品の画像が、使用者120が想像している商品イメージに近いかどうかを判断する。これにより、当該画像から、使用者120が想像している商品イメージに近い画像を生成することができる。また、当該画像をスクリーン等に表示することによって、使用者120当該商品の有無を確認できるとともに、店員からのアドバイス等につながり、売り場に対する使用者120の満足度が向上される。また、売り場側においても、使用者120であるお客様の潜在的なニーズをつかむことができ、その結果、商品の売り上げの向上が期待できる。なお、本実施形態において画像処理装置101と脳波検出装置40とを別体として設ける例で説明したが、画像処理装置11は、脳波検出装置40を含んでもよい。   As described above, the image processing system 100 determines whether the product image displayed by the user 120 is close to the product image imagined by the user 120 using the electroencephalogram information. Thereby, the image close | similar to the product image which the user 120 imagines can be produced | generated from the said image. Further, by displaying the image on a screen or the like, the user 120 can confirm the presence or absence of the product, and leads to advice from a store clerk, and the satisfaction of the user 120 with respect to the sales floor is improved. Further, on the sales floor side, it is possible to grasp the potential needs of the customer who is the user 120, and as a result, it is possible to expect an improvement in the sales of the product. In the present embodiment, the image processing apparatus 101 and the electroencephalogram detection apparatus 40 are described as separate examples. However, the image processing apparatus 11 may include the electroencephalogram detection apparatus 40.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10、100 画像処理システム、11、101 画像処理装置、12 操作部、14、104 画像表示部、16 条件格納部、18 条件判断部、20、108 画像処理部、22 画像格納部、24、44 通信部、30、120 使用者、32 イメージ画像、33 風景画像、40 脳波検出装置、42 電極、50 ネットワーク、60 外部サーバ、70、72、74 人物、102 撮像部、106 投影部、130 商品 10, 100 Image processing system, 11, 101 Image processing device, 12 Operation unit, 14, 104 Image display unit, 16 Condition storage unit, 18 Condition determination unit, 20, 108 Image processing unit, 22 Image storage unit, 24, 44 Communication unit 30, 120 User, 32 Image image, 33 Landscape image, 40 EEG detection device, 42 Electrode, 50 Network, 60 External server, 70, 72, 74 Person, 102 Imaging unit, 106 Projection unit, 130 Product

Claims (7)

生体が想像した視覚的心象に沿った傾向の画像を前記生体が見たときに生じる脳波の条件を示す脳波条件を予め格納する条件格納部と、
元画像に対して視覚上の処理を実行した処理画像を複数生成する画像処理部と、
前記画像処理部により生成された複数の前記処理画像を順次、表示する画像表示部と
前記複数の処理画像を前記画像表示部に表示した場合に前記生体に生じる脳波情報をそれぞれ取得し、取得した前記脳波情報が前記条件格納部に格納されている脳波条件を満たすか否かを判断し、前記条件を満たすと判断された前記脳波情報を取得した時点で前記画像表示部に表示されていた処理画像が、前記生体により選択されたことを示す指標を付与する条件判断部と
を備える画像処理装置。
A condition storage unit for storing in advance an electroencephalogram condition indicating a condition of an electroencephalogram generated when the living body sees an image having a tendency along a visual image imagined by the living body;
An image processing unit for generating a plurality of processed images obtained by performing visual processing on the original image;
An image display unit that sequentially displays the plurality of processed images generated by the image processing unit, and brain wave information that is generated in the living body when the plurality of processed images are displayed on the image display unit. It is determined whether or not the electroencephalogram information satisfies an electroencephalogram condition stored in the condition storage unit, and the process displayed on the image display unit when the electroencephalogram information determined to satisfy the condition is acquired An image processing apparatus comprising: a condition determination unit that provides an index indicating that an image is selected by the living body.
前記脳波条件は、事象関連に関する脳電位が前記画像の表示から300ms以降に陽性の振幅を有して出現することを含む請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the electroencephalogram condition includes a brain potential related to an event appearing with a positive amplitude after 300 ms from the display of the image. 前記画像処理部は、前記条件判断部により前記指標が付与された処理画像を前記元画像としてさらに視覚上の処理を実行した処理画像を複数生成し、
前記画像処理部によりさらに生成された前記処理画像に対し、前記画像表示部による表示および前記条件判断部による判断が繰り返される請求項1または2に記載の画像処理装置。
The image processing unit generates a plurality of processed images obtained by further performing visual processing using the processed image assigned with the index by the condition determining unit as the original image,
The image processing apparatus according to claim 1, wherein the display by the image display unit and the determination by the condition determination unit are repeated for the processed image further generated by the image processing unit.
前記画像処理部は、前記視覚上の処理として前記元画像の色を変えた複数の処理画像を生成する請求項1から3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing unit generates a plurality of processed images in which colors of the original image are changed as the visual processing. 前記画像処理部は、前記視覚上の処理として前記元画像に含まれる要素の位置を変えた複数の処理画像を生成する請求項1から4のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing unit generates a plurality of processed images in which positions of elements included in the original image are changed as the visual processing. 前記画像処理部は、前記指標が付与された処理画像が複数ある場合に、前記指標が付与された複数の処理画像を合成した処理画像を生成する請求項1から5の何れか1項に記載の画像処理装置。   The said image processing part produces | generates the processed image which synthesize | combined the some processed image to which the said index | index was provided, when there exist two or more processed images to which the said index | index was provided. Image processing apparatus. 前記生体が見たときに前記脳波条件を満たさない他の画像を予め格納した画像格納部をさらに備え、
前記画像表示部は、前記複数の処理画像の間に前記他の画像を挟んで順次表示する請求項1から6のいずれか1項に記載の画像処理装置。
The image storage unit further stores in advance other images that do not satisfy the electroencephalogram conditions when the living body sees,
The image processing device according to claim 1, wherein the image display unit sequentially displays the other images with the other images sandwiched therebetween.
JP2014007832A 2014-01-20 2014-01-20 Image processing device Active JP6393990B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014007832A JP6393990B2 (en) 2014-01-20 2014-01-20 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014007832A JP6393990B2 (en) 2014-01-20 2014-01-20 Image processing device

Publications (2)

Publication Number Publication Date
JP2015136377A true JP2015136377A (en) 2015-07-30
JP6393990B2 JP6393990B2 (en) 2018-09-26

Family

ID=53767827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014007832A Active JP6393990B2 (en) 2014-01-20 2014-01-20 Image processing device

Country Status (1)

Country Link
JP (1) JP6393990B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046403A (en) * 2017-09-07 2019-03-22 富士ゼロックス株式会社 Shaping object extraction control device and shaping object extraction control program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0360905U (en) * 1989-10-16 1991-06-14
JP2002304638A (en) * 2001-04-03 2002-10-18 Atr Ningen Joho Tsushin Kenkyusho:Kk Device and method for generating expression animation
JP2004029961A (en) * 2002-06-21 2004-01-29 Fuji Xerox Co Ltd Image retrieval support device, image retrieval support method, its program and computer readable recording medium
JP2004199301A (en) * 2002-12-18 2004-07-15 Renesas Technology Corp Image processor
JP2004275619A (en) * 2003-03-19 2004-10-07 Kumamoto Technology & Industry Foundation Method for communicating visual image stimulus to brain wave animus and system used for the same
JP2005034620A (en) * 2003-07-02 2005-02-10 Naoyuki Kano Method for determining human psychological state, or the like, using event-related potential and system thereof
WO2012029742A1 (en) * 2010-09-01 2012-03-08 独立行政法人産業技術総合研究所 Intention conveyance support device and method
JP2015050614A (en) * 2013-08-30 2015-03-16 株式会社ニコン Image processing device
JP2015127851A (en) * 2013-12-27 2015-07-09 株式会社ニコン Machine device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0360905U (en) * 1989-10-16 1991-06-14
JP2002304638A (en) * 2001-04-03 2002-10-18 Atr Ningen Joho Tsushin Kenkyusho:Kk Device and method for generating expression animation
JP2004029961A (en) * 2002-06-21 2004-01-29 Fuji Xerox Co Ltd Image retrieval support device, image retrieval support method, its program and computer readable recording medium
JP2004199301A (en) * 2002-12-18 2004-07-15 Renesas Technology Corp Image processor
JP2004275619A (en) * 2003-03-19 2004-10-07 Kumamoto Technology & Industry Foundation Method for communicating visual image stimulus to brain wave animus and system used for the same
JP2005034620A (en) * 2003-07-02 2005-02-10 Naoyuki Kano Method for determining human psychological state, or the like, using event-related potential and system thereof
WO2012029742A1 (en) * 2010-09-01 2012-03-08 独立行政法人産業技術総合研究所 Intention conveyance support device and method
US20130158883A1 (en) * 2010-09-01 2013-06-20 National Institute Of Advanced Industrial Science And Technology Intention conveyance support device and method
JP2015050614A (en) * 2013-08-30 2015-03-16 株式会社ニコン Image processing device
JP2015127851A (en) * 2013-12-27 2015-07-09 株式会社ニコン Machine device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046403A (en) * 2017-09-07 2019-03-22 富士ゼロックス株式会社 Shaping object extraction control device and shaping object extraction control program

Also Published As

Publication number Publication date
JP6393990B2 (en) 2018-09-26

Similar Documents

Publication Publication Date Title
US20220036055A1 (en) Person identification systems and methods
US11450075B2 (en) Virtually trying cloths on realistic body model of user
Tsouri et al. On the benefits of alternative color spaces for noncontact heart rate measurements using standard red-green-blue cameras
US9445087B2 (en) Systems, devices, and methods for providing products and consultations
US10617301B2 (en) Information processing device and information processing method
US8300064B2 (en) Apparatus and method for forming a combined image by combining images in a template
De Greef et al. Bilicam: using mobile phones to monitor newborn jaundice
KR101725357B1 (en) Method and Device for measuring PPG signal by using mobile device
JP4710550B2 (en) Comment layout in images
KR101644843B1 (en) Analyses of condition based on the peculiarity of face temperature distribution
US20200305721A1 (en) Near-Infrared Fluorescence Imaging for Blood Flow and Perfusion Visualization and Related Systems and Computer Program Products
JP2016170542A (en) Image processing unit, image processing method and program
WO2015131571A1 (en) Method and terminal for implementing image sequencing
JP2009000410A (en) Image processor and image processing method
JP6393990B2 (en) Image processing device
JP2006081847A (en) Skin analysis network system
CN110279406B (en) Non-contact pulse rate measuring method and device based on camera
JP5782540B2 (en) Beauty counseling method
CN217907732U (en) Detection device and medical instrument
WO2022185596A1 (en) Estimation system, estimation method, and program
Deglint et al. Photoplethysmographic imaging via spectrally demultiplexed erythema fluctuation analysis for remote heart rate monitoring
US20230123330A1 (en) Interaction training system for autistic patient using image warping, method for training image warping model, and computer readable storage medium including executions causing processor to perform same
Tatsuzawa et al. Analyzing the individual relationship between habit of UV protection and melanin pigmentation based on the change of facial images for 7 years
JP2018057513A (en) Skin evaluation method, skin evaluation device, and skin improvement recommendation method
JP2005157961A (en) Imaging apparatus and image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180813

R150 Certificate of patent or registration of utility model

Ref document number: 6393990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250