JP6161097B1 - 潜在意識推定システム、潜在意識推定方法及び潜在意識推定プログラム - Google Patents

潜在意識推定システム、潜在意識推定方法及び潜在意識推定プログラム Download PDF

Info

Publication number
JP6161097B1
JP6161097B1 JP2016540716A JP2016540716A JP6161097B1 JP 6161097 B1 JP6161097 B1 JP 6161097B1 JP 2016540716 A JP2016540716 A JP 2016540716A JP 2016540716 A JP2016540716 A JP 2016540716A JP 6161097 B1 JP6161097 B1 JP 6161097B1
Authority
JP
Japan
Prior art keywords
image
subject
classification
type
concept
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016540716A
Other languages
English (en)
Other versions
JPWO2017154215A1 (ja
Inventor
正大 福原
正大 福原
国晴 荒牧
国晴 荒牧
裕 加納
裕 加納
木村 充
充 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institution For A Global Society
Original Assignee
Institution For A Global Society
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institution For A Global Society filed Critical Institution For A Global Society
Application granted granted Critical
Publication of JP6161097B1 publication Critical patent/JP6161097B1/ja
Publication of JPWO2017154215A1 publication Critical patent/JPWO2017154215A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/167Personality evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Abstract

高精度で被験者の潜在意識を推定できるシステムを提供する。潜在意識推定システムは、第1種概念のそれぞれを示す文字等と第2種概念のそれぞれを示す文字等との組合せを含む静止画又は動画である第1分類先画像1211,1212、1213、1214と、第1種概念及び第2種概念の一方に対応する文字等を含む静止画又は動画である第1対象画像1241、1251とを画像表示部13に表示させる画像表示制御部111と、被験者Sのタッチ操作Otの軌跡である第1操作軌跡を操作検知部14を介して認識する操作軌跡認識部112と、第1操作軌跡に基づいて第1種概念と前記第2種概念との結びつきに関する被験者Sの潜在意識を推定する潜在意識推定部113とを備える。

Description

本発明は、潜在意識推定システム、潜在意識推定方法及び潜在意識推定プログラムに関する。
IAT(Implicit Association Test)またはITA(Implicit Test of Associations)と呼ばれる潜在意識を推定するためのテストが知られている(たとえば特許文献1参照)。
このテストは、特許文献1に記載されているように、「花」と「昆虫」といったような一対の概念(以下、「第1種対概念」という。)と、「心地よい(pleasant)」と「不快(unpleasant)」といったような当該一対の概念とは異なる一対の概念(以下、「第2種対概念」という。)との結びつきに関する被験者の潜在意識を推定するテストである。
このテストを実施するためのシステムは、例えば、第1種対概念の一方と第2種対概念の一方との組合せを示す画像を画面の左上に表示し、第1種対概念の他方と第2種対概念の他方との組合せを示す画像を画面の右上に表示し、これらの第1種対概念又は第2種対概念のうちのいずれか一つに対応する対応画像を画面の中央に表示する。
例えば、当該システムは、「花」と「心地よい」との組合せを示す画像を画面の左上に表示し、「昆虫」と「不快」との組合せを示す画像を画面の右上に表示し、これらのうちのいずれか一つに対応する対象画像(例えば「花」に対応する「バラ」の画像)を画面の中央に表示する。
そして、当該システムは、これらの対象画像の表示から、被験者が、左上の組合せに対応づけられたキーボードの所定のキーまたは右上の組合せに対応づけられたキーボードの所定のキーを押下するまでの時間を計測する。
このような対象画像の表示と時間の計測を所定の回数繰り返したのち、当該システムは、第1種対概念と第2種対概念との組合せ方を変更し、再度回答までの時間の計測を行う。
例えば、当該システムは、「花」と「心地よい」との組合せ及び「昆虫」と「不快」との組合せについて上記処理を行った後(以下、この処理におけるテストを「第1テスト」という。)、「花」と「不快」との組合せ及び「昆虫」と「心地よい」との組合せについて上記処理を行う(以下、この処理におけるテストを「第2テスト」という。)。
そして、当該システムは、第1テストにおける回答までの時間の平均値と第2テストにおける回答までの時間の平均値とを比較する。
被験者が、花は心地よく、虫は不快であるとの潜在意識を持っていた場合、「花」に対応する画像が表示されると、被験者は無意識のうちに、心地よいと感じている可能性がある。
この場合、「花」と「心地よい」との組合せと、「昆虫」と「不快」との組合せが用いられる第1テストにおいては、組合せが被験者の潜在意識に合致しているため、被験者は短時間で回答が出来る一方、「花」と「不快」との組合せと、「昆虫」と「心地よい」との組合せが用いられる第2テストにおいては、組合せが被験者の潜在意識とかい離しているため、被験者は回答に長時間を要する可能性がある。
換言すれば、上記第1テストにおける平均回答時間が第2テストにおける平均回答時間よりも短い場合、被験者は、第1テストにおける概念の組合せ(「花」と「心地よい」、「昆虫」と「不快」)の結びつきが強いという潜在意識を有している蓋然性が高い。
前記システムは、この推察に基づいて、第1テストにおける回答までの時間の平均値と第2テストにおける回答までの時間の平均値とのかい離が大きいほど、いずれかの組合せに関する結びつきが強いと推定する。
米国特許第8696360号明細書
しかしながら、従来の上記テストには推定精度向上の観点から改良の余地がある。
より具体的には、例えば、ある概念の組合せについての平均回答時間が短かったとしても、被験者がその組合せに強い結びつきを感じていたのか、それとも被験者が回答を急ぐあまり考えずにキーを押下した結果、偶然に平均回答時間が短くなったのかが判別できない。この結果、上記テストでは誤った潜在意識の推定がなされる可能性がある。
このような問題に鑑み、本発明は、高精度で被験者の潜在意識を推定できるシステム、方法及びプログラムを提供することを目的とする。
本発明の潜在意識推定システムは、
画像を表示する画像表示部と、
前記画像表示部と一体に構成され、被験者のタッチ操作を検知可能な操作検知部と、
K個(KはK≧2の整数。)の第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと、前記第1種概念のそれぞれと互いに異なるL個(LはL≧2の整数。)の第2種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つとの組合せを含む静止画又は動画であるM個(MはM≧2かつM≦KかつM≦Lの整数。)の第1分類先画像と、前記K個の第1種概念及び前記L個の第2種概念のうちのいずれか一つに対応する文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む静止画又は動画である第1対象画像とを前記画像表示部に表示させた後、少なくとも前記第1対象画像に対する前記被験者のタッチ操作と前記第1分類先画像のうちのいずれか一つに対する前記被験者のタッチ操作の両方が行われたことを前記操作検知部を介して検知するまで、前記第1対象画像を前記画像表示部に表示させ続ける分類処理部と、
前記分類処理部によって検知された前記被験者のタッチ操作に基づいて、前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定する潜在意識推定部とを備えることを特徴とする。
当該構成の潜在意識推定システムによれば、画像表示部に第1分類先画像と、第1対象画像とが表示される。
第1分類先画像は、K個の第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つ(以下、適宜「文字等」という。)と、L個の第2種概念のそれぞれのそれぞれを示す文字等との組合せを含む静止画又は動画である。また、第1対象画像は、K個の第1種概念または前記L個の第2種概念のうちのいずれか一つに対応する文字等を含む静止画又は動画である。
第1種概念及び第2種概念、並びにこれら対応するものが文字等によって表されているので、被験者は、第1種概念と第2種概念との組合せと、分類すべき対象とを適切に認識できる。
そして、分類処理部により、少なくとも前記第1対象画像に対する被験者のタッチ操作と第1分類先画像のうちのいずれか一つに対する被験者のタッチ操作の両方が行われたことを操作検知部を介して検知されるまで、第1対象画像が画像表示部に表示され続ける。
すなわち、前記第1対象画像に対する被験者のタッチ操作と第1分類先画像のうちのいずれか一つに対する被験者のタッチ操作の両方が検知されたことを必要条件として分類が終了する。
換言すれば、第1対象画像に対するタッチ操作及び第1分類先画像のいずれか一つのみに対するタッチ操作の一方が行われたことが操作検知部を介して検知されたのみでは、第1対象画像の第1分類先画像への分類は終了しない。このため、繰り返し分類が行われる場合に、例えば第1対象画像のタッチ後、誤って2回連続で同じ第1分類先画像をタッチした場合でも、1回目のタッチで今回分の分類が終了しうるが、2回目のタッチでは次回分の分類が終了しないので、被験者の意図に反して第1対象画像が第1分類先画像へ分類されることはない。
この結果、第1対象画像の第1分類先画像への分類に当たり、被験者に比較的長く考えさせることが出来るので、被験者が回答を急ぐあまりにあまり考えずに第1分類先画像の選択をするような事態が回避されうる。
従って、分類における被験者のタッチ操作はより被験者の潜在意識を反映したものとなるので、潜在意識推定部が被験者のタッチ操作に基づいて第1種概念と第2種概念との結びつきに関する被験者の潜在意識を推定することにより、被験者の潜在意識が高精度で推定されうる。
本発明の潜在意識推定システムにおいて、
前記分類処理部は、前記画像表示部の表示画面を当該表示画面の上側、当該表示画面の中央及び当該表示画面の下側に3等分した場合に、前記M個の第1分類先画像の中心位置のいずれもが前記上側に含まれ、前記第1対象画像の中心位置が前記下側に含まれるように、前記M個の第1分類先画像及び前記第1対象画像を前記画像表示部に表示させることが好ましい。
当該構成の潜在意識推定システムによれば、M個の第1分類先画像の中心位置のいずれもが上側に含まれ、対象画像の中心位置が下側に含まれるように、M個の第1分類先画像及び第1対象画像が前記画像表示部に表示される。これにより、第1対象画像と第1分類先画像との距離が比較的大きくなるので、第1対象画像に対するタッチ操作と第1分類先画像のうちのいずれか一つに対するタッチ操作の両方を行うまでの時間が多少長くなる。
これにより、第1対象画像の第1分類先画像への分類に当たり、被験者により長く考えさせることが出来るので、被験者が回答を急ぐあまりにあまり考えずに第1分類先画像の選択をするような事態が回避されうる。
従って、分類における被験者のタッチ操作はより被験者の潜在意識を反映したものとなるので、潜在意識推定部が被験者のタッチ操作に基づいて第1種概念と第2種概念との結びつきに関する被験者の潜在意識を推定することにより、被験者の潜在意識がより高精度で推定されうる。
本発明の潜在意識推定システムにおいて、
前記分類処理部は、前記第1対象画像に対するタッチ操作と前記第1分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作の軌跡である第1操作軌跡を前記操作検知部を介して認識するように構成され、
前記潜在意識推定部は、前記第1操作軌跡に基づいて前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定するように構成されていることが好ましい。
当該構成の潜在意識推定システムによれば、分類処理部により、第1操作軌跡が前記操作検知部を介して認識される。
第1操作軌跡には被験者の心理状態が反映されるので、被験者が自信を持って回答をする場合の操作軌跡と、自信なくまたは一時的に迷ったのちに回答する場合の操作軌跡とは、互いに異なる。また、被験者が回答を急いでいたとしても、回答の途中で誤りに気が付いて操作態様を変更した場合には、その操作軌跡は最初から正答を選択する場合の操作軌跡と異なる蓋然性が高い。
ここで、それぞれの第1分類先画像は、第1種概念のそれぞれを示す文字等と、前記第1種概念のそれぞれと互いに異なる第2種概念のそれぞれを示す文字等との組合せを示す静止画又は動画である。各第1分類先画像に示される第1種概念と第2種概念との組合せが被験者の潜在意識に沿っている場合には、被験者は自信を持って正答を選択する蓋然性が高く、各第1分類先画像に示される第1種概念と第2種概念との組合せが被験者の潜在意識とかい離している場合には、被験者は自信がないか、迷ったのちに回答するか、回答の途中で操作を変更する蓋然性が高い。
このように、第1操作軌跡は、被験者の潜在意識を反映している蓋然性が高いので、潜在意識推定部が第1操作軌跡に基づいて第1種概念と第2種概念との結びつきに関する被験者の潜在意識を推定することにより、被験者の潜在意識が高精度で推定されうる。
本発明の潜在意識推定システムにおいて、
前記潜在意識推定部は、当該第1操作軌跡と所定の操作軌跡とのかい離度を評価して、当該かい離度が小さいほど、前記画像表示部に表示されている前記第1種概念と前記第2種概念との組合せの結びつきが段階的又は連続的に強いと前記被験者の潜在意識を推定するように構成されていることが好ましい。
画像表示部に表示されている第1種概念と第2種概念との組合せが被験者の潜在意識に沿っている場合、前記第1操作軌跡は、一定の操作軌跡となる蓋然性が高い。他方、画像表示部に表示されている第1種概念と第2種概念との組合せが被験者の潜在意識とかい離している場合、前記第1操作軌跡は、当該一定の操作軌跡と異なる蓋然性が高い。
この点に着目して構成された潜在意識推定システムによれば、潜在意識推定部により、前記第1操作軌跡と所定の操作軌跡とのかい離度が評価される。
そして、当該かい離度が小さいほど、すなわち、画像表示部に表示されている第1種概念と第2種概念との組合せが被験者の潜在意識に沿っていると推定される場合には、潜在意識推定部は、前記画像表示部に表示されている前記第1種概念と前記第2種概念との組合せの結びつきが強いと推定する。
従って、当該構成の潜在意識推定システムによれば、第1種概念と第2種概念との結びつきに関する被験者の潜在意識がより高精度で推定されうる。
当該構成の潜在意識推定システムにおいて、
前記分類処理部は、前記第1種概念及び前記第2種概念の一方の概念をそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む静止画又は動画であるM個の第2分類先画像と、前記M個の第2分類先画像に示される概念のうちのいずれか一つに対応する文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む第2対象画像とを前記画像表示部に表示させ、前記第2対象画像に対するタッチ操作と前記第2分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作の軌跡である第2操作軌跡を前記操作検知部を介して認識するように構成され、
前記潜在意識推定部は、当該第2操作軌跡に基づいて、前記所定の操作軌跡を定めることが好ましい。
当該構成の潜在意識推定システムによれば、第2分類先画像に含まれる文字等は、第1分類先画像と異なり、前記第1種概念を示す文字等及び第2種概念を示す文字等の組合せではなく、第1種概念及び第2種概念の一方を示す文字等であるので、被験者は、ほとんど迷うことなく第2分類先画像の選択を行うことができる。
換言すれば、この比較的単純な第2分類先画像を選択するための第2操作軌跡は、各第1分類先画像に示される第1種概念と第2種概念との組合せが被験者の潜在意識に沿っている場合の操作軌跡に近い操作軌跡である。
この第2操作軌跡に基づいて定められた所定の操作軌跡と第1操作軌跡とのかい離度に基づいて被験者の潜在意識が推定されることにより、第1種概念と第2種概念との結びつきに関する被験者の潜在意識がより高精度で推定されうる。
当該構成の潜在意識推定システムにおいて、
前記第2分類先画像は、前記第1分類先画像に含まれる前記第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つ又は前記第2種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと同一の文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含み、
前記第2対象画像は、前記第1対象画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと同一の文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含むことが好ましい。
当該構成の潜在意識推定システムによれば、第2分類先画像が、前記第1分類先画像に含まれる第1種概念又は前記第2種概念のそれぞれを示す文字等と同一の文字等を含み、第2対象画像が、第1対象画像に含まれる文字等と同一の文字等を含むので、前記第1対象画像と第1分類先画像とが表示された時に被験者に与えられる情報と、前記第2対象画像と第2分類先画像とが表示された時に被験者に与えられる情報とをほぼ一致させることが出来る。
このため、第2操作軌跡が、各第1分類先画像に示される第1種概念と第2種概念との組合せが被験者の潜在意識に沿っている場合の操作軌跡により近くなる。
この結果、この第2操作軌跡に基づいて定められた所定の操作軌跡と第1操作軌跡とのかい離度に基づいて被験者の潜在意識が推定されることにより、第1種概念と第2種概念との結びつきに関する被験者の潜在意識がより高精度で推定されうる。
本発明の潜在意識推定システムにおいて、
前記潜在意識推定部は、タッチされた第1分類先画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つが示す第1種概念及び第2種概念のいずれもが、前記第1対象画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つに対応付けられた第1種概念又は第2種概念と異なる場合、前記第1対象画像に対するタッチ操作と前記タッチされた第1分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作に基づいて、前記第1分類先画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つに対応付けられた第1種概念と第2種概念との結びつきが弱いと前記被験者の潜在意識を推定するように構成されていることが好ましい。
ここで、タッチされた第1分類先画像に含まれる文字等が示す第1種概念及び第2種概念のいずれもが、前記第1対象画像に含まれる文字等に対応付けられた第1種概念又は第2種概念と異なる場合、被験者は、前記第1対象画像に含まれる文字等に対応付けられた第1種概念又は第2種概念と、タッチされた第1分類先画像に含まれる文字等に対応付けられた第1種概念及び第2種概念の一方との結びつきが強いという潜在意識を持っていると推定される。
換言すれば、被験者は、選択された第1分類先画像に含まれる文字等に対応付けられた第1種概念と第2種概念との結びつきが弱いという潜在意識を持っていると推定される。
この点に着目して構成された当該構成の潜在意識推定システムによれば、タッチされた第1分類先画像に含まれる文字等が示す第1種概念及び第2種概念のいずれもが、前記第1対象画像に対するタッチ操作と前記タッチされた第1分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作に基づいて、前記第1対象画像に含まれる文字等に対応付けられた第1種概念と第2種概念との結びつきが弱いと前記被験者の潜在意識を推定するので、高精度で被験者の潜在意識が推定される。
本発明の潜在意識推定システムにおいて、
前記分類処理部は、タッチされた第1分類先画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つが示す第1種概念及び第2種概念のいずれもが、前記第1対象画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つに対応付けられた第1種概念又は第2種概念と異なる場合、同一の第1対象画像に対し、前記第1分類先画像の再選択を求める画像を前記画像表示部に表示させ、
前記潜在意識推定部は、前記分類処理部によって検知された、前記再選択を求める画像の表示前までの前記被験者のタッチ操作に基づいて、前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定するように構成されていることが好ましい。
当該構成の潜在意識推定システムによれば、選択された第1分類先画像に含まれる文字等が示す第1種概念及び第2種概念のいずれもが、前記第1対象画像に含まれる文字等に対応付けられた第1種概念又は第2種概念と異なる場合、同一の第1対象画像に対し、第1分類先画像の再選択を求める画像を前記画像表示部に表示される。
これにより、被験者に誤ったままの回答は受け付けられないと認識させることができるので、より慎重に回答することを促すことが出来る。
そして、潜在意識推定部は、分類処理部によって検知された、再選択を求める画像の表示前までの前記被験者のタッチ操作に基づいて、第1種概念と第2種概念との結びつきに関する被験者の潜在意識を推定する。
ここで、再選択を求める画像の表示前までのタッチ操作は被験者の潜在意識を反映している一方、再選択を求める画像の表示後のタッチ操作は、被験者がある選択肢が誤っていることを明確に認識した上でのタッチ操作となるので、被験者の潜在意識が反映されていないと考えられる。
このため、再選択を求める画像の表示前までのタッチ操作に基づいて第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識が推定されることにより、被験者の潜在意識がより高精度に推定されうる。
本発明の潜在意識推定システムの全体構成図。 潜在意識推定処理の全体処理のフローチャート。 第1種概念のそれぞれを示す文字等を含む第2分類先画像と、当該第1種概念のいずれかに対応する文字等を含む対象画像とがクライアント画像表示部に表示される画像を説明する図。 第2種概念のそれぞれを示す文字等を含む第2分類先画像と、当該第2種概念のいずれかに対応する文字等を含む対象画像とがクライアント画像表示部に表示される画像を説明する図。 第1種概念のそれぞれを示す文字等と第2種概念のそれぞれを示す文字等との組わせを含む第1分類先画像と、当該第1種概念又は第2種概念のいずれかに対応する文字等を含む対象画像とがクライアント画像表示部に表示される画像を説明する図。 第2概念の表示位置が変更された後の、第2種概念のそれぞれを示す文字等を含む第2分類先画像と、当該第2種概念のいずれかに対応する文字等を含む対象画像とがクライアント画像表示部に表示される画像を説明する図。 組合せ方が変更された後の、第1種概念のそれぞれを示す文字等と第2種概念のそれぞれを示す文字等との組わせを含む第1分類先画像と、当該第1種概念又は第2種概念のいずれかに対応する文字等を含む対象画像とがクライアント画像表示部に表示される図。 再選択を求める場合にクライアント画像表示部に表示される画像を説明する図。 訓練処理又はテスト処理のフローチャート。 対象画像を第2分類先画像のいずれかに分類するときの操作軌跡の態様を示す図。 対象画像を第1分類先画像のいずれかに分類するときの操作軌跡の態様を示す図。 対象画像の第1分類先画像を誤って選択する場合の操作軌跡の態様の一例を示す図。 再選択を求めた場合の操作軌跡の態様を示す図。 操作情報の内容を示す図。 被験者の潜在意識推定処理のフローチャート。
図1〜図7を参照しながら、本発明の潜在意識推定システムについて説明する。
(潜在意識推定システム)
潜在意識推定システムは、被験者Sの潜在意識におけるある概念(「自分」、「他人」などの概念)とこの概念と異なる他の概念(例えば「外向的」「内向的」などの概念)との結びつきの強さを推定するシステムである。このシステムによって生成された情報は、例えば、求職者が相性の良い企業を探すための基礎情報又は企業が求職者を選考するための情報として用いられる。
潜在意識推定システムは、被験者Sの潜在意識におけるある概念とこの概念と異なる他の概念との結びつきの強さを推定し、推定した情報を被験者S自身または他人が活用できるようにするため、図1に示されるように、クライアント1と、潜在意識情報管理サーバ2とを備える。
(クライアント)
クライアント1は、クライアント制御部11と、クライアント記憶部12と、クライアント画像表示部13と、クライアント操作検知部14と、クライアント通信部15とを備える。なお、「クライアント画像表示部13」が本発明の「画像表示部」に相当し、「クライアント操作検知部14」が本発明の「操作検知部」に相当する。
クライアント1は、タブレット型端末またはスマートフォンなど、被験者Sによる携帯が可能なようにサイズ、形状および重量が設計されているコンピュータにより構成されていてもよく、デスクトップコンピュータなど、特定箇所に設置されるように、サイズ、形状および重量が設計されているコンピュータにより構成されていてもよい。
クライアント制御部11は、CPU(Central Processing Unit)等の演算処理装置、メモリ、及びI/O(Input/Output)デバイスなどにより構成されている。クライアント制御部11には、外部よりダウンロードした潜在意識推定プログラムがインストールされている。潜在意識推定プログラムが起動されることにより、クライアント制御部11は、後述の演算処理を実行する画像表示制御部111、操作軌跡認識部112及び潜在意識推定部113として機能するように構成されている。なお、画像表示制御部111及び操作軌跡認識部112により、本発明の「分類処理部」が構成される。
画像表示制御部111は、クライアント画像表示部13における表示画像を調節するように構成されている。
操作軌跡認識部112は、クライアント操作検知部14における被験者Sのタッチ操作の態様を認識するように構成されている。タッチ操作には、タップ(シングルタップ、ダブルタップおよびロングタップ)、フリック(上フリック、下フリック、左フリックおよび右フリック)、スワイプ、ピンチ(ピンチインおよびピンチアウト)またはマルチタッチなどが含まれる。
クライアント記憶部12は、例えばROM(Read Only Memory),RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶装置により構成されている。クライアント記憶部12には、第1分類先画像121、第2分類先画像(第1種概念)122、第2分類先画像(第2種概念)123、対象画像(第1種概念)124、対象画像(第2種概念)125、及び操作情報126が記憶されている。
これらの画像は、潜在意識推定プログラムとともにダウンロードされ、クライアント1の画像取り込み機能などを使って保存され、クライアント記憶部12に記憶された被験者Sの情報を基に潜在意識推定プログラムの実行時に保存または作成され、又は、クライアント操作検知部14を介して入力された情報を基に潜在意識推定プログラムの実行時に保存または作成されてもよい。
「情報」を基にプログラムの実行時に画像が保存または作成されるとは、プログラムの実行時に「情報」を使用して静止画又は動画を保存または作成することを意味する。
例えば、当該「情報」を基にネット―ワークを介して検索した静止画又は動画が保存されてもよい。「情報」としての文字情報を基に当該文字情報を含む静止画又は動画が作成されてもよい。「情報」が数字を示す情報(例えば「いち」という文字情報)であれば、その数字自体(「1」)を含む静止画又は動画が作成されてもよい。「情報」が物体の名称(物体には人間及び動物も含む。たとえば、被験者Sの名称)である場合には、その物体の写真又はその人物を示す図形を含む静止画又は動画が生成されてもよい。「情報」が色彩の名称(例えば「赤」という文字情報)であれば、その色彩を含む静止画又は動画が作成されてもよい。「情報」が模様の名称(たとえば「唐松模様」という文字情報)であれば、その模様を含む静止画又は動画が作成されてもよい。「情報」が何らかの記号の名称(例えば「積分記号」という文字情報)であれば、当該記号を含むように静止画又は動画が作成されてもよい。
また、「情報」が色彩を示すRGB値であれば、その色彩の名称を含む静止画又は動画が作成されてもよい。「情報」が模様を撮影した静止画又は動画であれば、その模様の名称を含む静止画又は動画が作成されてもよい。「情報」が物体を撮影した静止画又は動画であれば、当該物体の名称を含む静止画又は動画が作成されてもよい。「情報」が記号であれば、当該記号の名称を含む静止画又は動画が作成されてもよい。「情報」が数字であれば、当該数字の読み等を含む静止画又は動画が作成されてもよい。
これらの静止画又は動画の作成に当たり、情報と作成される画像に含まれる要素との対応関係を示したテーブルが適宜用いられてもよい。
第1分類先画像121は、K個(Kは2以上の整数。)の第1種概念のそれぞれを示す文字等と、L個(Lは2以上の整数)の第2種概念のそれぞれを示す文字等とを組合せを含むM個(Mは2≦M、M≦K、M≦Lの整数。)の静止画又は動画である。
また、K個(Kは2以上の整数。)の第1種概念は、互いに重複しない概念である。第1種概念の例としては、K=2の場合、「自分」「他人」という概念がある。K=2である場合、第1種概念は、「自分」「他人」のように対照的な概念であることが好ましいが、「花」「虫」のように互いに違いを区別できる程度に異なっている概念であってもよい。
また、L個(Lは2以上の整数。)の第2種概念は、互いに重複しない概念、かつ、第1種概念と異なる概念である。第2種概念の例としては、L=2の場合、「外向的」「内向的」のように、互いに重複しない概念、かつ、第1種概念「自分」「他人」と異なる概念である。K=2である場合、第2種概念は、「外向的」「内向的」のように対照的な概念であることが好ましいが、「花」「虫」のように互いに違いを区別できる程度に異なっている概念であってもよい。
第1種概念又は第2種概念のそれぞれを示す文字等とは、「自分」「他人」「外向的」「内向的」等の文字のほか、被験者S自身の人物像、被験者S以外の人物の人物像、第1種概念又は第2種概念を示す物体像、第1種概念又は第2種概念を示す記号、第1種概念又は第2種概念を示す数字、第1種概念又は第2種概念を示す図形、第1種概念又は第2種概念を示す模様、及び第1種概念又は第2種概念を示す色彩であってもよく、これらの文字及び人物像等が組み合わされたものであってもよい。
第1分類先画像121は、例えば、図3Cに示されるように、M=2の場合、第1種概念「自分」を示す文字等及び第2種概念「外向的」を示す文字等の組合せを含む「自分」−「外向的」画像1211、又は第1種概念「他人」を示す文字等及び第2種概念「内向的」を示す文字等を組合せを含む「他人」−「内向的」画像1212のような静止画である。
本実施形態では、説明を簡易にするため、K=2、L=2、M=2として説明するが、夫々3以上でも同様の構成及び処理を採用できる。
第2分類先画像(第1種概念)122は、第1種概念を示す文字等を含む静止画又は動画である。第2分類先画像(第1種概念)122は、例えば、図3Aに示されるように、第1種概念「自分」を示す文字等を含む「自分」画像1221、又は第1種概念「他人」を示す文字等を含む「他人」画像1222のような静止画である。
第2分類先画像(第2種概念)123は、第2種概念を示す文字等を含む静止画又は動画である。第2分類先画像(第2種概念)123は、例えば、図3Bに示されるように、第2種概念「外向的」を示す文字等を含む「外向的」画像1231、又は第2種概念「内向的」を示す文字等を含む「内向的」画像1232のような静止画である。
対象画像(第1種概念)124は、第1種概念のいずれかに予め対応づけられた文字等(第1種概念のいずれか一つに分類される文字等(例えば、第1種概念のいずれかの下位概念、具体例等を示す文字等))を含む静止画又は動画である。対象画像(第1種概念)124は、例えば、図3Aに示されるように、第1種概念「自分」に予め対応づけられた被験者Sの名称「○田×男」を含む被験者名称画像1241のような静止画である。
対象画像(第1種概念)124には、当該対象画像(第1種概念)124がどの第1種概念に対応づけられているかという情報も付加されている。
対象画像(第2種概念)125は、第2種概念に予め対応づけられた文字等を含む静止画又は動画(第2種概念のいずれか一つに分類される文字等(例えば、第2種概念のいずれかの下位概念又は具体例を示す文字等))である。対象画像(第2種概念)125は、例えば、図3Bに示されるように、第2種概念「内向的」に予め対応づけられた文字「控えめな」を含む「控えめな」画像1251のような静止画である。
対象画像(第2種概念)125には、当該対象画像(第2種概念)125がどの第2種概念に対応づけられているかという情報も付加されている。
操作情報126は、後述する画像分類訓練処理及び画像分類テスト処理において認識される操作軌跡を含む情報であり、図6に示されるように、フィールド番号カラム1261、分類先画像カラム1262、表示位置カラム1263、対象画像カラム1264、操作軌跡カラム1265、経過時間カラム1266及び正誤カラム1267を含むテーブルで表される。
フィールド番号カラム1261の値は、各フィールドを識別するために割り振られるユニークな数値である。フィールド番号カラム1261の値は、ハイフンを二つの数字で挟んだ文字列で表される。
ここで、フィールド番号カラム1261のハイフンの左側の値は、後述する各処理を示す値であり、第1画像分類訓練処理は1で表され、第1回目の第2画像分類訓練処理は2で表され、第1回目の第1画像分類テスト処理は3で表され、第1回目の第2画像分類テスト処理は4で表され、第2回目の第2画像分類訓練処理は5で表され、第2回目の第1画像分類テスト処理は6で表され、第2回目の第2画像分類テスト処理は7で表される。
また、フィールド番号カラム1261のハイフンの右側の値は、各処理において何回目かの分類であるかを示す値である。
分類先画像カラム1262の値は、対象画像に対応する分類先画像の種別を示す。
表示位置カラム1263の値は、対象画像に対応する分類先画像の表示位置を示す。
対象画像カラム1264の値は、分類対象の対象画像の種別を示す。
操作軌跡カラム1265の値は、クライアント操作検知部14を介して検知された被験者のタッチ操作の軌跡を示し、クライアント画像表示部13の画面上の位置に対応する座標値の列として表される。
経過時間カラム1266の値は、分類までの経過時間(単位:秒)を示す。
正誤カラム1267の値は、初回の分類が正答か誤答を示す
クライアント画像表示部13は液晶パネルのような表示装置により構成され、クライアント操作検知部14はタッチパッドのような位置入力装置により構成され、これらが組み合わせられてタッチパネルが構成されている。
クライアント通信部15は、有線通信またはWiFi(登録商標)等の遠距離での無線通信に適した通信規格にしたがった無線通信を介して、潜在意識情報管理サーバ2などの外部端末と相互通信するよう構成されている。
(潜在意識情報管理サーバ)
潜在意識情報管理サーバ2は、サーバ制御部21と、サーバ記憶部22と、サーバ通信部25とを備えている。なお、潜在意識情報管理サーバ2を構成するコンピュータの一部または全部が、クライアント1を構成するコンピュータにより構成されていてもよい。たとえば、移動局としての一または複数のクライアント1により、潜在意識情報管理サーバ2の一部または全部が構成されていてもよい。
サーバ制御部21は、CPU等の演算処理装置、メモリ、及びI/Oデバイスなどにより構成されている。サーバ制御部21は、一のプロセッサにより構成されてもよく、相互通信可能な複数のプロセッサにより構成されてもよい。
サーバ記憶部22は、例えばROM,RAM、HDD等の記憶装置により構成されている。サーバ記憶部22は、サーバ制御部21の演算結果、又はサーバ制御部21がサーバ通信部25を介して受信したデータを記憶するように構成されている。
サーバ記憶部22は、クライアント1から受信した推定結果221を保存するように構成されている。推定結果221は、認証された被験者S自身または被験者Sが明示的又は黙示的に閲覧を許諾した企業などの第三者に提供されうる。
サーバ通信部25は、ネットワークとしての公衆通信網(例えばインターネット)に接続され、外部の端末(例えばクライアント1)と通信する通信装置により構成されている。
(潜在意識推定処理の全体)
図2〜図3を参照して、潜在意識推定処理の概略の流れを説明する。
潜在意識推定プログラムが起動すると、クライアント制御部11は、処理回カウント変数Cを初期化(Cに1を設定)する(図2/STEP020)。
画像表示制御部111及び操作軌跡認識部112は、被験者Sに対象画像(第1種概念)124を所定の回数だけ第2分類先画像(第1種概念)122のいずれかに分類させるための、第2分類先画像(第1種概念)122に対する第1画像分類訓練処理を実行する(図2/STEP040)。第1種概念は、予め設定されている概念であってもよいし、被験者Sが選択したテーマに沿った概念であってもよい。
第1画像分類訓練処理の概略を説明すると、例えば、画像表示制御部111は、図3Aに示されるように、第2分類先画像(第1種概念)122としての「自分」画像1221及び「他人」画像1222を、クライアント画像表示部13の画面上部に表示させるとともに、対象画像(第1種概念)124としての被験者名称画像1241を画面下部に表示する。
ここで、対象画像(第1種概念)124は、被験者名称画像1241に限られず、例えば、被験者名称と異なる人物名称、被験者が所属する大学名及び被験者が所属しない大学名等、第1種概念「自分」「他人」のいずれか一つに分類される文字等を含む画像であればどのような画像でもよい。
操作軌跡認識部112は、対象画像(第1種概念)124が表示されてから、「自分」画像1221又は「他人」画像1222が選択されるまでの間の時間を計測する。
操作軌跡認識部112は、被験者名称画像1241に対するタッチ操作があってから「自分」画像1221又は「他人」画像1222が選択されるまでの間のクライアント操作検知部14に対する被験者のタッチ操作の操作軌跡を認識する。
画像表示制御部111及び操作軌跡認識部112は、所定の数のそのほとんどが互いに異なる対象画像(第1種概念)124に対し、上記処理を繰り返すことにより、各対象画像(第1種概念)124それぞれについての回答時間及び操作軌跡を認識する。
第1画像分類訓練処理の詳細は後述する。
画像表示制御部111及び操作軌跡認識部112は、被験者Sに対象画像(第2種概念)125を所定の回数だけ第2分類先画像(第2種概念)123のいずれかに分類させるための、第2分類先画像(第2種概念)123に対する第2画像分類訓練処理を実行する(図2/STEP060)。第2種概念は、予め設定されている概念であってもよいし、被験者Sが選択したテーマに沿った概念であってもよい。
図2/STEP060において、画像表示制御部111は、図3Bに示されるように、第2分類先画像(第2種概念)123としての「外向的」画像1231及び「内向的」画像1232を、クライアント画像表示部13の画面上部に表示させるとともに、対象画像(第2種概念)125としての「控えめな」画像1251を画面下部に表示する。
ここで、対象画像(第2種概念)125は、「控えめな」画像1251に限られず、例えば、「おしゃべりな」、「社交的な」、「遠慮がちな」、「一歩退いた」等、第2種概念「外向的」「内向的」のいずれか一つに分類される文字等を含む画像であればどのような画像でもよい。
図2/STEP060の第2画像分類訓練処理では、クライアント画像表示部13に表示される分類先画像及び対象画像が図2/STEP040の第1画像分類訓練処理と異なるが、他の処理は図2/STEP040の第1画像分類訓練処理と同一である。
画像表示制御部111及び操作軌跡認識部112は、被験者Sに対象画像(第1種概念)124又は対象画像(第2種概念)125を所定の回数だけ第1分類先画像121のいずれかに分類させるための、第1分類先画像121に対する第1画像分類テスト処理を実行する(図2/STEP080)。
図2/STEP080において、画像表示制御部111は、図3Cに示されるように、第1分類先画像121としての「自分」−「外向的」画像1211及び「他人」−「内向的」画像1212を、クライアント画像表示部13の画面上部に表示させるとともに、対象画像(第1種概念)124又は対象画像(第2種概念)125(図3Cでは、対象画像(第2種概念)125としての「控えめな」画像1251)を画面下部に表示する。
図2/STEP080の第1画像分類テスト処理では、画像表示制御部111により表示される分類先画像及び対象画像が図2/STEP040の第1画像分類訓練処理と異なるが、他の処理は図2/STEP040の第1画像分類訓練処理と同一である。
画像表示制御部111及び操作軌跡認識部112は、被験者Sに対象画像(第1種概念)124又は対象画像(第2種概念)125を所定の回数だけ第1分類先画像121のいずれかに分類させるための、第1分類先画像121に対する第2画像分類テスト処理を実行する(図2/STEP100)。
図2/STEP100における第2画像分類テスト処理は、図2/STEP080における第1画像分類テスト処理と同一の内容である。
クライアント制御部11は、処理回カウント変数Cが1であるか否かを判定する(図2/STEP120)。
当該判定結果が肯定的である場合(図2/STEP120‥YES)、クライアント制御部11が処理回カウント変数Cに2を設定し(図2/STEP140)、画像表示制御部111が、第2種概念を示す文字等のそれぞれの表示位置を変更した上で(図2/STEP160)、図2/STEP060〜図2/STEP100の処理が再度実行される。
2回目の図2/STEP060では、図3Dに示されるように、画像表示制御部111は、第2分類先画像(第2種概念)123としての「内向的」画像1232及び「外向的」画像1231の表示位置を入れ替えて表示する。画像表示制御部111は、画面下部に、第2対象画像(第2種概念)125を表示する。
2回目の図2/STEP080〜図2/STEP100では、図3Eに示されるように、画像表示制御部111は、第1種概念と第2種概念との組み合わせ方を変更し、第2種概念に対応する「内向的」及び「外向的」の表示位置を入れ替えた「自分」−「内向的」画像1213及び「他人」−「外向的」画像1214を表示する。画像表示制御部111は、対象画像(第1種概念)124又は対象画像(第2種概念)125を画面下部に表示する。
図2/STEP120の判定結果が否定的である場合(図2/STEP120‥NO)、潜在意識推定部113は、認識された各回答時間及び操作軌跡に基づいて、後述する潜在意識推定処理を実行する(図2/STEP180)。なお、図2/STEP180が本発明の「潜在意識推定ステップ」に相当する。
潜在意識推定部113は、潜在意識推定処理において得られた被験者の第1種概念のそれぞれと第2種概念のそれぞれとの結びつきの評価値である推定結果をクライアント通信部15を介して潜在意識情報管理サーバ2に送信する(図2/STEP200)。これに加えてまたは代えて、潜在意識推定部113は、推定結果を画像表示部13に表示してもよい。
(画像分類訓練処理・画像分類テスト処理)
次に図3〜図5を参照して、図2/STEP040及び図2/STEP060の第1及び第2画像分類訓練処理並びに図2/STEP080及び図2/STEP100の第1及び第2画像分類テスト処理を説明する。これらの処理は、上記したように、クライアント画像表示部13に表示される画像が異なる点以外は同一の処理である。
画像表示制御部111は、複数(本実施形態では2つ)の分類先画像をクライアント画像表示部13に表示する(図4/STEP220)。なお、図4/STEP220が、本発明の「第1分類先画像表示ステップ」に相当する。
例えば、図2/STEP040の第1画像分類訓練処理においては、画像表示制御部111は、クライアント記憶部12に記憶された第2分類先画像(第1種概念)122を読み込み、図3Aに示されるように、クライアント画像表示部13の画面上部に第2分類先画像(第1種概念)122(「自分」画像1221及び「他人」画像1222)を表示させる。
ここで、画像表示制御部111は、クライアント画像表示部13の画面を上側分割線UL及び下側分割線DLにより上下方向に三等分した場合、「自分」画像1221及び「他人」画像1222の画像の中心が上側分割線ULよりも上側に位置するように「自分」画像1221及び「他人」画像1222をクライアント画像表示部13に表示させる。
また、画像表示制御部111は、クライアント画像表示部13の画面を中央分割線CLにより左右方向に二分割した場合、「自分」画像1221及び「他人」画像1222の画像の中心が、中央分割線CLを中心として線対称となるように、「自分」画像1221及び「他人」画像1222をクライアント画像表示部13に表示させる。
また、図2/STEP060の第2画像分類訓練処理においては、画像表示制御部111は、クライアント記憶部12に記憶された第2分類先画像(第2種概念)123を読み込み、図3Bに示されるように、クライアント画像表示部13の画面上部に第2分類先画像(第2種概念)123(図3Bにおいては「外向的」画像1231及び「内向的」画像1232)を表示させる。
また、図2/STEP080又は図2/STEP100の第1又は第2画像分類テスト処理においては、画像表示制御部111は、クライアント記憶部12に記憶された第1分類先画像121を読み込み、図3Cに示されるように、クライアント画像表示部13の画面上部に第1分類先画像121(図3Cにおいては「自分」−「外向的」画像1211及び「他人」−「内向的」画像1212)を表示させる。
画像表示制御部111は、分類回数カウント変数nを初期化(nに1を設定)する(図4/STEP240)。
操作軌跡認識部112は、経過時間tを初期化(tに0を設定)する(図4/STEP260)。
画像表示制御部111は、分類先画像に含まれる文字等が示す概念に対応する一つの対象画像をクライアント画像表示部13の画面下部に表示させる(図4/STEP280)。画像表示制御部111は、対象画像をランダムにクライアント画像表示部13に表示させることが好ましいが、互いに異なる対象画像をランダムにクライアント画像表示部13に表示させることがより好ましい。
例えば、図2/STEP040の第1画像分類訓練処理においては、画像表示制御部111は、クライアント記憶部12から、第1種概念に対応する対象画像である対象画像(第1種概念)124を読み込み、図3Aに示されるように、対象画像(第1種概念)124(図3Aにおいては被験者名称画像1241)をクライアント画像表示部13の画面下部に表示させる。
ここで、画像表示制御部111は、クライアント画像表示部13の画面を上側分割線UL及び下側分割線DLにより上下方向に三分割した場合、対象画像の画像中心が下側分割線DLよりも下側に位置するように、対象画像としての被験者名称画像1241をクライアント画像表示部13に表示させる。
また、画像表示制御部111は、クライアント画像表示部13の画面を中央分割線CLにより左右方向に二分割した場合、対象画像の画像中心が中央分割線CL上に位置するように対象画像としての被験者名称画像1241をクライアント画像表示部13に表示させる。
また、図2/STEP060の第2画像分類訓練処理においては、画像表示制御部111は、クライアント記憶部12から、第2種概念に対応する対象画像である対象画像(第2種概念)125を読み込み、図3Bに示されるように、対象画像(第2種概念)125(図3Bにおいては「控えめな」画像1251)をクライアント画像表示部13の画面下部に表示させる。
図2/STEP040の第1画像分類訓練処理又は図2/STEP060の第2画像分類訓練処理で表示される対象画像が、本発明の「第2対象画像」に相当する。
また、図2/STEP080又は図2/STEP100の第1又は第2画像分類テスト処理においては、画像表示制御部111は、クライアント記憶部12から、第1種概念に対応する対象画像(第1種概念)124又は第2種概念に対応する対象画像である対象画像(第2種概念)125を読み込み、図3Cに示されるように、対象画像(図3Cにおいては対象画像(第2種概念)125としての「控えめな」画像1251)をクライアント画像表示部13の画面下部に表示させる。
図2/STEP080の第1画像分類テスト処理又は図2/STEP100の第2画像分類テスト処理で表示される対象画像が、本発明の「第1対象画像」に相当する。
なお、図4/STEP280が、本発明の「第1対象画像表示ステップ」に相当する。
操作軌跡認識部112は、経過時間tに0.1を加算する(図4/STEP300)。
操作軌跡認識部112は、クライアント操作検知部14に対するタッチ操作O(i,j)を認識したか否かを判定する(図4/STEP320)。
タッチ操作O(i,j)はどのような種類の操作でもよいが、対象画像が表示されている位置を起点とするスワイプ操作であることが好ましい。なお、これに代えて、分類先画像が表示されている位置を起点とするスワイプ操作であってもよい。
タッチ操作O(i,j)は、クライアント操作検知部14により検知されたクライアント画像表示部13の画面上の位置に対応する座標値で表される。
なお、ここでiは各処理を表す1〜7の数値であり、jは各処理における何回目の分類であるかを示す値である。
例えば、図5Aに示されるように、操作軌跡認識部112は、クライアント操作検知部14により検知されたタッチ操作O1(i,j)(又はタッチ操作O2(i,j))を認識する。
当該判定結果が否定的である場合(図4/STEP320‥NO)、操作軌跡認識部112は、図4/STEP300の以下の処理を再度実行する。
当該判定結果が肯定的である場合(図4/STEP320‥YES)、操作軌跡認識部112は、いずれかの分類先画像に対するタッチ操作が検知されたか否かを判定する(図4/STEP340)。
例えば、操作軌跡認識部112は、検知されたタッチ操作O(i,j)に示される座標値が分類先画像のうちいずれか一つを示す所定の範囲に入っているか否かを判定する。
当該判定結果が否定的である場合(図4/STEP340‥NO)、操作軌跡認識部112は、図4/STEP300の以下の処理を再度実行する。
当該判定結果が肯定的である場合(図4/STEP340‥YES)、操作軌跡認識部112は、対象画像に付加された情報を参照することにより、選択された分類先画像が、対象画像に対応しているか否かを判定する(図4/STEP360)。
当該判定結果が否定的である場合(図4/STEP360‥NO)、操作軌跡認識部112は、回答時間及び操作軌跡を記憶する(図4/STEP380)。
より具体的には、操作軌跡認識部112は、フィールド番号カラム1261の値を“i−j”とし、分類先画像カラム1262の値を現在表示している分類先画像のうち、被験者により選択された分類先画像とし、表示位置カラム1263の値を当該分類先画像が表示されている位置(「左」又は「右」)とし、対象画像カラム1264の値を現在表示している対象画像とし、操作軌跡カラム1265の値を図4/STEP380の処理までに検知されたタッチ操作O(i,j)(t=0.1,…)の列とし、経過時間カラム1266の値を経過時間tとし、正誤カラム1267の値を「誤」とするフィールドを作成し、操作情報126に追加してクライアント記憶部12に記憶する。
なお、経過時間tの代わりにタイマ等の計時機能により計測された対象画像表示から分類先画像表示までの時間を用いてもよい。
例えば、操作軌跡認識部112は、図5Aに示されるタッチ操作O1(i,j)(t=0.1,‥,x1)を示す座標値の列を操作軌跡カラムに記憶する。
画像表示制御部111は、再選択を求める画像をクライアント画像表示部13に表示させる(図4/STEP400)。
より具体的には、画像表示制御部111は、図3Fに示されるように、分類先画像及び対象画像を引き続き表示しながら、誤ったことを知らせる画像1271と、再選択を求めるメッセージを含む画像1272とをクライアント画像表示部13に表示させる。
操作軌跡認識部112は、図4/STEP400の後、図4/STEP300〜図4/STEP360の処理を実行する。
図4/STEP360の判定結果が肯定的である場合(図4/STEP360‥YES)、操作軌跡認識部112は、経過時間tと操作軌跡をクライアント記憶部12に記憶する(図4/STEP420)。
より具体的には、操作軌跡認識部112は、フィールド番号カラム1261の値を実行中の処理に対応した文字列とし、分類先画像カラム1262の値を現在表示している分類先画像のうち、被験者により選択された分類先画像とし、表示位置カラム1263の値を当該分類先画像が表示されている位置(「左」又は「右」)とし、対象画像カラム1264を現在表示している対象画像とし、操作軌跡カラム1265の値を図4/STEP360までに検知されたユーザ操作O(i,j)(t=0.1,…)の列とし、経過時間カラム1266の値を経過時間tとし、正誤カラム1267の値を「正」とするフィールドを作成し、操作情報126に追加してクライアント記憶部12に記憶する。
なお、経過時間tの代わりにタイマ等の計時機能により計測された対象画像表示から分類先画像表示までの時間を用いてもよい。
なお、図4/STEP320、図4/STEP340、図4/STEP360、図4/STEP380及び図4/STEP420が、本発明の「分類処理ステップ」に相当する。
なお、操作軌跡認識部112は、図4/STEP380で経過時間及び操作軌跡を記憶している場合には、図4/STEP420の処理を省略してもよい。
画像表示制御部111は、分類回数カウント変数nが所定値N以下であるか否かを判定する(図4/STEP440)。
当該判定結果が肯定的である場合(図4/STEP440‥YES)、画像表示制御部111は、分類回数カウント変数nに1を加算し(図4/STEP460)、画像表示制御部111及び操作軌跡認識部112は、STEP260以下の処理を実行する。
当該判定結果が否定的である場合(図4/STEP440‥NO)、画像表示制御部111は、本処理を終了する。
(潜在意識推定処理)
図5〜図7を参照して、図2/STEP180の潜在意識推定処理について説明する。
潜在意識推定部113は、クライアント記憶部12から、操作情報126を読み込む(図7/STEP520)。
潜在意識推定部113は、操作情報126のうち、経過時間カラム1266の値が所定の値よりも大きいフィールドを削除する(図7/STEP540)。たとえば、図6において、所定の値が10である場合、経過時間カラム1266の値が10よりも大きいNo7−1のフィールドが削除される。
潜在意識推定部113は、操作情報126のうち、操作軌跡カラム1265の値から、操作軌跡の評価値である操作軌跡値OT(i,j)を算出する(図7/STEP560)。操作軌跡値OT(i,j)は、操作軌跡から被験者Sが迷ったと推察される場合に断続的又は連続的に大きい値を取り、操作軌跡から被験者Sが迷わなかったと推察される場合断続的又は連続的に小さな値を取る。
なお、第1画像分類訓練処理及び第2画像分類訓練処理における操作軌跡カラム1265の値が、本発明の「第2操作軌跡」及び「所定の操作軌跡」に相当し、第1画像分類テスト処理及び第2画像分類テスト処理における操作軌跡カラム1265の値が、本発明の「第1操作軌跡」に相当する。
ここで、iは、フィールド番号カラム1261のハイフンの左側の値であり、jは、フィールド番号カラム1261のハイフンの右側の値である。
操作軌跡値としては、例えば、操作軌跡における総移動距離、対象画像と分類先画像とを結ぶ直線からのかい離度、操作軌跡における方向転換回数、一定の箇所に滞留していた時間、平均移動速度、及び平均加速度などを採用することが出来る。
操作軌跡における総移動距離L(i,j)は、例えば以下の式(1)により求めることが出来る。
ここで、||ベクトル||は、ベクトルのノルムを意味する。
なお、総移動距離L(i,j)を操作軌跡値OT(i,j)とするなど、総移動距離L(i,j)が大きいほど、操作軌跡値OT(i,j)は断続的又は連続的に大きい値に設定され、総移動距離L(i,j)が小さいほど、操作軌跡値OT(i,j)は断続的又は連続的に小さい値に設定されることが好ましい。
対象画像と分類先画像とを結ぶ直線からのかい離度ρ(i,j)は、例えば、対象画像と分類先画像とを結ぶ直線の距離をLとした時、以下の式(2)で求めることが出来る。
なお、かい離度ρ(i,j)を操作軌跡値OT(i,j)とするなど、かい離度ρ(i,j)が大きいほど、操作軌跡値OT(i,j)は断続的又は連続的に大きい値に設定され、かい離度ρ(i,j)が小さいほど、操作軌跡値OT(i,j)は断続的又は連続的に小さい値に設定されることが好ましい。
また、時刻t−2〜t−1間のタッチ操作の軌跡を示すベクトルOt−1(i,j)−Ot−2(i,j)と時刻t−1〜t間のタッチ操作の軌跡を示すベクトルO(i,j)−Ot−1(i,j)との内積が所定の値以下となる場合に方向転換があったと判定し、方向転換があったと判定される回数を求めることにより、操作軌跡における方向転換回数が算出されうる。なお、方向転換回数を操作軌跡値OT(i,j)とするなど、方向転換回数が大きいほど、操作軌跡値OT(i,j)は断続的又は連続的に大きい値に設定され、方向転換回数が小さいほど、操作軌跡値OT(i,j)は断続的又は連続的に小さい値に設定されることが好ましい。
また、時刻t−1〜t間のタッチ操作の軌跡を示すベクトルO(i,j)−Ot−1(i,j)のノルムが所定の大きさ以下である場合に、一定の箇所に滞留していたと判定し、一定の箇所に滞留していた回数を数えることにより、一定の箇所に滞留していた時間を求めることが出来る。なお、一定の箇所に滞留していた時間を操作軌跡値OT(i,j)とするなど、一定の箇所に滞留していた時間が大きいほど、操作軌跡値OT(i,j)は断続的又は連続的に大きい値に設定され、一定の箇所に滞留していた時間が小さいほど、操作軌跡値OT(i,j)は断続的又は連続的に小さい値に設定されることが好ましい。
平均移動速度は、時刻t−1〜t間のタッチ操作の軌跡を示すベクトルO(i,j)−Ot−1(i,j)のノルムの平均値により求められうる。なお、所定の速度から平均移動速度を引いた値を操作軌跡値OT(i,j)とするなど、平均移動速度が低いほど、操作軌跡値OT(i,j)は断続的又は連続的に大きい値に設定され、平均移動速度が高いほど、操作軌跡値OT(i,j)は断続的又は連続的に小さい値に設定されることが好ましい。
平均加速度は、平均移動速度の変化量として求められうる。なお、所定の加速度から平均加速度を引いた値を操作軌跡値OT(i,j)とするなど、平均加速度が低いほど、操作軌跡値OT(i,j)は断続的又は連続的に大きい値に設定され、平均加速度が高いほど、操作軌跡値OT(i,j)は断続的又は連続的に小さい値に設定されることが好ましい。
潜在意識推定部113は、操作情報126のうち、経過時間カラム1266の値を経過時間ET(i,j)として認識する(図7/STEP580)。
潜在意識推定部113は、操作情報126のうち、経過時間ET(i,j)と操作軌跡値OT(i,j)とに基づいて、下記式(3)を用いて、分類評価基礎値V(i,j)を算出する(図7/STEP600)。
fは、経過時間ET(i,j)及び操作軌跡値OT(i,j)の一方又は両方が増加するほど断続的又は連続的に増加する関数である。
例えば、fは、次の式(4)で表される。
例えば、操作軌跡値OT(i,j)が対象画像と分類先画像とを結ぶ直線からのかい離度ρ(i,j)である場合には、分類評価基礎値V(i,j)は次の式(5)で表される。
潜在意識推定部113は、各処理ごとに、下記式(6)により、分類評価基礎値Vc(i,j)の平均値Vc_avg(i)を算出する(図7/STEP620)。ここで、分類評価基礎値Vc(i,j)は、正誤カラム1267の値が「正」であるフィールドの分類評価基礎値である。
また、Jc(i)は、各処理iに含まれる正誤カラム1267の値が「正」であるフィールドの個数である。
潜在意識推定部113は、第2画像分類訓練処理の分類評価基礎値の平均値Vc_avg(i)(i=1,2,5)を基に、画像分類テスト処理の分類評価基礎値V(i,j)(i=3,4,6,7)を補正し、補正後の分類評価基礎値Vamended(i,j)(i=3,4,6,7)を算出する(図7/STEP640)。
より具体的には、潜在意識推定部113は、下記式(7)及び(8)により、それぞれの画像分類テスト処理に対応する第2画像分類訓練処理の分類評価基礎値の平均値Vc(i)(i=1,2,5)を用いて、画像分類テスト処理の分類評価基礎値Vc(i,j)(i=3,4,6,7)を補正する。
ここで、Jc(1)は、第1画像分類訓練で正誤カラム1267の値が「正」であるフィールドの個数であり、Jc(2)は、第1回目の第2画像分類訓練で正誤カラム1267の値が「正」であるフィールドの個数であり、Jc(5)は、第2回目の第2画像分類訓練で正誤カラム1267の値が「正」であるフィールドの個数である。Jc(1)に代えて、対象の画像分類テスト処理(i=3,4,6,7)において、対象画像(第1種概念)が表示された回数、Jc(2)に代えて、対象の画像分類テスト処理(i=3,4)において、対象画像(第2種概念)が表示された回数、Jc(5)に代えて、対象の画像分類テスト処理(i=6,7)において、対象画像(第2種概念)が表示された回数等、割合を適切に調節するための係数が用いられてもよい。
なお、Vamended(i,j)が本発明の「第1操作軌跡と所定の操作軌跡とのかい離度」に相当する。
また、潜在意識推定部113は、下記式(9)及び(10)により、それぞれの画像分類テスト処理に対応する第2画像分類訓練処理の分類評価基礎値の平均値Vc(i)(i=2,5)を用いて、画像分類テスト処理の分類評価基礎値Vuc(i,j)(i=3,4,6,7)を補正する。ここでVuc(i,j)は、正誤カラム1267の値が「誤」であるフィールドの分類評価基礎値である。また、Penaltyは正の所定値である。
潜在意識推定部113は、各画像分類テスト処理ごとに、下記式(11)により補正後の分類評価基礎値Vamended(i,j)の平均値Vam_avg(i)を算出する(図7/STEP660)。ここでJ(i)は、各画像分類テスト処理ごとの分類の回数である。
潜在意識推定部113は、分類評価基礎値の平均値Vam_avg(i)に基づいて、スコアscoreを算出する(図7/STEP680)。
例えば、潜在意識推定部113は、下記式(12)により、スコアscoreを算出する。
潜在意識推定部113は、算出したスコアscoreに基づいて、被験者Sの第1種概念のそれぞれと第2種概念のそれぞれとの結びつきの強さを推定する(図7/STEP700)。
たとえば、スコアscoreが0又は0に近い値である場合(scoreの絶対値が所定の値以下である場合)には、潜在意識推定部113は、被験者Sの第1種概念のそれぞれと第2種概念のそれぞれとの結びつきの強さを、特別な結びつきを感じていないことを示す段階的又は連続的な値(例えば4〜6)を推定結果として決定する。
また、scoreが、スコアscoreの絶対値が所定の値以上のマイナスである場合には、潜在意識推定部113は、被験者の第1種概念のそれぞれと第2種概念のそれぞれとの結びつきの強さについて、第1回目の画像分類テスト処理における第1種概念のそれぞれと第2種概念のそれぞれとの組合せの結びつきが強いことを示す段階的又は連続的な値(例えば7〜9の値)を推定結果として決定する。
より具体的には、図3Cに示される第1種概念のそれぞれと第2種概念のそれぞれとの組合せが第1回目の画像分類処理として実施され、スコアscoreがマイナスである場合、潜在意識推定部113は、第1種概念「自分」と第2種概念「外向的」との結びつき、及び第1種概念「他人」と第2種概念「内向的」との結びつきが強いことを示す値を推定結果として決定する。
スコアscoreが、スコアscoreの絶対値が所定の値以上のプラスである場合には、潜在意識推定部113は、被験者の第1種概念のそれぞれと第2種概念のそれぞれとの結びつきの強さについて、第2回目の画像分類テスト処理における第1種概念のそれぞれと第2種概念のそれぞれとの組合せの結びつきが強いことを示す段階的又は連続的な値(例えば1〜3の値)を推定結果として決定する。
より具体的には、図3Eに示される第1種概念のそれぞれと第2種概念のそれぞれとの組合せが第2回目の画像分類処理として実施され、スコアscoreがプラスである場合、潜在意識推定部113は、第1種概念「自分」と第2種概念「内向的」との結びつき、及び第1種概念「他人」と第2種概念「外向的」との結びつきが強いことを示す値を推定結果として決定する。
補足すると、分類評価基礎値の補正値Vamended(i,j)(本発明の「第1操作軌跡と所定の操作軌跡とのかい離度」に相当する。)が小さいほど、分類評価基礎値の平均値Vam_avg(i)も小さくなる。そして、i=3又は4である場合(第1回目の画像分類テスト処理において分類評価基礎値の補正値Vamended(i,j)が小さい場合)には、スコアscoreも小さくなる。この場合、第1回目の画像分類テスト処理においてクライアント画像表示部13(本発明の「画像表示部」に相当する。)に表示された第1種概念のそれぞれと第2種概念のそれぞれの組合せの結びつきが強いという潜在意識を被験者Sが持っていると推定する。
また、分類評価基礎値の補正値Vamended(i,j)が小さいほど、分類評価基礎値の平均値Vam_avg(i)も小さくなる。そして、i=6又は7である場合、すなわち、第2回目の画像分類テスト処理において分類評価基礎値の補正値Vamended(i,j)が小さい場合、スコアscoreは大きくなる。この場合、第2回目の画像分類テスト処理においてクライアント画像表示部13に表示された第1種概念のそれぞれと第2種概念のそれぞれとの組合せの結びつきが強いという潜在意識を被験者Sが持っていると推定する。
なお、本発明において、「被験者のタッチ操作に基づいて、第1種概念と第2種概念との結びつきに関する被験者の潜在意識を推定する」とは、経過時間ET(i,j)又は操作軌跡OT(i,j)等の被験者のタッチ操作時に取得される情報に基づいて第1種概念と第2種概念との結びつきに関する被験者Sの潜在意識を推定することを意味する。
また、本発明において、「被験者の操作軌跡に基づいて、第1種概念と第2種概念との結びつきに関する被験者の潜在意識を推定する」とは、操作軌跡OT(i,j)に基づいて第1種概念と第2種概念との結びつきに関する被験者Sの潜在意識を推定することを意味する。
(本実施形態の作用効果)
次に、図3及び図5を参照しながら、本実施形態の作用効果について説明する。
図3Aに示される第1画像分類訓練処理又は図3B又は図3Dに示される第2画像分類訓練処理においては、分類先画像に含まれる文字等に示される概念が一つであるので、被験者Sは、さほど迷わずに分類先画像を選択できると考えられる。
他方、図3C又は図3Eに示される第1又は第2画像分類テスト処理においては、分類先画像に含まれる文字等に示される概念が複数であるので、被験者Sは、表示されている概念の組合せが被験者Sの潜在意識からかい離していない場合には迷わずに回答できる一方、表示されている概念の組合せが被験者Sの潜在意識からかい離している場合には分類先画像の選択に当たり、迷う蓋然性が高い。
そして、被験者Sが迷った場合、その迷いが被験者Sの操作軌跡に反映されると考えられる。
より具体的には、例えば、迷いが少ない場合には、タッチ操作O1t(t=0.1,…,x1)が、一定の軌跡、例えば、図5Aに示されるようにほぼ直線状となる蓋然性が高い。
また、複数の概念を示す文字等の組合せが分類先画像に含まれている場合でも、その組合せが被験者Sの潜在意識に沿っている場合には、タッチ操作O3t(t=0.1,…,x3)が一定の軌跡、例えば、図5Bに示されるように、ほぼ直線状となる蓋然性が高い。
他方、その組合せが被験者Sの潜在意識に沿っていない場合には、分類先画像の選択に当たり、被験者Sに迷いが生じ、図5Bに示されるように、タッチ操作O4t(t=0.1,…,x4)が一定の軌跡からかい離する蓋然性が高い。
このように、操作軌跡は、第1種概念のそれぞれ及び第2種概念のそれぞれの結びつきに関する被験者Sの潜在意識を推定する上で、有用な情報となる。
この点に着目して構成された本実施形態の潜在意識推定システムによれば、操作情報126に含まれる操作軌跡カラム1265の値を用いて第1種概念のそれぞれ及び第2種概念のそれぞれの結びつきに関する被験者Sの潜在意識を推定している(図7/STEP520、図7/STEP600、図7/STEP680及び図7/STEP700)。これにより、第1種概念のそれぞれ及び第2種概念のそれぞれの結びつきに関する被験者Sの潜在意識が高精度で推定される。
また、操作軌跡は、迷いだけではなく、被験者Sの癖及び被験者Sの被験時の姿勢などによっても変わりうる。
例えば、迷いがない場合であっても、例えば、図5Aに示されるように、被験者Sが直線からかい離したようなタッチ操作O2t(t=0.1,…,x2)を行う可能性もある。
このような場合、図5Bのタッチ操作O4t(t=0.1,…,x4)に示されるように、直線からかい離したような操作軌跡であったとしても、必ずしも被験者Sが迷っていることを意味しない。
このような点に着目して構成された本実施形態の潜在意識推定システムによれば、第1及び第2画像分類訓練処理における操作情報126に含まれる操作軌跡カラム1265の値を用いて、各画像分類テスト処理における分類評価基礎値V(i,j)を補正している(図7/STEP640)。
この結果、第1種概念のそれぞれ及び第2種概念のそれぞれの結びつきに関する被験者Sの潜在意識が高精度で推定される。
また、操作軌跡が一定の軌跡(直線状など)に近い場合であっても、選択された分類先画像が誤っている場合には、被験者Sが、表示されている分類先画像に含まれる文字等に示される第1種概念のそれぞれ及び第2種概念のそれぞれの組合せの結びつきが弱いという潜在意識を持っている蓋然性が高い。
より具体的には、図5Cに示されるように、「自分」−「外向的」画像1211と、「他人」−「内向的」画像1212と、「控えめな」画像1251とが表示されていた場合において、被験者Sが、タッチ操作O7t(t=0.1,…,x7)に示されるような一定の軌跡で「自分」−「外向的」画像1211を選択した場合について検討する。
「控えめな」画像1251は、第2種概念「内向的」に対応する対象画像であるから、被験者Sの選択は誤りである。このような場合、一定の軌跡で選択されたとしても、表示されている「自分」−「外向的」画像1211に含まれる文字等に対応する第1種概念「自分」と第2種概念「外向的」との結びつきが強いわけではなく、むしろ、第1種概念「自分」と第2種概念「内向的」との結びつきが強いと推定される。
このような点に着目して構成された本実施形態の潜在意識推定システムによれば、正誤カラム1267の値に応じて、各画像分類テスト処理における分類評価基礎値V(i,j)の補正態様を変更している(図7/STEP640)。
この結果、第1種概念のそれぞれ及び第2種概念のそれぞれの結びつきに関する被験者Sの潜在意識が高精度で推定される。
また、操作軌跡が一定の軌跡(直線状など)に近い場合であっても、図5Dに示されるように、それが再選択を求められた後である場合には、その操作軌跡には、第1種概念のそれぞれ及び第2種概念のそれぞれの結びつきに関する被験者Sの潜在意識が反映されにくいと考えられる。
この点に鑑みて構成された本実施形態の潜在意識推定システムによれば、再選択を求める画像の表示前までの操作軌跡を記憶し(図4/STEP380)、その操作軌跡に基づいて被験者Sの潜在意識を推定する。これにより、第1種概念のそれぞれ及び第2種概念のそれぞれの結びつきに関する被験者Sの潜在意識が高精度で推定される。
(変形態様)
本実施形態の潜在意識推定システムでは、クライアント制御部11が画像表示制御部111、操作軌跡認識部112及び潜在意識推定部113として機能したが、サーバ制御部21が、画像表示制御部111、操作軌跡認識部112及び潜在意識推定部113の一部または全部として機能し、クライアント1が適宜、潜在意識情報管理サーバ2と通信することにより、潜在意識推定処理を実施してもよい。
本実施形態の潜在意識推定システムでは、第1及び第2画像分類訓練処理における操作情報126に含まれる操作軌跡カラム1265の値を用いて、各画像分類テスト処理における分類評価基礎値V(i,j)を補正したが、これに限られず、例えば、第2画像分類訓練処理における操作情報126に含まれる操作軌跡カラム1265の値を用いて、各画像分類テスト処理における分類評価基礎値V(i,j)を補正してもよいし、第1画像分類訓練処理における操作情報126に含まれる操作軌跡カラム1265の値を用いて、各画像分類テスト処理における分類評価基礎値V(i,j)を補正してもよい。
また、図7/STEP620及び図7/STEP640の処理を省略してもよい。
本実施形態では、式(12)によりスコアscoreを算出したが、これに代えて、例えば、特許文献1に示されるように、第1画像分類テスト処理における分類評価基礎値V(i,j)の分散σ1と第2画像分類テスト処理における分類評価基礎値V(i,j)の分散σ2とを用いて、下記式(13)によりスコアscoreを算出してもよい。
本実施形態では、操作軌跡カラム1265の値と経過時間カラム1266の値とを用いて分類評価基礎値V(i,j)を算出したが、経過時間カラム1266の値を用いずに、操作軌跡カラム1265の値を用いて分類評価基礎値V(i,j)を算出してもよい。
本実施形態では、正誤カラム1267の値が「誤」であるフィールドも含めてスコアscoreを算出したが、正誤カラム1267の値が「正」であるフィールドのみでスコアscoreを算出してもよい。
本実施形態の潜在意識推定システムでは、経過時間ET(i,j)及び操作軌跡OT(i,j)を用いて分類評価基礎値V(i,j)を算出したが、これに代えて、経過時間ET(i,j)を分類評価基礎値V(i,j)としてもよいし、操作軌跡値OT(i,j)を分類評価基礎値V(i,j)としてもよいし、経過時間ET(i,j)及び操作軌跡値OT(i,j)の一方又は両方と他の値を用いて分類評価基礎値V(i,j)を算出してもよい。
本実施形態の潜在意識推定システムでは、第1画像分類訓練処理及び第2画像分類訓練処理の一方又は両方が省略されてもよい。また、第2画像分類テスト処理が省略されてもよいし、さらにテスト処理が追加されてもよい。
また、各画像分類訓練処理及び各画像分類テスト処理で同一回数の分類が行われたが、これに代えて、例えばテスト処理の方が回数が多くされるなど、各処理ごとに分類回数が変更されてもよい。
13‥クライアント画像表示部、14‥クライアント操作検知部、111‥画像表示制御部、112‥操作軌跡認識部、113‥潜在意識推定部、1211‥第1分類先画像,1212‥第1分類先画像、1213‥第1分類先画像、1214‥第1分類先画像、1241‥第1対象画像、1251‥第1対象画像、S‥被験者、O‥タッチ操作。

Claims (10)

  1. 画像を表示する画像表示部と、
    前記画像表示部と一体に構成され、被験者のタッチ操作を検知可能な操作検知部と、
    K個(KはK≧2の整数。)の第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと、前記第1種概念のそれぞれと互いに異なるL個(LはL≧2の整数。)の第2種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つとの組合せを含む静止画又は動画であるM個(MはM≧2かつM≦KかつM≦Lの整数。)の第1分類先画像と、前記K個の第1種概念及び前記L個の第2種概念のうちのいずれか一つに対応する文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む静止画又は動画である第1対象画像とを前記画像表示部に表示させた後、少なくとも前記第1対象画像に対する前記被験者のタッチ操作と前記第1分類先画像のうちのいずれか一つに対する前記被験者のタッチ操作の両方が行われたことを前記操作検知部を介して検知するまで、前記第1対象画像を前記画像表示部に表示させ続ける分類処理部と、
    前記分類処理部によって検知された前記被験者のタッチ操作に基づいて、前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定する潜在意識推定部とを備えることを特徴とする潜在意識推定システム。
  2. 請求項1記載の潜在意識推定システムにおいて、
    前記分類処理部は、前記画像表示部の表示画面を当該表示画面の上側、当該表示画面の中央及び当該表示画面の下側に3等分した場合に、前記M個の第1分類先画像の中心位置のいずれもが前記上側に含まれ、前記第1対象画像の中心位置が前記下側に含まれるように、前記M個の第1分類先画像及び前記第1対象画像を前記画像表示部に表示させることを特徴とする潜在意識推定システム。
  3. 請求項1記載の潜在意識推定システムにおいて、
    前記分類処理部は、前記第1対象画像に対するタッチ操作と前記第1分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作の軌跡である第1操作軌跡を前記操作検知部を介して認識するように構成され、
    前記潜在意識推定部は、前記第1操作軌跡に基づいて前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定するように構成されていることを特徴とする潜在意識推定システム。
  4. 請求項3記載の潜在意識推定システムにおいて、
    前記潜在意識推定部は、当該第1操作軌跡と所定の操作軌跡とのかい離度を評価して、当該かい離度が小さいほど、前記画像表示部に表示されている前記第1種概念と前記第2種概念との組合せの結びつきが段階的又は連続的に強いと前記被験者の潜在意識を推定するように構成されていることを特徴とする潜在意識推定システム。
  5. 請求項4記載の潜在意識推定システムにおいて、
    前記分類処理部は、前記第1種概念及び前記第2種概念の一方の概念をそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む静止画又は動画であるM個の第2分類先画像と、前記M個の第2分類先画像に示される概念のうちのいずれか一つに対応する文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む第2対象画像とを前記画像表示部に表示させ、前記第2対象画像に対するタッチ操作と前記第2分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作の軌跡である第2操作軌跡を前記操作検知部を介して認識するように構成され、
    前記潜在意識推定部は、当該第2操作軌跡に基づいて、前記所定の操作軌跡を定めることを特徴とする潜在意識推定システム。
  6. 請求項5記載の潜在意識推定システムにおいて、
    前記第2分類先画像は、前記第1分類先画像に含まれる前記第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つ又は前記第2種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと同一の文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含み、
    前記第2対象画像は、前記第1対象画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと同一の文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含むことを特徴とする潜在意識推定システム。
  7. 請求項1記載の潜在意識推定システムにおいて、
    前記潜在意識推定部は、タッチされた第1分類先画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つが示す第1種概念及び第2種概念のいずれもが、前記第1対象画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つに対応付けられた第1種概念又は第2種概念と異なる場合、前記第1対象画像に対するタッチ操作と前記タッチされた第1分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作に基づいて、前記第1分類先画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つに対応付けられた第1種概念と第2種概念との結びつきが弱いと前記被験者の潜在意識を推定するように構成されていることを特徴とする潜在意識推定システム。
  8. 請求項1記載の潜在意識推定システムにおいて、
    前記分類処理部は、タッチされた第1分類先画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つが示す第1種概念及び第2種概念のいずれもが、前記第1対象画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つに対応付けられた第1種概念又は第2種概念と異なる場合、同一の第1対象画像に対し、前記第1分類先画像の再選択を求める画像を前記画像表示部に表示させ、
    前記潜在意識推定部は、前記分類処理部によって検知された、前記再選択を求める画像の表示前までの前記被験者のタッチ操作に基づいて、前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定するように構成されていることを特徴とする潜在意識推定システム。
  9. 画像を表示する画像表示部と、
    前記画像表示部と一体に構成され、被験者のタッチ操作を検知可能な操作検知部とを備えるシステムが実行する方法であって、
    K個(KはK≧2の整数。)の第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと、前記第1種概念のそれぞれと互いに異なるL個(LはL≧2の整数。)の第2種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つとの組合せを含む静止画又は動画であるM個(MはM≧2かつM≦KかつM≦Lの整数。)の第1分類先画像とを表示する第1分類先画像表示ステップと、
    前記K個の第1種概念及び前記L個の第2種概念のうちのいずれか一つに対応する文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む静止画又は動画である第1対象画像とを前記画像表示部に表示させる第1対象画像表示ステップと、
    少なくとも前記第1対象画像に対する前記被験者のタッチ操作と前記第1分類先画像のうちのいずれか一つに対する前記被験者のタッチ操作の両方が行われたことを前記操作検知部を介して検知するまで、前記第1対象画像を前記画像表示部に表示させ続ける分類処理ステップと、
    前記分類処理ステップによって検知された前記被験者のタッチ操作に基づいて、前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定する潜在意識推定ステップとを含むことを特徴とする潜在意識推定方法。
  10. 画像を表示する画像表示部と、
    前記画像表示部と一体に構成され、被験者のタッチ操作を検知可能な操作検知部とを備えるコンピュータを、
    K個(KはK≧2の整数。)の第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと、前記第1種概念のそれぞれと互いに異なるL個(LはL≧2の整数。)の第2種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つとの組合せを含む静止画又は動画であるM個(MはM≧2かつM≦KかつM≦Lの整数。)の第1分類先画像と、前記K個の第1種概念及び前記L個の第2種概念のうちのいずれか一つに対応する文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む静止画又は動画である第1対象画像とを前記画像表示部に表示させた後、少なくとも前記第1対象画像に対する前記被験者のタッチ操作と前記第1分類先画像のうちのいずれか一つに対する前記被験者のタッチ操作の両方が行われたことを前記操作検知部を介して検知するまで、前記第1対象画像を前記画像表示部に表示させ続ける分類処理部と、
    前記分類処理部によって検知された前記被験者のタッチ操作に基づいて、前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定する潜在意識推定部として機能させることを特徴とする潜在意識推定プログラム。
JP2016540716A 2016-03-11 2016-03-11 潜在意識推定システム、潜在意識推定方法及び潜在意識推定プログラム Active JP6161097B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/057833 WO2017154215A1 (ja) 2016-03-11 2016-03-11 潜在意識推定システム、潜在意識推定方法及び潜在意識推定プログラム

Publications (2)

Publication Number Publication Date
JP6161097B1 true JP6161097B1 (ja) 2017-07-12
JPWO2017154215A1 JPWO2017154215A1 (ja) 2018-03-15

Family

ID=59308864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016540716A Active JP6161097B1 (ja) 2016-03-11 2016-03-11 潜在意識推定システム、潜在意識推定方法及び潜在意識推定プログラム

Country Status (3)

Country Link
US (1) US20200005167A1 (ja)
JP (1) JP6161097B1 (ja)
WO (1) WO2017154215A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020008644A (ja) * 2018-07-04 2020-01-16 株式会社チェンジウェーブ eラーニングシステム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08171473A (ja) * 1994-12-20 1996-07-02 Hitachi Ltd 表示装置、および、その画像データの分類表示方法
JP2004164412A (ja) * 2002-11-14 2004-06-10 Casio Comput Co Ltd 情報処理装置、及び情報処理方法、並びにプログラム
US8696360B2 (en) * 2008-04-30 2014-04-15 University of Washington Center for Commercialization Method and system for developing and administering subject-appropriate implicit-association tests

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030152904A1 (en) * 2001-11-30 2003-08-14 Doty Thomas R. Network based educational system
US20090275006A1 (en) * 2008-04-30 2009-11-05 Dario Cvencek Method and system for developing and administering subject-appropriate implicit tests of association
US10383553B1 (en) * 2014-10-14 2019-08-20 The Cognitive Healthcare Company Data collection and analysis for self-administered cognitive tests characterizing fine motor functions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08171473A (ja) * 1994-12-20 1996-07-02 Hitachi Ltd 表示装置、および、その画像データの分類表示方法
JP2004164412A (ja) * 2002-11-14 2004-06-10 Casio Comput Co Ltd 情報処理装置、及び情報処理方法、並びにプログラム
US8696360B2 (en) * 2008-04-30 2014-04-15 University of Washington Center for Commercialization Method and system for developing and administering subject-appropriate implicit-association tests

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DARIO CVENCEK ET AL.: "Implicit measures for preschool children confirm self-esteem's role in maintaining a balanced identi", JOURNAL OF EXPERIMENTAL SOCIAL PSYCHOLOGY, JPN6016017196, 2015, pages pp. 50-57 *
森尾博昭: "潜在的連合テスト(Implicit Association Test)の可能性", 教育テスト研究センター 第4回研究会報告書, JPN6016017195, 2007, pages pp. 1-14 *
西田豊明 他2名, 知の科学 社会知デザイン, vol. 第1版, JPN6016017193, 10 June 2009 (2009-06-10), pages pp. 112-114 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020008644A (ja) * 2018-07-04 2020-01-16 株式会社チェンジウェーブ eラーニングシステム

Also Published As

Publication number Publication date
US20200005167A1 (en) 2020-01-02
WO2017154215A1 (ja) 2017-09-14
JPWO2017154215A1 (ja) 2018-03-15

Similar Documents

Publication Publication Date Title
JP6946081B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6490430B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP5863423B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20190084567A (ko) 음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법
CN105404629B (zh) 确定地图界面的方法和装置
US20170132821A1 (en) Caption generation for visual media
US20180192935A1 (en) Portable device and physical strength evaluation method thereof
KR102209741B1 (ko) 음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법
JP7329825B2 (ja) 情報提供システム、情報提供方法、プログラム
JP6561639B2 (ja) 関心度判定装置、関心度判定方法および関心度判定プログラム
JP6109288B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20240031782A1 (en) Non-textual communication and user states management
JP6161097B1 (ja) 潜在意識推定システム、潜在意識推定方法及び潜在意識推定プログラム
JP2015015031A (ja) 広告効果測定サーバ、広告効果測定システム、プログラム
JP2020107084A (ja) 服装提案装置、服装提案方法、およびプログラム
JP2016174893A (ja) 制御装置
JP2020016696A (ja) 情報提供プログラム
CN109147911A (zh) 病症信息显示方法及装置、计算机可读存储介质
US20180098729A1 (en) Body composition measuring device and mobile terminal wirelessly connected to the same
JP2019133530A (ja) 情報処理装置
US10701999B1 (en) Accurate size selection
KR20220058863A (ko) 원단 색상 측정 장치
JP6449504B1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2021069773A (ja) 危険度判定装置、危険度判定システム、危険度判定方法及びコンピュータプログラム
KR101845301B1 (ko) 사용자 단말에 의해 수집된 사용자 정보를 아바타를 통해 제공하는 방법, 서버 및 컴퓨터 판독가능 기록매체

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170607

R150 Certificate of patent or registration of utility model

Ref document number: 6161097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350