JP6161097B1 - 潜在意識推定システム、潜在意識推定方法及び潜在意識推定プログラム - Google Patents
潜在意識推定システム、潜在意識推定方法及び潜在意識推定プログラム Download PDFInfo
- Publication number
- JP6161097B1 JP6161097B1 JP2016540716A JP2016540716A JP6161097B1 JP 6161097 B1 JP6161097 B1 JP 6161097B1 JP 2016540716 A JP2016540716 A JP 2016540716A JP 2016540716 A JP2016540716 A JP 2016540716A JP 6161097 B1 JP6161097 B1 JP 6161097B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- classification
- type
- concept
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/167—Personality evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
Abstract
Description
画像を表示する画像表示部と、
前記画像表示部と一体に構成され、被験者のタッチ操作を検知可能な操作検知部と、
K個(KはK≧2の整数。)の第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと、前記第1種概念のそれぞれと互いに異なるL個(LはL≧2の整数。)の第2種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つとの組合せを含む静止画又は動画であるM個(MはM≧2かつM≦KかつM≦Lの整数。)の第1分類先画像と、前記K個の第1種概念及び前記L個の第2種概念のうちのいずれか一つに対応する文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む静止画又は動画である第1対象画像とを前記画像表示部に表示させた後、少なくとも前記第1対象画像に対する前記被験者のタッチ操作と前記第1分類先画像のうちのいずれか一つに対する前記被験者のタッチ操作の両方が行われたことを前記操作検知部を介して検知するまで、前記第1対象画像を前記画像表示部に表示させ続ける分類処理部と、
前記分類処理部によって検知された前記被験者のタッチ操作に基づいて、前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定する潜在意識推定部とを備えることを特徴とする。
前記分類処理部は、前記画像表示部の表示画面を当該表示画面の上側、当該表示画面の中央及び当該表示画面の下側に3等分した場合に、前記M個の第1分類先画像の中心位置のいずれもが前記上側に含まれ、前記第1対象画像の中心位置が前記下側に含まれるように、前記M個の第1分類先画像及び前記第1対象画像を前記画像表示部に表示させることが好ましい。
前記分類処理部は、前記第1対象画像に対するタッチ操作と前記第1分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作の軌跡である第1操作軌跡を前記操作検知部を介して認識するように構成され、
前記潜在意識推定部は、前記第1操作軌跡に基づいて前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定するように構成されていることが好ましい。
前記潜在意識推定部は、当該第1操作軌跡と所定の操作軌跡とのかい離度を評価して、当該かい離度が小さいほど、前記画像表示部に表示されている前記第1種概念と前記第2種概念との組合せの結びつきが段階的又は連続的に強いと前記被験者の潜在意識を推定するように構成されていることが好ましい。
前記分類処理部は、前記第1種概念及び前記第2種概念の一方の概念をそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む静止画又は動画であるM個の第2分類先画像と、前記M個の第2分類先画像に示される概念のうちのいずれか一つに対応する文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む第2対象画像とを前記画像表示部に表示させ、前記第2対象画像に対するタッチ操作と前記第2分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作の軌跡である第2操作軌跡を前記操作検知部を介して認識するように構成され、
前記潜在意識推定部は、当該第2操作軌跡に基づいて、前記所定の操作軌跡を定めることが好ましい。
前記第2分類先画像は、前記第1分類先画像に含まれる前記第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つ又は前記第2種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと同一の文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含み、
前記第2対象画像は、前記第1対象画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと同一の文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含むことが好ましい。
前記潜在意識推定部は、タッチされた第1分類先画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つが示す第1種概念及び第2種概念のいずれもが、前記第1対象画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つに対応付けられた第1種概念又は第2種概念と異なる場合、前記第1対象画像に対するタッチ操作と前記タッチされた第1分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作に基づいて、前記第1分類先画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つに対応付けられた第1種概念と第2種概念との結びつきが弱いと前記被験者の潜在意識を推定するように構成されていることが好ましい。
前記分類処理部は、タッチされた第1分類先画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つが示す第1種概念及び第2種概念のいずれもが、前記第1対象画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つに対応付けられた第1種概念又は第2種概念と異なる場合、同一の第1対象画像に対し、前記第1分類先画像の再選択を求める画像を前記画像表示部に表示させ、
前記潜在意識推定部は、前記分類処理部によって検知された、前記再選択を求める画像の表示前までの前記被験者のタッチ操作に基づいて、前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定するように構成されていることが好ましい。
潜在意識推定システムは、被験者Sの潜在意識におけるある概念(「自分」、「他人」などの概念)とこの概念と異なる他の概念(例えば「外向的」「内向的」などの概念)との結びつきの強さを推定するシステムである。このシステムによって生成された情報は、例えば、求職者が相性の良い企業を探すための基礎情報又は企業が求職者を選考するための情報として用いられる。
クライアント1は、クライアント制御部11と、クライアント記憶部12と、クライアント画像表示部13と、クライアント操作検知部14と、クライアント通信部15とを備える。なお、「クライアント画像表示部13」が本発明の「画像表示部」に相当し、「クライアント操作検知部14」が本発明の「操作検知部」に相当する。
クライアント画像表示部13は液晶パネルのような表示装置により構成され、クライアント操作検知部14はタッチパッドのような位置入力装置により構成され、これらが組み合わせられてタッチパネルが構成されている。
潜在意識情報管理サーバ2は、サーバ制御部21と、サーバ記憶部22と、サーバ通信部25とを備えている。なお、潜在意識情報管理サーバ2を構成するコンピュータの一部または全部が、クライアント1を構成するコンピュータにより構成されていてもよい。たとえば、移動局としての一または複数のクライアント1により、潜在意識情報管理サーバ2の一部または全部が構成されていてもよい。
図2〜図3を参照して、潜在意識推定処理の概略の流れを説明する。
次に図3〜図5を参照して、図2/STEP040及び図2/STEP060の第1及び第2画像分類訓練処理並びに図2/STEP080及び図2/STEP100の第1及び第2画像分類テスト処理を説明する。これらの処理は、上記したように、クライアント画像表示部13に表示される画像が異なる点以外は同一の処理である。
図5〜図7を参照して、図2/STEP180の潜在意識推定処理について説明する。
次に、図3及び図5を参照しながら、本実施形態の作用効果について説明する。
本実施形態の潜在意識推定システムでは、クライアント制御部11が画像表示制御部111、操作軌跡認識部112及び潜在意識推定部113として機能したが、サーバ制御部21が、画像表示制御部111、操作軌跡認識部112及び潜在意識推定部113の一部または全部として機能し、クライアント1が適宜、潜在意識情報管理サーバ2と通信することにより、潜在意識推定処理を実施してもよい。
Claims (10)
- 画像を表示する画像表示部と、
前記画像表示部と一体に構成され、被験者のタッチ操作を検知可能な操作検知部と、
K個(KはK≧2の整数。)の第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと、前記第1種概念のそれぞれと互いに異なるL個(LはL≧2の整数。)の第2種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つとの組合せを含む静止画又は動画であるM個(MはM≧2かつM≦KかつM≦Lの整数。)の第1分類先画像と、前記K個の第1種概念及び前記L個の第2種概念のうちのいずれか一つに対応する文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む静止画又は動画である第1対象画像とを前記画像表示部に表示させた後、少なくとも前記第1対象画像に対する前記被験者のタッチ操作と前記第1分類先画像のうちのいずれか一つに対する前記被験者のタッチ操作の両方が行われたことを前記操作検知部を介して検知するまで、前記第1対象画像を前記画像表示部に表示させ続ける分類処理部と、
前記分類処理部によって検知された前記被験者のタッチ操作に基づいて、前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定する潜在意識推定部とを備えることを特徴とする潜在意識推定システム。 - 請求項1記載の潜在意識推定システムにおいて、
前記分類処理部は、前記画像表示部の表示画面を当該表示画面の上側、当該表示画面の中央及び当該表示画面の下側に3等分した場合に、前記M個の第1分類先画像の中心位置のいずれもが前記上側に含まれ、前記第1対象画像の中心位置が前記下側に含まれるように、前記M個の第1分類先画像及び前記第1対象画像を前記画像表示部に表示させることを特徴とする潜在意識推定システム。 - 請求項1記載の潜在意識推定システムにおいて、
前記分類処理部は、前記第1対象画像に対するタッチ操作と前記第1分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作の軌跡である第1操作軌跡を前記操作検知部を介して認識するように構成され、
前記潜在意識推定部は、前記第1操作軌跡に基づいて前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定するように構成されていることを特徴とする潜在意識推定システム。 - 請求項3記載の潜在意識推定システムにおいて、
前記潜在意識推定部は、当該第1操作軌跡と所定の操作軌跡とのかい離度を評価して、当該かい離度が小さいほど、前記画像表示部に表示されている前記第1種概念と前記第2種概念との組合せの結びつきが段階的又は連続的に強いと前記被験者の潜在意識を推定するように構成されていることを特徴とする潜在意識推定システム。 - 請求項4記載の潜在意識推定システムにおいて、
前記分類処理部は、前記第1種概念及び前記第2種概念の一方の概念をそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む静止画又は動画であるM個の第2分類先画像と、前記M個の第2分類先画像に示される概念のうちのいずれか一つに対応する文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む第2対象画像とを前記画像表示部に表示させ、前記第2対象画像に対するタッチ操作と前記第2分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作の軌跡である第2操作軌跡を前記操作検知部を介して認識するように構成され、
前記潜在意識推定部は、当該第2操作軌跡に基づいて、前記所定の操作軌跡を定めることを特徴とする潜在意識推定システム。 - 請求項5記載の潜在意識推定システムにおいて、
前記第2分類先画像は、前記第1分類先画像に含まれる前記第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つ又は前記第2種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと同一の文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含み、
前記第2対象画像は、前記第1対象画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと同一の文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含むことを特徴とする潜在意識推定システム。 - 請求項1記載の潜在意識推定システムにおいて、
前記潜在意識推定部は、タッチされた第1分類先画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つが示す第1種概念及び第2種概念のいずれもが、前記第1対象画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つに対応付けられた第1種概念又は第2種概念と異なる場合、前記第1対象画像に対するタッチ操作と前記タッチされた第1分類先画像に対するタッチ操作との両方が行われるまでの前記被験者のタッチ操作に基づいて、前記第1分類先画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つに対応付けられた第1種概念と第2種概念との結びつきが弱いと前記被験者の潜在意識を推定するように構成されていることを特徴とする潜在意識推定システム。 - 請求項1記載の潜在意識推定システムにおいて、
前記分類処理部は、タッチされた第1分類先画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つが示す第1種概念及び第2種概念のいずれもが、前記第1対象画像に含まれる文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つに対応付けられた第1種概念又は第2種概念と異なる場合、同一の第1対象画像に対し、前記第1分類先画像の再選択を求める画像を前記画像表示部に表示させ、
前記潜在意識推定部は、前記分類処理部によって検知された、前記再選択を求める画像の表示前までの前記被験者のタッチ操作に基づいて、前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定するように構成されていることを特徴とする潜在意識推定システム。 - 画像を表示する画像表示部と、
前記画像表示部と一体に構成され、被験者のタッチ操作を検知可能な操作検知部とを備えるシステムが実行する方法であって、
K個(KはK≧2の整数。)の第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと、前記第1種概念のそれぞれと互いに異なるL個(LはL≧2の整数。)の第2種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つとの組合せを含む静止画又は動画であるM個(MはM≧2かつM≦KかつM≦Lの整数。)の第1分類先画像とを表示する第1分類先画像表示ステップと、
前記K個の第1種概念及び前記L個の第2種概念のうちのいずれか一つに対応する文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む静止画又は動画である第1対象画像とを前記画像表示部に表示させる第1対象画像表示ステップと、
少なくとも前記第1対象画像に対する前記被験者のタッチ操作と前記第1分類先画像のうちのいずれか一つに対する前記被験者のタッチ操作の両方が行われたことを前記操作検知部を介して検知するまで、前記第1対象画像を前記画像表示部に表示させ続ける分類処理ステップと、
前記分類処理ステップによって検知された前記被験者のタッチ操作に基づいて、前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定する潜在意識推定ステップとを含むことを特徴とする潜在意識推定方法。 - 画像を表示する画像表示部と、
前記画像表示部と一体に構成され、被験者のタッチ操作を検知可能な操作検知部とを備えるコンピュータを、
K個(KはK≧2の整数。)の第1種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つと、前記第1種概念のそれぞれと互いに異なるL個(LはL≧2の整数。)の第2種概念のそれぞれを示す文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つとの組合せを含む静止画又は動画であるM個(MはM≧2かつM≦KかつM≦Lの整数。)の第1分類先画像と、前記K個の第1種概念及び前記L個の第2種概念のうちのいずれか一つに対応する文字、記号、数字、図形、物体像、模様、及び色彩のうち少なくとも一つを含む静止画又は動画である第1対象画像とを前記画像表示部に表示させた後、少なくとも前記第1対象画像に対する前記被験者のタッチ操作と前記第1分類先画像のうちのいずれか一つに対する前記被験者のタッチ操作の両方が行われたことを前記操作検知部を介して検知するまで、前記第1対象画像を前記画像表示部に表示させ続ける分類処理部と、
前記分類処理部によって検知された前記被験者のタッチ操作に基づいて、前記第1種概念と前記第2種概念との結びつきに関する前記被験者の潜在意識を推定する潜在意識推定部として機能させることを特徴とする潜在意識推定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/057833 WO2017154215A1 (ja) | 2016-03-11 | 2016-03-11 | 潜在意識推定システム、潜在意識推定方法及び潜在意識推定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6161097B1 true JP6161097B1 (ja) | 2017-07-12 |
JPWO2017154215A1 JPWO2017154215A1 (ja) | 2018-03-15 |
Family
ID=59308864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016540716A Active JP6161097B1 (ja) | 2016-03-11 | 2016-03-11 | 潜在意識推定システム、潜在意識推定方法及び潜在意識推定プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200005167A1 (ja) |
JP (1) | JP6161097B1 (ja) |
WO (1) | WO2017154215A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020008644A (ja) * | 2018-07-04 | 2020-01-16 | 株式会社チェンジウェーブ | eラーニングシステム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08171473A (ja) * | 1994-12-20 | 1996-07-02 | Hitachi Ltd | 表示装置、および、その画像データの分類表示方法 |
JP2004164412A (ja) * | 2002-11-14 | 2004-06-10 | Casio Comput Co Ltd | 情報処理装置、及び情報処理方法、並びにプログラム |
US8696360B2 (en) * | 2008-04-30 | 2014-04-15 | University of Washington Center for Commercialization | Method and system for developing and administering subject-appropriate implicit-association tests |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030152904A1 (en) * | 2001-11-30 | 2003-08-14 | Doty Thomas R. | Network based educational system |
US20090275006A1 (en) * | 2008-04-30 | 2009-11-05 | Dario Cvencek | Method and system for developing and administering subject-appropriate implicit tests of association |
US10383553B1 (en) * | 2014-10-14 | 2019-08-20 | The Cognitive Healthcare Company | Data collection and analysis for self-administered cognitive tests characterizing fine motor functions |
-
2016
- 2016-03-11 WO PCT/JP2016/057833 patent/WO2017154215A1/ja active Application Filing
- 2016-03-11 US US16/080,524 patent/US20200005167A1/en not_active Abandoned
- 2016-03-11 JP JP2016540716A patent/JP6161097B1/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08171473A (ja) * | 1994-12-20 | 1996-07-02 | Hitachi Ltd | 表示装置、および、その画像データの分類表示方法 |
JP2004164412A (ja) * | 2002-11-14 | 2004-06-10 | Casio Comput Co Ltd | 情報処理装置、及び情報処理方法、並びにプログラム |
US8696360B2 (en) * | 2008-04-30 | 2014-04-15 | University of Washington Center for Commercialization | Method and system for developing and administering subject-appropriate implicit-association tests |
Non-Patent Citations (3)
Title |
---|
DARIO CVENCEK ET AL.: "Implicit measures for preschool children confirm self-esteem's role in maintaining a balanced identi", JOURNAL OF EXPERIMENTAL SOCIAL PSYCHOLOGY, JPN6016017196, 2015, pages pp. 50-57 * |
森尾博昭: "潜在的連合テスト(Implicit Association Test)の可能性", 教育テスト研究センター 第4回研究会報告書, JPN6016017195, 2007, pages pp. 1-14 * |
西田豊明 他2名, 知の科学 社会知デザイン, vol. 第1版, JPN6016017193, 10 June 2009 (2009-06-10), pages pp. 112-114 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020008644A (ja) * | 2018-07-04 | 2020-01-16 | 株式会社チェンジウェーブ | eラーニングシステム |
Also Published As
Publication number | Publication date |
---|---|
US20200005167A1 (en) | 2020-01-02 |
WO2017154215A1 (ja) | 2017-09-14 |
JPWO2017154215A1 (ja) | 2018-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6946081B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP6490430B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
JP5863423B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20190084567A (ko) | 음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법 | |
CN105404629B (zh) | 确定地图界面的方法和装置 | |
US20170132821A1 (en) | Caption generation for visual media | |
US20180192935A1 (en) | Portable device and physical strength evaluation method thereof | |
KR102209741B1 (ko) | 음식과 관련된 정보를 처리하기 위한 전자 장치 및 방법 | |
JP7329825B2 (ja) | 情報提供システム、情報提供方法、プログラム | |
JP6561639B2 (ja) | 関心度判定装置、関心度判定方法および関心度判定プログラム | |
JP6109288B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20240031782A1 (en) | Non-textual communication and user states management | |
JP6161097B1 (ja) | 潜在意識推定システム、潜在意識推定方法及び潜在意識推定プログラム | |
JP2015015031A (ja) | 広告効果測定サーバ、広告効果測定システム、プログラム | |
JP2020107084A (ja) | 服装提案装置、服装提案方法、およびプログラム | |
JP2016174893A (ja) | 制御装置 | |
JP2020016696A (ja) | 情報提供プログラム | |
CN109147911A (zh) | 病症信息显示方法及装置、计算机可读存储介质 | |
US20180098729A1 (en) | Body composition measuring device and mobile terminal wirelessly connected to the same | |
JP2019133530A (ja) | 情報処理装置 | |
US10701999B1 (en) | Accurate size selection | |
KR20220058863A (ko) | 원단 색상 측정 장치 | |
JP6449504B1 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP2021069773A (ja) | 危険度判定装置、危険度判定システム、危険度判定方法及びコンピュータプログラム | |
KR101845301B1 (ko) | 사용자 단말에 의해 수집된 사용자 정보를 아바타를 통해 제공하는 방법, 서버 및 컴퓨터 판독가능 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170607 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6161097 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R154 | Certificate of patent or utility model (reissue) |
Free format text: JAPANESE INTERMEDIATE CODE: R154 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |