JP6548850B2 - 作業適性判定装置、作業適性判定方法、及び作業適性判定プログラム - Google Patents
作業適性判定装置、作業適性判定方法、及び作業適性判定プログラム Download PDFInfo
- Publication number
- JP6548850B2 JP6548850B2 JP2019502419A JP2019502419A JP6548850B2 JP 6548850 B2 JP6548850 B2 JP 6548850B2 JP 2019502419 A JP2019502419 A JP 2019502419A JP 2019502419 A JP2019502419 A JP 2019502419A JP 6548850 B2 JP6548850 B2 JP 6548850B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- perceptual
- space
- work
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 100
- 238000001514 detection method Methods 0.000 claims description 124
- 230000002093 peripheral effect Effects 0.000 claims description 80
- 238000012545 processing Methods 0.000 claims description 67
- 230000008569 process Effects 0.000 claims description 62
- 230000009471 action Effects 0.000 claims description 59
- 230000008447 perception Effects 0.000 claims description 54
- 230000005764 inhibitory process Effects 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 22
- 238000012423 maintenance Methods 0.000 claims description 6
- 230000001133 acceleration Effects 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims 2
- 238000005259 measurement Methods 0.000 description 28
- 230000000007 visual effect Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 18
- 230000006399 behavior Effects 0.000 description 13
- 230000004438 eyesight Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 12
- 230000010365 information processing Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 210000000697 sensory organ Anatomy 0.000 description 7
- 230000019771 cognition Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 210000001508 eye Anatomy 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000008825 perceptual sensitivity Effects 0.000 description 4
- 206010041349 Somnolence Diseases 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 3
- 230000002085 persistent effect Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000006735 deficit Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- 206010021403 Illusion Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 208000032140 Sleepiness Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000010255 response to auditory stimulus Effects 0.000 description 1
- 230000008786 sensory perception of smell Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000037321 sleepiness Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/015—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
- B60R21/01512—Passenger detection systems
- B60R21/01552—Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/161—Decentralised systems, e.g. inter-vehicle communication
- G08G1/163—Decentralised systems, e.g. inter-vehicle communication involving continuous checking
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
- A61B2503/22—Motor vehicles operators, e.g. drivers, pilots, captains
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
- B60W2040/0863—Inactivity or incapacity of driver due to erroneous selection or response of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0872—Driver physiology
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/22—Psychological state; Stress level or workload
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/221—Physiology, e.g. weight, heartbeat, health or special needs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/223—Posture, e.g. hand, foot, or seat position, turned or inclined
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/227—Position in the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Developmental Disabilities (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Social Psychology (AREA)
- Signal Processing (AREA)
- Ophthalmology & Optometry (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Traffic Control Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
〔行動1〕予定の作業を適切に遂行するために必要な情報を周辺環境などから収集し(すなわち、必要な情報を認知し)、
〔行動2〕収集された情報をもとに、どのような動作を起こせば作業を適切に遂行できるかを考え(すなわち、判断し)、
〔行動3〕その考えの内容(すなわち、判断の結果)に従って作業を実行に移す(すなわち、行動を制御する)、
を含む活動を繰り返すことによって、予定の作業を遂行する。したがって、ユーザが〔行動1〕〜〔行動3〕を適切に実行できる状態にあれば、ユーザが作業を適切に遂行可能であると判定することができる。
《1−1》概要
図1には、実施の形態1に係る作業適性判定装置130の構成が概略的に示される。作業適性判定装置130は、実施の形態1に係る作業適性判定方法を実施することができる装置である。また、作業適性判定方法は、作業適性判定装置又はサーバに格納されたソフトウェアとしての作業適性判定プログラムによって実行されることができる。
〈作業適性判定〉
実施の形態1に係る作業適性判定装置130は、自動車(車両)の運転を作業とする運転者としてのユーザに対する作業適性度を判定(算出)することができる装置である。作業適性判定では、
〔第1の処理〕ユーザが予定された作業を行う際に、ユーザが知覚すべき知覚対象を、ユーザが知覚することが困難な空間である知覚困難空間を検出する処理(知覚困難空間の検出動作)と、
〔第2の処理〕ユーザが知覚対象を知覚しようとするユーザ知覚動作を検出する処理(ユーザ知覚動作の検出動作)と、
〔第3の処理〕検出された知覚困難空間と検出されたユーザ知覚動作とを用いて、ユーザが予定された作業を行うのにどの程度適切であるのか(すなわち、適切さの度合い)を示す作業適性度を算出する処理(作業適性度の算出動作)と、が行われる。
運転中にユーザによって知覚され得る周辺物体である知覚対象(すなわち、知覚可能な対象物)は、多種多様であり、例えば、周辺車両、自転車、バイク、歩行者、動物などのような移動体と、路側帯、道路の白線、横断歩道、分離帯、標識、信号機などのような道路構成要素と、建物、街路樹、看板などのような固定物とを含む。ユーザは、重要と判断される知覚対象の状況を適時確認するために、断続的に視線移動を繰り返す。このとき、ユーザは、知覚対象を直接見ることで、知覚対象から必要な情報を入手する。
ユーザ知覚動作は、ユーザが、作業を実施するに当たり必要な情報を、五感を介して取得しようとするユーザの動作全般である。例えば、視覚によるユーザ知覚動作は、ユーザの目の動き、ユーザの視線(視線の向き及び動き)、ユーザの注視の位置(範囲)などを含む。また、視覚によるユーザ知覚動作は、感覚器そのものの動きから推定される有効視野の範囲、有効視野の周辺の視野である周辺視野の範囲、有効視野若しくは周辺視野の範囲の変化なども含む。聴覚によるユーザ知覚動作は、例えば、音のする方向に耳を向ける動作、耳に手を当てる動作などのような周辺の音を集音しやすい姿勢をとる動作を含む。他のユーザ知覚動作は、知覚感度を高めるための動作又は無駄な動作を抑える動作を含む。例えば、ユーザ知覚動作は、目をつぶる又は耳を塞ぐなどのような知覚感度を高めたい感覚器以外の感覚器を遮断する行動、振り向いたり体勢を変えたりすることで顔を近づける又は耳を近づけるなどのような、知覚感度を高めたい感覚器を対象に近づける行動など、マクロな動作も含む。
現実世界は3次元空間であるため、必ずしも、作業において重要な知覚すべき知覚対象(すなわち、知覚すべき対象物)が知覚できる状況にあるとは限らない。具体的には、ある物体の影に隠れてユーザから見えない位置に、知覚すべき知覚対象が存在する場合がある。例えば、知覚すべき知覚対象は、道路脇に駐車している車両の影から車道に走り出そうとしている子供などを含む。また、知覚すべき知覚対象が、物体の影に完全に隠れていない状況もある。この場合、知覚すべき知覚対象は、道路脇に駐車している車両に、頭の頂部以外の部分を隠している子供、又は、街路樹の隙間を通してのみ視認可能な自転車などを含む。このように、ユーザが、知覚すべき知覚対象を全く知覚することができない範囲(すなわち、部分的な知覚もできない範囲)又は部分的に知覚することができるが(一部分を知覚することができないない)範囲又はこれらの両方の範囲を知覚困難空間と定義する。視覚に関する知覚困難空間は、一般的に死角空間と呼ばれる空間を意味する。知覚困難空間に隠れた知覚対象の存在を予期し、適切に知覚困難空間から出現する可能性のある知覚対象に意識を向けることは、多くの作業を適切に遂行するために必要不可欠なユーザ行動である。
一般に、ユーザが知覚困難空間に存在するリスクを認知し、その知覚困難空間に潜む知覚対象を知覚しようとする場合、ユーザは、その知覚困難空間が生じる要因である知覚阻害に対抗し、現状以上に知覚するために、通常のユーザ知覚動作とは異なるユーザ知覚動作を行う。
図2には、実施の形態1に係る作業適性判定装置130のハードウェア構成が概略的に示される。図2は、車両100に組み込まれた作業適性判定装置130を示している。図2に示されるように、車両100は、周辺物体検出装置110と、ユーザ動作検出装置120と、作業適性判定装置130と、情報提示部140と、操作部150と、車両制御部160とを含む。
図2に示される周辺物体検出装置110は、車両100の周辺(例えば、進行方向の前方の近傍)に存在する物体を検出するために必要なデータを収集するための各種装置で構成されている。レーダ111は、車両周辺に電波を照射し、そのときの反射波を測定することにより、車両100の周辺に存在する物体の距離又は方向を測る。カメラ112は、車両100の周辺から照射(反射)される光を計測することにより、車両100の周辺を撮影することで映像情報を取得する。3次元(3D)スキャナ113は、車両100の周辺にレーザー光などを照射し、その反射光を測定することにより、車両100の周辺に存在する物体の距離又は方向を測る。センサ118は、車両100の周辺に存在する物体から発信される各種信号を検出するための各種センサである。センサ118は、例えば、音を収集するためのマイク、接触状態を計測するための接触センサ、周辺の温度データを収集するための温度センサ、及び赤外線サーモグラフィなどを含むことができる。
図3は、周辺物体検出装置110によって収集されたデータの一例を示す図である。図3の例は、カメラ112が、ある時点において車両100から前方を撮影することで取得された静止画を単純化したものである。図3の静止画は、道路401と、道路上に描かれている白線402と、歩道の段差403と、歩道408と、前方車両404と、歩行者405と、建築物406,407とを含んでいる。静止画中に、写っている物体の抽出処理を行うために、通信装置114からサーバ171にこの静止画を転送し、サーバ171が持つ画像認識処理を行い、通信装置114が認識結果を受け取ってもよい。また、他の方法として、作業適性判定装置130の情報処理装置181で、静止画から物体を抽出するための画像認識処理を行ってもよい。また、GPS115から得られる位置データと、地図データ117とを用いて、周辺に存在する施設データなどとマッチングをとることで、建築物406,407などを判定する方法を採用してもよい。なお、カメラ112で得られるデータは、静止画データに限定されず、動画データであってもよい。
図2に示されるユーザ動作検出装置120は、車両100内のユーザの動作を検出するために必要なデータを収集するための各種装置で構成される。ユーザ動作検出装置120は、例えば、ユーザカメラ121とユーザセンサ122とを含む。ユーザカメラ121は、ユーザ動作を検出するために、ユーザを撮影して、ユーザの映像データを取得する。ユーザの映像データを解析することによって、ユーザの体動などが検出可能となる。また、ユーザセンサ122は、カメラ以外のユーザ動作を検出するために用いる各種センサである。ユーザセンサ122を用いることで、ユーザカメラ121では得られないデータを入手することが可能であり、より詳細で正確なユーザ動作を検出することができる。例えば、ユーザセンサ122として視線検出センサを用いることで、ユーザの視線、ユーザが注視する方向、を検出可能である。また、ユーザセンサ122として着座している座席面に面圧センサを備えることで、ユーザの体動又は心拍を検出することが可能である。また、ユーザセンサ122として赤外線サーモグラフィを用いることで、ユーザの表面温度又はその変化を検出可能である。なお、ユーザ動作検出装置120は、ユーザカメラ121とユーザセンサ122の一方だけを含んでもよい。また、ユーザ動作検出装置120は、複数のユーザカメラ121を備えてもよいし、複数のユーザセンサ122を備えてもよい。
図1及び図2に示される作業適性判定装置130は、周辺物体検出装置110及びユーザ動作検出装置120で計測した各種計測データをもとに、ユーザの作業適性判定を行う情報処理装置181と、記憶装置182とを有する。情報処理装置181は、計測データをもとにユーザの作業適性判定を行う。具体的には、情報処理装置181は、CPU(Central Processing Units)又はGPGPU(General−Purpose computing on Graphics Processing Units)、FPGA(Field−Programmable Gate Array)などのプロセッサを含む。また、記憶装置182は、ユーザの作業適性判定を行うために必要なデータを一時的に保存するRAM(Random Access Memory)及び情報処理装置181が実行する作業適性判定プログラムを格納するメモリなどを含む。
図2に示される情報提示部140は、ユーザ又は同乗者に対して何らかの情報を提示するために用いられる装置である。情報提示部140は、人間の五感に刺激を与えることで何らかの情報を提示する装置である。情報提示部140の代表例は、映像情報を提示する液晶ディスプレイなどのような表示装置である。情報提示部140は、HUD(Head−Up Display)、音情報を提示するスピーカ、各種アクチュエーターを用いて人間の触覚に刺激を与える触覚ディスプレイ、香りを放出して人間の嗅覚に刺激を与える嗅覚ディスプレイなどを含むことができる。
図2に示される操作部150は、ユーザ又は同乗者がユーザ指示を入力するための操作を行う操作装置である。操作部150は、車両100及び車両100に実装されている各種装置の操作を行うための装置である。操作部150は、例えば、ハンドル、ブレーキペダル、アクセルペダルなどのようなユーザが車両を運転する作業を実施するために用いられ運転制御に必要な運転操作部を含むことができる。運転操作部は、後述する車両制御部160への制御指示を送出する。また、操作部150は、タッチパネル又はリモートコントローラなどのような情報入力操作部を含むことができる。情報入力操作部は、情報提示部140又は各種の情報処理装置181への制御指示を送出することができる。
図2に示される車両制御部160は、車両100を動作させるために、車両の全体の制御を行うための制御装置である。車両制御部160は、ユーザが操作部150を介して行った操作の内容に基づいて、車両100の動作を制御する。
〈アルゴリズム〉
図5には、作業適性判定装置130が行う基本処理を示すシーケンスが示されている。車両100が起動されると、作業適性判定装置130は、初期化処理201を実行する。初期化処理201は、作業適性判定装置130が適切に動作を実行するために要求される処理である。
図6は、実施の形態1におけるメインループ処理202の内部処理を詳細に示すシーケンス図である。メインループ処理202では、先ず、計測データ待機処理301が行われる。計測データ待機処理301では、作業適性判定装置130は、周辺物体検出装置110とユーザ動作検出装置120に対して、それぞれの計測データを提供するように要求し、その計測データが提供されるのを待機する。ただし、計測データの提供要求は、初回の1回のみ実行し、その後は、ストリーム処理で、記憶装置182上の定められた領域に、周辺物体検出装置110とユーザ動作検出装置120が計測データを書込むことで、イベントを作業適性判定装置130に通知してもよい。
ユーザ動作検出装置120からユーザ動作計測データが提供された場合、作業適性判定装置130は、ユーザ動作計測データ取得処理304を行い、ユーザ動作計測データを取得する。その後、ユーザ知覚動作検出処理305でユーザがどのようなユーザ知覚動作を行っているのかを検出する。実施の形態1では、視覚によるユーザ知覚動作を検出する場合を例示する。ユーザ動作検出装置120のユーザセンサ122として、視線検出センサを実装している場合には、ユーザ動作計測データ取得処理304では、作業適性判定装置130は、計測時点のユーザの視点位置、視線方向、目の焦点位置などを取得することができる。また、作業適性判定装置130は、ユーザ動作検出装置120のユーザカメラ121から計測時点におけるユーザの姿勢が移った映像を取得することができる。作業適性判定装置130は、これらの取得データからユーザ知覚動作検出処理305を行い、ユーザの視点位置、視線方向、焦点位置などのような瞬間的なユーザ知覚動作の状況を取得することができ、これの時系列データから注視方向及び視野範囲を導出し、ある時間窓内におけるユーザの注意及び関心状況を導出することができる。
ユーザ動作計測データ取得処理304で取得されたデータDp*の集合
{Dp1,Dp2,…,Dpl}と、
ユーザ知覚動作検出処理305で検出された結果Bp*の集合
{Bp1,Bp2,…,Bpm}との積集合、すなわち、
{Dp1,Dp2,…,Dpl}∩{Bp1,Bp2,…,Bpm}
で表現可能である。以降、表現を簡単化するため、Dp*を、便宜上Bp*として表現し
B={Bp1,Bp2,…,Bpm}
と表現する。
図7は、視覚による知覚に対する具体的な知覚困難空間検出処理を示す図である。図7は、ユーザ601に対するユーザ知覚動作検出処理305を行うことによって、ユーザ601の視点位置602が導出され、周辺物体検出装置110によって周辺物体603が検出された状況を示している。このとき、ユーザの視点位置602を基準として、見える周辺物体603の外周から先の空間(周辺物体の影にかくれている空間)は、周辺物体603が要因となる知覚困難空間606であることが、導出可能である。図7は、説明を簡単化するために、2次元で表現されている。現実世界の空間は、3次元であるが、図7の説明は、3次元にも適用可能である。また、複数個の周辺物体が存在している状況であっても、各周辺物体に対して同様の処理を行えば、知覚困難空間を導出可能である。また、図7では、視覚に関して記述しているが、本発明は、視覚に限定されるものではなく、また、単一感覚器に限定されるものでもない。例えば、視覚ではなく聴覚に関して知覚困難空間を求めてもよく、また、視覚と聴覚に関して知覚困難空間を求めてもよい。
図6に示される知覚困難空間検出処理303において、知覚困難空間の検出に加えて、検出された知覚困難空間(死角空間)の重要度を判定することも可能である。
重要度の尺度として、「知覚困難空間の大きさ」がある。知覚困難空間の大きさは、その知覚困難空間に知覚対象がどれだけ隠れやすいのかを示す指標であるとみなすことができる。ここでは、知覚困難空間が大きいほど、重要度が高くなる。
重要度の他の尺度として、「知覚困難空間とユーザ又は車両との距離」がある。この距離は、その知覚困難空間に隠れた知覚対象が表出したときに、例えば、知覚対象との接触を回避するための猶予を表す指標とみなすことができる。ここでは、距離が短いほど、重要度が高くなる。
重要度の他の尺度として、「知覚困難空間の大きさの変化量」がある。この大きさの変化量が大きければ、時間経過と共に知覚困難となる範囲が広がる指標とみなすことができる。ここでは、知覚困難空間が大きさの変化量が多きいほど、重要度が高くなる。
重要度の他の尺度として、「知覚困難空間の移動速度」又は「移動方向」又は「移動加速度」がある。「移動速度」又は「移動方向」又は「移動加速度」は、その知覚困難空間に隠れた知覚対象が表出したときの回避猶予を表す指標とみなすことができる。ここでは、知覚困難空間が接近する方向の移動である場合には、移動速度が速い及び移動速度の増加率が大きいほど、重要度が高くなる。
知覚困難空間の重要度の度合いは、知覚を阻害する物体の種別によって予め定めてもよいし、周辺物体検出装置110によって計測された物体の計測データから隙間又は透過性、顕著性の有無を判定し、これらの値を用いて動的に算出してもよい。
さらに、知覚困難空間の判定処理、及び重要度判定処理において、ユーザが現在遂行すべき作業の内容を考慮した判定処理を行うことも可能である。例えば、実施の形態1における作業は、車両の運転であり、走行中の車両と衝突する可能性のある周辺物体を認知する必要がある。一般的に、衝突の可能性のある周辺物体は、車両100が走行中の道路と同等の高さの平面に停止又は移動する物体であり、ある一定以上の高さに存在する物体については、それ自身と車両との衝突の危険性が低く、かつその物体によって生じた知覚困難空間に一般的な交通上の物体が隠れている可能性は低い。
ある知覚困難空間Xに対して、知覚困難空間X自身の形状及び大きさ、知覚困難空間Xとユーザが運転する車両との間の距離、それらの時系列変化となる変化量などの、知覚困難空間X自身が持つ特性gXiに基づく重みをw(gXi)と表記し(iは、正の整数)、
知覚阻害の要因となる物体の影響である透過度又は隙間の割合、その知覚阻害の要因となる物体の持つ顕著性などのような要因となる物体の知覚的特性pXiに基づく重みをw(pXi)と表記し、
ユーザが遂行する作業の内容を考慮した条件cXiに基づく重みをw(cXi)と表記したときに、
知覚困難空間Xの重要度WXは、次式で表現される。
図6の作業適性度算出処理306では、知覚困難空間検出処理303で検出された知覚困難空間及びその重要度、ユーザ知覚動作検出処理305で検出されたユーザ知覚動作をもとに、その時点のユーザが作業をどの程度適切に遂行できるかを示す作業適性度を算出する。
上述の知覚対象の予期が適切に起きている場合は、その知覚困難空間とユーザ知覚動作との間に相関が発生する。具体的には、知覚困難空間とユーザの視線ベクトルが交わる、知覚困難空間の移動ベクトルとユーザの視線移動ベクトルが類似する、知覚困難空間の持つ特性のうち1つ以上の特性で急激な変化が発生した際に、ユーザの視線ベクトルがその知覚困難空間に交わるように変化する、などがある。
なお、知覚困難空間に対して視線移動の回数又は頻度、視線の滞留時間の増減をもとに相関を求めるなど、他の方法を用いてもよい。
また、知覚困難空間から算出した各知覚困難空間の重要度を考慮してCRXを求めることもでき、次式6のように定式化可能である。
これまでに説明した方法は、ある通常のユーザ知覚動作に限定するものではない。前述の通りユーザ知覚動作には、知覚困難空間へ積極的に知覚を試みる阻害対抗知覚動作があり、その特性を考慮した作業適性度算出も可能である。その場合、ユーザ動作計測データ取得処理304で取得されたデータとして、視覚に関するデータ以外にも体動に関するデータも含めて取得し、ユーザ知覚動作検出処理305で体動に関するデータから体動の増減と通常のユーザ知覚動作との相関関係より阻害対抗知覚動作を行っているか否か、行っている場合のその程度を判定する。体動に関連した阻害対抗知覚動作の程度BCは、ユーザ知覚動作検出処理305で検出し、合わせて検出されたユーザ知覚動作Bと組みとして、阻害対抗知覚動作の程度BCを付加して作業適性度算出処理306に渡す。
更なる作業適性度算出の方法を説明する。ユーザが遂行すべき作業の内容によっては、知覚困難空間に対する知覚の意識が偏る場合があり得る。実施の形態1の車両の運転においては、死角空間からの飛び出しに意識を持つべきであるということを考慮すると、知覚困難空間を万遍なく知覚する必要はなく、知覚困難空間に限って言えばその境界線の周辺に知覚を偏重させるべきである。
以上に説明したように、実施の形態1に係る作業適性判定装置130、作業適性判定方法、及び作業適性判定プログラムにおいては、作業を遂行するために必要な知覚を阻害された空間である知覚困難空間に対し、ユーザがどの程度意識しているのかをユーザの知覚行動との関係性によって、ユーザがその時点においてその作業を遂行するために適切な状況にあるのかを判定することが可能となる。そのとき、知覚困難空間は、それ自身を知覚できないが故に、それ自身の顕著性による反射的な反応か、知覚困難に対する危険予知などのような作業遂行上の認知の結果の反応であるのかどうかの区別が容易となっている。このため、ユーザが作業を行うのにどの程度適切な状態であるのかを示す作業適性度を、ユーザに負担を与えることなく、正確に判定することができる。
図14は、図5のメインループ処理202の他の内部処理を詳細に示すシーケンス図である。図14において、図6と同じ処理には同じ符号を付す。実施の形態2においては、実施の形態1と異なる点を中心に説明する。図14に示される内部処理は、知覚対象検出処理311とユーザ知覚対象判定処理312とが追加されている点において、図6(実施の形態1)に示される内部処理と異なる。また、実施の形態2の作業適性判定装置は、知覚対象検出処理311を実行する知覚対象検出部134(図1)とユーザ知覚対象判定処理312を行うユーザ知覚対象判定処理部135(図1)とを有する点において、実施の形態1のものと異なる。これらの処理を追加することによって、実施の形態2に係る作業適性判定装置、作業適性判定方法、及び作業適性判定プログラムにおいては、ユーザの周辺に存在する知覚対象を検出し、検出された知覚対象のうちのいずれの対象物がユーザに知覚されているかの判定を行い、知覚されている対象物についての情報(判定の結果)を用いてユーザの作業適性判定を行う。この点を除いて、実施の形態1は、実施の形態2と同様である。なお、実施の形態2の説明に際しては、図1及び図2をも参照する。
P(白線902)=5
P(歩道の段差903)=6
P(前方走行車両904)=0
P(歩行者905)=4
この場合には、歩道の段差903が最も知覚の程度が高い対象(すなわち、認知の尺度が大きい)と判断される。
P(白線902)=4
P(歩道の段差903)=4
P(前方走行車両904)=0
P(歩行者905)=4
この場合は、前方走行車両904以外は、知覚の程度が同じレベルである(すなわち、認知の尺度が同じ程度である)と判断される。
上記実施の形態1及び2では、ユーザが自動車の運転者である場合を説明したが、ユーザが運転する車両は、自動車以外のものであってもよい。車両は、例えば、自転車、バイク、電車などの移動体であってもよい。また、本発明が適用可能な作業は、移動体の操作に限定されず、移動体の操作以外の作業、例えば、設備又は機械の操作などであってもよい。例えば、工作機械を用いた工作作業をユーザが行うべき作業とした場合、削りかすを知覚対象とし、微細な削りかすの飛散領域を知覚困難空間として、知覚困難空間の重要度のパラメータとして、削りかすの素材又はサイズを割り当てることが可能である。この場合、例えば、微細さによる見え辛さに対抗するため工作機械又はその周辺に対してユーザが触る前に目視確認を阻害対抗知覚動作とみなすことが可能であり、その動作の回数、頻度、維持時間、又はこれらの組み合わせなどを阻害対抗知覚動作の程度とすることが可能である。
Claims (14)
- ユーザが、遂行すべき予定の作業を行うのにどの程度適切な状態であるのかを示す作業適性度を判定する作業適性判定装置であって、
ユーザの周辺に存在する周辺物体を検出する周辺物体検出装置から取得した周辺物体情報から、前記ユーザが、前記予定の作業を行う際に前記ユーザが知覚すべき対象物である知覚対象を、知覚することが困難な空間である知覚困難空間を検出し、前記知覚困難空間の重要度を判定する知覚困難空間検出部と、
前記ユーザの動作を検出するユーザ動作検出装置から取得したユーザ動作情報から、前記ユーザが前記知覚対象を知覚しようと試みるときの前記ユーザの動作であるユーザ知覚動作を検出し、前記知覚困難空間内に存在し得る知覚対象である潜在的知覚対象の知覚を試みるときのユーザ知覚動作である阻害対抗知覚動作と前記阻害対抗知覚動作の程度とを検出するユーザ知覚動作検出部と、
前記知覚困難空間検出部によって検出された前記知覚困難空間と、前記知覚困難空間の重要度と、前記ユーザ知覚動作検出部によって検出された前記ユーザ知覚動作と、前記阻害対抗知覚動作と、前記阻害対抗知覚動作の程度とから、前記ユーザの前記作業適性度を算出する作業適性度算出部と
を備えたことを特徴とする作業適性判定装置。 - 前記知覚対象を検出する知覚対象検出部をさらに備え、
前記作業適性度算出部は、前記知覚対象検出部によって検出された前記知覚対象と、前記知覚困難空間検出部によって検出された前記知覚困難空間と、前記知覚困難空間の重要度と、前記ユーザ知覚動作検出部によって検出された前記ユーザ知覚動作と、前記阻害対抗知覚動作と、前記阻害対抗知覚動作の程度とから、前記ユーザの前記作業適性度を算出する
ことを特徴とする請求項1に記載の作業適性判定装置。 - 前記知覚困難空間検出部は、前記予定の作業の内容を示す情報を取得し、前記予定の作業の内容に基づいて前記知覚困難空間を決定することを特徴とする請求項1又は2に記載の作業適性判定装置。
- 前記知覚対象検出部は、前記予定の作業の内容を示す情報を取得し、前記予定の作業の内容に基づいて前記知覚対象を決定することを特徴とする請求項2に記載の作業適性判定装置。
- 前記知覚困難空間検出部は、前記ユーザの位置から直接見ることができない死角空間を前記知覚困難空間と判定することを特徴とする請求項1から4のいずれか1項に記載の作業適性判定装置。
- 前記知覚対象検出部は、前記ユーザの位置から直接見ることができる空間に存在する対象物を前記知覚対象と判定することを特徴とする請求項2又は4に記載の作業適性判定装置。
- 前記ユーザ知覚動作検出部は、前記ユーザの視線の動きを前記ユーザ知覚動作として検出することを特徴とする請求項1から6のいずれか1項に記載の作業適性判定装置。
- 前記ユーザ知覚動作検出部は、前記知覚困難空間と前記知覚困難空間の周辺と含む領域に前記ユーザの視線が向けられるユーザ視線移動の回数、前記ユーザ視線移動の頻度、及び前記ユーザの視線が向けられている維持時間の内の1つ以上に基づいて、前記作業適性度を変更することを特徴とする請求項1から7のいずれか1項に記載の作業適性判定装置。
- ユーザが、遂行すべき予定の作業を行うのにどの程度適切な状態であるのかを示す作業適性度を判定する作業適性判定装置であって、
ユーザの周辺に存在する周辺物体を検出する周辺物体検出装置から取得した周辺物体情報から、前記ユーザが、前記予定の作業を行う際に前記ユーザが知覚すべき対象物である知覚対象を、知覚することが困難な空間である知覚困難空間を検出する知覚困難空間検出部と、
前記ユーザの動作を検出するユーザ動作検出装置から取得したユーザ動作情報から、前記ユーザが前記知覚対象を知覚しようと試みるときの前記ユーザの動作であるユーザ知覚動作を検出するユーザ知覚動作検出部と、
前記知覚困難空間検出部によって検出された前記知覚困難空間と前記ユーザ知覚動作検出部によって検出された前記ユーザ知覚動作とから、前記ユーザの前記作業適性度を算出する作業適性度算出部と
を備え、
前記ユーザ知覚動作検出部は、前記知覚困難空間内に存在し得る知覚対象である潜在的知覚対象の知覚を試みるときのユーザ知覚動作である阻害対抗知覚動作と前記阻害対抗知覚動作の程度とを検出し、
前記作業適性度算出部は、前記阻害対抗知覚動作と前記阻害対抗知覚動作の程度の少なくとも一方に基づいて、前記作業適性度を変更する
ことを特徴とする作業適性判定装置。 - 前記知覚困難空間検出部は、
前記ユーザの位置から直接見ることができない死角空間を前記知覚困難空間と判定し、
前記知覚困難空間の重要度を、前記死角空間の大きさ、前記死角空間の位置、前記ユーザから前記死角空間までの距離、前記死角空間の移動速度、前記死角空間の移動加速度のうちの1つ以上に基づいて決定する
ことを特徴とする請求項1に記載の作業適性判定装置。 - 前記阻害対抗知覚動作の程度は、前記知覚困難空間の前記ユーザに近い側の周辺へ前記ユーザの視線が向けられるユーザ視線移動の回数、前記ユーザ視線移動の頻度、及び前記ユーザの視線が向けられている維持時間の内の少なくとも1つに基づいて、変更されることを特徴とする請求項9に記載の作業適性判定装置。
- 前記知覚困難空間検出部は、前記ユーザから予め定められた範囲内において検出された前記知覚困難空間を検出し、前記予め定められた範囲外において前記知覚困難空間を検出しないことを特徴とする請求項1から11のいずれか1項に記載の作業適性判定装置。
- ユーザが、遂行すべき予定の作業を行うのにどの程度適切な状態であるのかを示す作業適性度を判定する作業適性判定方法であって、
ユーザの周辺に存在する周辺物体を検出する周辺物体検出装置から取得した周辺物体情報から、前記ユーザが、前記予定の作業を行う際に前記ユーザが知覚すべき対象物である知覚対象を、知覚することが困難な空間である知覚困難空間を検出し、前記知覚困難空間の重要度を判定するステップと、
前記ユーザの動作を検出するユーザ動作検出装置から取得したユーザ動作情報から、前記ユーザが前記知覚対象を知覚しようと試みるときの前記ユーザの動作であるユーザ知覚動作を検出し、前記知覚困難空間内に存在し得る知覚対象である潜在的知覚対象の知覚を試みるときのユーザ知覚動作である阻害対抗知覚動作と前記阻害対抗知覚動作の程度とを検出するステップと、
検出された前記知覚困難空間と、前記知覚困難空間の重要度と、前記ユーザ知覚動作と、前記阻害対抗知覚動作と、前記阻害対抗知覚動作の程度とから、前記ユーザの前記作業適性度を算出するステップと
を備えたことを特徴とする作業適性判定方法。 - コンピュータに、ユーザが、遂行すべき予定の作業を行うのにどの程度適切な状態であるのかを示す作業適性度を判定する作業適性判定方法を実行させる作業適性判定プログラムであって、
前記コンピュータに、
ユーザの周辺に存在する周辺物体を検出する周辺物体検出装置から取得した周辺物体情報から、前記ユーザが、前記予定の作業を行う際に前記ユーザが知覚すべき対象物である知覚対象を、知覚することが困難な空間である知覚困難空間を検出し、前記知覚困難空間の重要度を判定する処理と、
前記ユーザの動作を検出するユーザ動作検出装置から取得したユーザ動作情報から、前記ユーザが前記知覚対象を知覚しようと試みるときの前記ユーザの動作であるユーザ知覚動作を検出し、前記知覚困難空間内に存在し得る知覚対象である潜在的知覚対象の知覚を試みるときのユーザ知覚動作である阻害対抗知覚動作と前記阻害対抗知覚動作の程度とを検出する処理と、
検出された前記知覚困難空間と、前記知覚困難空間の重要度と前記ユーザ知覚動作と、前記阻害対抗知覚動作と、前記阻害対抗知覚動作の程度とから、前記ユーザの前記作業適性度を算出する処理と
を実行させることを特徴とする作業適性判定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/008591 WO2018158950A1 (ja) | 2017-03-03 | 2017-03-03 | 作業適性判定装置、作業適性判定方法、及び作業適性判定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6548850B2 true JP6548850B2 (ja) | 2019-07-24 |
JPWO2018158950A1 JPWO2018158950A1 (ja) | 2019-11-07 |
Family
ID=63369872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019502419A Expired - Fee Related JP6548850B2 (ja) | 2017-03-03 | 2017-03-03 | 作業適性判定装置、作業適性判定方法、及び作業適性判定プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200000391A1 (ja) |
JP (1) | JP6548850B2 (ja) |
CN (1) | CN110352037A (ja) |
DE (1) | DE112017006982T5 (ja) |
WO (1) | WO2018158950A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6638701B2 (ja) | 2017-06-08 | 2020-01-29 | トヨタ自動車株式会社 | 運転意識推定装置 |
JP7269131B2 (ja) * | 2019-08-14 | 2023-05-08 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム |
DE102020003018A1 (de) * | 2020-05-19 | 2021-11-25 | Daimler Ag | Verfahren zur Ermittlung einer Reaktionsfähigkeit |
JP7535484B2 (ja) * | 2021-09-01 | 2024-08-16 | ダイハツ工業株式会社 | 異常検知装置および異常検知方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4882153B2 (ja) * | 2001-02-19 | 2012-02-22 | 日産自動車株式会社 | 車輌用情報出力装置 |
JP4935589B2 (ja) * | 2007-09-10 | 2012-05-23 | 株式会社デンソー | 状態判定装置およびプログラム |
US8698639B2 (en) * | 2011-02-18 | 2014-04-15 | Honda Motor Co., Ltd. | System and method for responding to driver behavior |
JP5966640B2 (ja) * | 2012-06-08 | 2016-08-10 | 株式会社豊田中央研究所 | 漫然運転検出装置及びプログラム |
JP2016181260A (ja) * | 2015-03-23 | 2016-10-13 | コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. | 適応型運転者支援 |
-
2017
- 2017-03-03 JP JP2019502419A patent/JP6548850B2/ja not_active Expired - Fee Related
- 2017-03-03 WO PCT/JP2017/008591 patent/WO2018158950A1/ja active Application Filing
- 2017-03-03 CN CN201780087211.5A patent/CN110352037A/zh not_active Withdrawn
- 2017-03-03 DE DE112017006982.3T patent/DE112017006982T5/de not_active Ceased
- 2017-03-03 US US16/469,315 patent/US20200000391A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN110352037A (zh) | 2019-10-18 |
JPWO2018158950A1 (ja) | 2019-11-07 |
US20200000391A1 (en) | 2020-01-02 |
WO2018158950A1 (ja) | 2018-09-07 |
DE112017006982T5 (de) | 2019-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11993293B2 (en) | Information processing apparatus, moving apparatus, and method, and program | |
JP6548850B2 (ja) | 作業適性判定装置、作業適性判定方法、及び作業適性判定プログラム | |
KR102669020B1 (ko) | 정보 처리 장치, 이동 장치, 및 방법, 그리고 프로그램 | |
CN102712317B (zh) | 使驾驶员与环境感测结合的车辆安全性系统 | |
US9007198B2 (en) | Adaptive Actuator interface for active driver warning | |
EP3882884A1 (en) | Information processing device, information processing method, and program | |
JP5326521B2 (ja) | 覚醒状態判断装置及び覚醒状態判断方法 | |
JP6343808B2 (ja) | 視野算出装置および視野算出方法 | |
US11603104B2 (en) | Driver abnormality determination system, method and computer program | |
KR101276770B1 (ko) | 사용자 적응형 특이행동 검출기반의 안전운전보조시스템 | |
JP2019043496A (ja) | 自動運転調整装置、自動運転調整システム、及び自動運転調整方法 | |
JP2019195377A (ja) | データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム | |
KR102452636B1 (ko) | 차량의 주행을 보조하는 장치 및 방법 | |
CN110641468A (zh) | 基于乘客行为控制自主车辆 | |
CN113260547A (zh) | 信息处理设备、移动设备、方法和程序 | |
CN114930422B (zh) | 信息处理设备、移动装置、信息处理系统、信息处理方法和程序 | |
US20210316737A1 (en) | Driver abnormality determination apparatus, method and computer program | |
CN114340970A (zh) | 信息处理设备、移动设备、信息处理系统、方法和程序 | |
JP7331728B2 (ja) | 運転者状態推定装置 | |
Matviienko et al. | QuantiBike: quantifying perceived cyclists' safety via head movements in virtual reality and outdoors | |
JP7331729B2 (ja) | 運転者状態推定装置 | |
US20210316736A1 (en) | Driver abnormality determination apparatus, method and computer program | |
Phan | Estimation of driver awareness of pedestrian for an augmented reality advanced driving assistance system | |
WO2021085414A1 (ja) | 運転支援装置、評価装置、運転支援方法、及び運転支援プログラム | |
Alomari | Human-centric detection and mitigation approach for various levels of cell phone-based driver distractions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190328 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190328 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190625 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6548850 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |