JPWO2018047392A1 - モビリティ及びモビリティシステム - Google Patents

モビリティ及びモビリティシステム Download PDF

Info

Publication number
JPWO2018047392A1
JPWO2018047392A1 JP2018538012A JP2018538012A JPWO2018047392A1 JP WO2018047392 A1 JPWO2018047392 A1 JP WO2018047392A1 JP 2018538012 A JP2018538012 A JP 2018538012A JP 2018538012 A JP2018538012 A JP 2018538012A JP WO2018047392 A1 JPWO2018047392 A1 JP WO2018047392A1
Authority
JP
Japan
Prior art keywords
unit
mobility
information
travel
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018538012A
Other languages
English (en)
Other versions
JP6814220B2 (ja
Inventor
嘉之 山海
嘉之 山海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cyberdyne Inc
Original Assignee
Cyberdyne Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cyberdyne Inc filed Critical Cyberdyne Inc
Publication of JPWO2018047392A1 publication Critical patent/JPWO2018047392A1/ja
Application granted granted Critical
Publication of JP6814220B2 publication Critical patent/JP6814220B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/04Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs motor-driven
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/10Parts, details or accessories
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6894Wheel chairs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62KCYCLES; CYCLE FRAMES; CYCLE STEERING DEVICES; RIDER-OPERATED TERMINAL CONTROLS SPECIALLY ADAPTED FOR CYCLES; CYCLE AXLE SUSPENSIONS; CYCLE SIDE-CARS, FORECARS, OR THE LIKE
    • B62K5/00Cycles with handlebars, equipped with three or more main road wheels
    • B62K5/003Cycles with four or more wheels, specially adapted for disabled riders, e.g. personal mobility type vehicles with four wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/243Means capturing signals occurring naturally from the environment, e.g. ambient optical, acoustic, gravitational or magnetic signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/14Joysticks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means
    • A61G2203/40General characteristics of devices characterised by sensor means for distance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/70General characteristics of devices with special adaptations, e.g. for safety or comfort
    • A61G2203/72General characteristics of devices with special adaptations, e.g. for safety or comfort for collision prevention
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/20Specific applications of the controlled vehicles for transportation
    • G05D2105/22Specific applications of the controlled vehicles for transportation of humans
    • G05D2105/24Specific applications of the controlled vehicles for transportation of humans personal mobility devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/40Indoor domestic environment
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/10Optical signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/60Combination of two or more signals
    • G05D2111/63Combination of two or more signals of the same type, e.g. stereovision or optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Transportation (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Dentistry (AREA)

Abstract

【課題】身体機能や認知機能の低下した要介護者がより自立度の高い生活を送ることが可能なモビリティ及びモビリティシステムを提供する。【解決手段】操作部による現在の操作内容と、随意的制御部による指令信号と、環境検知部により検知される走行環境と、情報取得部により取得される各環境情報とに基づいて、現在のモビリティの走行状態を、利用者の意思を反映させつつ安全性確保のための最適な走行状態に調整して走行駆動部による走行駆動を制御するようにした。

Description

本発明は、モビリティ及びモビリティシステムに関し、特に利用者の操作に応じて所望方向に移動可能なパーソナルモビリティに適用して好適なるものである。
近年、身体機能や認知機能の低下によって、トイレや台所やショッピングセンタへの移動が困難な要介護者の増加は、超高齢化に直面する我が国の大きな社会課題である。より自立度の高い生活を送るための移動支援の手法の開発が切望されている。
従来、要介護者が自ら電動車椅子を操縦する際、障害物に対する認識不足を補うための安全回避技術は多数提案されている。例えば、障害物の位置と車体通過予測領域とに基づいて、車体と障害物との衝突可能性を判定し、車体が障害物の近傍を通過する際に衝突可能性ありと判定された場合は速度及び進行方向を修正する一方、衝突可能性なしと判定された場合は、車体の速度を制限しないようにした技術が提案されている(特許文献1参照)。
また障害物と移動体とが所定間隔以内に接近するか否かを判定し、近接すると判定した場合に移動体の回避動作及び障害物に期待する回避動作を計画することにより、移動体が一方的に回避する場合と比べて効率の良い回避動作を行う技術も提案されている(特許文献2参照)。
さらに車体部より操作方向に延びて、車体部の幅と略等しいサーチ領域を生成すると共に、操作量の大きさ又は操作方向及び操作量から算出された操作力の大きさが大きい場合、サーチ領域を操作方向に尖った形状に変えることにより、操作方向に障害物があっても安全に自動回避を行う技術が提案されている(特許文献3参照)。
特開2012−11886号公報 国際公開第2012/039280号 特開2012−106722号公報
ところが、要介護者の身体機能や認知機能の低下が進んでいた場合には、電動車椅子に障害物の自動回避技術を搭載しただけでは、自ら操作しながら走行するは非常に困難となり、自立性の面では実用上不十分である。
この問題を解決すべく、操作者の走行経路の周辺環境の至るところに、各種のセンサを設置しておき、操作者が搭乗する電動車椅子を目的地まで安全に誘導する方法も考えられる。
しかしながら、周辺環境に大量のセンサを設けて安全誘導させるだけでは、操作者が単独で使用して安全性を確保することができるものの、操作者の自立性はほとんど考慮されなくなるおそれがある。
本発明は以上の点を考慮してなされたもので、身体機能や認知機能の低下した要介護者がより自立度の高い生活を送ることが可能なモビリティ及びモビリティシステムを提供しようとするものである。
かかる課題を解決するために本発明においては、利用者から入力された操作内容を検出する操作部と、当該操作部による操作内容に応じた走行速度及び走行方向で走行駆動する走行駆動部とを有するモビリティにおいて、操作部に触れる手指を基準とする利用者の生体信号を検出するための電極を有する生体信号検出部と、生体信号検出部により取得された生体信号に基づいて、利用者の意思に従った動力を走行駆動部に発生させるための指令信号を生成する随意的制御部と、モビリティ本体側にて走行時の走行環境を検知する環境検知部と、外部環境から提示される少なくとも1以上の環境情報を取得する情報取得部と、操作部による現在の操作内容と、随意的制御部による指令信号と、環境検知部により検知される走行環境と、情報取得部により取得される各環境情報とに基づいて、現在のモビリティの走行状態を、利用者の意思を反映させつつ安全性確保のための最適な走行状態に調整する走行調整部と、走行調整部により調整された走行状態となるように、走行駆動部による走行駆動を制御する走行制御部とを備えるようにした。
以上のモビリティによれば、現在のモビリティの走行状態を、利用者の意思を反映させつつ安全性確保のための最適な走行状態に調整することにより、利用者が身体機能や認知機能が低下した要介護者であっても、可能な限り自己の意思に従うことを前提に、第三者のサポートがなくても安心して所望方向に走行することができる。
また本発明のモビリティにおいては、利用者の体重を支持する支持部に設けられ、当該利用者の体動変化及び重心変動を検知する姿勢検知部をさらに備え、走行調整部は、操作部による現在の操作内容に、姿勢検知部により検出された体重変化及び重心変動を反映させて走行状態を調整するようにした。
この結果、利用者による現在の操作内容に加えて、利用者の体重変化及び重心変動も反映させることにより、利用者にとって所望の走行状態に近づけることが可能となる。
さらに本発明のモビリティにおいては、集音マイクを介して集音した利用者の音声に基づく発話内容を分析する音声分析部をさらに備え、走行調整部は、操作部による現在の操作内容に、音声分析部による分析結果を反映させて走行状態を調整するようにした。
この結果、利用者による現在の操作内容に加えて、利用者の発話内容のうち走行指示に関係する発話内容も反映させることにより、利用者にとって所望の走行状態に近づけることが可能となる。
さらに本発明のモビリティにおいては、利用者の生理状態を検出する生理状態検出部をさらに備え、走行調整部は、生理状態検出部により検出された生理状態について、所定時間以上所定基準の範囲外である場合、操作部による現在の操作内容に関わらず、現在のモビリティの走行状態を安全性確保を最優先とする走行状態に調整するようにした。
この結果、利用者の生理状態が良くなく、走行移動に支障が生じると判断した場合は、モビリティを安全性が確保可能な場所まで強制的に誘導することにより、その後の危険回避を図ることができる。これと同時に、モビリティに設けられたスピーカから緊急警報を発生するようにして周囲に注意喚起したり、通信機能を用いて利用者の関係者が保有する携帯端末に緊急情報を送信したりすることにより、利用者の見守り機能としての役割を果たすことができる。
さらに本発明のモビリティにおいては、環境検知部は、複数の異なる視点から対象物体を撮像する撮像部を有し、走行調整部は、撮像部の撮像結果であるRGBデータに基づいて対象物体を判別するとともに、当該RGB画像データから算出した深度データに基づいて対象物体とモビリティ本体との相対位置関係を算出しながら、所定の目標距離内に接近した対象物体が障害物であるか否かを判断するようにした。
この結果、モビリティは、状況に応じて近接する対象物体が障害物であるか否かを判別し、対象物体とモビリティ本体の相対位置に基づいて、安全な移動経路の生成と自律的な移動を行うことが可能となる。
さらに本発明のモビリティにおいては、走行調整部による走行状態の調整内容及び調整事実のいずれか一方又は両方をリアルタイムで利用者に通知する情報内容通知部をさらに備えるようにした。そして情報内容通知部は、利用者に対して走行調整部による走行状態の調整内容に応じた物理的な刺激を付与する刺激付与部からなるようにした。
この結果、利用者は走行状態の調整内容や調整事実をフィードバック的に認識することができ、自己の操作内容との調整分の差を意識することによって機能回復による学習効果を得ることができる。
さらに本発明においては、上述したモビリティと、当該モビリティに対して少なくとも1以上の環境情報を提示する環境情報提示ユニットとを有するモビリティシステムにおいて、環境情報提示ユニットは、環境情報ごとに設けられ、モビリティからの要求に応じて対応する環境情報を提示する情報提示部を備え、モビリティの情報取得部は、各情報提示部から利用可能な環境情報のみを取得するようにした。
この結果、モビリティシステムでは、モビリティの走行時に適宜、周囲の環境情報を取得することにより、モビリティ自体の自律制御能力を環境情報に基づく情報内容で補完することができる。利用者の環境認識能力をモビリティの外部環境にある環境情報提示ユニットと協調させることで、より一層利用者にとって安全性の高い走行制御を実現することができる。
さらに本発明においては、モビリティは、走行調整部による走行状態の調整内容を、姿勢検知部により検出された体重変化及び重心変動と、認知能力検知部により検出された認知能力と、生理状態検出部により検出された生理状態とのうち少なくとも1以上とともに、外部に発信する情報通信部を備えるとともに、モビリティと別体に設けられ、情報通信部から送信される各種情報を受信し、通信回線を介して管理サーバに送信するデータ端末装置を備えるようにした。
この結果、モビリティシステムでは、情報通信部から発生される利用者の走行状態の調整内容及びこれに伴う身体機能及び認知機能を表す各種情報に基づいて、利用者の身体機能や認知機能を外部のデータ端末装置を介して管理サーバに蓄積することができる。そして管理サーバに蓄積された利用者の情報を時系列で分析することにより、身体機能や認知機能の低下度合い等を把握することが可能となる。
さらに本発明のモビリティシステムにおいては、モビリティは、当該モビリティの位置情報を検出する位置情報検出部をさらに備え、情報通信部は、位置情報発信部から得られる現在の位置情報を発信するようにした。この結果、モビリティの位置情報も常に外部のデータ端末装置が確認することが可能となる。
さらに本発明のモビリティシステムにおいては、データ端末装置は、外部入力されたモビリティに対する操作指令を表す指令信号を送信し、モビリティの走行調整部は、情報通信部を介して指令信号を受信すると、現在の操作内容にかかわらず、当該指令信号に基づく操作指令に応じた走行状態に優先的に移行させるようにした。
この結果、モビリティシステムでは、データ端末装置を使用する管理者がモビリティに搭乗する利用者の健康状態に不安があるなど急遽呼び寄せたい場合には、管理者の下に目的地を変更してモビリティを強制的に操作して走行させるようにすることも可能となる。それ以外にもデータ端末装置を使用する管理者がモビリティを遠隔的に制御することにより、搭乗する利用者が要介護者の場合でも十分に安全性を確保することが可能となる。
本発明によれば、利用者の意思に応じた操作内容のみならず外部環境から取得される情報内容と協調させながら走行制御させるようにして、利用者の身体機能や認知機能が低下して要介護状態となった場合でも、より自立度の高い生活を送ることが可能なモビリティ及びモビリティシステムを実現することができる。
本発明の実施形態に係るモビリティシステムの全体構成を示す概念図である。 同発明の実施形態に係るモビリティの制御系の構成を示すブロック図である。 畳み込みニューラルネットワークの畳み込み層及びプーリング層の説明に供する概念図である。 畳み込みニューラルネットワークの畳み込み層及びプーリング層の説明に供する概念図である。 畳み込みニューラルネットワークにおいて作成した学習器の構造を示す概念図である。 対象物体の判別方法に関する実験環境を表す図である。 ベッドの判別結果を表す図である。 机の判別結果を表す図である。 椅子の判別結果を表す図である。 座面の先端と対象物体間の距離の説明に供する略線図である。 移動後のモビリティ座面の先端と対象物体間の距離の平均と標準偏差を示す図である。
以下図面について、本発明の一実施の形態を詳述する。
(1)本実施の形態によるモビリティシステムの構成
図1に示すように、本発明におけるモビリティシステム1は、利用者の操作に応じた走行速度及び走行方向で走行するモビリティ2と、当該モビリティ2に対して少なくとも1以上の環境情報を提示する環境情報提示ユニット3とを有する。このモビリティシステム1には、モビリティ2との間で双方向に各種のデータを送受信するデータ端末装置4及び管理サーバ5も含めてもよい。
本発明による環境情報提示ユニット3は、モビリティ2に対して外部から環境情報を提示することにより、モビリティ自体の自律制御能力を環境情報に基づく情報内容で補完するようになされている。すなわち利用者の環境認識能力をモビリティ2の外部環境にある環境情報提示ユニットと協調させることで、より一層利用者にとって安全性の高い走行制御を実現し得るようになされている。
環境情報としては、利用者の環境認知の水準を高めてより安全に目的地までの移動を実現するための各種情報が該当する。例えば、目的地への近道情報、走行環境の路面状態(平坦か否か等)、雨天時の被害を回避可能なルート情報、交差点遭遇までの交通量や交通状態の事前通知、障害物や人の横断などの事前通知、車椅子用のトイレや休憩所の位置情報、走行環境に出店されている店舗情報などが挙げられる。
環境情報提供ユニット3は、上述の環境情報をビジョン情報、電磁気情報、電波情報、光情報及び音情報として、モビリティ2からの要求に応じて又は近接時に自動的にそれぞれ対応する提供手段によって当該モビリティ2に提供する。
具体的にビジョン情報としては、認識パターン、ランドマーク、ラインセンシング許可マーク、走行環境における床・壁面・天井・物体に配置されたQRコード(登録商標)やホログラムなどが挙げられる。そのための提供手段としては、撮像カメラや3D距離画像センサなどが該当する。
また電磁気情報や電波情報としては、走行環境に埋め込まれたRFID(Radio Frequency Identification)、磁界を生成する電気ケーブル、GPS(Global Positioning System)などが挙げられる。そのための提供手段としては、アクティブ方式又はパッシブ方式の無線通信手段や赤外線通信手段などが該当する。
さらに光情報としては、レーザ測域センサ、光通信コード、機械光学式ガイド(レーザーポインタなどで光情報を床・壁面・天井に照射)などが挙げられる。そのための提供手段としては、CMOS(complementary metal oxide semiconductor)イメージセンサのような撮像素子や、光伝導型受光素子、光起電力型受光素子などの光電変換素子が該当する。
さらに音情報としては、利用者や周辺環境から発生する原音情報や、処理された周波数情報やパターン音声情報(必要に応じて異音も含む)などが挙げられる。そのための提供手段としては、指向性マイクロフォンや全方向型集音マイクなどが該当する。
このようにモビリティ2では、環境情報提示ユニット3から取得可能な複数の情報を統合処理・通信・自動判断するとともに、利用者の意思に応じた操作内容と協調させながら走行制御するようになされている。
(2)本実施の形態によるモビリティの構成
モビリティ2は、図1に示すように、外部操作に応じて又は自律的に走行可能な二輪駆動型の四輪移動体であり、利用者が着座する着座部(支持部)10と、背中を保持するための背もたれ部11と、両腕を保持するための肘掛け部12とを備える。
着座部10の下部には、後側に左右一対の駆動後輪13a,13bと、前側に左右一対の前車輪14a,14bとからなる走行駆動部15が設けられている。走行駆動部15における左右の駆動後輪13a,13bは、それぞれ駆動によってそれぞれ独立して回転駆動し、駆動後輪13a,13bの前進回転或いは後進回転によって前進及び後進し、駆動後輪13a,13bの前進回転速度に差を与えることによって前進しつつ右或いは左に走行する。また、駆動後輪13a,13bを互いに逆方向に回転駆動することによってモビリティ2がその位置で方向転換する。
肘掛け部12は、利用者が着座部10に着座した際に両肘を掛ける部分である。このうち片方(右側)の肘掛け部12には、操作部20が設けられている。この操作部20は、図示しないが、先端側に設けられた軸受け部に棒状の操作レバーが所望方向に傾斜自在に軸支された構成を有し、利用者による操作レバーの傾斜角度及び傾斜方向に応じて走行駆動部15が操作される。走行駆動部15は、操作部20によって入力される操作内容(方向及び速度)に応じて、左右の駆動後輪を独立して駆動させる。
また腰掛け部12における操作部20に触れる手指を基準とする部位には、予め生体信号を検出するための電極を有する生体信号検出部21(後述する図2)が取り付けられており、検出された生体信号に基づいて、後述する統括制御部30(図2)が利用者の意思に従った動力を走行駆動部15に発生させるための指令信号を生成する。
なお本発明における生体信号とは、利用者の体内に発生する電気に起因する信号であり、身体から測定可能な信号であると共に身体の動作や脳からの信号に伴って時系列で変化する信号である。例えば、生体信号は、神経電位や筋電位、脳波、心電位、更に、モーションアーティアファクト(動作の影響)によって生じる電位等、生化学反応により生じる電位や、心臓の拍動によって生じる脈波等の振動等、生体の活動によって生じる信号を意味する。
本発明による生体信号検出部21については、本願発明者による特登5409637号公報に記載された内容と軌を一にし、かつ同一原理を用いている。また利用者の指を動作させる信号を取得する手法としては、本願発明者による特登5472680号公報に記載された動作補助具を適用することができる。
肘掛け部12の先端には、斜め前方方向及び左右方向の障害物の検知を行うレーザレンジセンサ31と、3次元スキャン可能なRGB−Dセンサ32、3D距離画像センサ33及び撮像カメラ34が設けられている。
具体的にレーザレンジセンサ31は、設置位置から見た対象物(障害物)に照射し、その反射光を受光して距離を算出する。これを一定角度間隔で距離を測定することにより、平面上に扇状の距離情報を最大30m、角度240度の範囲で得ることができる。
またRGB−Dセンサ32は、RGBカラーカメラ機能に加えて、当該カメラから見た対象物(障害物)までの距離を計測できる深度センサを有し、対象物の3次元スキャンを行うことができる。この深度センサは赤外線センサからなり、構造化光の単一のパターンを対象物に投影した状態で対象を撮影し、そのパラメータを用いて三角測量により画像上の各点のデプスを算出する。
例えばRGB−Dセンサ32として、例えばKinect(マイクロソフト社の商標名)を適用した場合、水平視野57度、垂直視野43度、センサ範囲は1.2m〜3.5mの範囲を撮影することが可能であり、RGB画像は640×480、Depth(深度)画像は320×240画素で共に30フレーム/秒で取得できる。
RGB−Dセンサ32を肘掛け部12の先端に設置したのは、ほぼ床面に近い走行駆動部では垂直視野が確保できないためであり、床面から0.6m〜1.8mの高さ確保が必要となる。
3D距離画像センサ33は、LEDパルスを照射し、対象物からの反射光の到達時間を画素単位で計測すると同時に取得した画像情報を重畳することにより、対象物までの距離情報を画素単位で算出する。この3D距離画像センサ33は、上述のRGB−Dセンサ32よりも高精度の検出能力を有し、かつレーザレンジセンサ31よりも視野角が広いことから、屋外向けの補完センサとして必要である。
3D距離画像センサ33として、例えばピクセルソレイユ(日本信号株式会社の商品名)を適用した場合、水平視野72度、垂直視野72度、センサ範囲は0.3m〜4.0mの範囲を撮影することが可能である。
本発明のモビリティ2では、レーザレンジセンサ31、RGB−Dセンサ32及び3D距離画像センサ33を用いて、外部環境に対して自己の位置を推定すると同時に環境地図を作成するSLAM(Simultaneous Localization and Mapping)技術が実現するようになされている。
このSLAM技術を用いたモビリティ2は、高精度に自己の位置を推定しながら、実空間内に存在する物体の3次元位置を表現する環境地図を動的に生成することにより、自己の移動経路を特定して環境内を自律的に移動することが可能である。
さらに背もたれ部11の中央上部には、集音マイク35及びスピーカ36が搭載されており、周囲環境の音声を集音し、必要に応じて発話や警告音を発するようになされている。
(3)モビリティの内部の回路構成
図2は、モビリティ2に搭載される制御系の構成図である。全体の制御を司る統括制御部(走行調整部)30、走行経路情報を記憶する目標走行経路記憶部40、操作部20からの入力又は統括制御部30による制御に応じて走行駆動部15を制御する走行制御部41を備える。
統括制御部30は、予め設定された走行経路情報を記憶する目標走行経路記憶部40からの走行経路情報と、レーザレンジセンサ31、RGB−Dセンサ32及び3D距離画像センサ33による各検出信号に基づいて自己位置推定と後述する環境地図の構築を同時に行いながら、走行経路の適否や変更の要否を判断したり、走行障害物の有無を判断する。
例えば道路走行中のモビリティ2が道端の縁石などの走行障害物に接触するか否かを判断し、接触する直前に一旦停止して当該利用者の追従方向に走行向きを変更する。統括制御部30は、決定した走行経路情報を走行制御部41に送り、走行制御部41は、該走行経路情報に応じて、左右のモータドライバ42a,42bを制御し、駆動モータ43a,43bの回転を制御する。
実際にモビリティ2は、上述したSLAM技術を利用して、所定地域内の歩道等の実環境内の走行可能な対象エリアの環境地図を自動的に作成する。
具体的にはモビリティ2は、レーザレンジセンサ31及び3D距離画像センサ33から得られる対象物との距離情報及び角度情報に基づいて、2次元格子で区切ったグリッド上の局所地図を移動環境を示すエリアとして設定していきながら、所望の対象エリア全体を表す環境地図を作成する。
それと同時にモビリティ2の一対の駆動後輪13a,13bに対応するエンコーダ(図示せず)から読み出された回転角度に基づいて、自機の走行量を演算し、次の居所地図と現時点までに作成された環境地図とのマッチング及び自機の走行量から自己位置を推定する。
またモビリティ2は、データ端末装置4と無線通信する情報通信部50を備え、統括制御部30の制御の下、後述する走行状態の調整内容及びこれに伴う身体機能や認知機能を表す各種情報をデータ端末装置4に送信するとともに、当該データ端末装置4から通信回線6を介して管理サーバ5に蓄積するようになされている(図1)。
さらにモビリティ2は、環境情報提示ユニット3のうち利用可能な提供手段からの環境情報を情報通信部50、撮像カメラ34、集音マイク35、レーザレンジセンサ31、RGB−Dセンサ32及び3D距離画像センサ33の中から可能な限り取得することにより、走行時に適宜、周囲の環境情報に基づく情報内容でモビリティ自体の自律制御能力を補完することができる。利用者の環境認識能力をモビリティ2の外部環境にある環境情報提示ユニット3と協調させることで、より一層利用者にとって安全性の高い走行制御を実現することができる。
また統括制御部30は、上述した生体信号検出部21により取得された利用者の生体信号に基づいて、利用者の意思に従った動力を走行駆動部15に発生させるための指令信号を生成する。
統括制御部30は、操作部20による現在の操作内容と、随意的制御結果として生成した指令信号と、上述のSLAM技術により検知される走行環境と、環境情報提示ユニット3から取得した環境情報とに基づいて、現在のモビリティ2の走行状態を、利用者の意思を反映させつつ安全性確保のための最適な走行状態に調整する。そして走行制御部41は、統括制御部30により調整された走行状態となるように、走行駆動部15のモータドライバ42a、42bを駆動制御する。
このようにモビリティ2において、現在のモビリティ2の走行状態を、利用者の意思を反映させつつ安全性確保のための最適な走行状態に調整することにより、利用者が身体機能や認知機能が低下した要介護者であっても、可能な限り自己の意思に従うことを前提に、第三者のサポートがなくても安心して所望方向に走行することができる。
またモビリティ2には、着座部10の座面に2次元マトリクス状に複数の圧力センサが配列されてなる姿勢検知部60が設けられ、利用者が着座部10の座面に着座したときの体圧分布に基づく体圧重心を算出して、利用者の体重変化及び重心変動を検知する。
すなわち姿勢検知部60は、複数の圧力センサから検知される体圧データに基づいて、全ての体圧データの総和から2次元配列におけるX軸方向(左右方向)及びY軸方向(前後方向)の重心座標を算出した後、センサ間の距離との関係に基づき座面における体圧重心を算出する。そして姿勢検知部60は、座面の体圧重心の変化の時系列データに基づいて、利用者の体動変化及び重心変動を求める。
統括制御部30は、操作部20による現在の操作内容に、姿勢検知部60により検出された体重変化及び重心変動を反映させて走行状態を調整する。すなわち利用者が走行時に操作部20を操作しながら走行方向に合わせて上半身を傾けたときに、それに応じた座面の体重変化及び重心変動が生じるため、さらに所望の走行状態に近づけることが可能となる。
一方、利用者が走行時に上半身を前後左右に揺らし始めたり、特定方向にのみ長時間傾いた場合には、脳神経系の病気や心臓発作などを発症した可能性があると判断することも可能となる。
さらに統括制御部30(音声分析部)は、集音マイク35を介して集音した利用者の音声に基づく発話内容を分析し、当該分析結果に基づいて走行状態を調整する。すなわち利用者の発話内容のうち走行指示に関係する発話内容も反映させることにより、利用者にとって所望の走行状態に近づけることが可能となる。
例えば利用者が走行時に手指にしびれが生じた場合や操作部20が故障した場合でも、即座に停止する旨の発話内容に基づいて停止させることが可能となる。
さらにモビリティ2は、利用者の生理状態を検出する生理状態検出部61を有し、統括制御部30は、生理状態検出部61により検出された生理状態について、所定時間以上所定基準の範囲外である場合、操作部20による現在の操作内容に関わらず、現在のモビリティ2の走行状態を安全性確保を最優先とする走行状態に調整する。
この生理状態としては、血圧、動脈硬化、心電、呼吸、嚥下、睡眠等が挙げられる。利用者がモビリティ2への乗り降りの利便性を考慮すると、非侵襲にて光やレーザを用いた計測手段を搭載することが望ましい。
非侵襲による血圧測定方法については、本願発明者による国際出願2015/068787号公報に記載された血流に基づく血圧算出装置を適用することができる。また非侵襲による血流測定方法及び動脈硬化測定方法については、本願発明者による特登5283700号公報に記載された光を用いた非接触の血管状態計測装置を適用することができる。さらに脳波や脳活動の計測方法については、本願発明者による特登5717064号公報及び特登5295584号公報に記載された頭部血流計測に基づく脳波検出装置を適用することができる。
この結果、利用者の生理状態が良くなく、走行移動に支障が生じると判断した場合は、モビリティ2を安全性が確保可能な場所まで強制的に誘導することにより、その後の危険回避を図ることができる。
これと同時に、モビリティ2に設けられたスピーカ36から緊急警報を発生するようにして周囲に注意喚起したり、通信機能を用いて利用者の関係者が保有する携帯端末に緊急情報を送信したりすることにより、利用者の見守り機能としての役割を果たすことができる。
さらにモビリティ2は、肘掛け部12及びこれに付随するモニタ等の表示部62を有し、統括制御部30による走行状態の調整内容及び調整事実のいずれか一方又は両方を表示して、リアルタイムで利用者に通知する。この結果、利用者は走行状態の調整内容や調整事実をフィードバック的に認識することができる。
さらにモビリティ2は、表示部62とともに又はこれに代えて、情報内容通知部として、利用者の体表に接触して物理的(力学的、電気的、及び/又は、熱的)な刺激を与えるための刺激付与部63を有する。統括制御部30は、走行状態の調整内容及び調整事実のいずれか一方又は両方を所定タイミング及び所定パターンで刺激付与部63を制御して利用者の体表に刺激を付与することにより、リアルタイムで利用者に通知する。
この結果、利用者は走行状態の調整内容や調整事実をフィードバック的に認識することができ、自己の操作内容との調整分の差を意識することによって機能回復による学習効果を得ることができる。
さらにモビリティ2は、当該モビリティ2の位置情報を発信するGPS(Global Positioning System)からなる位置情報発信部64を有し、情報通信部50は、位置情報発信部64から得られる現在の位置情報を発信する。この結果、モビリティシステム1において、モビリティ2の位置情報も常に外部のデータ端末装置4が確認することが可能となる。
さらにモビリティシステム1において、データ端末装置4は、外部入力されたモビリティ2に対する操作指令を表す指令信号を送信し、モビリティ2の統括制御部30(操作調整部)は、情報通信部50を介して指令信号を受信すると、現在の操作内容にかかわらず、当該指令信号に基づく操作指令に応じた走行状態に優先的に移行させる。
この結果、モビリティシステム1では、データ端末装置4を使用する管理者がモビリティ2に搭乗する利用者の健康状態に不安があるなど急遽呼び寄せたい場合には、管理者の下に目的地を変更してモビリティ2を強制的に操作して走行させるようにすることも可能となる。それ以外にもデータ端末装置4を使用する管理者がモビリティ2を遠隔的に制御することにより、搭乗する利用者が要介護者の場合でも十分に安全性を確保することが可能となる。
(4)本実施の形態における安全移動経路の確保方法
モビリティ2は、複数の異なる視点から撮像する撮像部を用いて、接近する対象物体を判別するとともに、当該対象物体とモビリティ本体との相対位置関係を算出することにより、所定の目標距離内に接近する対象物体が接近対象又は障害物のいずれかを判断するようになされている。
この実施形態において、撮像部としては、RGB−Dセンサ32に替えて、ステレオカメラ(図示せず)を用いるようにしてもよい。ステレオカメラもRGB−Dセンサ32と同様に、深度情報と画像の取得を同時に可能なデバイスであるが、太陽光の影響により一般の家庭環境において赤外線を用いるRGB−Dセンサ32では深度情報に誤差が生じるため、太陽光による影響が少ないステレオカメラが望ましい。
家庭環境によっては対象物体の長辺全体を映すように撮影する必要があり、特にベッドのような家具は長さ2m程度あるため、ベッド全体を映すために必要な距離はカメラの視野角が広いほど短くなり、部屋の広さの制約条件が緩和される。この条件を満たすカメラとしては、例えばSTEREOLABS社製のZED 2Kステレオカメラが挙げられる。
このステレオカメラを適用した場合、最大視野角が110度であることから、距離測定が70cmから20mまで可能であり、ベッドの全体像を約80cm離れた位置から撮影することができる。
なお本実施形態におけるモビリティにおいて、ステレオカメラは、利用者やモビリティ本体が映り込まないように背もたれ部の上部に配置されている。また、モビリティの座標系とステレオカメラの座標系とを一致させておく。
ステレオカメラのフレーム内において物体が写っている領域の座標を用いることにより、その物体のカメラ座標系でのXYZ座標を取得する。物体が映っている領域のフレーム内での左上のピクセルが原点である座標(x,y)と、3D画像を表す1次元配列の要素iは、重みベクトルwを用いて、次の式(1)のような関係をもつ。
Figure 2018047392
この式(1)を用いることにより、カメラフレーム内の座標と3D画像上の座標を一対一対応させることが可能となり、カメラフレーム内の領域を指定すれば、その領域のカメラ座標系でのXYZ座標を取得することが可能となる。
モビリティ2において、統括制御部30は、まずステレオカメラからRGB画像を取得し、視差情報を用いて深度算出処理を行う。次に学習モデルに基づく物体判別を行った後、カメラ座標における対象物体の座標算出処理を行う。最後に目標地点までモビリティ2を自律移動させるための出力信号を生成し、走行制御部41へ指令を与える。走行制御部41は、与えられた指令に基づき、走行駆動部15を動作させる。
ここで日常生活における移動支援のためには、一般家庭での使用を考慮しなければならない。家庭によってベッド、机、椅子などの家具は様々なものが使用されていることから、一般物体認識を行う必要がある。
このため、統括制御部30は、RGB画像データから対象物体を判別する手法として、機械学習を用いて一般家庭環境で使用することを目的とした判別モデルを作成する。一般物体認識は画像の分類問題であるため、畳み込みニューラルネットワーク(CNN;Convolutional Neural Network)を用いる。CNNは、複数の畳み込み層や、当該畳み込み層と交互に並ぶプーリング層(圧縮層)を有し、RGB画像データの局所特徴を階層的に畳み込むことにより、画像を精度よくクラス分け可能とするものである。
CNNは、隣接する層のすべてのニューロン間に結合が存在する全結合層の前に、入力データの画像を、形状を維持したまま解析し、画像の畳み込みによって画像内のパターンを検出するための畳み込み(Convolution)層と、縦横方向の画素数を圧縮することによって、抽出された特徴の位置感度を低下させる働きを持つプーリング(Pooling)層が追加されたニューラルネットワークの構造の一つである。
畳み込み層とプーリング層で行われている処理を可視化した概念をそれぞれ図3(A)及び(B)に示す。図3(A)では、入力画像のチャンネル数をC、高さをH、横幅をW、フィルタのチャンネル数をC、高さをFH_C、横幅をFW_Cとする。入力画像とフィルタの対応する要素同士を掛け合わせ足し合わせる畳み込み処理を各チャンネルで行い、それぞれのチャンネルでの計算結果を足し合わせた値を出力とする。
このため、出力データのチャンネル数は1となる。フィルタをどれだけずらすかを定義する値であるストライドSを用いて、入力画像の全ての領域で畳み込み処理を行っている。出力データの高さOH、横幅OWは、次式(2)及び(3)となり、これが次層の入力データとなる。
Figure 2018047392
Figure 2018047392
図3(B)では、プーリング(Pooling)処理を行うフィルタサイズを高さFH_P、横幅FW_Pと定めた。プーリング処理には領域に含まれる最大値を出力とするMax-Pooling、領域の平均値を返すAverage-Poolingがある。領域につき値を一つだけ返すので、出力チャンネルは、高さ1、横幅1となる。ストライドSだけずらし、この処理を入力画像の全ての領域で行っている。
図4に作成した学習器の構造を示す。作成する学習器の構造は、英オックスフォード大学によるVGGモデルと呼ばれる畳み込み層とプーリング層から構成されるCNNを10層以上重ね構成されるニューラルネットワークを参考にした。
この学習器は、入力が224×224の画像に対応しており、ストライドSを1、フィルタを3×3としている。また、画像の周りを指定した幅だけ0で満たすパディング(padding)を行う。このことから、次の式(4)を満たすため、畳み込み層において画像の縮小は行われていないことがわかる。
Figure 2018047392
また、プーリング層はパディングを0m、フィルタサイズksize、ストライドstrideを矢印の下に示す値として入力画像を縮小して出力信号としている。ここでも活性化関数としてReLU(Rectified Linear Unit)を用いる。学習モデル作成のため、画像データベースImageNetからベッド、机、椅子の画像を800枚ずつ、計2,400枚を使用し、224×224サイズの画像にリサイズしたRGB画像を用意した。この画像のうち1,800枚をトレーニングデータ、600枚をテストデータとして用いる。トレーニングデータはCNNのパラメータを決定するための学習に用いられる。
テストデータは作成している学習モデルの判別率を逐次評価するために用いられる。学習の状態を表す指標となる損失率を求める損失関数を、Softmax関数とcross entropy誤差とを用いて表す。Softmax関数は、分類問題で頻繁に用いられ、ニューラルネットワークから最終的に得る出力をyk、入力信号をak、出力層の層数をnとすると、次の式(5)のように与えられる。
Figure 2018047392
この式(4)を用いることにより、出力の総和が1となり、Softmax関数から得た出力値を確率として扱うことが可能となる。また、cross entropy誤差は次の式(6)のように与えられる。tkは正解ラベルとなるインデックスが1、その他が0で表現される教師データである。
Figure 2018047392
この損失率が小さくなるようにパラメータの学習を行う。学習モデルのパラメータをする働きを持つCNNを用いて作成した学習器によれば、トレーニングデータを用いて学習させたときのトレーニングデータ及びテストデータの最終的な判別率は、それぞれ約90%、約94%となった。この判別率は、出力結果が全判別対象のラベルに対して正解である可能性をパーセントで表した値である。
このようにトレーニングデータの判別率とテストデータの判別率とが大きく離れていないことから、過学習を起こさずに学習できていることがわかる。
実際に屋内移動において判別すべき対象物体としてベッド、机、椅子を仮定し、学習モデルを用いて上述のような対象物体の判別手法を用いるようにした。図5に示すように、判別対象を判別領域内に全ての判別対象の全体像が映り込み、かつ、判別領域内と判別対象の中央が一致するように配置する。
本実験では予め用意した判別対象の画像から、各対象物体に対する判別を15回行う。上述の判別手法による判別結果に基づいて、モビリティと対象物体との相対位置関係を算出し、目標とする距離内までモビリティが自律的に対象物体に接近できることを確認する。
実験結果として得られたベッド、机、椅子の判別率は、それぞれ図6〜図8のように示される。この結果に基づいて、本発明による対象物体の判別方法が実用上十分であることが確認できた。
続いて対象物体への自律移動機能の性能評価試験を行う。利用者が対象物体に手が届く範囲を目標距離とすると、60歳以上の男女の上肢長の5%tile値はおよそ60.8cmであり、5%tile値の利用者の手が対象物体に届くためには、モビリティの座面の先端が対象物体まで60cm以上近づく必要がある。
そして利用者が対象物体に近づいた後、モビリティに搭乗するために対象物体をつかむことを考慮し、モビリティの座面の先端と対象物体間の目標距離を50cm以下に設定する。図9に座面の先端と対象物体間の距離が50cmの状態を示す。
実験環境は上述の判別手法の機能評価試験と同様であり、試行回数はベッド、机、椅子につきそれぞれ5回ずつ行う。モビリティの座面の先端と対象物体間の距離はメジャーを用いた計測にする。
図10に移動後のモビリティ座面の先端と対象物体間の距離の平均と標準偏差を示す。この結果によれば、全ての試行において目標とする50cmまでモビリティの座面の先端が対象物体まで接近可能であることを確認することができた。
このように本発明のモビリティ2においては、ステレオカメラ(撮像部)の撮像結果であるRGB画像データに基づいて対象物体を判別するとともに、当該RGB画像データから算出した深度データに基づいて対象物体とモビリティ本体との相対位置関係を算出しながら、所定の目標距離内に接近した対象物体が障害物であるか否かを判断する。
この結果、モビリティ2は、状況に応じて近接する対象物体が障害物であるか否かを判別し、対象物体とモビリティ本体の相対位置に基づいて、安全な移動経路の生成と自律的な移動を行うことが可能となる。
(5)他の実施形態
なお上述の実施の形態においては、モビリティ2として、外部操作に応じて又は自律的に走行可能な二輪駆動型の四輪移動体を適用し、すなわち走行駆動部15を、駆動後輪13a,13bと前車輪14a,14bとモータドライバ42a,42bと駆動モータ43a,43bとから構成するようにした場合について述べたが、本発明はこれに限らず、四輪駆動型の四輪移動体でもよく、利用者が安全に着座した状態で移動できれば、駆動方法や車輪の数など多種多様のものを適用しても良い。また車輪以外でもキャタピラやオムニホイール等の種々の走行機構を適用しても良い。
また上述の実施の形態においては、モビリティ2本体側にて走行時の走行環境を検知する環境検知部として、レーザレンジセンサ31、RGB−Dセンサ32及び3D距離画像センサ33によるSLAM技術を適用した場合について述べたが、本発明はこれに限らず、モビリティ2の走行環境を走行時に把握することができれば、撮像カメラ34や集音マイク35など種々の手法やその組合せを適用しても良い。
さらに上述の実施の形態においては、情報内容通知部として、表示部62及び刺激付与部63を適用する場合について述べたが、本発明はこれに限らず、利用者に対してフィードバック的に知覚させることができれば、スピーカ36、表示部62など種々の手法やその組合せを適用しても良い。
さらに上述の実施の形態においては、環境情報提供ユニット3から環境情報を取得する情報取得部として、ビジョン情報の場合は撮像カメラ34、電磁気情報及び電波情報の場合は情報通信部50、音情報の場合は集音マイク35を適用すればよく、種々の環境情報をモビリティからの要求に応じて又は近接時に自動的に取得できれば、取得手段としては広く様々なものを適用することができる。
1……モビリティシステム、2……モビリティ、3……環境情報提示ユニット、4……データ端末装置、5……管理サーバ、6……通信回線、10……着座部(支持部)、11……背もたれ部、12……腰掛け部、13a,13b……駆動後輪、14a,14b……前車輪、15……走行駆動部、20……操作部、21……生体信号検出部、30……統括制御部、31……レーザレンジセンサ、32……RGB−Dセンサ、33……3D距離画像センサ、34……撮像カメラ、35……集音マイク、36……スピーカ、40……目標走行経路記憶部、41……走行制御部、42a,42b……モータドライバ、43a,43b……駆動モータ、50……情報通信部、60……姿勢検知部、61……生理状態検出部、62……表示部、63……刺激付与部、64……位置情報発信部。

Claims (11)

  1. 利用者から入力された操作内容を検出する操作部と、当該操作部による操作内容に応じた走行速度及び走行方向で走行駆動する走行駆動部とを有するモビリティにおいて、
    前記操作部に触れる手指を基準とする前記利用者の生体信号を検出するための電極を有する生体信号検出部と、
    前記生体信号検出部により取得された生体信号に基づいて、前記利用者の意思に従った動力を前記走行駆動部に発生させるための指令信号を生成する随意的制御部と、
    前記モビリティ本体側にて走行時の走行環境を検知する環境検知部と、
    外部環境から提示される少なくとも1以上の環境情報を取得する情報取得部と、
    前記操作部による現在の操作内容と、前記随意的制御部による指令信号と、前記環境検知部により検知される走行環境と、前記情報取得部により取得される各環境情報とに基づいて、現在の前記モビリティの走行状態を、前記利用者の意思を反映させつつ安全性確保のための最適な走行状態に調整する走行調整部と、
    前記走行調整部により調整された走行状態となるように、前記走行駆動部による走行駆動を制御する走行制御部と
    を備えることを特徴とするモビリティ。
  2. 前記利用者の体重を支持する支持部に設けられ、当該利用者の体動変化及び重心変動を検知する姿勢検知部をさらに備え、
    前記走行調整部は、前記操作部による現在の操作内容に、前記姿勢検知部により検出された体重変化及び重心変動を反映させて前記走行状態を調整する
    ことを特徴とする請求項1に記載のモビリティ。
  3. 集音マイクを介して集音した前記利用者の音声に基づく発話内容を分析する音声分析部をさらに備え、
    前記走行調整部は、操作部による現在の操作内容に、前記音声分析部による分析結果を反映させて前記走行状態を調整する
    ことを特徴とする請求項1または2に記載のモビリティ。
  4. 前記利用者の生理状態を検出する生理状態検出部をさらに備え、
    前記走行調整部は、前記生理状態検出部により検出された生理状態について、所定時間以上所定基準の範囲外である場合、前記操作部による現在の操作内容に関わらず、現在の前記モビリティの走行状態を安全性確保を最優先とする走行状態に調整する
    ことを特徴とする請求項1から3のいずれか一項に記載のモビリティ。
  5. 前記環境検知部は、複数の異なる視点から対象物体を撮像する撮像部を有し、
    前記走行調整部は、前記撮像部の撮像結果であるRGBデータに基づいて前記対象物体を判別するとともに、当該RGB画像データから算出した深度データに基づいて前記対象物体と前記モビリティ本体との相対位置関係を算出しながら、所定の目標距離内に接近した前記対象物体が障害物であるか否かを判断する
    ことを特徴とする請求項1から4のいずれか一項に記載のモビリティ。
  6. 前記走行調整部による前記走行状態の調整内容及び調整事実のいずれか一方又は両方をリアルタイムで前記利用者に通知する情報内容通知部をさらに備える
    ことを特徴とする請求項1から5のいずれか一項に記載のモビリティ。
  7. 前記情報内容通知部は、前記利用者に対して前記走行調整部による前記走行状態の調整内容に応じた物理的な刺激を付与する刺激付与部からなる
    ことを特徴とする請求項6に記載のモビリティ。
  8. 請求項1から請求項7のいずれかに記載のモビリティと、当該モビリティに対して少なくとも1以上の環境情報を提示する環境情報提示ユニットとを有するモビリティシステムにおいて、
    前記環境情報提示ユニットは、
    環境情報ごとに設けられ、前記モビリティからの要求に応じて対応する環境情報を提示する情報提示部を備え、
    前記モビリティの前記情報取得部は、前記各情報提示部から利用可能な環境情報のみを取得する
    ことを特徴とするモビリティシステム。
  9. 前記モビリティは、前記走行調整部による前記走行状態の調整内容を、前記姿勢検知部により検出された体重変化及び重心変動と、前記認知能力検知部により検出された認知能力と、前記生理状態検出部により検出された生理状態とのうち少なくとも1以上とともに、外部に発信する情報通信部を備え、
    前記モビリティと別体に設けられ、前記情報通信部から送信される各種情報を受信し、通信回線を介して管理サーバに送信するデータ端末装置を備える
    ことを特徴とする請求項8に記載のモビリティシステム。
  10. 前記モビリティは、当該モビリティの位置情報を検出する位置情報検出部をさらに備え、
    前記情報通信部は、前記位置情報発信部から得られる現在の位置情報を発信する
    ことを特徴とする請求項9に記載のモビリティシステム。
  11. 前記データ端末装置は、外部入力された前記モビリティに対する操作指令を表す指令信号を送信し、
    前記モビリティの前記操作調整部は、前記情報通信部を介して前記指令信号を受信すると、現在の操作内容にかかわらず、当該指令信号に基づく操作指令に応じた走行状態に優先的に移行させる
    ことを特徴とする請求項9又は10に記載のモビリティシステム。
JP2018538012A 2016-09-06 2017-04-04 モビリティ及びモビリティシステム Active JP6814220B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016173336 2016-09-06
JP2016173336 2016-09-06
PCT/JP2017/014109 WO2018047392A1 (ja) 2016-09-06 2017-04-04 モビリティ及びモビリティシステム

Publications (2)

Publication Number Publication Date
JPWO2018047392A1 true JPWO2018047392A1 (ja) 2019-08-29
JP6814220B2 JP6814220B2 (ja) 2021-01-13

Family

ID=61562393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018538012A Active JP6814220B2 (ja) 2016-09-06 2017-04-04 モビリティ及びモビリティシステム

Country Status (4)

Country Link
US (1) US11020294B2 (ja)
EP (1) EP3510986B1 (ja)
JP (1) JP6814220B2 (ja)
WO (1) WO2018047392A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10869187B1 (en) * 2018-08-07 2020-12-15 State Farm Mutual Automobile Insurance Company System and method for generating consumer mobility profile
CN109409207B (zh) * 2018-09-10 2022-04-12 阿波罗智能技术(北京)有限公司 无人车内乘客状态的识别方法、装置、设备及存储介质
JP2020106275A (ja) * 2018-12-26 2020-07-09 Whill株式会社 ステレオカメラおよび電動モビリティ
JP2022037260A (ja) * 2018-12-28 2022-03-09 パナソニックIpマネジメント株式会社 位置測定装置
TWI726412B (zh) * 2019-09-06 2021-05-01 國立成功大學 識別室內位置的建模系統、可攜式電子裝置、室內定位方法、電腦程式產品及電腦可讀取紀錄媒體
US11794008B2 (en) * 2020-06-19 2023-10-24 Toyota Motor North America, Inc. Support devices including electrical stimulation systems and methods for using the same
US20220099831A1 (en) * 2020-09-25 2022-03-31 Rajeev Ramanath Sensor arrangement on an autonomous personal mobility vehicle
US20220096290A1 (en) * 2020-09-25 2022-03-31 Rajeev Ramanath System and method to control multiple inputs provided to a powered wheelchair
US11730646B2 (en) * 2020-09-25 2023-08-22 Rajeev Ramanath System and method to combine input from multiple sensors on an autonomous wheelchair
KR102592732B1 (ko) * 2021-12-30 2023-10-25 인천대학교 산학협력단 장애물 충돌방지 기능이 결합된 휠체어 조이스틱 입력 기반 전동 휠체어
CN115120429B (zh) * 2022-06-17 2023-03-10 广东工业大学 一种基于表面肌电信号的智能轮椅人体跟随控制系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006043072A (ja) * 2004-08-04 2006-02-16 Yamaha Motor Co Ltd 車両の制御装置およびそれを備えた車両
JP2006280511A (ja) * 2005-03-31 2006-10-19 National Institute Of Information & Communication Technology 乗り物運転時における操縦者の異常検知方法及び装置
JP2007143886A (ja) * 2005-11-28 2007-06-14 Hiroshima Univ 電動車椅子システム
JP2010119199A (ja) * 2008-11-12 2010-05-27 Toyota Motor Corp 移動体、及びその制御方法
JP2014157478A (ja) * 2013-02-15 2014-08-28 Toyota Motor Corp 自律移動体及びその制御方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3374845A (en) 1966-05-05 1968-03-26 Selwyn Donald Command control system for vehicles
US6349231B1 (en) * 1994-01-12 2002-02-19 Brain Functions Laboratory, Inc. Method and apparatus for will determination and bio-signal control
WO2000033731A1 (en) * 1998-12-10 2000-06-15 Andrew Junker Brain-body actuated system
AU753042B2 (en) * 1999-10-12 2002-10-03 Invacare Corporation Wheelchair having speed and direction control touchpad
JP2002197569A (ja) * 2000-12-25 2002-07-12 Matsushita Electric Works Ltd 電動カート監視システム
US8504146B2 (en) * 2007-06-29 2013-08-06 The Regents Of The University Of California Multi-channel myoelectrical control using single muscle
JP5167368B2 (ja) * 2008-10-29 2013-03-21 トヨタ自動車株式会社 移動体制御装置及び移動体制御方法
JP5598119B2 (ja) * 2010-06-30 2014-10-01 株式会社豊田中央研究所 動力車
DE112011103155T5 (de) 2010-09-21 2013-07-18 Toyota Jidosha Kabushiki Kaisha Beweglicher Körper
JP5161353B2 (ja) 2010-10-19 2013-03-13 パナソニック株式会社 電動車両及びその制御方法
US9026250B2 (en) * 2011-08-17 2015-05-05 Harris Corporation Haptic manipulation system for wheelchairs
KR101314570B1 (ko) * 2011-10-12 2013-10-07 서울대학교산학협력단 정밀한 제어를 위한 뇌-기계 인터페이스 장치 및 방법
JP5983513B2 (ja) * 2013-04-15 2016-08-31 株式会社デンソー 運転支援装置
US20150059086A1 (en) 2013-08-29 2015-03-05 Altorr Corporation Multisensory control of electrical devices
US10265227B2 (en) * 2014-03-21 2019-04-23 Rensselaer Polytechnic Institute Mobile human-friendly assistive robot
JP6248829B2 (ja) * 2014-07-01 2017-12-20 株式会社豊田自動織機 電動車両
JP2016084092A (ja) 2014-10-28 2016-05-19 富士重工業株式会社 車両の走行制御装置
KR102420853B1 (ko) * 2015-12-21 2022-07-15 삼성전자주식회사 복수의 생체 신호들 각각을 측정할 수 있는 바이오-프로세서와 이를 포함하는 웨어러블 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006043072A (ja) * 2004-08-04 2006-02-16 Yamaha Motor Co Ltd 車両の制御装置およびそれを備えた車両
JP2006280511A (ja) * 2005-03-31 2006-10-19 National Institute Of Information & Communication Technology 乗り物運転時における操縦者の異常検知方法及び装置
JP2007143886A (ja) * 2005-11-28 2007-06-14 Hiroshima Univ 電動車椅子システム
JP2010119199A (ja) * 2008-11-12 2010-05-27 Toyota Motor Corp 移動体、及びその制御方法
JP2014157478A (ja) * 2013-02-15 2014-08-28 Toyota Motor Corp 自律移動体及びその制御方法

Also Published As

Publication number Publication date
US11020294B2 (en) 2021-06-01
EP3510986A4 (en) 2020-07-15
EP3510986B1 (en) 2024-06-05
EP3510986A1 (en) 2019-07-17
US20190192361A1 (en) 2019-06-27
JP6814220B2 (ja) 2021-01-13
WO2018047392A1 (ja) 2018-03-15

Similar Documents

Publication Publication Date Title
JP6814220B2 (ja) モビリティ及びモビリティシステム
US20210378887A1 (en) Patient support apparatuses with navigation and guidance systems
CN107485543A (zh) 移动助行车、具有移动助行车的监测和信息系统以及用于操作移动助行车的方法
Jafri et al. Visual and infrared sensor data-based obstacle detection for the visually impaired using the Google project tango tablet development kit and the unity engine
US9922236B2 (en) Wearable eyeglasses for providing social and environmental awareness
US20160033280A1 (en) Wearable earpiece for providing social and environmental awareness
CN108958263A (zh) 一种机器人避障方法及机器人
US20130338525A1 (en) Mobile Human Interface Robot
CN108478348B (zh) 一种室内自主导航物联的智能轮椅车及控制方法
US20180256422A1 (en) Intelligent power wheelchair and related methods
KR20110082225A (ko) 시각장애인용 안내 시스템 및 그를 이용한 안내방법
Liu et al. Electronic travel aids for the blind based on sensory substitution
EP4112372B1 (en) Method and system for driver posture monitoring
Ni et al. A walking assistant robotic system for the visually impaired based on computer vision and tactile perception
KR20170127591A (ko) 사물인터넷 기반 간병 로봇
CN116829906A (zh) 用于辅助视觉损伤用户移动的计算机实现方法、可穿戴设备、非暂时性计算机可读存储介质、计算机程序和系统
KR20170127592A (ko) 헬스케어 간병 로봇
KR101231240B1 (ko) 태아와의 교감 서비스 제공 방법 및 시스템
JP2006289565A (ja) ロボット操作装置及びロボット
CN209500102U (zh) 一种室内自主导航物联的智能轮椅车
Ahmed Sayemaldahar et al. An integrated smart wheelchair model: Iw smart wheelchair with embedded smart home, navigation and obstacle avoidance systems
Al Shamsi et al. Blind assistant navigation system
Ishizuka et al. Motion control of a powered wheelchair using eye gaze in unknown environments
Rohmer et al. Laser based driving assistance for smart robotic wheelchairs
Pingali Development of a Human Accompanying Wheelchair using Ultrasonic Tethering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201218

R150 Certificate of patent or registration of utility model

Ref document number: 6814220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250