JP2019530479A - Mobility aid control method, apparatus and system - Google Patents

Mobility aid control method, apparatus and system Download PDF

Info

Publication number
JP2019530479A
JP2019530479A JP2017550131A JP2017550131A JP2019530479A JP 2019530479 A JP2019530479 A JP 2019530479A JP 2017550131 A JP2017550131 A JP 2017550131A JP 2017550131 A JP2017550131 A JP 2017550131A JP 2019530479 A JP2019530479 A JP 2019530479A
Authority
JP
Japan
Prior art keywords
movement
user
eyeball
eye
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017550131A
Other languages
Japanese (ja)
Inventor
憶 非 張
憶 非 張
佐 袁
佐 袁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Publication of JP2019530479A publication Critical patent/JP2019530479A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/04Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs motor-driven
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/10Parts, details or accessories
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/10Parts, details or accessories
    • A61G5/1051Arrangements for steering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/18General characteristics of devices characterised by specific control means, e.g. for adjustment or steering by patient's head, eyes, facial muscles or voice
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/20Displays or monitors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)
  • Rehabilitation Tools (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公開は、ユーザの眼球画像を撮影することと、ユーザの眼球画像に基づいてユーザの眼球動作を識別することと、移動補助具操作指令を生成して、ユーザの眼球動作に対応する操作の実行を移動補助具に指示することとを含む移動補助具の制御方法を提供する。更に、ユーザの眼球画像を撮影するためのカメラと、前記カメラに接続され、前記ユーザの眼球画像に基づいて前記ユーザの眼球動作を識別するための画像処理回路と、前記画像処理回路に接続され、移動補助具操作指令を生成してユーザの眼球動作に対応する操作の実行を移動補助具に指示するための制御回路とを含む移動補助具制御機器を開示する。更に、移動補助具と移動補助具制御機器を含む移動補助具制御システムを提供する。In this release, the user's eyeball image is captured, the user's eyeball motion is identified based on the user's eyeball image, and a movement assist tool operation command is generated to perform an operation corresponding to the user's eyeball motion. There is provided a method for controlling a movement aid including instructing the movement aid to execute. Furthermore, a camera for taking a user's eyeball image, an image processing circuit connected to the camera, for identifying the user's eyeball movement based on the user's eyeball image, and connected to the image processing circuit And a movement assist tool control device including a control circuit for generating a movement assist tool operation command and instructing the movement assist tool to execute an operation corresponding to the user's eye movement. Furthermore, the movement assistance tool control system containing a movement assistance tool and a movement assistance tool control apparatus is provided.

Description

本願は、2016年6月7日に出願された中国特許出願第201610398690.X号明細書の優先権を主張し、その全ての内容が援用により本明細書に組み込まれる。
本公開は、全体的に制御技術に関し、より詳細には、移動補助具制御方法、移動補助具制御機器、及び移動補助具制御システムに関する。
The present application is a Chinese patent application No. 201610398690 filed on June 7, 2016. X claims the priority of the specification, the entire contents of which are hereby incorporated by reference.
The present disclosure relates generally to control technology, and more particularly to a movement assist tool control method, a movement assist tool control device, and a movement assist tool control system.

現在の移動補助具技術において、従来の車椅子は、ユーザの手や足で操作する必要があり、又は、電力で駆動し、ボタンを押すことによって操作する。しかし、これは、手や音を使うことができない筋萎縮性側索硬化症の患者のような四肢の障害を持つ人にとっては、困難であるため、これらの従来の車いすを使用することはできない。このように、脚、腕又は手などの身体部分を動かすことなく操作することができる車椅子が必要とされている。   In the current mobility aid technology, a conventional wheelchair needs to be operated with a user's hand or foot, or is driven by power and operated by pressing a button. However, this is difficult for people with limb disorders, such as patients with amyotrophic lateral sclerosis who cannot use hands and sounds, so these conventional wheelchairs cannot be used . Thus, there is a need for a wheelchair that can be operated without moving body parts such as legs, arms or hands.

本公開は、現在の移動補助具技術に関連する問題を解決するために、移動補助具制御方法、移動補助具制御機器、及び移動補助具制御システムを提供する。   In order to solve the problems associated with the current mobility aid technology, this disclosure provides a mobility aid control method, a mobility aid control device, and a mobility aid control system.

本公開は、第1態様として、ユーザによって移動補助具を制御する移動補助具制御方法を開示する。当該方法は、ユーザの眼球画像を撮影することと、ユーザの眼球画像に基づいてユーザの眼球動作を識別することと、移動補助具操作指令を生成して、ユーザの眼球動作に対応する操作の実行を移動補助具に指示することとの3つのステップを含む。   This publication discloses as a first aspect, a movement assistance tool control method for controlling a movement assistance tool by a user. The method captures a user's eyeball image, identifies the user's eyeball movement based on the user's eyeball image, generates a movement aid operation command, and performs an operation corresponding to the user's eyeball movement. It includes three steps: instructing the mobility aid to perform.

本公開の一部の実施例によれば、ユーザの眼球画像に基づいてユーザの眼球動作を識別することは、前記ユーザの眼球画像から少なくとも1つの瞳孔の座標を確定することと、少なくとも1つの瞳孔の座標を、ユーザの少なくとも1つの予め記憶された眼球画像のうちの少なくとも1つの瞳孔の座標と比較することによって、ユーザの眼球動作を確定することとの2つのサブステップを含み、ここで、ユーザの予め記憶された眼球画像のそれぞれがユーザの1つの眼球動作に対応する。   According to some embodiments of the present disclosure, identifying the user's eye movement based on the user's eye image includes determining coordinates of at least one pupil from the user's eye image and at least one eye Determining the eye movement of the user by comparing the coordinates of the pupil with the coordinates of at least one of the at least one pre-stored eye image of the user, wherein: Each of the user's pre-stored eyeball images corresponds to one eyeball movement of the user.

ここで、ユーザの眼球画像から少なくとも1つの瞳孔の座標を確定するサブステップは、ユーザの眼球画像における白目、虹彩、及び瞳孔の間のグレー値の差に基づいて行われる。   Here, the sub-step of determining the coordinates of at least one pupil from the user's eyeball image is performed based on a gray value difference between the white eye, the iris, and the pupil in the user's eyeball image.

ここで、少なくとも1つの瞳孔の座標を、少なくとも1つの予め記憶された眼球画像のうちの少なくとも1つの瞳孔の座標と比較することによって、ユーザの眼球動作を確定するサブステップは、前記少なくとも1つの瞳孔の座標と予め記憶された任意の眼球画像の少なくとも1つの瞳孔の座標との間の差が所定範囲内にあるか否かを確定することと、少なくとも1つの瞳孔の座標と予め記憶された任意の眼球画像の少なくとも1つの瞳孔の座標との間の差が所定範囲内にある場合、ユーザの眼球動作が、予め記憶された任意の眼球画像に対応する眼球動作であると確定することとを更に含む。   Here, the sub-step of determining the eye movement of the user by comparing the coordinates of the at least one pupil with the coordinates of at least one pupil of the at least one pre-stored eyeball image comprises the at least one eyeball Determining whether the difference between the coordinates of the pupil and the coordinates of at least one pupil of any eye image stored in advance is within a predetermined range, and storing the coordinates of at least one pupil in advance Determining that the user's eye movement is an eye movement corresponding to any pre-stored eye image when the difference between the coordinates of at least one pupil of any eye image is within a predetermined range; Is further included.

当該方法は、ユーザの眼球画像に基づいてユーザの眼球動作を識別するステップと、移動補助具操作指令を生成して、ユーザの眼球動作に対応する操作の実行を移動補助具に指示するステップとの間に、ユーザから眼球制御開始指令を受信すると、眼球制御を開始するステップと、移動補助具が操作準備状態であるか否かを確定し、移動補助具が操作準備状態でない場合、操作準備指令を生成して、操作準備状態に調整するよう移動補助具に指示し、ユーザの眼球動作に対応する操作を移動補助具に実行させるステップとを更に含む。   The method includes identifying a user's eye movement based on the user's eye image, generating a movement aid operation command, and instructing the movement aid to execute an operation corresponding to the user's eye movement; If an eyeball control start command is received from the user during this period, the step of starting eyeball control and whether or not the movement assisting tool is in an operation ready state are determined. Generating a command, instructing the movement assisting tool to adjust to the operation ready state, and causing the movement assisting tool to perform an operation corresponding to the user's eye movement.

当該方法は、移動補助具操作指令を生成して、ユーザの眼球動作に対応する操作の実行を移動補助具に指示するステップの後に、ユーザの眼球動作に対応する操作を実行するか否かをユーザに促すステップと、ユーザからの確認指令を受けると、移動補助具操作指令を移動補助具に送信するステップとを更に含む。   In this method, whether or not to perform an operation corresponding to the user's eye movement is generated after the step of generating the movement assist tool operation command and instructing the movement assist tool to perform an operation corresponding to the user's eye movement. It further includes a step of prompting the user and a step of transmitting a movement assisting tool operation command to the movement assisting tool upon receiving a confirmation command from the user.

当該方法は、ユーザからの確認指令を受けると、移動補助具操作指令を移動補助具に送信するステップの後に、ユーザから眼球制御終了指令を受信すると、眼球制御を終了するステップを更に含む。   The method further includes a step of ending the eyeball control when receiving an eyeball control end command from the user after the step of transmitting the movement assisting device operation command to the movement assisting device when receiving a confirmation command from the user.

上述のいずれの実施例において、眼球動作は、移動補助具の左方向、右方向、前方、後方への移動にそれぞれ対応する左向き、右向き、上向き、下向きを含む。   In any of the above-described embodiments, the eye movement includes leftward, rightward, upward, and downward directions corresponding to the leftward movement, the rightward movement, the forward movement, and the backward movement, respectively.

本公開は、第2態様として、ユーザの眼球画像を撮影するためのカメラと、カメラに接続され、ユーザの眼球画像に基づいてユーザの眼球動作を識別するための画像処理回路と、画像処理回路に接続され、移動補助具操作指令を生成してユーザの眼球動作に対応する操作の実行を移動補助具に指示するための制御回路とを含む移動補助具制御機器を提供する。   In this disclosure, as a second aspect, a camera for photographing a user's eyeball image, an image processing circuit connected to the camera and identifying a user's eyeball operation based on the user's eyeball image, and an image processing circuit And a control circuit for generating a movement assist tool operation command and instructing the movement assist tool to execute an operation corresponding to the user's eye movement.

移動補助具制御機器の一部の実施例において、画像処理回路は、ユーザの眼球画像から少なくとも1つの瞳孔の座標を確定するための座標確定サブ回路と、少なくとも1つの瞳孔の座標を、ユーザの少なくとも1つの予め記憶された眼球画像のうちの少なくとも1つの瞳孔の座標と比較することによって、ユーザの眼球動作を確定するための動作確定サブ回路とを含み、ここで、ユーザの予め記憶された眼球画像のそれぞれは、ユーザの1つの眼球動作に対応する。   In some embodiments of the mobility aid control device, the image processing circuit includes a coordinate determination subcircuit for determining coordinates of at least one pupil from the user's eyeball image, and coordinates of the at least one pupil. An action determining sub-circuit for determining a user's eye movement by comparing to at least one pupil coordinate of at least one pre-stored eye image, wherein the user's pre-stored Each eyeball image corresponds to one eyeball movement of the user.

本公開の一部の実施例において、移動補助具制御機器は、画像処理回路に接続されると共に、ユーザの眼球動作が画像処理回路によって識別されてから、移動補助具が操作準備状態にあるか否かを確定し、眼球制御開始指令をユーザから受信する操作準備回路を更に含む。移動補助具が操作準備状態でない場合、前記操作準備回路は、操作準備指令を生成して、前記操作準備状態に調整するよう前記移動補助具に指示し、前記ユーザの眼球動作に対応する操作を前記移動補助具に実行させる。   In some embodiments of the present disclosure, the movement assist tool control device is connected to the image processing circuit and the movement assist tool is ready for operation after the user's eye movement is identified by the image processing circuit. It further includes an operation preparation circuit that determines whether or not and receives an eyeball control start command from the user. When the movement assist tool is not in the operation ready state, the operation preparation circuit generates an operation preparation command, instructs the movement assist tool to adjust to the operation ready state, and performs an operation corresponding to the eye movement of the user. The movement aid is executed.

本公開の一部の実施例において、移動補助具制御機器は、ユーザの眼球動作が画像処理回路によって識別されてから、ユーザの眼球動作に対応する操作を実行するか否かをユーザに促すためのプロンプト回路と、ユーザからの確認指令を受信すると、移動補助具操作指令を移動補助具に送信するための送信回路とを更に含む。   In some embodiments of the present disclosure, the movement assist device control device prompts the user to execute an operation corresponding to the user's eye movement after the user's eye movement is identified by the image processing circuit. And a transmission circuit for transmitting a movement assisting tool operation command to the movement assisting tool upon receiving a confirmation command from the user.

移動補助具制御機器は、ユーザから眼球制御終了指令を受信すると共に、ユーザからの眼球制御終了指令に基づいて操作終了指令を生成して、移動補助具を停止させ送信回路をシャットダウンさせるための操作終了回路を更に含む。   The movement assist tool control device receives an eyeball control end command from the user, generates an operation end command based on the eyeball control end command from the user, and stops the movement assist tool and shuts down the transmission circuit. A termination circuit is further included.

本公開の一部の実施例において、移動補助具制御機器は、カメラと画像処理回路に接続され、ユーザの眼球画像を画像処理回路に送信するための通信回路を更に含む。   In some embodiments of the present disclosure, the mobility aid control device further includes a communication circuit connected to the camera and the image processing circuit for transmitting the user's eyeball image to the image processing circuit.

移動補助具制御機器のいずれの実施例において、カメラは、ユーザが着用するゴーグルに位置する。   In any embodiment of the mobility aid control device, the camera is located in goggles worn by the user.

本公開は、第3態様として、移動補助具と、上述のいずれの実施例に基づく移動補助具制御機器を含む移動補助具システムを提供する。   The present disclosure provides, as a third aspect, a movement assistance tool system including a movement assistance tool and a movement assistance tool control device based on any of the above-described embodiments.

当該移動補助具システムにおいて、移動補助具は、前記移動補助具用の移動装置を提供するための少なくとも1つの車輪と、少なくとも1つの車輪を駆動するためのモータと、移動補助具制御機器の指令出力側に接続され、モータを制御するためのモータドライバとを含む。   In the movement assistance tool system, the movement assistance tool includes at least one wheel for providing a movement device for the movement assistance tool, a motor for driving at least one wheel, and a command of the movement assistance tool control device. A motor driver connected to the output side for controlling the motor.

移動補助具システムの一部の実施例において、前記少なくとも1つの車輪は、少なくとも1つの全方向移動型車輪を含む。ここで、少なくとも1つの全方向移動型車輪は、少なくとも1つのメカナム車輪を含む。   In some embodiments of the mobility aid system, the at least one wheel comprises at least one omnidirectional wheel. Here, the at least one omnidirectional wheel includes at least one mecanum wheel.

本公開の一部の実施例によれば、移動補助具システムは、強制停止指令を受信するための停止ボタンと、停止ボタンとモータドライバにそれぞれ接続され、停止ボタンから強制停止指令を受信すると、モータ停止指令をモータドライバに送信するための安全制御パネルとを更に含む。   According to some embodiments of the present disclosure, the movement assist device system is connected to a stop button for receiving a forced stop command, and the stop button and the motor driver, respectively, and when the forced stop command is received from the stop button, And a safety control panel for transmitting a motor stop command to the motor driver.

他の実施例は、以下の説明及び添付の図面を参照して明らかになるであろう。   Other embodiments will become apparent with reference to the following description and attached drawings.

一部の実施例をより明確に説明するために、以下は図面の簡単な説明である。以下の説明における図面は、一部の実施例の単なる例示である。当業者であれば、これらの図面に基づいて他の実施例の他の図面を明らかにすることができる。   In order to more clearly describe some embodiments, the following is a brief description of the drawings. The drawings in the following description are merely illustrative of some embodiments. Those skilled in the art can make other drawings of other embodiments clear based on these drawings.

本公開の一部の実施例による移動補助具制御機器の概略図である。1 is a schematic diagram of a mobility aid control device according to some embodiments of the present disclosure. FIG. 本公開の一部の実施例による移動補助具制御機器のゴーグルを示す。Fig. 6 shows goggles of a mobility aid control device according to some embodiments of the present disclosure. 本公開の一部の実施例による移動補助具制御機器の概略図である。1 is a schematic diagram of a mobility aid control device according to some embodiments of the present disclosure. FIG. ユーザが前方を見ているときの、予め撮影された眼球画像を示す。The eyeball image image | photographed previously when the user is looking forward is shown. ユーザが左を見ているときの、予め撮影された眼球画像を示す。The eyeball image image | photographed previously when the user is looking at the left is shown. 本公開の一部の実施例による移動補助具制御機器の概略図である。1 is a schematic diagram of a mobility aid control device according to some embodiments of the present disclosure. FIG. 本公開の一部の実施例による移動補助具制御機器の概略図である。1 is a schematic diagram of a mobility aid control device according to some embodiments of the present disclosure. FIG. 本公開の一部の実施例による移動補助具制御機器の概略図である。1 is a schematic diagram of a mobility aid control device according to some embodiments of the present disclosure. FIG. 本公開の一部の実施例による移動補助具システムの概略図である。1 is a schematic diagram of a mobility aid system according to some embodiments of the present disclosure. FIG. 本公開の一部の実施例による移動補助具システムを示す。1 illustrates a mobility aid system according to some embodiments of the present disclosure. 図10に示す移動補助具システムの概略図である。It is the schematic of the movement assistance tool system shown in FIG. 本公開の一部の実施例による車椅子システムの動作フローチャートを示す。2 shows an operational flowchart of a wheelchair system according to some embodiments of the present disclosure. 車椅子の様々な動作を実現する車椅子システムにおける4つのメカナム車輪の協調を示す。The coordination of the four Mecanum wheels in a wheelchair system that realizes various wheelchair movements is shown.

以下では、本明細書に開示された様々な実施例の図面を参照して、本公開の実施例の技術的解決策を、明確かつ完全に理解できる方式で説明する。   In the following, with reference to the drawings of various embodiments disclosed herein, the technical solutions of the presently disclosed embodiments will be described in a clear and completely understandable manner.

記載された実施例は、本公開の実施例の一部のみであり、すべてではないことは明らかである。本公開の記載された実施例に基づいて、当業者は、本公開による保護範囲内の他の実施例を得ることができる。   It will be appreciated that the described embodiments are only a part of the published embodiments and not all. Based on the described embodiments of the present disclosure, those skilled in the art can obtain other embodiments within the protection scope of the present disclosure.

本公開は、四肢障害またはその他の障害者が車椅子等の従来の移動補助具を使用することが一般的に不便であったり、使用できなかったりするという問題を解決するために、移動補助具の制御方法、移動補助具制御機器、及び移動補助具システムを提供する。   In order to solve the problem that it is generally inconvenient or impossible to use conventional mobility aids such as wheelchairs for people with disabilities or other disabilities, Provided are a control method, a movement assist device control apparatus, and a movement assist device system.

本公開は、一態様として、移動補助具制御機器を開示する。図1は、本公開の一部の実施例による移動補助具制御機器の概略図である。図1に示すように、移動補助具制御機器は、カメラ11と、画像処理回路12と、制御回路13とを含む。   This publication discloses a movement auxiliary tool control device as one mode. FIG. 1 is a schematic diagram of a mobility aid control device according to some embodiments of the present disclosure. As shown in FIG. 1, the movement assist tool control device includes a camera 11, an image processing circuit 12, and a control circuit 13.

カメラ11は、ユーザの眼球画像を撮影する。画像処理回路12は、カメラ11に接続されており、ユーザの眼球画像を受信すると、ユーザの眼球動作を識別する。制御回路13は、ユーザの眼球動作に基づいて移動補助具操作指令(即ち、ある操作を実行するための移動補助具制御用指令)を生成する。   The camera 11 captures a user's eyeball image. The image processing circuit 12 is connected to the camera 11 and identifies the user's eye movement when receiving the user's eyeball image. The control circuit 13 generates a movement assistance tool operation command (that is, a movement assistance tool control command for executing a certain operation) based on the user's eye movement.

上記のような移動補助具制御機器において、複数の眼球動作及び複数の移動補助具操作指令を予め設定して予め記憶しておくことができる。複数の眼球動作のそれぞれは、複数の移動補助具操作指令にそれぞれ対応する。   In the movement assisting instrument control device as described above, a plurality of eye movements and a plurality of movement assisting instrument operation commands can be preset and stored in advance. Each of the plurality of eye movements corresponds to a plurality of movement aid operation commands.

一例として、移動補助具は、車椅子であり、複数の眼球動作と複数の車椅子操作指令との対応関係を表1に示す。   As an example, the movement assistance tool is a wheelchair, and Table 1 shows correspondence relationships between a plurality of eye movements and a plurality of wheelchair operation commands.

表1に示すように、予め設定されて予め記憶されている複数の眼球動作には、「瞬き1回」、「瞬き2回」、「瞬き3回」、「左を見る」、「右を見る」、「上を見る」、「下を見る」を含む。「左を見る」の動作は、車椅子を左に回す指示に対応する。「右を見る」の動作は、車椅子を右に回す指示に対応する。「上を見る」の動作は、車椅子を前進させる指示に対応する。「下を見る」の動作は、車椅子を後退させる指示に対応する。「瞬き1回」の動作は、確認指令(即ち、確認を指示する指令)に対応する。「瞬き2回」の動作は、車椅子の停止指示に対応する。「瞬き3回」の動作は、眼球制御操作を開始する指令に対応する。   As shown in Table 1, a plurality of preset eye movements stored in advance include “blink once”, “blink twice”, “blink three times”, “look left”, “right” Includes "see", "look up", and "look down". The action “Look Left” corresponds to an instruction to turn the wheelchair to the left. The action of “look right” corresponds to an instruction to turn the wheelchair to the right. The action of “looking up” corresponds to an instruction to move the wheelchair forward. The action of “looking down” corresponds to an instruction to move the wheelchair backward. The operation of “blinking once” corresponds to a confirmation command (that is, a command for instructing confirmation). The “twice blink” operation corresponds to a wheelchair stop instruction. The “blink three times” operation corresponds to a command to start an eyeball control operation.

Figure 2019530479
Figure 2019530479

なお、眼球動作、及びそれと車椅子操作指令との対応関係は、任意であり、実用的な条件に基づいて設定することができる。このような対応関係は、車椅子を市場に出す前に設定されるか、ユーザによってカスタマイズされる。更に、移動補助具は、バランサービーグル(セグウェイなど)又は電動一輪車であってもよい。ここに制限はない。   The correspondence between the eyeball movement and the wheelchair operation command is arbitrary, and can be set based on practical conditions. Such correspondence is set before the wheelchair is put on the market or customized by the user. Further, the movement assist tool may be a balancer beagle (eg, Segway) or an electric unicycle. There is no limit here.

以下、車椅子を例とする移動補助具制御機器の詳細な説明である。操作中に、カメラ11を使用してユーザの眼球画像を撮影し、ユーザの眼球画像を有線又は無線通信により画像処理回路12に送信する。画像処理回路12は、ユーザの眼球画像を受信すると、画像識別により、ユーザの眼球動作を識別する。   The following is a detailed description of a mobility aid control device taking a wheelchair as an example. During the operation, the camera 11 is used to capture the user's eyeball image, and the user's eyeball image is transmitted to the image processing circuit 12 by wired or wireless communication. Upon receiving the user's eyeball image, the image processing circuit 12 identifies the user's eyeball movement by image identification.

次に、制御回路13は、眼球動作と車椅子操作指令との予め設定されて予め記憶された対応関係を含む対応テーブルに問い合わせを行い、ユーザの眼球動作に基づいて、対応する車椅子操作指令を生成する。   Next, the control circuit 13 inquires a correspondence table including a correspondence relationship that is set in advance and stored in advance, and generates a corresponding wheelchair operation command based on the user's eyeball motion. To do.

例えば、画像処理の後に、眼球動作が「左を見る」であると画像処理回路12によって識別されると、制御回路13は、車椅子を左に回転させる指令を生成し、車椅子のパワー機構に伝達し、車椅子の左折動作を実現する。   For example, after image processing, if the image processing circuit 12 identifies that the eye movement is “look left”, the control circuit 13 generates a command to rotate the wheelchair to the left and transmits it to the power mechanism of the wheelchair. The wheelchair turns left.

上述のような移動補助具制御装置によれば、脚、腕、手などの身体の部分を動かす必要なく、眼球制御による移動補助具の操作を実現することができる。従って、障害者やハンディキャップを持つ人が車椅子などの従来の移動補助具を操作することが困難であるという問題を効果的に解決することができる。   According to the movement assisting device control apparatus as described above, the operation of the movement assisting device by eyeball control can be realized without having to move body parts such as legs, arms, and hands. Therefore, it is possible to effectively solve the problem that it is difficult for a disabled person or a person with a handicap to operate a conventional mobility aid such as a wheelchair.

図2に示すように、本公開の一部の実施例によれば、上述のような移動補助具制御機器は、ゴーグルを更に含んでもよく、カメラ11がゴーグルに配置されてもよい。ゴーグルは、ユーザが着用するための利便性をもたらし、移動補助具の操作中にユーザの眼球の動作をブロックすることによって、他の人からの好奇心や注意を引かないようにすることができる。   As shown in FIG. 2, according to some embodiments of the present disclosure, the movement assist device control device as described above may further include goggles, and the camera 11 may be disposed in the goggles. Goggles provide convenience for the user to wear and can block the curiosity and attention from others by blocking the movement of the user's eyeballs while operating the mobility aids .

図2に示す好適な実施例において、カメラ11は、ゴーグルの1つのレンズに取り付けられる。カメラ11の片側には、通信回路(例えばブルートゥース(登録商標)無線通信回路111)及び電源(例えばバッテリ131)が配置される。電源は、カメラ11と通信回路に電力を供給する。カメラ11で撮影された眼球画像は、通信回路を介して画像処理回路12に送信される。   In the preferred embodiment shown in FIG. 2, the camera 11 is attached to one lens of goggles. On one side of the camera 11, a communication circuit (for example, Bluetooth (registered trademark) wireless communication circuit 111) and a power source (for example, a battery 131) are arranged. The power supply supplies power to the camera 11 and the communication circuit. The eyeball image photographed by the camera 11 is transmitted to the image processing circuit 12 via the communication circuit.

図3は、本公開の一部の実施例による移動補助具制御機器を示す。図3に示すように、画像処理回路12は、座標確定サブ回路121と動作確定サブ回路122とを含む。   FIG. 3 illustrates a mobility aid control device according to some embodiments of the present disclosure. As shown in FIG. 3, the image processing circuit 12 includes a coordinate determination subcircuit 121 and an operation determination subcircuit 122.

座標確定サブ回路121は、白目、虹彩、及び眼球の瞳孔のグレー値の差に基づいて、カメラ11で撮影されるユーザの眼球画像から、ユーザの瞳孔の座標を確定する。   The coordinate determination sub-circuit 121 determines the coordinates of the user's pupil from the user's eyeball image captured by the camera 11 based on the difference between the gray values of the white eye, the iris, and the pupil of the eyeball.

動作確定サブ回路122は、現在の眼球画像(即ち、カメラ11によって撮影されたユーザの眼球画像)内のユーザの瞳孔の座標と、複数の予め記憶された眼球の瞳孔の座標とを比較して、現在の眼球画像内のユーザの瞳孔の座標と、予め記憶されたいずれかの眼球画像の瞳孔の座標との差が所定範囲内にあるか否かを確定し、所定範囲内にある場合、ユーザが1つの予め記憶されたユーザの眼球画像に対応する眼球動作を実行すると確定する。ここで、予め記憶された複数の眼球画像は、予め撮影されたユーザの眼球画像である。   The action determination subcircuit 122 compares the coordinates of the user's pupil in the current eyeball image (that is, the user's eyeball image captured by the camera 11) with a plurality of prestored eyeball coordinates. Determining whether or not the difference between the pupil coordinates of the user in the current eyeball image and the pupil coordinates of any of the eyeball images stored in advance is within a predetermined range, It is determined that the user performs an eye movement corresponding to one pre-stored user's eye image. Here, the plurality of eyeball images stored in advance are user's eyeball images captured in advance.

ユーザの眼球画像からユーザの瞳孔の座標を確定する処理は、従来の方法である。従って、このプロセスには、次のものを含む。   The process of determining the coordinates of the user's pupil from the user's eyeball image is a conventional method. Thus, this process includes:

まず、カメラ11で撮影されたユーザの眼球画像におけるユーザの白目、虹彩、瞳孔のグレー値の差に基づいて、ユーザの瞳孔の座標を確定する。   First, the coordinates of the user's pupil are determined based on the difference between the gray values of the user's white eye, iris, and pupil in the user's eyeball image captured by the camera 11.

上記のステップは、以下のサブステップによって実現される。第1サブステップにおいて、2値化のための大津法(クラス間分散の最大化)を用いて画像をセグメント化し、それにより虹彩のエッジを確定する。第2サブステップにおいて、灰色投影法によって虹彩の中心の座標を確定する。最後に第3サブステップにおいて、円に基づくハフ変換と最小二乗法によって瞳孔の中心の座標を確定する。   The above steps are realized by the following sub-steps. In the first sub-step, the Otsu method for binarization (maximizing interclass variance) is used to segment the image, thereby determining the iris edges. In the second sub-step, the coordinates of the iris center are determined by gray projection. Finally, in the third sub-step, the coordinates of the center of the pupil are determined by the Hough transform based on the circle and the least square method.

次に、第1ステップで得られたユーザの瞳孔の座標と、予め記憶された複数の眼球画像の瞳孔の座標とを比較する。ここで、予め記憶された複数の眼球画像は、例えば、試運転段階でユーザに初めて使用されるような、予め撮影されたユーザの眼球動作を有する画像である。   Next, the coordinates of the pupil of the user obtained in the first step are compared with the coordinates of the pupils of a plurality of eyeball images stored in advance. Here, the plurality of eyeball images stored in advance are, for example, images having the user's eye movements that have been captured in advance and that are used for the first time by the user in the trial run stage.

例えば、図4は、前をまっすぐ見ているときのユーザの予め撮影された眼球画像を示し、瞳孔の座標が座標の原点として指定される。図5は、ユーザが左を見ているときの、予め撮影された眼球画像を示す。   For example, FIG. 4 shows a user's pre-captured eyeball image when looking straight ahead, and the coordinates of the pupil are designated as the origin of the coordinates. FIG. 5 shows a pre-captured eyeball image when the user is looking left.

眼球が左に回転するとき、即ちユーザが左を見ているとき、瞳孔の相対位置は、中心(即ち原点)から左に移動する。同様に、眼球が右、上、又は下に回転するとき、瞳孔の比較的暗い色に基づいて、瞳孔の位置は、対応して移動する。   When the eyeball rotates to the left, that is, when the user is looking at the left, the relative position of the pupil moves from the center (ie, origin) to the left. Similarly, when the eyeball rotates to the right, up, or down, the position of the pupil moves correspondingly based on the relatively dark color of the pupil.

上述の第1ステップで示した画像解析手法(即ち、画像識別)によって、眼球全体における瞳孔の位置(即ち、座標)を正確に確定することができる。そして、上記第2ステップにおいて、第1ステップで得られた瞳孔の座標と、予め記憶された複数の眼球画像における瞳孔の座標とを比較する。   The position of the pupil (that is, the coordinates) in the entire eyeball can be accurately determined by the image analysis method (that is, image identification) shown in the first step described above. Then, in the second step, the pupil coordinates obtained in the first step are compared with the pupil coordinates in a plurality of eyeball images stored in advance.

図5に示す予め撮影された眼球画像と比較すると、第1ステップで得られた瞳孔の座標が所定の範囲(即ち、点線で囲んだ領域)内にあるため、第1ステップで得られた瞳孔の座標と予め撮影された眼球画像(図5に示すように)の瞳孔の座標との差は、所定の範囲内であるとみなされ、最終的に、ユーザの眼球の動作は「左を見る」と確定される。   Compared with the pre-captured eyeball image shown in FIG. 5, the pupil coordinates obtained in the first step are within the predetermined range (that is, the area surrounded by the dotted line) because the pupil coordinates obtained in the first step are within a predetermined range (ie, the area surrounded by the dotted line) And the pupil coordinates of a pre-captured eyeball image (as shown in FIG. 5) are considered to be within a predetermined range, and eventually the user's eyeball action is “Look Left Is determined.

図6は、本公開の一部の他の実施例による移動補助具制御機器の概略図である。図6に示すように、移動補助具制御機器は、操作準備回路14を更に含む。操作準備回路14は、画像処理回路12に接続され、画像処理回路12が眼球動作を識別した後に、移動補助具が予め設定された操作準備状態にあるか否かを確定し、ユーザから入力した眼球制御開始指令を受け付ける。操作準備状態でない場合、操作準備回路14は、操作準備指令を生成する。前記操作準備指令は、前記移動補助具に対し現在状態から操作準備状態への切り替えを指示する。移動補助具は、操作準備状態にあるとき、ユーザの眼球動作に対応する移動補助具操作指令に従って操作することに適する。   FIG. 6 is a schematic diagram of a mobility aid control device according to some other embodiments of the present disclosure. As shown in FIG. 6, the movement assist tool control device further includes an operation preparation circuit 14. The operation preparation circuit 14 is connected to the image processing circuit 12, and after the image processing circuit 12 identifies the eye movement, it is determined whether or not the movement assisting device is in a preset operation preparation state and input from the user. An eyeball control start command is accepted. When not in the operation preparation state, the operation preparation circuit 14 generates an operation preparation command. The operation preparation command instructs the movement assist tool to switch from the current state to the operation preparation state. The movement assist tool is suitable for operation according to a movement assist tool operation command corresponding to the user's eye movement when in the operation preparation state.

移動補助具がユーザの眼球動作に対応する操作を実行する前に、移動補助具の現在状態を確定し、操作を実行することが適切であるか否かを確定する必要がある。適切でない場合、移動補助具は、その状態を調整して操作準備状態に切り替える必要がある。これにより、移動補助具は、上記の操作を安全に実行することができ、事故を防止することができる。操作準備状態は、予め設定することができ、実行される操作によって異なる。   Before the movement assist tool performs an operation corresponding to the user's eye movement, it is necessary to determine the current state of the movement assist tool and whether or not it is appropriate to perform the operation. If it is not appropriate, the movement assisting tool needs to adjust its state to switch to the operation ready state. Thereby, the movement assistance tool can perform said operation safely, and can prevent an accident. The operation preparation state can be set in advance and differs depending on the operation to be executed.

車椅子を例とし、車椅子が現在高速で前進している状態であるとする。ユーザが眼球動作によって左に曲がるように車椅子を指示すると、「眼球制御を開始するか否か」をユーザに促す。ユーザは、眼球動作(例えば、「瞬き1回」)により眼球制御開始指令を送信する。その後、カメラ11による撮像と画像処理回路12による画像処理の後に、操作準備回路14は、ユーザから入力した眼球制御開始指令を受信して現在の状態が「右折」操作を行うのに適切でないと確定し(即ち、車椅子が操作準備状態ではないと確定した)、操作準備指令を生成し、続いて車椅子の減速又は停止を指示して、車椅子は、眼球動作に対応する「左折」操作を行うように準備し、車椅子の左折時に事故が発生することを回避する。   Taking a wheelchair as an example, assume that the wheelchair is currently moving forward at high speed. When the user instructs the wheelchair to turn left by eye movement, the user is prompted to “whether or not to start eyeball control”. The user transmits an eyeball control start command by eyeball movement (for example, “blink once”). Thereafter, after imaging by the camera 11 and image processing by the image processing circuit 12, the operation preparation circuit 14 receives an eyeball control start command input from the user, and the current state is not appropriate for performing a “right turn” operation. Confirmed (ie, confirmed that the wheelchair is not ready for operation), generates an operation preparation command, and then instructs the wheelchair to decelerate or stop, and the wheelchair performs a “left turn” operation corresponding to the eye movement. Prepare to avoid accidents when turning left in a wheelchair.

移動補助具は、前の操作の結果をフィードバック又は記録して現在の状態を取得する。操作準備回路14は、移動補助具の現在の状態が眼球動作に対応する操作を行うのに適切であると確定した場合、操作準備指令を生成しない。車椅子がそのまま操作を実行する。   The movement aid obtains the current state by feeding back or recording the result of the previous operation. The operation preparation circuit 14 does not generate an operation preparation command when it is determined that the current state of the movement assist tool is appropriate for performing an operation corresponding to the eyeball movement. The wheelchair performs the operation as it is.

移動補助具の現在の状態は、移動補助具の各車輪の移動速度、移動方向、及びそれぞれの角度を含むが、これらに限定されない。   The current state of the movement aid includes, but is not limited to, the movement speed, movement direction, and angle of each wheel of the movement aid.

図7は、本公開の一部の他の実施例による移動補助具制御機器の概略図である。図7に示すように、移動補助具制御機器は、図6に示す移動補助具制御機器に基づくものであり、更にプロンプト回路15及び送信回路16を含む。   FIG. 7 is a schematic diagram of a mobility aid control device according to some other embodiments of the present disclosure. As shown in FIG. 7, the movement assistance tool control device is based on the movement assistance tool control device shown in FIG. 6, and further includes a prompt circuit 15 and a transmission circuit 16.

プロンプト回路15は、画像処理回路12がユーザの眼球動作を識別した後に、眼球動作に対応する動作を実行するか否かをユーザに促す。送信回路16は、ユーザからの確認指示を受けて移動補助具操作指令を移動補助具のモータドライバに送信する。   The prompt circuit 15 prompts the user to execute an operation corresponding to the eyeball movement after the image processing circuit 12 identifies the user's eyeball movement. The transmission circuit 16 receives a confirmation instruction from the user and transmits a movement assisting tool operation command to the motor driver of the movement assisting tool.

ここで、プロンプト回路15は、音声、画像、又は他のプロンプト方式によってユーザに促すことができる。送信回路16は、ユーザからの確認指令を受けてから移動補助具操作指令を送信するので、移動補助具操作指令を送信前に取り消すことができ、誤動作を防止し、安全性を向上させることができる。   Here, the prompt circuit 15 can prompt the user by voice, image, or other prompting scheme. Since the transmission circuit 16 transmits the movement assistance tool operation command after receiving a confirmation command from the user, the movement assistance tool operation command can be canceled before transmission, preventing malfunction and improving safety. it can.

図8は、本公開の一部の他の実施例に係る移動補助具制御機器の概略図である。図8に示すように、移動補助具制御機器は、図7に示す移動補助具制御機器に基づくものであり、操作終了回路17を更に含む。操作終了回路17は、ユーザにより入力された眼球制御終了指令を受信し、眼球制御終了指令に基づいて操作終了指令を生成し、移動補助具を停止させ、送信回路16をシャットダウンする。このように、ユーザが眼球制御終了指令を入力した後に、操作終了回路17は、移動補助具の停止を指示し、送信回路16をシャットダウンすることにより、誤操作を避けることができる。   FIG. 8 is a schematic diagram of a movement assist tool control device according to another embodiment of a part of the present disclosure. As illustrated in FIG. 8, the movement assist tool control device is based on the movement assist tool control device illustrated in FIG. 7, and further includes an operation end circuit 17. The operation end circuit 17 receives the eyeball control end command input by the user, generates an operation end command based on the eyeball control end command, stops the movement assist tool, and shuts down the transmission circuit 16. As described above, after the user inputs the eyeball control end command, the operation end circuit 17 instructs the stop of the movement assist tool and shuts down the transmission circuit 16, thereby avoiding an erroneous operation.

上述した眼球制御開始指令、確認指令、及び眼球制御終了指令は、カメラで撮影されたユーザの眼球画像を画像処理回路が識別することによって取得することができる。   The above-described eyeball control start command, confirmation command, and eyeball control end command can be acquired by the image processing circuit identifying the user's eyeball image captured by the camera.

上述のような移動補助具制御機器によって、脚、腕、手又は身体の他の部分を動かす必要なしに、眼球制御による移動補助具の操作を実現することができる。このように、障害者やハンディキャップを持つ人が車椅子などの従来の移動補助具を操作することが困難であるという問題を効果的に解決すると同時に、安全性を保証することができ、誤動作を回避することができる。   With the movement assisting device control apparatus as described above, the operation of the movement assisting device by eyeball control can be realized without the need to move the legs, arms, hands or other parts of the body. In this way, it is possible to effectively solve the problem that it is difficult for persons with disabilities and handicap to operate conventional mobility aids such as wheelchairs, and at the same time, it is possible to guarantee safety and prevent malfunctions. It can be avoided.

本公開は、別の態様として、移動補助具システムを提供する。移動補助具システムは、上述の実施例のいずれかによる移動補助具及び移動補助具制御機器を含む。   As another aspect, the present disclosure provides a mobility aid system. The mobility aid system includes a mobility aid and a mobility aid control device according to any of the embodiments described above.

移動補助具は、車椅子であってもよい。図9に示すように、本公開の一部の実施例による移動補助具システムにおいて、車椅子20は、全方向移動型車輪23と、全方向移動型車輪23を駆動するためのモータ22と、モータ22を制御するためのモータドライバ21とを含む。   The mobility aid may be a wheelchair. As shown in FIG. 9, in the movement assistance tool system according to some embodiments of the present disclosure, the wheelchair 20 includes an omnidirectional moving wheel 23, a motor 22 for driving the omnidirectional moving wheel 23, and a motor. And a motor driver 21 for controlling the motor 22.

移動補助具制御機器10の指令出力端は、モータドライバ21に接続される。ここで、制御装置10とモータドライバ21との間の接続は、有線通信でも無線通信でもありうる通信を含む。無線通信は、無線アダプタによって実現される。   The command output terminal of the movement assist tool control device 10 is connected to the motor driver 21. Here, the connection between the control device 10 and the motor driver 21 includes communication that can be wired communication or wireless communication. Wireless communication is realized by a wireless adapter.

上述のような移動補助具システム(例えば、車椅子)では、脚、腕又は身体の他の部分を動かす必要なく、眼球制御による移動補助具の操作を実現することができる。このように、障害者やハンディキャップを持つ人が車椅子などの従来の移動補助具を操作することが困難であるという問題を効果的に解決することができる。   In the movement assistance tool system (for example, a wheelchair) as described above, the operation of the movement assistance tool by eyeball control can be realized without the need to move the legs, arms, or other parts of the body. Thus, it is possible to effectively solve the problem that it is difficult for a disabled person or a person with a handicap to operate a conventional mobility aid such as a wheelchair.

一部の実施例によれば、上記のような移動補助具システムの移動補助具は、図11に示すように、停止ボタン及び安全制御パネルを更に含む。停止ボタン171は、強制停止指令を受信して安全制御パネル161に送信する。安全制御パネル161は、停止ボタン171及びモータドライバ21にそれぞれ接続され、停止ボタン171から強制停止指令を受けてモータドライバ21にモータ停止指令を送信する。一部の実施例において、安全制御パネル161は、警報インジケータ181にも接続され、停止ボタン171からの強制停止指令を受信すると、警報インジケータ181を制御して周囲の環境に警告する。   According to some embodiments, the mobility aid of the mobility aid system as described above further includes a stop button and a safety control panel, as shown in FIG. The stop button 171 receives a forced stop command and transmits it to the safety control panel 161. The safety control panel 161 is connected to the stop button 171 and the motor driver 21, receives a forced stop command from the stop button 171, and transmits a motor stop command to the motor driver 21. In some embodiments, the safety control panel 161 is also connected to an alarm indicator 181 and controls the alarm indicator 181 to warn the surrounding environment when a forced stop command is received from the stop button 171.

上記の構成は、以下の目的に用いられる。移動補助具システムのユーザが通常障害又はハンディキャップを持つ人であるため、移動補助具の停止を必要とする状況(事故など)が発生した場合、眼球制御の操作が通常遅いため、助手又は介護者が停止ボタンを押すことが便利かつ快速になり、それにより移動補助具の緊急制動を実現する。   The above configuration is used for the following purposes. Since the user of the mobility aid system is usually a person with a disability or handicap, if a situation that requires stopping of the mobility aid (such as an accident) occurs, the operation of the eye control is usually slow. It is convenient and quick for the person to press the stop button, thereby realizing emergency braking of the mobility aid.

本公開は、更に別の態様として、移動補助具を制御するための方法を提供する。この方法は、以下のステップを含む。
ステップ1:ユーザの眼球画像を撮影する。
ステップ2:画像処理及び識別によって、ユーザの眼球画像に基づいてユーザの眼球動作を識別する。
ステップ3:ユーザの眼球動作から移動補助具操作指令を生成する。
This publication provides as another aspect a method for controlling a mobility aid. The method includes the following steps.
Step 1: A user's eyeball image is imaged.
Step 2: The user's eye movement is identified based on the user's eye image by image processing and identification.
Step 3: A movement assistance tool operation command is generated from the user's eye movement.

上述のような移動補助具の制御方法において、まず、ユーザの眼球画像を撮影した後に、画像処理及び識別により、ユーザの眼球画像に基づいてユーザの眼球動作を識別し、最後にユーザの眼球動作を移動補助具操作指令に変換する。従って、脚、腕、手又は身体の他の部分を動かす必要なしに、眼球制御による移動補助具の操作を表現することができる。従って、障害者やハンディキャップを持つ人が車椅子などの従来の移動補助具を操作することが困難であるという問題を効果的に解決することができる。   In the control method of the movement assist tool as described above, first, after the user's eyeball image is captured, the user's eyeball motion is identified based on the user's eyeball image by image processing and identification, and finally the user's eyeball motion. Is converted into a movement assisting tool operation command. Therefore, the operation of the movement assisting tool by eyeball control can be expressed without having to move the legs, arms, hands, or other parts of the body. Therefore, it is possible to effectively solve the problem that it is difficult for a disabled person or a person with a handicap to operate a conventional mobility aid such as a wheelchair.

前記方法は、ステップ3の前に、ユーザから眼球制御開始指令を受信し、移動補助具の現在の状態が所定の操作準備状態であるか否かを確定し、所定の操作準備状態でない場合、操作準備指令を生成する。前記操作準備指令は、前記移動補助具に対し現在状態から前記操作準備状態への切り替えを指示する。移動補助具は、操作準備状態にあるとき、ユーザの眼球動作に対応する移動補助具操作指令に基づいて操作を実行する。   Before the step 3, the method receives an eyeball control start command from the user, determines whether or not the current state of the movement assist tool is a predetermined operation preparation state, and if not the predetermined operation preparation state, Generate an operation preparation command. The operation preparation command instructs the movement assist tool to switch from the current state to the operation preparation state. When the movement assist tool is in an operation preparation state, the movement assist tool performs an operation based on a movement assist tool operation command corresponding to the user's eye movement.

この方法は、ステップ3の後に更に下記ステップを含む。
ステップ4:眼球動作に対応する操作を実行するか否かをユーザに促し、ユーザからの確認指令を受けて移動補助具操作指令を移動補助具のモータドライバに送信する。
This method further includes the following steps after step 3.
Step 4: Prompt the user whether or not to perform an operation corresponding to the eye movement, receive a confirmation command from the user, and transmit a movement assisting tool operation command to the motor driver of the movement assisting tool.

ここで、ユーザから確認指令を受けてから移動補助具操作指令を送信する構成であるので、移動補助具操作指令を送信前に取り消すことができ、誤動作を防止し、安全性を向上させることができる。   Here, since it is the structure which transmits a movement assistance tool operation command after receiving confirmation instruction from a user, a movement assistance tool operation command can be canceled before transmission, preventing malfunctioning and improving safety. it can.

本公開の一部の実施例によれば、移動補助具を制御するための方法は、更に下記ステップを含む。
ステップ5:ユーザから眼球制御終了指令を受信し、眼球制御終了指令に基づいて操作終了指令を生成して、移動補助具を停止させ、移動補助具操作指令の移動補助具への送信を終了する。
According to some embodiments of the present disclosure, the method for controlling a mobility aid further includes the following steps.
Step 5: An eyeball control end command is received from the user, an operation end command is generated based on the eyeball control end command, the movement assist tool is stopped, and transmission of the movement assist tool operation command to the movement assist tool is terminated. .

以下は、移動補助具及びその制御方法の具体的な実施例の詳細な説明である。   The following is a detailed description of a specific embodiment of the movement assist tool and its control method.

図10及び図11は、本公開の一部の実施例による車椅子システムを示す。   10 and 11 illustrate a wheelchair system according to some embodiments of the present disclosure.

図10及び図11に示すように、車椅子システムは、ゴーグル18と車椅子とを含む。ゴーグル18は、カメラ11と、ブルートゥース無線通信回路111と、バッテリ131とを含み、ユーザの眼球画像をリアルタイムモードで撮影して送信する。   As shown in FIGS. 10 and 11, the wheelchair system includes goggles 18 and a wheelchair. The goggle 18 includes a camera 11, a Bluetooth wireless communication circuit 111, and a battery 131, and captures and transmits a user's eyeball image in a real-time mode.

車椅子は、椅子24と、椅子24の底部に取り付けられた1組で4つの全方向移動型車輪23と、1組のインホイールモータ221と、1組のモータドライバ21とを含む。各インホイールモータ221は、全方向移動型車輪23とモータドライバ21とに接続される。車椅子は、プロセッサ19、記憶回路(図示せず)、ブルートゥース回路141、音声プロンプト回路151、電源(例えばバッテリ)、及びエアスイッチ等を含む他の部品を更に含む。   The wheelchair includes a chair 24, a set of four omnidirectional wheels 23 attached to the bottom of the chair 24, a set of in-wheel motors 221, and a set of motor drivers 21. Each in-wheel motor 221 is connected to the omnidirectional wheel 23 and the motor driver 21. The wheelchair further includes other components including a processor 19, a memory circuit (not shown), a Bluetooth circuit 141, a voice prompt circuit 151, a power source (eg, a battery), and an air switch.

車椅子は、ユーザの眼球画像を受信し、画像解析アルゴリズムによりユーザの眼球動作を識別する。プロセッサ19は、ユーザの眼球動作に対応する車椅子操作指令を送信し。全方向移動型車輪23に、前進、後退、旋回など、移動方向の調整を行わせる。   The wheelchair receives the user's eyeball image and identifies the user's eyeball movement by an image analysis algorithm. The processor 19 transmits a wheelchair operation command corresponding to the user's eye movement. The omnidirectional movement type wheel 23 is adjusted in the moving direction such as forward, backward, and turning.

プロセッサ19は、所定のソフトウェアプログラムを実行することにより、本公開の一部の実施例において上述したような様々な回路の機能を実現することができることに留意されたい。例えば、プロセッサ19は、画像処理回路12、制御回路13、操作準備回路14、動作終了回路17の機能を実現することができ、送信回路16の機能を部分的に実現できる。   It should be noted that the processor 19 can implement various circuit functions as described above in some embodiments of the present disclosure by executing predetermined software programs. For example, the processor 19 can realize the functions of the image processing circuit 12, the control circuit 13, the operation preparation circuit 14, and the operation end circuit 17, and can partially realize the function of the transmission circuit 16.

眼球動作と各車椅子操作指令との対応関係を表1に例示する。表に示すように、「左を見る」、「右を見る」、「上を見る」及び「下を見る」の眼球動作は、それぞれ車椅子が左へ、右へ、前へ、後ろへの移動に対応する。「瞬き1回」、「瞬き2回」、「瞬き3回」の眼球動作は、それぞれ確認、停止、開始に対応する。なお、上記の対応関係は、カスタマイズできる。   Table 1 shows the correspondence between eye movements and wheelchair operation commands. As shown in the table, the eye movements of “Look Left”, “Look Right”, “Look Up” and “Look Down” move the wheelchair to the left, right, forward, back, respectively. Corresponding to The eye movements of “blink once”, “blink twice”, and “blink three times” correspond to confirmation, stop, and start, respectively. Note that the above correspondence can be customized.

図12は、本公開の一部の実施例による車椅子システムの動作フローチャートを示す。車椅子システムにおいて、カメラ1と一体化したゴーグルは、使用者に着用される。起動されると、カメラ11は、ユーザのリアルタイムな眼球画像を10回/秒の速度(速度をカスタマイズすることができる)で撮影する。ユーザの眼球画像は、ブルートゥース無線通信を介してプロセッサ19に送信される。プロセッサ19は、ユーザの眼球画像をリアルタイムで処理し、ユーザの眼球動作を識別する。   FIG. 12 shows an operational flowchart of a wheelchair system according to some embodiments of the present disclosure. In the wheelchair system, goggles integrated with the camera 1 are worn by the user. When activated, the camera 11 captures a real-time eyeball image of the user at a speed of 10 times / second (the speed can be customized). The user's eyeball image is transmitted to the processor 19 via Bluetooth wireless communication. The processor 19 processes the user's eyeball image in real time to identify the user's eye movement.

ユーザは、車椅子の制御を開始する前に、瞬きを3回してアクセス制御を行うことができるようになる。ユーザが眼球を左、右、上又は下に1回回すと、当該システムは、眼球画像識別結果及び眼球動作と車椅子操作指令との対応関係に基づいて、音声によって、左、右、前方、又は後方に移動するか否かを促す。ユーザが確認のために1回瞬きをした後に、車椅子は、ユーザが停止したいまで、眼球の動作に対応する操作を実行する。ユーザが2回瞬きをして車椅子に対する制御が終了する。   The user can perform access control by blinking three times before starting control of the wheelchair. When the user turns the eyeball to the left, right, up, or down once, the system performs the left, right, forward, or voice by voice based on the eyeball image identification result and the correspondence between the eyeball motion and the wheelchair operation command. Prompt whether or not to move backwards. After the user blinks once for confirmation, the wheelchair performs an operation corresponding to the movement of the eyeball until the user wants to stop. The user blinks twice and the control for the wheelchair ends.

同じ車椅子操作指令の場合、各全方向移動型車輪は、異なる公称動作を有することに留意されたい。   Note that for the same wheelchair operation command, each omnidirectional wheel has a different nominal motion.

上述した実施例における全方向移動型車輪は、メカナム車輪であることが好ましい。メカナム車輪は、従来の車輪に基づくものであり、車輪のリム上に配置され、角度α(通常は45度)を有する複数の自由に回転可能な小型ローラを含む。   The omnidirectional wheel in the embodiment described above is preferably a Mecanum wheel. Mecanum wheels are based on conventional wheels and include a plurality of freely rotatable miniature rollers disposed on the wheel rim and having an angle α (usually 45 degrees).

従って、車輪(即ち、中央車輪)が転動しているとき、小型ローラは、横方向の動きを有する。車椅子の4つのメカナム車輪の協調により、車椅子システムは、全方向の動きを実現することができる。また、上述のようなメカナム車輪を備えた車椅子システムは、支持力が強く、構造が簡単であり、運動制御が柔軟であるという利点を有し、車椅子に適している。   Thus, when the wheel (ie, the central wheel) is rolling, the small roller has a lateral movement. By coordinating the four Mecanum wheels of the wheelchair, the wheelchair system can achieve omnidirectional movement. Moreover, the wheelchair system provided with the Mecanum wheels as described above has advantages that the supporting force is strong, the structure is simple, and the motion control is flexible, and is suitable for a wheelchair.

図13は、車椅子の様々な主要な動きを実現する車椅子における4つの車輪(即ち、メカナム車輪)の協調を示す。
車椅子が前方に移動するとき、4つの車輪(即ち、メカナム車輪)のすべてが前方に回転する。
車椅子が後退するとき、4つの車輪の全てが後方へ回転する。
車椅子が右に移動するとき、左前輪と右後輪が前方へ回転し、右前輪と左後輪が後方へ回転する。
車椅子が左に移動するとき、左前輪と右後輪が後方へ回転し、右前輪と左後輪が前方へ回転する。
車椅子が時計回りに回転するとき、左前輪と左後輪が前方へ回転し、右前輪と右後輪が後方へ回転する。
車椅子が反時計回りに回転するとき、左前輪と左後輪が後方へ回転し、右前輪と右後輪が前方へ回転する。
車椅子が右前方に移動するとき、左前輪と右後輪が前方へ回転し、右前輪及び左後輪が回転しない。
車椅子が左前方に移動するとき、右前輪と左後輪が前方へ回転し、左前輪と右後輪が回転しない。
FIG. 13 illustrates the coordination of the four wheels (ie, Mecanum wheels) in a wheelchair that realizes various main movements of the wheelchair.
When the wheelchair moves forward, all four wheels (ie Mecanum wheels) rotate forward.
When the wheelchair moves backwards, all four wheels rotate backwards.
When the wheelchair moves to the right, the left front wheel and the right rear wheel rotate forward, and the right front wheel and the left rear wheel rotate backward.
When the wheelchair moves to the left, the left front wheel and the right rear wheel rotate backward, and the right front wheel and the left rear wheel rotate forward.
When the wheelchair rotates clockwise, the left front wheel and the left rear wheel rotate forward, and the right front wheel and the right rear wheel rotate backward.
When the wheelchair rotates counterclockwise, the left front wheel and the left rear wheel rotate backward, and the right front wheel and the right rear wheel rotate forward.
When the wheelchair moves to the right front, the left front wheel and the right rear wheel rotate forward, and the right front wheel and the left rear wheel do not rotate.
When the wheelchair moves to the left front, the right front wheel and the left rear wheel rotate forward, and the left front wheel and the right rear wheel do not rotate.

上記において、各メカナム車輪の前方又は後方への回転は、各メカナム車輪の中央車輪の回転方向である。   In the above, the forward or backward rotation of each Mecanum wheel is the rotation direction of the central wheel of each Mecanum wheel.

メカナム車輪では、各小型ローラが独立して回転する。メカナム車輪が回転しているとき、メカナム車輪の合成速度は、小型ローラに対して垂直であり、縦方向と横方向に分割することができる。   In the Mecanum wheel, each small roller rotates independently. When the Mecanum wheel is rotating, the combined speed of the Mecanum wheel is perpendicular to the small roller and can be divided in the longitudinal and lateral directions.

本明細書では、車椅子が右に移動することを例とする。図13の「右へ移動する」の概略図に示すように、各メカナム車輪の他に各矢印の方向は、対応するメカナム車輪の回転方向(即ち、メカナム車輪の中央車輪の回転方向)を示す。各メカナム車輪の速度を縦方向と横方向に分けた場合、長手方向に沿った速度が除去され、横方向(右方向)の速度のみが残ることが分かる。このように、車椅子は右への移動を実現することができる。   In this specification, the wheelchair moves to the right as an example. As shown in the schematic diagram of “move right” in FIG. 13, the direction of each arrow in addition to each Mecanum wheel indicates the rotation direction of the corresponding Mecanum wheel (that is, the rotation direction of the central wheel of the Mecanum wheel). . When the speed of each Mecanum wheel is divided into the vertical direction and the horizontal direction, it can be seen that the speed along the longitudinal direction is removed and only the speed in the horizontal direction (right direction) remains. In this way, the wheelchair can be moved to the right.

上記は、本分野の公知技術であり、記載を簡単かするために、その説明は、ここでは省略する。   The above is a known technique in this field, and the description thereof is omitted here for the sake of simplicity.

上述のような車椅子システムでは、眼球の瞬きや移動を含むユーザの眼球動作を監視して識別することにより、車椅子の制御を実現することができる。具体的に、全方向移動型車輪を車椅子システムに使用するので、特定の眼球動作及び各車輪の対応する協調回転によって、旋回半径がゼロであっても車椅子の移動に対する制御が実現される。   In the wheelchair system as described above, control of the wheelchair can be realized by monitoring and identifying the user's eye movement including blinking and movement of the eyeball. Specifically, since the omnidirectional wheel is used in the wheelchair system, control of the wheelchair movement is realized by a specific eye movement and corresponding coordinated rotation of each wheel even if the turning radius is zero.

本公開の一部の実施例による1つの制御機構は、以下のようにすることができる。
ユーザのリアルタイムの眼球画像をカメラによって予め確定された所定画像サンプルと比較して、瞳孔中心の座標の変化を確定する。次に、音声によって、ユーザに対しある動作をとるか否かを促す。ユーザから確認した後に、プロセッサは、モータドライバによって各モータをそれぞれ制御して各全方向移動型車輪を協調制御して、眼球に対応する車椅子使用者の操作を実現するための指令を送信する。
One control mechanism according to some embodiments of the present disclosure can be as follows.
The user's real-time eyeball image is compared with a predetermined image sample previously determined by the camera to determine changes in the coordinates of the pupil center. Next, the user is prompted by a voice whether or not to take a certain action. After confirmation from the user, the processor controls each motor by a motor driver to coordinately control each omnidirectional wheel, and transmits a command for realizing the operation of the wheelchair user corresponding to the eyeball.

ここで、「左を見る」、「右を見る」、「上を見る」、「下を見る」の眼球動作は、それぞれ車椅子の左へ、右へ、前へ、後ろへの移動に対応する。眼球の無意識な動きの干渉を避けるために、動作の妥当性を瞬きによって確認することができる。   Here, the eye movements of “Look Left”, “Look Right”, “Look Up”, and “Look Down” correspond to the movement of the wheelchair to the left, to the right, to the front, to the back, respectively . In order to avoid interference of unintentional movement of the eyeball, the validity of the movement can be confirmed by blinking.

上述のような本公開のいずれの実施例において、ステップの数は、ステップの順番の限定に対し制限しない。当業者が、ステップの順番に関して行ったあらゆる変更は、本公開の範囲内で考慮されるべきである。   In any embodiment of the present disclosure as described above, the number of steps is not limited to the limitation of the order of steps. Any changes made by those skilled in the art with respect to the order of the steps should be considered within the scope of this disclosure.

本公開の様々な実施例は、漸進的に説明され、異なる実施例の中の同じ又は同様の部分の説明は、互いに参照することができる。   Various embodiments of the present disclosure are described progressively, and descriptions of the same or similar parts in different embodiments can be referred to each other.

上記の方法の全部又は一部のステップは、対応するハードウェアを指示するコンピュータプログラムによって実現できることに留意されたい。ここで、コンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶することができる。実行時に、コンピュータプログラムは、上記実施例のいずれかに記載の方法のステップを含むことができる。記憶媒体は、磁気ディスク、CD、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)などであり、ここでは限定しない。   It should be noted that all or part of the steps of the above method can be realized by a computer program that indicates the corresponding hardware. Here, the computer program can be stored in a computer-readable storage medium. At run time, the computer program can include the steps of the methods described in any of the above embodiments. The storage medium is a magnetic disk, a CD, a read only memory (ROM), a random access memory (RAM), or the like, and is not limited here.

本公開に引用される全ての参考文献は、その全体が参考として援用される。特定の実施例を以上で詳細に説明してきたが、その説明は単なる例示のためのものである。従って、上記で説明した多くの態様は、特に断りのない限り、必須または必須の要素として意図されていないことを理解されたい。   All references cited in this publication are incorporated by reference in their entirety. Although specific embodiments have been described in detail above, the description is for illustrative purposes only. Thus, it should be understood that many of the aspects described above are not intended as essential or essential elements unless specifically stated otherwise.

上述したものに加えて、例示的な実施例の開示態様に対応する様々な変更及び同等の動作が、当業者によってなされ得る。以下の特許請求の範囲に記載された発明の精神及び範囲から逸脱することなく、その範囲は、そのような修正及び同等の構造を包含するように最も広い解釈が与えられるべきである。
In addition to the above, various modifications and equivalent operations corresponding to the disclosed aspects of the exemplary embodiments can be made by those skilled in the art. The scope should be accorded the broadest interpretation so as to encompass such modifications and equivalent constructions without departing from the spirit and scope of the invention as set forth in the following claims.

Claims (20)

ユーザの眼球画像を撮影することと、
前記ユーザの眼球画像に基づいて前記ユーザの眼球動作を識別することと、
移動補助具操作指令を生成して、ユーザの眼球動作に対応する操作の実行を移動補助具に指示することとを含む移動補助具のユーザによる制御方法。
Taking a user's eyeball image,
Identifying the user's eye movement based on the user's eye image;
A method for controlling a movement assistance tool by a user, including generating a movement assistance tool operation command and instructing the movement assistance tool to perform an operation corresponding to the user's eye movement.
前記ユーザの眼球画像に基づいて前記ユーザの眼球動作を識別することは、
前記ユーザの眼球画像から少なくとも1つの瞳孔の座標を確定することと、
少なくとも1つの瞳孔の座標を、ユーザの少なくとも1つの予め記憶された眼球画像のうちの少なくとも1つの瞳孔の座標と比較することによって、前記ユーザの眼球動作を確定することを含み、
ここで、ユーザの予め記憶された眼球画像のそれぞれが前記ユーザの1つの眼球動作に対応する請求項1に記載の方法。
Identifying the user's eye movement based on the user's eye image;
Determining coordinates of at least one pupil from the user's eyeball image;
Determining the eye movement of the user by comparing the coordinates of at least one pupil with the coordinates of at least one pupil of at least one pre-stored eye image of the user;
2. The method of claim 1, wherein each of the user's pre-stored eyeball images corresponds to one eye movement of the user.
ユーザの眼球画像から少なくとも1つの瞳孔の座標を確定することは、
前記ユーザの眼球画像における白目、虹彩、及び瞳孔の間のグレー値の差に基づいて行われる請求項2に記載の方法。
Determining the coordinates of at least one pupil from the user's eyeball image is
The method of claim 2, wherein the method is performed based on differences in gray values between white eyes, irises, and pupils in the user's eyeball image.
前記少なくとも1つの瞳孔の座標を、前記少なくとも1つの予め記憶された眼球画像のうちの前記少なくとも1つの瞳孔の座標と比較することによって、前記ユーザの眼球動作を確定することは、
前記少なくとも1つの瞳孔の座標と予め記憶された任意の眼球画像の少なくとも1つの瞳孔の座標との間の差が所定範囲内にあるか否かを確定することと、
前記少なくとも1つの瞳孔の座標と予め記憶された任意の眼球画像の少なくとも1つの瞳孔の座標との間の差が所定範囲内にある場合、前記ユーザの眼球動作が、前記予め記憶された任意の眼球画像に対応する眼球動作であると確定することを含む請求項2に記載の方法。
Determining the eye movement of the user by comparing the coordinates of the at least one pupil with the coordinates of the at least one pupil of the at least one pre-stored eye image;
Determining whether the difference between the coordinates of the at least one pupil and the coordinates of at least one pupil of any previously stored eyeball image is within a predetermined range;
If the difference between the coordinates of the at least one pupil and the coordinates of at least one pupil of any eyeball image stored in advance is within a predetermined range, the eye movement of the user is The method of claim 2, comprising determining that the eye movement corresponds to an eyeball image.
前記ユーザの眼球画像に基づいて前記ユーザの眼球動作を識別することと、移動補助具操作指令を生成して、ユーザの眼球動作に対応する操作の実行を前記移動補助具に指示することとの間に、
ユーザから眼球制御開始指令を受信すると、眼球制御を開始することと、
移動補助具が操作準備状態であるか否かを確定し、移動補助具が操作準備状態でない場合、操作準備指令を生成して、操作準備状態に調整するよう移動補助具に指示し、ユーザの眼球動作に対応する操作を移動補助具に実行させることとを更に含む請求項1〜4のいずれか一項に記載の方法。
Identifying the user's eye movement based on the user's eye image, generating a movement assist tool operation command, and instructing the movement assist tool to perform an operation corresponding to the user's eye movement. Between,
Receiving an eyeball control start command from the user, starting eyeball control;
Determine whether or not the mobility aid is in an operation ready state, and if the mobility aid is not in an operation ready state, generate an operation preparation command and instruct the mobility aid to adjust to the operation ready state. The method according to claim 1, further comprising causing the movement assisting tool to perform an operation corresponding to the eyeball movement.
移動補助具操作指令を生成してユーザの眼球動作に対応する操作の実行を移動補助具に指示した後に、
ユーザの眼球動作に対応する操作を実行するか否かをユーザに促すことと、
ユーザからの確認指令を受けると、移動補助具操作指令を移動補助具に送信することとを更に含む請求項5に記載の方法。
After generating a movement assistance tool operation command and instructing the movement assistance tool to perform an operation corresponding to the user's eye movement,
Prompting the user to perform an operation corresponding to the user's eye movement;
The method according to claim 5, further comprising: transmitting a movement assistance tool operation command to the movement assistance tool when receiving a confirmation command from the user.
前記ユーザから確認指令を受けて移動補助具操作指令を前記移動補助具に送信した後に、
ユーザから眼球制御終了指令を受信すると、眼球制御を終了することを更に含む請求項6に記載の方法。
After receiving a confirmation command from the user and transmitting a movement aid operation command to the movement aid,
The method according to claim 6, further comprising ending the eyeball control upon receiving an eyeball control end command from the user.
前記眼球動作は、移動補助具の左方向、右方向、前方、後方への移動にそれぞれ対応する左向き、右向き、上向き、下向きを含む請求項1に記載の方法。   The method according to claim 1, wherein the eye movement includes leftward, rightward, upward, and downward directions corresponding to leftward movement, rightward movement, forward movement, and backward movement, respectively. ユーザの眼球画像を撮影するためのカメラと、
前記カメラに接続され、前記ユーザの眼球画像に基づいて前記ユーザの眼球動作を識別するための画像処理回路と、
画像処理回路に接続され、移動補助具操作指令を生成してユーザの眼球動作に対応する操作の実行を移動補助具に指示するための制御回路とを含む移動補助具制御機器。
A camera for taking images of the user's eyeballs;
An image processing circuit connected to the camera for identifying the user's eye movement based on the user's eye image;
A movement assist tool control device connected to the image processing circuit and including a control circuit for generating a movement assist tool operation command and instructing the movement assist tool to perform an operation corresponding to the user's eye movement.
ユーザの眼球画像から少なくとも1つの瞳孔の座標を確定するための座標確定サブ回路と、
前記少なくとも1つの瞳孔の座標を、ユーザの少なくとも1つの予め記憶された眼球画像のうちの少なくとも1つの瞳孔の座標と比較することによって、ユーザの眼球動作を確定するための動作確定サブ回路とを含み、
ここで、ユーザの予め記憶された眼球画像のそれぞれは、ユーザの1つの眼球動作に対応する請求項9に記載の移動補助具制御機器。
A coordinate determination subcircuit for determining the coordinates of at least one pupil from the user's eyeball image;
An action determination sub-circuit for determining the eye movement of the user by comparing the coordinates of the at least one pupil with the coordinates of at least one pupil of the at least one pre-stored eye image of the user; Including
Here, each of the eyeball images stored in advance by the user corresponds to the movement of one eyeball of the user.
前記画像処理回路に接続されると共に、
ユーザの眼球動作が画像処理回路によって識別され、眼球制御開始指令をユーザから受信してから、移動補助具が操作準備状態にあるか否かを判定し、
移動補助具が操作準備状態でない場合、操作準備指令を生成して、操作準備状態に調整するよう移動補助具に指示し、ユーザの眼球動作に対応する操作を移動補助具に実行させるための操作準備回路を更に含む請求項9に記載の移動補助具制御機器。
Connected to the image processing circuit;
After the user's eye movement is identified by the image processing circuit and receiving an eye control start command from the user, it is determined whether or not the movement assisting tool is in an operation ready state,
When the movement assist tool is not in the operation ready state, an operation preparation command is generated, the movement assist tool is instructed to adjust to the operation ready state, and the operation corresponding to the user's eye movement is executed by the movement assist tool. The movement assist tool control apparatus according to claim 9, further comprising a preparation circuit.
ユーザの眼球動作が画像処理回路によって識別されてから、ユーザの眼球動作に対応する操作を実行するか否かをユーザに促すためのプロンプト回路と、
ユーザからの確認指令を受信すると、移動補助具操作指令を移動補助具に送信するための送信回路とを更に含む請求項9に記載の移動補助具制御機器。
A prompt circuit for prompting the user to execute an operation corresponding to the user's eye movement after the user's eye movement is identified by the image processing circuit;
The movement assistance tool control device according to claim 9, further comprising a transmission circuit for transmitting a movement assistance tool operation command to the movement assistance tool when receiving a confirmation command from the user.
ユーザから眼球制御終了指令を受信すると共に、ユーザからの眼球制御終了指令に基づいて操作終了指令を生成して、移動補助具を停止させ送信回路をシャットダウンさせるための操作終了回路を更に含む請求項12に記載の移動補助具制御機器。   An operation end circuit for receiving an eyeball control end command from the user, generating an operation end command based on the eyeball control end command from the user, and stopping the movement aid and shutting down the transmission circuit. 12. The movement assistance tool control device according to 12. 前記カメラと前記画像処理回路に接続され、前記ユーザの眼球画像を前記画像処理回路に送信するための通信回路を更に含む請求項9に記載の移動補助具制御機器。   The movement assistance tool control device according to claim 9, further comprising a communication circuit connected to the camera and the image processing circuit for transmitting an eyeball image of the user to the image processing circuit. 前記カメラは、ユーザが着用するゴーグルに位置する請求項9に記載の移動補助具制御機器。   The movement assistance tool control device according to claim 9, wherein the camera is located in goggles worn by a user. 請求項9〜15のいずれか一項に記載の移動補助具と、移動補助具制御機器を含む移動補助具システム。   The movement assistance tool system containing the movement assistance tool as described in any one of Claims 9-15, and a movement assistance tool control apparatus. 前記移動補助具は、
前記移動補助具用の移動装置を提供するための少なくとも1つの車輪と、
前記少なくとも1つの車輪を駆動するためのモータと、
前記移動補助具制御機器の指令出力側に接続され、前記モータを制御するためのモータドライバとを含む請求項16に記載の移動補助具システム。
The movement aid is
At least one wheel for providing a moving device for the movement aid;
A motor for driving the at least one wheel;
The movement assistance tool system according to claim 16, further comprising: a motor driver connected to a command output side of the movement assistance tool control device and controlling the motor.
前記少なくとも1つの車輪は、少なくとも1つの全方向移動型車輪を含む請求項17に記載の移動補助具システム。   The movement assistance tool system according to claim 17, wherein the at least one wheel includes at least one omnidirectional wheel. 前記少なくとも1つの全方向移動型車輪は、少なくとも1つのメカナム車輪を含む請求項18に記載の移動補助具システム。   19. The mobility aid system of claim 18, wherein the at least one omnidirectional wheel comprises at least one mecanum wheel. 強制停止指令を受信するための停止ボタンと、
停止ボタンとモータドライバにそれぞれ接続され、前記停止ボタンから前記強制停止指令を受信すると、モータ停止指令をモータドライバに送信するための安全制御パネルとを更に含む請求項16に記載の移動補助具システム。
A stop button for receiving a forced stop command;
The movement assistance tool system according to claim 16, further comprising a safety control panel connected to a stop button and a motor driver, respectively, and a safety control panel for transmitting the motor stop command to the motor driver when the forced stop command is received from the stop button. .
JP2017550131A 2016-06-07 2017-04-05 Mobility aid control method, apparatus and system Pending JP2019530479A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610398690.XA CN105892691A (en) 2016-06-07 2016-06-07 Method and device for controlling travel tool and travel tool system
CN201610398690.X 2016-06-07
PCT/CN2017/079448 WO2017211114A1 (en) 2016-06-07 2017-04-05 Travel tool control method, device and system

Publications (1)

Publication Number Publication Date
JP2019530479A true JP2019530479A (en) 2019-10-24

Family

ID=56711579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017550131A Pending JP2019530479A (en) 2016-06-07 2017-04-05 Mobility aid control method, apparatus and system

Country Status (4)

Country Link
US (1) US20190083335A1 (en)
JP (1) JP2019530479A (en)
CN (1) CN105892691A (en)
WO (1) WO2017211114A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105892691A (en) * 2016-06-07 2016-08-24 京东方科技集团股份有限公司 Method and device for controlling travel tool and travel tool system
CN106774841B (en) * 2016-11-23 2020-12-18 上海擎感智能科技有限公司 Intelligent glasses and awakening method and awakening device thereof
CN107007407B (en) * 2017-04-12 2018-09-18 华南理工大学 Wheelchair control system based on eye electricity
CN108189787B (en) * 2017-12-12 2020-04-28 北京汽车集团有限公司 Method and device for controlling vehicle seat, storage medium and vehicle
CN108652851B (en) * 2018-01-19 2023-06-30 西安电子科技大学 Eye-controlled wheelchair control method based on visual positioning technology
CN112513886B (en) * 2018-08-03 2024-03-22 索尼公司 Information processing method, information processing apparatus, and information processing program
JP7293039B2 (en) * 2019-08-16 2023-06-19 キヤノン株式会社 Imaging device and its control method
US10860098B1 (en) 2019-12-30 2020-12-08 Hulu, LLC Gesture-based eye tracking
CN113520740A (en) * 2020-04-13 2021-10-22 广东博方众济医疗科技有限公司 Wheelchair bed control method and device, electronic equipment and storage medium
US20220104959A1 (en) * 2020-10-07 2022-04-07 Jay Curtis Beavers Systems, methods, and techniques for eye gaze control of seat and bed positioning
JP2022171084A (en) * 2021-04-30 2022-11-11 キヤノン株式会社 Imaging device, control method of the same and program

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4207959A (en) * 1978-06-02 1980-06-17 New York University Wheelchair mounted control apparatus
US6842692B2 (en) * 2002-07-02 2005-01-11 The United States Of America As Represented By The Department Of Veterans Affairs Computer-controlled power wheelchair navigation system
US6842670B2 (en) * 2003-05-02 2005-01-11 Chung Shan Institute Of Science And Technology Eye-tracking driving system
CN100373397C (en) * 2006-07-11 2008-03-05 电子科技大学 Pre-processing method for iris image
US7970179B2 (en) * 2006-09-25 2011-06-28 Identix Incorporated Iris data extraction
CN101344919B (en) * 2008-08-05 2012-08-22 华南理工大学 Sight tracing method and disabled assisting system using the same
KR20120029228A (en) * 2010-09-16 2012-03-26 엘지전자 주식회사 Transparent display device and method for providing object information
CN102811308B (en) * 2011-05-31 2016-08-31 德尔福电子(苏州)有限公司 A kind of vehicle-mounted eye movement control system
US9135508B2 (en) * 2011-12-20 2015-09-15 Microsoft Technology Licensing, Llc. Enhanced user eye gaze estimation
CN102749991B (en) * 2012-04-12 2016-04-27 广东百泰科技有限公司 A kind of contactless free space sight tracing being applicable to man-machine interaction
TW201344502A (en) * 2012-04-20 2013-11-01 Utechzone Co Ltd Ear-hooked eye control device
TWI471808B (en) * 2012-07-20 2015-02-01 Pixart Imaging Inc Pupil detection device
US20150139486A1 (en) * 2013-11-21 2015-05-21 Ziad Ali Hassan Darawi Electronic eyeglasses and method of manufacture thereto
CN103838378B (en) * 2014-03-13 2017-05-31 广东石油化工学院 A kind of wear-type eyes control system based on pupil identification positioning
US10921896B2 (en) * 2015-03-16 2021-02-16 Facebook Technologies, Llc Device interaction in augmented reality
CN104850228B (en) * 2015-05-14 2018-07-17 上海交通大学 The method of the watching area of locking eyeball based on mobile terminal
CN204863717U (en) * 2015-06-03 2015-12-16 西安电子科技大学 Utilize eyeball to track wheelchair of control
CN205721637U (en) * 2016-06-07 2016-11-23 京东方科技集团股份有限公司 Walking-replacing tool system
CN105892691A (en) * 2016-06-07 2016-08-24 京东方科技集团股份有限公司 Method and device for controlling travel tool and travel tool system

Also Published As

Publication number Publication date
WO2017211114A1 (en) 2017-12-14
CN105892691A (en) 2016-08-24
US20190083335A1 (en) 2019-03-21

Similar Documents

Publication Publication Date Title
JP2019530479A (en) Mobility aid control method, apparatus and system
TWI535432B (en) Rehabilitation device with pace pattern projecting function and seat structure and control method thereof
Lin et al. Powered wheelchair controlled by eye-tracking system.
Zolotas et al. Head-mounted augmented reality for explainable robotic wheelchair assistance
JP6620564B2 (en) Transfer control device
US20170056262A1 (en) Life assistance system for assisting user in act of standing up
Puanhvuan et al. Navigation-synchronized multimodal control wheelchair from brain to alternative assistive technologies for persons with severe disabilities
US10076845B2 (en) Robot system, instruction input device, non-transitory computer-readable recording medium, and control method for robot system
US20220110818A1 (en) Robotic rollator walker with automated power drive
JP2015194798A (en) Driving assistance control device
CN205721637U (en) Walking-replacing tool system
KR101973784B1 (en) Apparatus for assisting the drive of electric wheel chair and electric wheel chair having the same
KR20140075480A (en) Walk Assist Device for the Elderly and the Infirm
Desai et al. Controlling a wheelchair by gesture movements and wearable technology
Croock et al. Gaze direction based mobile application for quadriplegia wheelchair control system
KR20210019704A (en) Wheelchair apparatus for movement and expression of user based on eye movement
JP2020010865A (en) Driver state determining device and driver state determination method
KR101124647B1 (en) Electric wheel chair using EOG signal
US20240019930A1 (en) Drive Manager For Power Wheelchair And Related Methods
CN111374677A (en) Apparatus and method for recognizing head motion
KR20220010641A (en) Self Safe braking motor-driven elderly walking assist device
JPWO2019142690A1 (en) One-seater electric vehicle travel control device, one-seater electric vehicle travel control system and one-seater electric vehicle
Chawda et al. Design and implementation of hybrid bci based wheelchair
RU214318U1 (en) ROBOTIZED ELECTRIC WHEELCHAIR WITH A MULTIMODAL HUMAN-MACHINE INTERFACE
WO2022215398A1 (en) Information provision system, information provision control device, and information provision method