JP2022012290A - 情報処理装置、情報処理方法、及び、システム - Google Patents

情報処理装置、情報処理方法、及び、システム Download PDF

Info

Publication number
JP2022012290A
JP2022012290A JP2020114026A JP2020114026A JP2022012290A JP 2022012290 A JP2022012290 A JP 2022012290A JP 2020114026 A JP2020114026 A JP 2020114026A JP 2020114026 A JP2020114026 A JP 2020114026A JP 2022012290 A JP2022012290 A JP 2022012290A
Authority
JP
Japan
Prior art keywords
obstacle
user
control unit
user terminal
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2020114026A
Other languages
English (en)
Inventor
修平 山本
Shuhei Yamamoto
由里香 田中
Yurika Tanaka
聡史 駒嶺
Satoshi Komamine
英男 長谷川
Hideo Hasegawa
智也 松原
Tomoya Matsubara
伊吹 嶋田
Ibuki Shimada
圭佑 庄司
Keisuke Shoji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020114026A priority Critical patent/JP2022012290A/ja
Priority to KR1020210081399A priority patent/KR20220003455A/ko
Priority to BR102021012512-8A priority patent/BR102021012512A2/pt
Priority to CN202110703757.7A priority patent/CN113959454A/zh
Priority to US17/360,053 priority patent/US20220004774A1/en
Publication of JP2022012290A publication Critical patent/JP2022012290A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/343Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L5/00Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/88Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • A61H2201/501Control means thereof computer controlled connected to external computer devices or networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5043Displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5097Control means thereof wireless
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Vascular Medicine (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Rehabilitation Therapy (AREA)
  • Primary Health Care (AREA)
  • Pain & Pain Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Child & Adolescent Psychology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)

Abstract

【課題】障害物の除去を促進させる。【解決手段】路上に存在する障害物を検出することと、検出された障害物から所定の距離内に存在するユーザを検出することと、検出されたユーザの端末に、障害物を移動する依頼を送信することと、を実行する制御部を備える。【選択図】図12

Description

本開示は、情報処理装置、情報処理方法、及び、システムに関する。
視覚障がい者の身につけた盲導センサからの超音波の送信と反射波の受信によって障害物への接近を検出し、歩行に必要な情報を音声・信号で報知する盲導システムが知られている(例えば、特許文献1参照。)。
特開平08-332198号公報
従来技術によれば、通行人が障害物を避けることができるが障害物はその場に残るため、その後にその場所を通る他の通行人も、その障害物を避ける必要がある。本開示の目的は、障害物の除去を促進させることにある。
本開示の態様の一つは、
路上に存在する障害物を検出することと、
検出された前記障害物から所定の距離内に存在するユーザを検出することと、
検出された前記ユーザの端末に、前記障害物を移動する依頼を送信することと、
を実行する制御部を備える情報処理装置である。
本開示の態様の一つは、
コンピュータが、
路上に存在する障害物を検出することと、
検出された前記障害物から所定の距離内に存在するユーザを検出することと、
検出された前記ユーザの端末に、前記障害物を移動する依頼を送信することと、
を実行する情報処理方法である。
本開示の態様の一つは、
路上に存在する障害物に応じた出力をするセンサと、
前記センサの出力に基づいて前記障害物を検出することと、
前記障害物から所定の距離内に存在するユーザを検出することと、
前記ユーザの端末に、前記障害物を移動する依頼を送信することと、
を実行する制御部を備えるサーバと、
を備えるシステムである。
また、本開示の他の態様は、上記の情報処理方法をコンピュータが実行するプログラム、または、このプログラムを非一時的に記憶した記憶媒体である。
本開示によれば、障害物の除去を促進させることができる。
実施形態に係るシステムの概略構成を示す図である。 実施形態において行われる撮影について説明するための図である。 実施形態に係るシステムを構成するカメラ、ユーザ端末、及び、サーバのそれぞれの構成の一例を概略的に示すブロック図である。 サーバの機能構成を例示した図である。 画像DBのテーブル構成を例示した図である。 ユーザ端末DBのテーブル構成を例示した図である。 ユーザ端末の機能構成を例示した図である。 第1実施形態に係るサーバがユーザ端末に移動依頼を送信する処理のフローチャートである。 実施形態に係るユーザ端末がサーバから移動依頼を受信したときの処理のフローチャートである。 第2実施形態に係る画像DBのテーブル構成を例示した図である。 第2実施形態に係るユーザ端末DBのテーブル構成を例示した図である。 第2実施形態に係るサーバがユーザ端末に移動依頼を送信する処理のフローチャートである。 第3実施形態に係るサーバがユーザに報酬を付与する処理のフローチャートである。 第4実施形態に係る画像DBのテーブル構成を例示した図である。 第4実施形態に係るサーバがユーザ端末に移動依頼を送信する処理のフローチャートである。 第4実施形態に係るサーバがユーザに報酬を付与する処理のフローチャートである。 道路の圧力に基づいて障害物の有無を判定する場合のシステムを構成する圧力検出装置、ユーザ端末、及び、サーバのそれぞれの構成の一例を概略的に示すブロック図である。
本開示の態様の一つである情報処理装置は、制御部を備える。制御部は、路上に存在する障害物を検出することと、検出された障害物から所定の距離内に存在するユーザを検出することと、検出されたユーザの端末に、障害物を移動する依頼を送信することと、を実行する。障害物の検出は、例えば、センサの検出値に基づいて行われる。センサは、例えば、カメラに備わるイメージセンサ、または、道路に設置される圧力センサである。例えば、カメラで撮影された画像を解析することにより、障害物を検出することができる。また、例えば、障害物が存在する場所では、道路に設置される圧力センサによって検出される圧力が大きくなるため、障害物を検出することが可能である。なお、障害物の検出には、複数のセンサを組み合わせてもよい。
また、制御部は、検出された障害物から所定の距離内に存在するユーザを検出する。検出されたユーザは、障害物を移動させるユーザに選定され得る。所定の距離は、例えば、ユーザが障害物を移動させるか否かの閾値になる距離である。すなわち、障害物の近くのユーザは障害物を移動させる可能性が高いが、障害物から離れるユーザほど、障害物を移動させる可能性が低くなる。したがって、例えば、ユーザによる障害物の除去が見込めるような障害物とユーザとの距離を所定の距離とする。そうすると、障害物から所定の距離内に存在するユーザであれば、障害物を移動させる可能性が高くなる。障害物とユーザとの距離は、例えば、障害物の位置及びユーザの位置に基づいて判定可能である。障害物の位置は、例えば、上記のセンサの位置に基づいて求めることができる。また、ユーザの位置は、例えば、上記のセンサの位置及びセンサの出力に基づいて求めることもできるし、または、ユーが所持する端末からの信号に基づいて求めることもできる。
そして、制御部は、検出されたユーザの端末に、障害物を移動する依頼を送信する。この依頼には、障害物を特定可能な情報が含まれていてもよい。端末で受信した依頼をユーザが認識することにより、ユーザが障害物を除去し得る。なお、ユーザには報酬を与えてもよい。
以下、図面に基づいて、本開示の実施の形態を説明する。以下の実施形態の構成は例示であり、本開示は実施形態の構成に限定されない。また、以下の実施形態は可能な限り組み合わせることができる。
<第1実施形態>
図1は、本実施形態に係るシステム1の概略構成を示す図である。システム1は、カメラ10で撮影した画像をサーバ30が解析することで路上の障害物を検出し、障害物から所定の距離内のユーザが所持するユーザ端末20に対して、障害物を移動させる依頼を送信するシステムである。
図1の例では、システム1は、カメラ10、ユーザ端末20、及び、サーバ30を含む。カメラ10、ユーザ端末20、及び、サーバ30は、ネットワークN1によって相互に接続されている。カメラ10は、例えば、監視カメラ又はライブカメラなどである。ユーザ端末20は、ユーザが利用する端末である。
ネットワークN1は、例えば、インターネット等の世界規模の公衆通信網でありWAN(Wide Area Network)やその他の通信網が採用されてもよい。また、ネットワークN1は、携帯電話等の電話通信網、または、Wi-Fi(登録商標)等の無線通信網を含んでもよい。なお、図1には、例示的に1つのカメラ10及び1つのユーザ端末20を図示しているが、これらは複数存在し得る。
図2は、本実施形態において行われる撮影について説明するための図である。本実施形態では、カメラ10が道路400を撮影する。なお、道路400に限らずユーザが通行可能な場所をカメラ10の撮影対象としてもよい。カメラ10によって撮影された画像はサーバ30へ送信される。ここで、カメラ10が撮影した画像には、通行人の通行の妨げとなる障害物401が写っている場合がある。サーバ30は、例えば、画像解析を行うことにより、画像内に障害物401が存在するか否か判断する。サーバ30は、障害物401を検出すると、近くにいるユーザのユーザ端末20へ、障害物401の移動の依頼を送信する。この依頼を受信したユーザ端末20では、障害物401の移動の依頼があったことをディスプレイに表示させたり、音を発したりして、ユーザに依頼があったことを報知する。この依頼にユーザが応じることによりユーザが障害物401を移動させる。これにより、例えば、視覚障がい者が障害物に接触することを抑制できる。
なお、サーバ30は、点字ブロック上に障害物401が存在する場合に限って、障害物401の移動の依頼を送信してもよい。すなわち、視覚障がい者が接触する可能性のある障害物401に限って、障害物401の移動の依頼を送信してもよい。点字ブロック上に障害物401が存在することは、例えば、カメラ10で撮影された画像を解析することにより判定可能である。
図3に基づいて、カメラ10、ユーザ端末20、及び、サーバ30のハードウェア構成及び機能構成について説明する。図3は、本実施形態に係るシステム1を構成するカメラ10、ユーザ端末20、及び、サーバ30のそれぞれの構成の一例を概略的に示すブロック図である。
サーバ30は、一般的なコンピュータの構成を有している。サーバ30は、プロセッサ
31、主記憶部32、補助記憶部33、及び、通信部34を有する。これらは、バスにより相互に接続される。プロセッサ31は、制御部の一例である。
プロセッサ31は、CPU(Central Processing Unit)やDSP(Digital Signal Processor)等である。プロセッサ31は、サーバ30を制御し、様々な情報処理の演算を
行う。プロセッサ31は、制御部の一例である。主記憶部32は、RAM(Random Access Memory)、ROM(Read Only Memory)等である。補助記憶部33は、EPROM(Erasable Programmable ROM)、ハードディスクドライブ(HDD、Hard Disk Drive)、リムーバブルメディア等である。補助記憶部33には、オペレーティングシステム(Operating System :OS)、各種プログラム、各種テーブル等が格納される。補助記憶部33に格納されたプログラムをプロセッサ31が主記憶部32の作業領域にロードして実行し、このプログラムの実行を通じて各構成部等が制御される。これにより、所定の目的に合致した機能をサーバ30が実現する。主記憶部32および補助記憶部33は、コンピュータで読み取り可能な記録媒体である。なお、サーバ30は、単一のコンピュータであってもよいし、複数台のコンピュータが連携したものであってもよい。また、補助記憶部33に格納される情報は、主記憶部32に格納されてもよい。また、主記憶部32に格納される情報は、補助記憶部33に格納されてもよい。
通信部34は、ネットワークN1経由で、カメラ10及びユーザ端末20と通信を行う手段である。通信部34は、例えば、LAN(Local Area Network)インターフェースボード、無線通信のための無線通信回路である。LANインターフェースボードや無線通信回路は、ネットワークN1に接続される。
次に、カメラ10は、屋内または屋外に配置されてカメラ10の周辺を撮影する装置である。カメラ10は、撮像部11及び通信部12を備える。撮像部11は、例えばCCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide
Semiconductor)イメージセンサなどの撮像素子を用いて撮影を行う。撮影により得られる画像は、静止画または動画の何れであってもよい。
通信部12は、カメラ10をネットワークN1に接続するための通信手段である。通信部12は、例えば、移動体通信サービス(例えば、5G(5th Generation)、4G(4th Generation)、3G(3rd Generation)、LTE(Long Term Evolution)等の電話通信
網)、Wi-Fi(登録商標)、または、Bluetooth(登録商標)等の無線通信を利用して、ネットワークN1経由で他の装置(例えばサーバ30等)と通信を行うための回路である。カメラ10で撮影された画像は、通信部12を介してサーバ30へ送信される。
次に、ユーザ端末20について説明する。ユーザ端末20は、例えば、スマートフォン、携帯電話、タブレット端末、個人情報端末、ウェアラブルコンピュータ(スマートウォッチ等)、パーソナルコンピュータ(Personal Computer、PC)といった小型のコンピュータである。ユーザ端末20は、プロセッサ21、主記憶部22、補助記憶部23、入力部24、ディスプレイ25、通信部26、及び、位置情報センサ27を有する。これらは、バスにより相互に接続される。プロセッサ21、主記憶部22、及び、補助記憶部23については、サーバ30のプロセッサ31、主記憶部32、及び、補助記憶部33と同様であるため、説明を省略する。
入力部24は、ユーザが行った入力操作を受け付ける手段であり、例えば、タッチパネル、マウス、キーボード、または、押しボタン等である。ディスプレイ25は、ユーザに対して情報を提示する手段であり、例えば、LCD(Liquid Crystal Display)、または、EL(Electroluminescence)パネル等である。入力部24及びディスプレイ25は、
1つのタッチパネルディスプレイとして構成してもよい。通信部26は、ユーザ端末20をネットワークN1に接続するための通信手段である。通信部26は、例えば、移動体通信サービス(例えば、5G(5th Generation)、4G(4th Generation)、3G(3rd Generation)、LTE(Long Term Evolution)等の電話通信網)、Wi-Fi(登録商標
)、Bluetooth(登録商標)等の無線通信網を利用して、ネットワークN1経由で他の装置(例えばサーバ30等)と通信を行うための回路である。
位置情報センサ27は、所定の周期で、ユーザ端末20の位置情報(例えば緯度、経度)を取得する。位置情報センサ27は、例えば、GPS(Global Positioning System)
受信部、無線通信部等である。位置情報センサ27で取得された情報は、例えば、補助記憶部23等に記録され、サーバ30に送信される。
次に、サーバ30の機能について説明する。図4は、サーバ30の機能構成を例示した図である。サーバ30は、機能構成要素として、制御部301、画像DB311、及び、ユーザ端末DB312を備える。サーバ30のプロセッサ31は、主記憶部32上のコンピュータプログラムにより、制御部301の処理を実行する。画像DB311及びユーザ端末DB312は、プロセッサ31によって実行されるデータベース管理システム(Database Management System、DBMS)のプログラムが、補助記憶部33に記憶されるデータを管理することで構築される。画像DB311及びユーザ端末DB312は、例えば、リレーショナルデータベースである。なお、サーバ30の各機能構成要素のいずれか、またはその処理の一部は、ネットワークN1に接続される他のコンピュータにより実行されてもよい。
制御部301は、カメラ10から画像を受信して、画像DB311に格納する。また、制御部301は、画像DB311に格納されている画像に対して画像解析を行い、道路400に障害物が存在する画像を抽出する。この抽出には、公知の技術を用いることができる。例えば、前回撮影した画像と今回撮影した画像とを比較して、道路400に変化している箇所があれば、障害物401が存在すると判定してもよい。また、画像解析によって、画像内の物体の種類を特定し、その物体が障害物401であるか否か判定してもよい。
また、制御部301は、障害物401の位置情報を取得する。なお、カメラ10の位置を障害物401の位置として扱ってもよい。カメラ10の位置は、カメラ10の識別記号(カメラID)と紐付けした予め画像DB311に入力しておいてもよい。すなわち、カメラ10の位置を予めサーバ30に登録しておき、画像を送信したカメラ10を特定することにより、画像が撮影された位置を取得してもよい。また、別法として、例えば、カメラ10からサーバ30へ送信する画像に、カメラ10の位置情報が含まれていてもよい。また、別法として、制御部301は、カメラ10の位置と、カメラ10の画角と、画像中の障害物401の位置と、に基づいて、障害物401の位置を特定してもよい。
また、制御部301は、障害物401から所定の距離内に存在するユーザ端末20を特定する。制御部301は、ユーザ端末20から送信される位置情報をユーザ端末DB312に記憶させる。ユーザ端末20からは所定の時間毎に位置情報が発信されるため、その都度、制御部301がユーザ端末DB312を更新する。位置情報は、ユーザ端末20の識別情報であるユーザ端末IDと紐付けされてユーザ端末20から発信される。
そして、制御部301は、障害物401の移動を依頼するユーザのユーザ端末20を選定する。制御部301は、例えば、障害物401から所定の距離内のユーザ端末20からランダムに選定してもよいし、障害物401から最も近いユーザ端末20を選定してもよい。また、複数のユーザ端末20を選定してもよい。なお、ユーザの移動方向に障害物401が存在するユーザ端末20に限って選定されるようにしてもよい。ユーザ端末20の
移動方向は、例えば、ユーザ端末20の位置の推移に基づいて推定してもよいし、ユーザ端末20で行われているルート案内、又は、ユーザ端末20で行われたルート検索の結果を受信して、その情報に基づいて推定してもよい。
制御部301は、ユーザ端末20を選定すると、障害物401を移動させる依頼(以下、移動依頼ともいう。)を生成する。制御部301は、ユーザが障害物401を認識可能なように移動依頼を生成する。この移動依頼には、例えば、移動を依頼する旨をユーザ端末20のディスプレイ25に表示させるための情報が含まれる。また、移動依頼には、例えば、障害物401が写っている画像、または、障害物401の位置情報を含めることもできる。そして、制御部301は、生成した移動依頼を選定したユーザ端末20へ送信する。
次に、画像DB311に格納される画像情報の構成について、図5に基づいて説明する。図5は、画像DB311のテーブル構成を例示した図である。画像情報テーブルは、カメラID、位置、及び、画像の各フィールドを有する。カメラIDフィールドには、カメラ10に固有の識別情報(カメラID)が入力される。カメラIDは、制御部301がカメラ10毎に付与する。位置フィールドには、カメラ10の位置を表す情報が入力される。カメラ10の位置を表す情報は、予め登録されていてもよく、画像と共にカメラ10から送信されてもよい。画像フィールドには、カメラ10が撮影した画像が入力される。画像は、カメラ10で撮影され、カメラIDと共にサーバ30へ送信される。
次に、ユーザ端末DB312に格納される位置情報の構成について、図6に基づいて説明する。図6は、ユーザ端末DB312のテーブル構成を例示した図である。位置情報テーブルは、ユーザ端末ID、及び、位置の各フィールドを有する。ユーザ端末IDフィールドには、ユーザ端末に固有の識別情報(ユーザ端末ID)が入力される。位置フィールドには、ユーザ端末20の位置を表す情報が入力される。ユーザ端末20の位置を表す情報は、ユーザ端末20から所定の時間毎に送信される。
次に、カメラ10の機能について説明する。カメラ10は、例えば、所定時間毎に撮影を行う。そして、撮影した画像をサーバ30へ送信する。
次に、ユーザ端末20の機能について説明する。図7は、ユーザ端末20の機能構成を例示した図である。ユーザ端末20は、機能構成要素として、制御部201を備える。ユーザ端末20のプロセッサ21は、主記憶部22上のコンピュータプログラムにより、制御部201の処理を実行する。制御部201は、例えば、サーバ30から受信した情報をディスプレイ25に表示させる。すなわち、サーバ30から移動依頼を受信した場合に、その移動依頼に関する情報をディスプレイ25に表示させる。
次に、サーバ30がユーザ端末20に移動依頼を送信する処理について説明する。図8は、本実施形態に係るサーバ30がユーザ端末20に移動依頼を送信する処理のフローチャートである。図8に示した処理は、サーバ30において、所定の時間毎に実行される。
ステップS101では、制御部301が、カメラ10から画像を受信したか否か判定する。ステップS101で肯定判定された場合にはステップS102へ進み、否定判定された場合には本ルーチンを終了させる。ステップS102では、制御部301が、カメラ10から受信した画像に障害物401が写っているか否か判定する。制御部301は、例えば、画像解析を行うことにより、画像に障害物401が写っているか否か判定する。ステップS102で肯定判定された場合にはステップS103へ進み、否定判定された場合には本ルーチンを終了させる。
ステップS103では、制御部301が、障害物401を移動させるユーザが所持するユーザ端末20を選定する。本ステップS103では、ユーザ端末20を選定することにより、障害物401を移動させるユーザを選定している。制御部301は、例えば、障害物401が撮影された位置(カメラ10の位置としてもよい。)からの距離が最も短い位置に存在するユーザ端末20を選定する。例えば画像DB311に格納されている位置情報と、ユーザ端末DB312に格納されている各ユーザ端末20の位置情報と、を比較して、障害物401から各ユーザ端末20までの距離を求め、この距離が最も短いユーザ端末20を選定する。この場合、カメラ10の位置と障害物401の位置とが同じとして扱ってもよい。なお、障害物401から所定の距離内にユーザ端末20が存在しない場合には、本ルーチンを終了させてもよい。
ステップS104では、制御部301が、ユーザ端末20へ送信するための移動依頼を生成する。移動依頼には、障害物401を特定できるように、カメラ10または障害物401の位置情報、及び障害物401の画像情報が含まれていてもよい。そして、ステップS105において、移動依頼がユーザ端末20へ送信される。このユーザ端末20は、ステップS103で選定されたユーザ端末20である。
次に、ユーザ端末20が移動依頼を受信したときの処理について説明する。図9は、本実施形態に係るユーザ端末20がサーバ30から移動依頼を受信したときの処理のフローチャートである。図9に示した処理は、ユーザ端末20において、所定の時間毎に実行される。
ステップS201では、制御部201が、サーバ30から移動依頼を受信したか否か判定する。ステップS201で肯定判定された場合にはステップS202へ進み、否定判定された場合には本ルーチンを終了させる。ステップS202では、制御部201が、ディスプレイ25に移動依頼に関する情報を表示させる。制御部201は、例えば、「障害物を移動させてください」との文字および障害物401の画像をディスプレイ25に表示させる。また、障害物401までのルーを案内してもよい。例えば、制御部201は、ユーザ端末20の現在地から、障害物401の位置までのルートを生成してディスプレイ25に表示させる。このルートの生成は、サーバ30が行って、ユーザ端末20に送信してもよい。
以上説明したように本実施形態によれば、障害物401の近くのユーザ端末20に障害物401を移動させる依頼を送信するために、ユーザによって障害物401が移動され得る。そのため、視覚障がい者などが障害物に接触することを抑制できる。
<第2実施形態>
本実施形態では、障害物401の種類に応じてユーザを選定して、そのユーザのユーザ端末20に移動依頼を送信する。例えば、障害物401が大きい場合、または、障害物401が重い場合には、ユーザによっては移動が困難な場合もある。このような場合には、制御部301が、例えば、成人男性の所持するユーザ端末20を選定して、移動依頼を送信する。制御部301は、例えば、カメラ10から取得した画像の解析を行うことにより、障害物401の種類、大きさ又は重さを判定する。制御部301は、例えば、公知の技術により障害物401の種類を特定し、その重さを取得してもよい。障害物401の種類と重さとの関係は、予め補助記憶部33に記憶させておく。
そして、制御部301は、障害物401の種類、大きさ又は重さを判定すると、この障害物401を移動可能なユーザの属性を判定する。このユーザの属性は、例えば、ユーザの年齢または性別を含む。障害物401の種類、大きさ又は重さと、障害物401を移動可能なユーザの属性との関係は、予め補助記憶部33に記憶させておく。制御部301は
、障害物401の種類及びユーザの属性を判定すると、画像DB311に格納する。
次に、本実施形態に係る画像DB311に格納される画像情報の構成について、図10に基づいて説明する。図10は、本実施形態に係る画像DB311のテーブル構成を例示した図である。画像情報テーブルは、カメラID、位置、画像、障害物、年齢、及び、性別の各フィールドを有する。カメラIDフィールド、位置フィールド、及び画像フィールドについては、図5と同じため説明を省略する。障害物フィールドには、制御部301が判定した障害物401の種類、大きさ又は重さが入力される。年齢フィールドには、障害物401を移動可能なユーザの年齢が入力される。図10に示した例では、年齢の幅が入力されている。また、年齢に制限がない場合には、「制限なし」と入力される。障害物401の種類、大きさ又は重さと、対応するユーザの年齢との関係は、補助記憶部33に記憶させておく。性別フィールドには、障害物を移動可能なユーザの性別が入力される。図10に示した例では、性別に制限がない場合には、「制限なし」と入力される。障害物401の種類、大きさ又は重さと、対応するユーザの性別との関係は、補助記憶部33に記憶させておく。
また、ユーザは、予めユーザ端末20を用いてサーバ30に年齢を登録していてもよい。別法として、サーバ30は、カメラ10が撮影したユーザの画像に基づいて公知の年齢判別プログラムを用いてユーザの年齢を推定してもよい。
次に、本実施形態に係るユーザ端末DB312に格納される位置情報の構成について、図11に基づいて説明する。図11は、本実施形態に係るユーザ端末DB312のテーブル構成を例示した図である。位置情報テーブルは、ユーザ端末ID、位置、年齢、及び、性別の各フィールドを有する。ユーザ端末IDフィールドには、ユーザ端末に固有の識別子(ユーザ端末ID)が入力される。位置フィールドには、ユーザ端末20に対応する位置情報が入力される。ユーザ端末20に対応する位置情報は、ユーザ端末20から所定の時間毎に送信される。年齢フィールドには、ユーザ端末20の所有者の年齢が入力される。性別フィールドには、ユーザ端末20の所有者の性別が入力される。
なお、年齢フィールドに入力される年齢に関する情報、及び、性別フィールドに入力される性別に関する情報は、ユーザがユーザ端末20にそれらの情報を入力し、ユーザ端末20からサーバ30へ送信される。別法として、例えば、ユーザ端末20の位置情報と、カメラ10の位置情報、及び、カメラ10から送信される画像とから、ユーザ端末20に対応するユーザが写っている画像を特定し、そのユーザが写っている画像を解析することで、ユーザ端末20に対応するユーザの年齢及び性別を制御部301が推定してもよい。この推定方法については、公知の技術を用いることができる。
次に、サーバ30がユーザ端末20に移動依頼を送信する処理について説明する。図12は、本実施形態に係るサーバ30がユーザ端末20に移動依頼を送信する処理のフローチャートである。図12に示した処理は、サーバ30において、所定の時間毎に実行される。図8に示したフローチャートと同じ処理が実行されるステップについては、同じ符号を付して説明を省略する。
図12に示したフローチャートでは、ステップS102で肯定判定されるとステップS301へ進む。ステップS301では、制御部301が、障害物401の種類を特定する。制御部301は、例えば、障害物401が写っている画像を解析することにより、障害物401の種類を特定する。例えば、制御部301は、画像DB311に格納されている画像から障害物401を抽出すると共に、例えば、抽出した障害物401の画像の特徴量から障害物の種類を特定してもよい。特徴量と障害物の種類との関係は予め補助記憶部33に記憶させておく。
ステップS302では、制御部301が、障害物401を移動させるユーザが所持するユーザ端末20を選定する。制御部301は、例えば、障害物401を移動可能なユーザであって、障害物401からの距離が最も短い位置にいるユーザが所持するユーザ端末20を選定する。ここで、障害物401を移動可能なユーザであるか否かは、障害物401に関連付けられるユーザの属性に応じて判定される。そのため、制御部301は、画像DB311から、障害物401に対応するユーザの年齢及び性別を取得する。そして、ユーザ端末DB312から、各ユーザ端末20に関連付けられる、位置、ユーザの年齢、及び、ユーザの性別を取得し、障害物401に対応可能なユーザのユーザ端末20を選定する。なお、障害物401から所定の距離内に対応可能なユーザのユーザ端末20が存在しない場合には、本ルーチンを終了させてもよい。ステップS302の処理が完了すると、ステップS104へ進む。
以上説明したように本実施形態によれば、障害物401の属性及びユーザの属性に応じて障害物401の移動を依頼するユーザを選定するため、障害物401を移動してもらえる確率が高くなる。
<第3実施形態>
本実施形態では、障害物401を移動したユーザに対して、報酬を与える。報酬は、例えば、電子マネー、割引券、商品券、または、所定のポイントである。割引券、商品券、または、所定のポイントは、障害物401の周辺の店舗等で使用可能なものであってもよい。また、報酬は、複数の候補の中からユーザが選択してもよい。
次に、サーバ30がユーザに報酬を与える処理について説明する。図13は、本実施形態に係るサーバ30がユーザに報酬を与える処理のフローチャートである。図13に示した処理は、サーバ30において、所定の時間毎に実行される。図8に示したフローチャートと同じ処理が実行されるステップについては、同じ符号を付して説明を省略する。
図13に示したフローチャートでは、ステップS105の処理が完了するとステップS401へ進む。ステップS401では、制御部301が、障害物401が移動されたか否か判定する。制御部301は、例えば、カメラ10から送信される画像を解析して、障害物401が移動されたか否か判定する。このときに、移動依頼を送信したユーザ端末20を所持するユーザが障害物401を移動させたか否か判定してもよい。ステップS401で肯定判定された場合にはステップS402へ進み、否定判定された場合には本ルーチンを終了させる。なお、ステップS105の処理が終了した後に、ステップS401の処理を開始するまで、ある程度の時間があってもよい。このある程度の時間は、ユーザが障害物401を移動させるのに要する時間である。
ステップS402では、制御部301が、報酬情報を生成する。この報酬情報には、ユーザが報酬を受けるための情報が含まれる。報酬情報は、予めサーバ30の補助記憶部33に記憶されていてもよい。そして、ステップS403では、制御部301が、報酬情報をユーザ端末20送信することにより、ユーザに報酬を与える。
以上説明したように本実施形態によれば、障害物401を移動したユーザに対して報酬を与えるため、ユーザによって障害物401を移動してもらえる確率が高くなる。
<第4実施形態>
本実施形態では、状況に応じて障害物401を移動させるユーザを選定する条件を変える。そのため、障害物401ごとに、移動させる優先度を設定する。例えば、障害物401の位置が所定の場所である場合には、所定の場所以外の場合よりも優先度を高くする。
ここでいう所定の場所は、障害物401を移動させる要求の高い場所であり、一例として、視覚障がい者用の設備(例えば、点字ブロック、視覚障がい者用の横断歩道)が設置されている場所を挙げることができる。また、障害物401を移動させる要求の高い場所の一例として、人または移動体(例えば、自律走行車両)の通行量が多い場所を挙げることができる。制御部301は、カメラ10で撮影された画像を解析することにより、人または移動体の通行量を検出する。
また、例えば、人または移動体(例えば、自律走行車両)の通行量が多い場所ほど、優先度を高くしてもよい。サーバ30の補助記憶部33に通行量と優先度との関係を記憶させておくことにより、通行量に基づいて優先度を取得することができる。そして、制御部301は、優先度が高い場所ほど、障害物401を移動させるユーザを集めやすくするように、例えば、ユーザ端末20を検索する範囲(所定の範囲)を広くしたり、または、ユーザに付与する報酬の額を高くしたりする。
次に、本実施形態に係る画像DB311に格納される画像情報の構成について、図14に基づいて説明する。図14は、本実施形態に係る画像DB311のテーブル構成を例示した図である。画像情報テーブルは、カメラID、位置、画像、及び、優先度の各フィールドを有する。カメラIDフィールド、位置フィールド、及び画像フィールドは、図5と同じであるため説明を省略する。優先度フィールドには、障害物401を移動させる優先度が入力される。優先度は、例えば、「高」及び「低」の2段階で表してもよく、複数の段階で表してもよい。例えば、点字ブロックが設置されている場所の優先度を「高」とし、点字ブロックが設置されていない場所の優先度を「低」としてもよい。点字ブロックが設置されている場所は、予めサーバ30の補助記憶部33に登録されていてもよく、または、カメラ10から送信された画像を解析することにより判定してもよい。
次に、サーバ30がユーザ端末20に移動依頼を送信する処理について説明する。図15は、本実施形態に係るサーバ30がユーザ端末20に移動依頼を送信する処理のフローチャートである。図15に示した処理は、サーバ30において、所定の時間毎に実行される。図8に示したフローチャートと同じ処理が実行されるステップについては、同じ符号を付して説明を省略する。
図15に示したフローチャートでは、ステップS102で肯定判定されるとステップS501へ進む。ステップS501では、制御部301が、障害物401を移動させる優先度を算出する。制御部301は、例えば、カメラ10から送信される画像を解析して、通行人及び車両の通行量を取得する。そして、通行量に基づいて優先度を算出する。例えば、通行量が閾値以上であれば優先度を「高」に設定し、閾値未満であれば優先度を「低」に設定する。閾値は、補助記憶部33に記憶しておく。また、例えば、点字ブロックが設置されている場所であれば優先度を「高」に設定し、点字ブロックが設置されていない場所であれば優先度を「低」に設定する。
ステップS502では、制御部301が、優先度が「高」であるか否か判定する。ステップS502で肯定判定された場合にはステップS503へ進み、否定判定された場合にはステップS504へ進む。ステップS503では、制御部301が、ユーザ端末20の検索範囲を広い範囲に設定する。一方、ステップS504では、制御部301が、ユーザ端末20の検索範囲を狭い範囲に設定する。なお、ステップS503で設定される検索範囲は、ステップS504で設定される検索範囲を全て含み、且つ、ステップS504で設定される検索範囲よりも広い範囲である。そして、ステップS505では、制御部301が、ステップS503またはステップS504で設定した検索範囲内からユーザ端末20を選定する。ユーザ端末20の選定方法は、図8に示したフローチャートのステップS103と同じである。
次に、障害物401を移動させたユーザに報酬を与える場合について説明する。図16は、本実施形態に係るサーバ30がユーザに報酬を与える処理のフローチャートである。図16に示した処理は、サーバ30において、所定の時間毎に実行される。図8、図13または図15に示したフローチャートと同じ処理が実行されるステップについては、同じ符号を付して説明を省略する。
図16に示したフローチャートでは、ステップS502で肯定判定されるとステップS601へ進み、否定判定されるとステップS602へ進む。
ステップS601では、制御部301が、障害物401を移動したユーザに付与する報酬を高額に設定する。一方、ステップS602では、制御部301が、障害物401を移動したユーザに付与する報酬を低額に設定する。ステップS602で設定される報酬は、ステップS601で設定される報酬よりも低額にする。
また、図16に示したフローチャートでは、ステップS401で肯定判定されるとステップS603へ進む。ステップS603では、制御部301が、報酬情報を生成する。この報酬情報は、ステップS601またはステップS602で設定された報酬の額に応じて生成される。ステップS603の処理が完了するとステップS403へ進む。
以上説明したように本実施形態によれば、障害物401を移動する優先度に応じてユーザの選択範囲を変えたり、ユーザに付与する報酬を変えたりすることにより、移動する優先度の高い障害物401を移動してもらえる確率が高くなる。
<その他の実施形態>
上記の実施形態はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施し得る。
本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。あるいは、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。コンピュータシステムにおいて、各機能をどのようなハードウェア構成(サーバ構成)によって実現するかは柔軟に変更可能である。例えば、サーバ30の機能の一部を、カメラ10またはユーザ端末20が備えていてもよい。
上記実施形態では、障害物401の移動を依頼されたユーザが障害物401を移動させるものとして説明したが、障害物401の移動を依頼されたユーザが、障害物401の移動を断ることもできる。例えば、サーバ30の制御部301がユーザ端末20に移動依頼を送信するときに、障害物401を移動させることができるか否かの問い合わせを行ってもよい。そして、ユーザがユーザ端末20に回答を入力しなかったり、障害物401の移動を断る旨の回答をしたりした場合には、サーバ30の制御部301は、障害物401を移動させる他のユーザを探してもよい。
また、上記実施形態では、カメラ10が撮影した画像に基づいて障害物401を検出しているが、このカメラ10は、固定されたカメラであってもよいが、移動体に備わるカメラであってもよい。すなわち、移動体に備わるカメラから送信される画像及び位置情報に基づいて、障害物401を検出すると共に障害物401が存在する位置を取得してもよい。また、カメラ10によって撮影された画像の解析によって障害物401を検出する代わ
りに、例えば、道路に備わる圧力センサの検出値に基づいて障害物401を検出してもよい。すなわち、所定の圧力変化があって、その状態が所定の時間以上継続した場所に障害物401が存在すると判定してもよい。この圧力センサによって障害物401の大きさ又は重さを検出することもできるため、障害物401を移動させるユーザを選定するときに適切なユーザを選定することもできる。また、レーダーにより障害物401を検出してもよい。
例えば、図17は、道路400の圧力に基づいて障害物の有無を判定する場合のシステム1を構成する圧力検出装置50、ユーザ端末20、及び、サーバ30のそれぞれの構成の一例を概略的に示すブロック図である。ユーザ端末及びサーバ30については、上記実施形態と同じである。圧力検出装置50は、圧力検出部51及び通信部52を備える。通信部52は、カメラ10の通信部12と同様の機能を有する。また、圧力検出部51は、道路400にかかる圧力を検出する圧力センサ501を含んで構成される。この圧力センサ501は、例えば、障害物401を検出可能なように所定の間隔で設置されていてもよい。そして、図8のステップS101において、カメラ10から画像を受信したか否か判定する代わりに、圧力検出装置50から圧力センサ501の出力値を受信したか否か判定し、ステップS102において、制御部301が、カメラ10から受信した画像に障害物401が写っているか否か判定する代わりに、圧力検出装置50から受信した圧力の変化から障害物401が存在するか否か判定する。
また、上記実施形態では、1つの障害物401に対して、1人のユーザに移動依頼を送信しているが、これに代えて、複数のユーザに移動依頼を送信してもよい。例えば、1人のユーザに移動依頼を送信しても、そのユーザが障害物401を移動してくれるとは限らないため、予め複数のユーザに移動依頼を送信しておく。また、例えば、障害物401を1人のユーザで運ぶことが困難な場合も考えられる。このような場合に、障害物401を運び得る人数のユーザに移動依頼を送信してもよい。例えば、障害物401が大きいほど、又は、障害物401が重いほど、より多くのユーザに対して移動依頼を送信してもよい。障害物401の大きさ又は重さと、ユーザの数との関係は、予め補助記憶部33に格納しておいてもよい。
本開示は、上記の実施形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよいし、ネットワークを介してコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD-ROM、DVDディスク、ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体を含む。
1 システム
10 カメラ
11 撮像部
12 通信部
20 ユーザ端末
21 プロセッサ
22 主記憶部
23 補助記憶部
24 入力部
25 ディスプレイ
26 通信部
27 位置情報センサ
30 サーバ
31 プロセッサ
32 主記憶部
33 補助記憶部
34 通信部
201 制御部
301 制御部

Claims (20)

  1. 路上に存在する障害物を検出することと、
    検出された前記障害物から所定の距離内に存在するユーザを検出することと、
    検出された前記ユーザの端末に、前記障害物を移動する依頼を送信することと、
    を実行する制御部を備える情報処理装置。
  2. 前記制御部は、
    前記路上を撮影するカメラが撮影した画像を取得することと、
    前記画像に基づいて前記障害物を検出することと、
    を実行する、
    請求項1に記載の情報処理装置。
  3. 前記制御部は、
    道路にかかる圧力を検出するセンサからの検出値を取得することと、
    前記センサからの検出値に基づいて前記障害物を検出することと、
    を実行する、
    請求項1または2に記載の情報処理装置。
  4. 前記制御部は、
    前記障害物から前記所定の距離内に存在するユーザを検出することとして、前記障害物から前記所定の距離内に存在するユーザの端末を検出する、
    請求項1から3の何れか1項に記載の情報処理装置。
  5. 前記制御部は、
    前記障害物を移動する依頼を送信する前記ユーザの端末を、前記ユーザの属性に応じて選定する、
    請求項1から4の何れか1項に記載の情報処理装置。
  6. 前記制御部は、
    前記障害物を移動する依頼を送信する前記ユーザの端末を、前記障害物の属性及び前記ユーザの属性に応じて選定する、
    請求項1から4の何れか1項に記載の情報処理装置。
  7. 前記制御部は、
    前記障害物が移動された場合に、前記ユーザの端末に報酬に関する情報を送信する、
    請求項1から6の何れか1項に記載の情報処理装置。
  8. 前記制御部は、
    前記障害物が存在する道路における人または車両の通行量に応じて、前記所定の距離を変える、
    請求項1から7の何れか1項に記載の情報処理装置。
  9. 前記制御部は、
    前記通行量が多いほど、前記所定の距離の長くする、
    請求項8に記載の情報処理装置。
  10. 前記制御部は、
    前記障害物が移動された場合に、前記ユーザの端末に報酬に関する情報を送信する場合において、
    前記通行量が多いほど、前記報酬を高くする、
    請求項1から9の何れか1項に記載の情報処理装置。
  11. 前記制御部は、
    前記障害物が存在する位置が所定の場所であるか否かに応じて、前記所定の距離を変える、
    請求項1から10の何れか1項に記載の情報処理装置。
  12. 前記所定の場所が、点字ブロックが配置されている場所である、
    請求項11に記載の情報処理装置。
  13. 前記制御部は、
    前記障害物が存在する位置が前記所定の場所である場合には、前記障害物が存在する位置が前記所定の場所でない場合よりも、前記所定の距離の長くする、
    請求項11または12に記載の情報処理装置。
  14. 前記制御部は、
    前記障害物が移動された場合に、前記ユーザの端末に報酬に関する情報を送信する場合において、
    前記障害物が存在する位置が前記所定の場所である場合には、前記障害物が存在する位置が前記所定の場所でない場合よりも、前記報酬を高くする、
    請求項1から13の何れか1項に記載の情報処理装置。
  15. コンピュータが、
    路上に存在する障害物を検出することと、
    検出された前記障害物から所定の距離内に存在するユーザを検出することと、
    検出された前記ユーザの端末に、前記障害物を移動する依頼を送信することと、
    を実行する情報処理方法。
  16. コンピュータが、
    前記障害物を移動する依頼を送信する前記ユーザの端末を、前記ユーザの属性に応じて選定する、
    請求項15に記載の情報処理方法。
  17. コンピュータが、
    前記障害物が移動された場合に、前記ユーザの端末に報酬に関する情報を送信する、
    請求項15または16に記載の情報処理方法。
  18. 路上に存在する障害物に応じた出力をするセンサと、
    前記センサの出力に基づいて前記障害物を検出することと、
    前記障害物から所定の距離内に存在するユーザを検出することと、
    前記ユーザの端末に、前記障害物を移動する依頼を送信することと、
    を実行する制御部を備えるサーバと、
    を備えるシステム。
  19. 前記制御部は、
    前記障害物を移動する依頼を送信する前記ユーザの端末を、前記ユーザの属性に応じて選定する、
    請求項18に記載のシステム。
  20. 前記制御部は、
    前記障害物が移動された場合に、前記ユーザの端末に報酬に関する情報を送信する、
    請求項18または19に記載のシステム。
JP2020114026A 2020-07-01 2020-07-01 情報処理装置、情報処理方法、及び、システム Withdrawn JP2022012290A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020114026A JP2022012290A (ja) 2020-07-01 2020-07-01 情報処理装置、情報処理方法、及び、システム
KR1020210081399A KR20220003455A (ko) 2020-07-01 2021-06-23 정보 처리 장치, 정보 처리 방법, 및 정보 처리 시스템
BR102021012512-8A BR102021012512A2 (pt) 2020-07-01 2021-06-24 Dispositivo de processamento de informação, método de processamento de informação e sistema de processamento de informação
CN202110703757.7A CN113959454A (zh) 2020-07-01 2021-06-24 信息处理装置、信息处理方法和信息处理系统
US17/360,053 US20220004774A1 (en) 2020-07-01 2021-06-28 Information processing device, information processing method, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020114026A JP2022012290A (ja) 2020-07-01 2020-07-01 情報処理装置、情報処理方法、及び、システム

Publications (1)

Publication Number Publication Date
JP2022012290A true JP2022012290A (ja) 2022-01-17

Family

ID=79166859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020114026A Withdrawn JP2022012290A (ja) 2020-07-01 2020-07-01 情報処理装置、情報処理方法、及び、システム

Country Status (5)

Country Link
US (1) US20220004774A1 (ja)
JP (1) JP2022012290A (ja)
KR (1) KR20220003455A (ja)
CN (1) CN113959454A (ja)
BR (1) BR102021012512A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7477694B1 (ja) 2023-07-27 2024-05-01 Kddi株式会社 情報処理装置、情報処理方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002057976A1 (fr) * 2001-01-12 2002-07-25 Secom Co.,Ltd. Appareil d'assistance de recherche, systeme d'assistance de recherche, terminal d'instruction d'operations, procede d'assistance de recherche, et systeme d'instruction d'operations
WO2009090807A1 (ja) * 2008-01-16 2009-07-23 Nec Corporation 移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム
JP2020024655A (ja) * 2018-07-26 2020-02-13 株式会社リコー 情報提供システム、情報提供装置、情報提供方法、及びプログラム
JP2020059572A (ja) * 2018-10-09 2020-04-16 サトーホールディングス株式会社 入出庫作業支援プログラム、入出庫作業支援方法、及び入出庫作業支援システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4240321B2 (ja) * 2005-04-04 2009-03-18 住友電気工業株式会社 障害物検出センター装置及び障害物検出方法
JP4845783B2 (ja) * 2007-03-16 2011-12-28 パイオニア株式会社 情報処理方法、車載装置および情報配信装置
JP5880498B2 (ja) * 2013-08-09 2016-03-09 トヨタ自動車株式会社 自律移動体、障害物判別方法及び障害物回避方法
KR20150128314A (ko) * 2014-05-09 2015-11-18 현대모비스 주식회사 차량 aeb 제동 장치 및 그 방법
US9751527B2 (en) * 2014-07-09 2017-09-05 Alcatel-Lucent Usa Inc. In-the-road, passable obstruction avoidance arrangement
JP2016110378A (ja) * 2014-12-05 2016-06-20 パナソニックIpマネジメント株式会社 道路監視システム
KR20180072139A (ko) * 2016-12-21 2018-06-29 현대자동차주식회사 차량 및 그 제어 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002057976A1 (fr) * 2001-01-12 2002-07-25 Secom Co.,Ltd. Appareil d'assistance de recherche, systeme d'assistance de recherche, terminal d'instruction d'operations, procede d'assistance de recherche, et systeme d'instruction d'operations
WO2009090807A1 (ja) * 2008-01-16 2009-07-23 Nec Corporation 移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム
JP2020024655A (ja) * 2018-07-26 2020-02-13 株式会社リコー 情報提供システム、情報提供装置、情報提供方法、及びプログラム
JP2020059572A (ja) * 2018-10-09 2020-04-16 サトーホールディングス株式会社 入出庫作業支援プログラム、入出庫作業支援方法、及び入出庫作業支援システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7477694B1 (ja) 2023-07-27 2024-05-01 Kddi株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20220004774A1 (en) 2022-01-06
BR102021012512A2 (pt) 2022-01-11
CN113959454A (zh) 2022-01-21
KR20220003455A (ko) 2022-01-10

Similar Documents

Publication Publication Date Title
US9990585B2 (en) Information processing apparatus, information processing method and computer-readable storage medium for generating course information
US20210117726A1 (en) Method for training image classifying model, server and storage medium
Saha et al. Closing the gap: Designing for the last-few-meters wayfinding problem for people with visual impairments
US20170153113A1 (en) Information processing apparatus, information processing method, and program
US20150186426A1 (en) Searching information using smart glasses
RU2664003C2 (ru) Способ и устройство для определения ассоциированного пользователя
US10275943B2 (en) Providing real-time sensor based information via an augmented reality application
WO2018171047A1 (zh) 一种拍摄引导方法、设备及系统
US9852343B2 (en) Imaging apparatus, display method, and storage medium
JP2022012290A (ja) 情報処理装置、情報処理方法、及び、システム
Feng et al. Commute booster: a mobile application for first/last mile and middle mile navigation support for people with blindness and low vision
US20200342366A1 (en) Recording Medium, Information Processing System, and Information Processing Method
WO2022110801A1 (zh) 数据处理方法及装置、电子设备和存储介质
JP6077930B2 (ja) 情報管理装置、情報管理システム、通信端末および情報管理方法
JP2021071967A (ja) 対応支援システム、方法及びプログラム
JP6115673B2 (ja) 装置、及びプログラム
JP5977697B2 (ja) 電子機器、および電子機器を制御するための方法
CN113885550B (zh) 信息处理装置、信息处理方法以及非临时性存储介质
KR101810533B1 (ko) 영상인식 기술을 이용한 지도 서비스에 관심 지점 입력 장치 및 방법
JP2017090062A (ja) 情報処理システム、情報処理装置、情報処理方法及びプログラム
US9877163B2 (en) Method for detecting synchronized terminal with pose similar to reference pose data, method for transmitting message, and computer readable storage medium recorded with program therefor
EP4131057A1 (en) Information processing device and information processing method
JP6801985B2 (ja) 情報付与方法およびサーバ装置
JP5920448B2 (ja) 撮像装置、プログラム
JP6092753B2 (ja) 情報通知装置、情報通知方法、情報通知プログラム、および、情報通知システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20230627