JPWO2019021973A1 - 端末装置、危険予測方法、プログラム - Google Patents

端末装置、危険予測方法、プログラム Download PDF

Info

Publication number
JPWO2019021973A1
JPWO2019021973A1 JP2019532574A JP2019532574A JPWO2019021973A1 JP WO2019021973 A1 JPWO2019021973 A1 JP WO2019021973A1 JP 2019532574 A JP2019532574 A JP 2019532574A JP 2019532574 A JP2019532574 A JP 2019532574A JP WO2019021973 A1 JPWO2019021973 A1 JP WO2019021973A1
Authority
JP
Japan
Prior art keywords
user
risk
terminal device
walking
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019532574A
Other languages
English (en)
Other versions
JP6822571B2 (ja
Inventor
将人 守屋
将人 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019021973A1 publication Critical patent/JPWO2019021973A1/ja
Application granted granted Critical
Publication of JP6822571B2 publication Critical patent/JP6822571B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/0423Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting deviation from an expected pattern of behaviour or schedule
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0461Sensor means for detecting integrated or attached to an item closely associated with the person but not worn by the person, e.g. chair, walking stick, bed sensor
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0446Sensor means for detecting worn on the body to detect changes of posture, e.g. a fall, inclination, acceleration, gait
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0469Presence detectors to detect unsafe condition, e.g. infrared sensor, microphone
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras

Abstract

より高い危険の予測が可能な端末装置を提供するよう、ユーザが歩行しながら自装置を操作しているかを判定し、周囲の音を収集し、ユーザが歩行しながら自装置を操作していると判定された場合に、端末装置に備わるカメラから得た画像データに写る危険物候補に基づいてユーザの危険を予測する。そして、音収集装置から得た音信号に基づいて音の発生源の方向を算出する。

Description

本発明は、端末装置、危険予測方法、記録媒体に関する。
歩行しながら端末装置を利用するユーザの危険回避に関する技術が特許文献1に開示されている。特許文献1の技術では、端末装置の移動速度を導出し、表示画面の起動状態を判定する。また当該技術は、表示画面側に設けられた第1撮影手段を備え、第1撮影手段から取得した撮影画像に基づいてユーザの顔の方向を判定し、端末装置の移動速度、起動状態及び顔の方向に基づいて、ユーザが端末装置を目視した状態で歩行しているか否かを判定する。また特許文献1の技術ではユーザが端末装置を目視した状態で歩行している場合に、集音した音の周波数又は音量に基づいて、ユーザが危険な状況にあるか否かを判定する。
特開2014-232411号公報
上述のような技術における歩行者の危険予測においてより高い危険の予測が可能な技術が求められている。
そこでこの発明は、上述の課題を解決する端末装置、危険予測方法、プログラムを提供することを目的としている。
本発明の第1の態様によれば、端末装置は、ユーザが歩行しながら自装置を操作しているかを判定する歩行中操作判定部と、周囲の音を収集する音収集装置と、前記ユーザが歩行しながら自装置を操作していると判定された場合に、自装置に備わるカメラから得た画像データに写る危険物候補に基づいて前記ユーザの危険を予測する危険予測部と、を備え、前記危険予測部は前記音収集装置から得た音信号に基づいて前記音の発生源の方向を算出することを特徴とする。
本発明の第2の態様によれば、危険予測方法は、ユーザが歩行しながら自装置を操作しているかを判定し、周囲の音を収集し、前記ユーザが歩行しながら自装置を操作していると判定された場合に、端末装置に備わるカメラから得た画像データに写る危険物候補に基づいて前記ユーザの危険を予測するとともに、前記収集した音の信号に基づいて前記音の発生源の方向を算出することを特徴とする。
本発明の第3の態様によれば、記録媒体は、端末装置のコンピュータを、ユーザが歩行しながら自装置を操作しているかを判定する歩行中操作判定手段、周囲の音を収集する音収集手段、前記ユーザが歩行しながら自装置を操作していると判定された場合に、前記端末装置に備わるカメラから得た画像データに写る危険物候補に基づいてユーザの危険を予測するとともに、前記収集した音の信号に基づいて前記音の発生源の方向を算出する危険予測手段、として機能させることを特徴とするプログラムを記録する。
本発明によれば、端末装置を保持しながら歩行する歩行者の危険予測においてより高い危険の予測が可能な技術を提供することができる。
本発明の一実施形態による端末装置を図面を参照して説明する。 本発明の一実施形態による端末装置の機能ブロック図である。 本発明の一実施形態による端末装置の処理フローを示す図である。
以下、本発明の一実施形態による端末装置を図面を参照して説明する。
図1は同実施形態による端末装置の構成を示すブロック図である。
端末装置1はスマートフォン、携帯電話、PDA、タブレット端末などの携帯型の端末である。端末装置1はCPU101、ROM102、RAM103、HDD104、通信モジュール105、タッチパネル106、入出力部107、カメラ108、加速度センサ109、マイク110、GPS111、スピーカ112、バイブレータ113、ライト114などの各ハードウェアが備わる。
本実施形態による端末装置1は歩行中に自端末を操作しながら歩いているユーザの危険を予測し、または検出し、当該ユーザにその危険を通知する。これにより端末装置1は、歩行中操作を行っているユーザへの危険に対する回避を支援する。
図2は端末装置の機能ブロック図である。
端末装置1は起動して制御プログラムを実行することにより、制御部11、歩行中操作判定部12、危険予測部13、通知部14、データ送信部15の各機能部を少なくとも有する。端末装置1はその他、電話機能等の公知の機能を有している。
制御部11は端末装置1に備わる各機能部を制御する。
歩行中操作判定部12はユーザが歩行しながら端末装置1を操作しているか否かを判定する。
危険予測部13は端末装置1の歩行中操作を行っているユーザに対する危険を予測または検知する。
通知部14は端末装置1のタッチパネル106などの表示機能に危険を通知する。
データ送信部15は通信接続している装置にデータを送信する。
次に端末装置1の各機能の詳細を説明する。
歩行中操作判定部12は加速度センサ109などの図1で示した各種ハードウェアから得た情報を組み合わせてユーザが歩行中操作を行っているかを判定する。例えば歩行中操作判定部12はタッチパネル106により構成される画面がONになっているかの判定、加速度センサ109の検出パターンが歩行パターンと一致しているかの判定、カメラ108から得た画像において検出した特徴物が移動しているかの判定などに基づいて歩行中操作であるかを判定する。より具体的には歩行中操作判定部12は、画面がONであり、加速度センサ109による加速度の検出パターンと歩行パターンとが一致し、画像において特徴物が移動していると判定した場合、歩行中操作を行っていると判定する。
危険予測部13は、端末装置1に内蔵されているカメラ108、マイク110、加速度センサ109、GPS111など各種機能を組み合わせてリアルタイムでユーザにかかる危険を予測する。危険予測部13は、危険の予測において、GPS111から得られる端末装置1の位置情報、加速度センサ109から得られる加速度に基づく端末装置1の向きなどの姿勢情報、カメラ108の撮影により得られた画像データ、マイク110から得られる音信号などを利用する。カメラ108は、インカメラ108a、アウトカメラ108bなどの複数のカメラで構成され、これらカメラ108は全天カメラであってよい。マイク110も複数が端末装置1に備わっていてもよい。
本実施形態において示す端末装置1は、板状の筐体の主面に液晶画面とタッチセンサとが積層されたタッチパネル106が設けられている。主面のタッチパネル106の上部にはインカメラ108aが設けられる。また主面の裏面の上部にはアウトカメラ108bが設けられている。インカメラ108aとはユーザが端末装置のタッチパネル106を自身に正対させて向けた場合に自身に撮影方向が向くカメラである。ユーザがタッチパネルの設けられた端末装置1の筐体の主面を自身に向けることで必然的にインカメラ108aはユーザ自身の方向を撮影する位置となる。他方、アウトカメラ108bはユーザが端末装置1のタッチパネル106を自身に正対させて向けた場合に自身側とは反対方向、つまりユーザの進行方向に撮影方向が向くカメラである。
危険予測部13は、複数のマイク110を利用することで音の方向を認識する。また危険予測部13はカメラ108の撮影により取得した画像データを用いて端末の向きを検出し、または当該画像データに写る基準となる目印に基づいて画像データの歪みなどを補正しながら画像データに写る情報に基づいてユーザの危険を予測してもよい。
通知部14は、端末装置1の画面に危険を通知するほか、スピーカ112やバイブレータ113、ライト114など端末装置1に備わる各種機能を利用してユーザに危険を知らせて危険回避行動を促す。通知部14は、危険を検出した場合に限らず、障害物などの情報をリアルタイムに画面表示してもよい。
なお、本発明において端末装置1は歩行中操作判定部12の処理を行わずに、常に危険予測部13が危険を予測する構成としてもよい。また端末装置1はデータ送信部15を具備し、危険予測部13による予測結果を通信接続された専用サーバに送信してもよい。専用サーバは端末装置1による危険の予測結果の情報を蓄積して、端末装置1における危険検出精度を向上させるための基礎データを算出し、端末装置1に利用させる処理を行うようにしてもよい。
図3は端末装置の処理フローを示す図である。
次に、図3を用いて端末装置1の動作を説明する。
当該端末装置1の処理は、端末装置1がユーザの歩行中操作を行っていると検出した場合に、危険を予測し、その予測結果をユーザに通知する処理でありその一例を示す。
端末装置1は専用サーバ2と通信接続される。専用サーバ2は端末装置1の危険の予測や危険検出の結果を受信して、危険を検出するために利用した画像データなどのデータの特徴や、全ユーザからのフィードバック情報などを収集、分析する機能を有するものとする。
まず端末装置1の歩行中操作判定部12はユーザが歩行中操作を行っているかの判定処理を開始する(ステップS1)。そして歩行中操作判定部12は、加速度センサ109などの各種機能を組み合わせて端末装置1を操作するユーザが歩行中操作を行っているかどうかを判定する(ステップS2)。例えば、タッチパネルを構成する画面がONになっており操作されているか、加速度センサ109で検出した動きのパターンが歩行のパターンと一致しているか、カメラ108から取得した画像データにおいて特定した特徴点が移動しているかを判定する。歩行中操作判定部12は、画面がONになっており、加速度センサ109から加速度パターンが歩行パターンと一致している場合にはユーザが歩行中であると判定してよい。またカメラ108から得た画像データにユーザの顔の特徴が映っており、この特徴点の位置が連続して取得した画像データ中において移動している場合には、端末装置1の歩行中操作を行っていると判定してよい。この歩行中操作の判定例は一例であって、他の手法により歩行中操作と判定してもよい。
危険予測部13はカメラや各種センサを利用してユーザの危険を予測、検出の処理を開始する(ステップS3)。そして危険予測部13は危険を検出したかどうかを判定する(ステップS4)。
危険予測部13は、加速度センサ109などを利用して端末装置1を携帯するユーザの進行方向を特定する。また危険予測部13は端末装置1の傾きを加速度センサ109から得た情報に基づいて検出する。例えば危険予測部13は端末装置1が板状の形状を成している場合には、板状の端末装置1を垂直に立てた状態を基準とした面垂直方向の傾き(前傾角)、当該面垂直方向に直交する方向の傾き(横傾角)を検出する。なお前傾角は端末装置1が地面と垂直状態からどの程度面垂直方向(ユーザの進行方向に一致)に傾いているか(前傾角が90°の場合は端末が水平状態となる)を表す。横傾角は端末装置1が進行方向からどの程度右手に向いているか(横傾角が90°の場合は端末装置1の上部が右手側に向いており進行方向に対して完全に横向き状態となる)を表す。
インカメラ108aやアウトカメラ108bは歩行中操作を行っていると判定された場合には制御部11の制御によって1秒間に数枚から数十枚などの画像を取得して危険予測部13へ出力する。危険予測部13は、インカメラ108a(またはアウトカメラ108b)から画像データを取得する。危険予測部13はインカメラ108a(またはアウトカメラ108bから一定時間内で取得した画像データのうち、インカメラ108a(またはアウトカメラ108b)で新たに撮影により得られた画像データと、直前の撮影により得られた複数枚数の画像データの画像の差分を検出する。危険予測部13はこの差分において、前傾角および横傾角を基に今回の画像データにおける手ぶれや歩行時の振動により画像に現れた物体を除く補正を行い、除かれない部分の画像において危険物候補が映るかを判定する。
ユーザがタッチパネル106を歩きながら視認している場合には、アウトカメラ108bは基本的にユーザの前方を撮影することになるが、ユーザが端末装置1のタッチパネル106を天空方向に向けて水平に把持していると、前傾角が90°に近くなる。この場合、端末装置1に設けられたアウトカメラ108bは水平に近い状態で地面を撮影することになり前方の撮影が困難となるためインカメラ108aや全天カメラなどの外付けカメラで補完した画像を用いて危険予測を行うことができる。
インカメラ108aから取得した画像データの解析においては、ユーザの後方や頭上の対象物を検出することができるため危険予測部13は危険探索範囲を広げることができる。これにより危険予測部13はユーザ後方からの接近物・危険物や頭上の落下物等の検出が可能となる。また、インカメラ108aではユーザの視線方向も認識でき、この視線方向の検出により危険を予測することができる。例えば危険予測部13はアウトカメラ108bの撮影により得られた画像データに基づいて車のユーザ方向への接近を検出する。また危険予測部13はインカメラ108aの撮影により得られた画像データに基づいてユーザの視線方向を検出する。危険予測部13は車がユーザ方向へ接近しているにもかかわらず、視線方向が当該車の方向を視認していないと判定した場合には危険であると予測する。
この具体的な処理の一例を説明すると、危険予測部13はアウトカメラ108bから得た複数の連続する画像データにおいて写る車をパターン認識により検出する。危険予測部13は車の画像データ中に映る位置と加速度センサ109から得た加速度に基づく端末装置1の裏面の向きとに基づいて、3次元空間座標系における端末装置1から車へ向く方向ベクトルを算出する。危険予測部13はまたインカメラ108aから取得した連続する画像データにおいて写るユーザの目の結膜領域が示す白色領域と、虹彩や瞳孔領域が示す黒色領域との位置関係と、予め記憶する白色領域と黒色領域の位置関係それぞれに対応する視線方向の情報とに基づいて、現在のユーザの視線方向を検出する。危険予測部13は3次元空間座標系における視線方向が示す視線ベクトルを算出する。危険予測部13は、端末装置1から車へ向く第一方向ベクトルと、視線ベクトルとの成す角度を算出する。危険予測部13は第一方向ベクトルと視線ベクトルとの成す角度が所定の角度以上である場合には、ユーザの視線方向が車方向を向いていないと判定する。
危険予測部13は撮影した画像の差分から、移動している危険物候補を推定してもよい。この場合に危険予測部13は、例えば予めGPS111の測定した位置情報を取得してユーザの移動速度を推定する。さらに危険予測部13は、移動している危険物候補の画像中のサイズ変化から、その危険物候補自体が移動しているかを判定する。当該移動はユーザが保持する端末装置1から近づいているか遠ざかっているかを判定する。または危険予測部13は、ユーザのみが移動していることにより危険物候補が移動したように見えるだけなのかを判定する。
この場合の処理の具体例としては、例えば危険予測部13は、GPS111から得た時刻の経過に応じた位置情報に基づいて端末装置1を保持するユーザの歩行速度や歩行方向を算出する。また危険予測部13は画像中に映る危険物候補の単位時間当たりの大きさの変化割合などを歩行速度に応じて記憶しておき、その変化割合の情報を取得する。危険予測部13は、連続してインカメラ108aやアウトカメラ108bから取得した画像データに写る危険物候補の大きさの単位時間当たりの変化割合が、ユーザの歩行速度に応じた変化割合よりも高いか否かを判定する。危険予測部13は画像データに写る危険物候補の大きさの単位時間当たりの変化割合が、ユーザの歩行速度に応じた変化割合よりも高い場合には、危険物候補が接近していると判定する。
また危険予測部13は、取得した画像データに写る基準となる目印を抽出しておき、その目印を示す情報の単位時間当たりの大きさの変化割合から危険物候補のサイズを推定し、その推定した危険物候補のサイズを利用することで危険物候補の移動速度を算出してもよい。ここで、基準となる目印は標識やポストなど比較的サイズが固定されているものである。
危険予測部13は、信号機やポストなど街中に一定間隔で設置されており比較的サイズが決まっているものを基準となる目印として、その相対サイズから自転車に乗っている人のサイズを推定することができる。危険予測部13は、このような手法により画像中の危険物候補のサイズを算出し、例えば自転車に乗っている人とユーザとの距離および接近速度を推定し、また衝突予想時刻を算出してもよい。
危険予測部13による危険物候補の判定においては他の手法により危険物候補であることを判定してもよい。
例えば危険予測部13は、危険物候補として横断歩道や信号機、駅のホームや道路上にある視覚障害者用の点字・線状ブロック、歩行者や自転車、段差、路面異常、電柱、看板、露店、小動物などの形状を記憶している。危険予測部13はそれら記憶している形状情報と撮影画像から得た物体とのパターンマッチングを行い、それら記憶するいずれの形状と一致するかを判定する。危険予測部13は当該パターンマッチングにより形状が一致したと判定した場合にはその画像中に写る物体を危険物候補と認識する。危険予測部13はこれら危険物候補に接近しているか否かを前後の画像データを比較して判定する。
危険予測部13はあらかじめユーザの移動速度をGPS111から得た位置情報に基づく単位時間当たりの移動量などを用いて推測し、その移動速度と画像中の危険物候補の単位時間当たりの大きさの変化割合との比較に基づいて接近しているかどうかを判定してもよい。
危険予測部13は順次取得した画像データを数秒分繋ぎあわせて合成してもよい。この場合、危険予測部13は、カメラで撮影できる一瞬の範囲を超えて、より広い視点での危険物候補の判別が可能となる。
また危険予測部13は、端末装置1に付属のインカメラ108aやアウトカメラ108bのほか、ウェアラブル端末のカメラや360度カメラ(全天カメラ)など外付けのカメラから画像データを取得してもよい。端末装置1は複数のカメラが搭載されていてもよい。
危険予測部13が危険物候補の接近を検出する方法としては、その他、画像データから自転車に乗っている人を危険物候補として検出する。危険予測部13は、その時点での画像フレームFtとその直前(直前1フレームに限らず、直前の複数フレームでもよい)の画像フレームFt−1との差分からカメラ画像上の変化画素を抽出する。危険予測部13は、その危険物候補を示す画素の領域が大きくなっていることが判断できれば、危険物候補が近づいてきていると判定する。
危険予測部13は、自転車に乗っている人の進行方向を推定して端末装置1を保持するユーザの左側に近づいてきていると判断した場合、ユーザは右側に避ければ自転車に乗っている人との衝突を避けられる。したがって危険予測部13は右側に避けることを促すための情報を画面に表示してユーザに通知する。例えば、危険予測部13は、危険回避行動をする方向を矢印で出力する。このとき危険予測部13は、危険回避行動をする方向にユーザの避けられる幅があるかどうかを画像データから検出しておいてもよい。
危険予測部13はマイク110から取得した音信号に基づいて危険を予測してもよい。
例えばマイク110から取得した音信号を解析して特徴的な音を検出する。例えば特徴的な音はサイレン、信号機の横断期間を通知する音、踏切遮断時の音、自転車のベルなどである。このような人に対して発せられる人工的な警告音は規則的な繰り返しであることが多いことから、危険予測部13は、音の波形パターンとして事前に記憶しておき、取得した音信号から得た音の波形パターンが予め記憶する警告音のパターンと一致した場合には危険であると予測する。危険予測部13は人工的な警告音に限定せず、「危ない」や「逃げろ」など人の声を音声認識して、音声認識結果で得られた言葉が予め記憶する警告を示す言葉と一致すると判定した場合には、危険物候補が迫っていると判定してもよい。
端末装置1が複数のマイク110を設けており、危険予測部13がそれら各マイク110から取得した音信号と端末装置1の姿勢とに基づいて音の発生源の方向を特定するようにしてもよい。より具体的には、危険予測部13は各マイク110から得た音信号を解析して音の強度を算出する。危険予測部13は各マイク110から得た音の強度に基づいて端末装置1を基準とした音の発生源の方向を推定する。危険予測部13は現在の端末装置1の姿勢に基づく基準となる直交する3軸による3次元空間座標系において、音の発生源の方向ベクトルを特定する。危険予測部13は、特定した発生源の方向ベクトルが示す方向に対応する撮影画像中の物体を検出する。危険予測部13その物体が形状などのパターン認識により、危険物候補と特定できる場合には、その危険物候補と発生源の方向ベクトルとの関係を結びつける。危険予測部13は、危険物候補と発生源の方向ベクトルが一致する場合には、例えば音声などにより危険物候補の方向をスピーカから出力するようにしてもよい。
次に通知部が危険情報を通知する(ステップS5)。
具体的に通知部14の処理について説明する。通知部14は検出した危険情報をユーザに通知する。例えば通知部14は、検出した危険物候補およびそれに関連する情報を危険情報として端末装置1の画面に表示する。この時、通知部14は、危険が迫っているかを示す危険接近レベルに基づいて衝突予想時刻も併せて表示してもよい。通知部14は端末装置1の向き(姿勢)や危険物候補の接近方向に基づいて、ユーザの危険回避行動を補助するための情報も併せて表示してもよい。なお、ユーザへの危険情報の通知は危険を予測した時に限定せず、カメラ108の撮影により得られた画像データにおいて危険の可能性がある旨や、マイク110で特徴的な音である可能性がある旨の情報をリアルタイムに画面の一部に表示してもよい。
通知部14は、端末装置1の向き(姿勢)やユーザの視線方向に基づいて、画面表示の他、スピーカ112、バイブレータ113、ライト114など端末装置1に具備された各種出力機能を使い分けてユーザに通知してよい。
ステップS5の危険情報の通知処理について補足説明する。
なお危険情報を画面に表示する際は危険接近レベルをレベル1〜レベル3の何れかに設定して出力する。一例としては、危険接近レベル3を衝突予想時刻まで3秒と設定しているが、危険回避行動はユーザの年齢や身体能力による部分もあるため固定値ではなくユーザに応じて設定してもよい。
(危険接近レベル1)
危険予測部13は、検出した危険物候補と端末装置1との距離を算出し、その距離が閾値以上であると判定した場合には危険接近レベル1と判定する。そして危険予測部13は危険物候補との距離が閾値以上であり、かつ、危険物候補の接近速度が閾値未満または危険物候補が停止していると判定した場合には危険接近レベル1と判定する。一例として危険予測部13は、距離が閾値以上であり接近速度が閾値未満であることにより、ユーザとの衝突までの予想時間が8秒以上であると算出した場合には、危険接近レベル1と判定する。
(危険接近レベル2)
危険予測部13は、危険物候補との距離が閾値以上であり、かつ、危険物候補の接近速度が閾値以上と判定した場合には危険接近レベル2と判定する。一例として危険予測部13は、距離が閾値以上であるが接近速度が閾値以上であることにより、ユーザとの衝突までの予想時間が8秒〜3秒と算出した場合には、危険接近レベル2と判定する。
(危険接近レベル3)
危険予測部13は、危険物候補との距離が閾値未満であり、かつ、危険物候補の接近速度が閾値以上と判定した場合には危険接近レベル3と判定する。一例として危険予測部13は、距離が閾値未満でありさらに接近速度が閾値以上であることにより、ユーザとの衝突までの予想時間が3秒未満と算出した場合には、危険接近レベル3と判定する。
危険予測部13は、危険接近レベルの決定において、画像データから判定した危険物候補の位置、そのサイズ、危険物候補が単位時間においてユーザに近づく際の変化量、ユーザとの接近距離、衝突予想時間など何れか一つまたは複数の情報を用いて決定してよい。
衝突予測時刻を算出する際には危険予測部13は、取得した一定時間毎に画像データのフレーム差分を検出することで変化領域を算出し、その変化領域に基づいて危険物候補の移動距離や移動速度(接近速度)を推定することができる。
危険予測部13は、危険物候補の進行方向、およびマイク110から検出した音の方向を基に危険回避行動のためにどこに逃げればよいかなどの補助情報を音声や画面などで出力するようにしてもよい。危険予測部13は、例えばユーザが回避する方向を矢印で画面上に表現する。
なお危険予測部13は、危険物候補が必ずしも音を発するとは限らない為、入力情報であるマイク110から得た音信号と、カメラ108から得た画像データはそれぞれ独立して処理し、何れかの情報に優先順位や重み付け設定してもよい。また、上記において触れたが、カメラ108からの画像データの解析には加速度センサ109から得た加速度により端末の傾き(前傾角・横傾角)などの姿勢を算出して、進行方向を認識し、端末のぶれや動きによる画像の歪みを補完することができる。
上記ステップS5における危険情報の通知手段について補足する。
端末装置1の危険予測部13は、傾き情報を基に端末装置1の画面部分が地面方向に向いておりユーザが視認できない状態だと検知する。そして危険予測部13は、画面への通知だけではユーザが認識できない可能性が高いと判断できるため、バイブレータ113やスピーカ112、ライト114など別の通知手段を選択してユーザへ危険を通知する。また危険予測部13はユーザの視線情報を基に、ユーザが画面を見ていないと検知した場合も通知部14は通知手段を選択してユーザへ危険を通知してよい。
データ送信部15は、検知した危険に関するデータを専用サーバに送信する(ステップS6)。なお専用サーバは、全ユーザからのフィードバックや危険予測結果を収集し、多角的に分析、蓄積することで本端末装置1に限らず他の端末装置1も含めた全ての端末装置1に対して危険予測精度を向上させる処理を行ってもよい。端末装置1は専用サーバ2から得られたデータ分析に基づいて危険予測を行うようにしてもよい。
また、実際に危険だった場合はユーザの操作でその旨をフィードバックする他、危険回避後に警察や病院へ発呼する、証拠写真を撮影する、SNS(social networking service)に検出結果を送信して登録する場合がある。専用サーバは危険個所においてユーザがそれらの動作をする可能性が高いと仮定し、それらの動作をしたかどうかをフィードバックとして受け取るようにしてもよい。
上述の端末装置1の処理によれば、ユーザが端末装置1を歩行中操作している時における危険検知について、アウトカメラ108bだけでなく必要に応じてインカメラ108aも利用して障害物、接近物などの危険物候補を検知する仕組みを提供することができる。
これにより端末装置1は詳細な危険予測を行うことができる。さらに端末装置1は加速度センサ109からの傾きなどの情報や、複数のマイク110からの音や方向などの情報も材料とすることで、カメラ108には映っていない危険も予測とすることが可能となる。
端末装置1は例えば時計型端末や眼鏡型端末など、ウェアラブル端末と連携して得られるデータを危険予測に利用してもよい。
上述の端末装置1は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
この出願は、2017年7月28日に出願された日本出願特願2017−146960を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1・・・端末装置
2・・・専用サーバ
11・・・制御部
12・・・歩行中操作判定部
13・・・危険予測部
14・・・通知部
15・・・データ送信部
101・・・CPU
102・・・ROM
103・・・RAM
104・・・HDD
105・・・通信モジュール
106・・・タッチパネル
107・・・入出力部
108・・・カメラ
109・・・加速度センサ
110・・・マイク
111・・・GPS
112・・・スピーカ
113・・・バイブレータ
114・・・ライト

Claims (5)

  1. ユーザが歩行しながら自装置を操作しているかを判定する歩行中操作判定手段と、
    周囲の音を収集する音収集装置と、
    前記ユーザが歩行しながら自装置を操作していると判定された場合に、自装置に備わるカメラから得た画像データに写る危険物候補に基づいて前記ユーザの危険を予測する危険予測手段と、を備え、
    前記危険予測手段は前記音収集装置から得た音信号に基づいて前記音の発生源の方向を算出する
    端末装置。
  2. 前記危険予測手段は、前記端末装置の姿勢を検出し、前記ユーザの危険を予測した場合に当該姿勢に基づいて危険の通知に利用する通知手段を選択する
    請求項1に記載の端末装置。
  3. 前記カメラとして前記端末装置の板状筺体に主面に設けられたインカメラと、
    前記主面の裏面に設けられたアウトカメラと、を備え、
    前記危険予測手段は前記インカメラと前記アウトカメラの両方から得た画像に基づいて前記ユーザの危険を予測する
    請求項1または請求項2に記載の端末装置。
  4. ユーザが歩行しながら自装置を操作しているかを判定し、
    周囲の音を収集し、
    前記ユーザが歩行しながら自装置を操作していると判定された場合に、端末装置に備わるカメラから得た画像データに写る危険物候補に基づいて前記ユーザの危険を予測するとともに、前記収集した音の信号に基づいて前記音の発生源の方向を算出する
    危険予測方法。
  5. 端末装置のコンピュータを、
    ユーザが歩行しながら自装置を操作しているかを判定する歩行中操作判定手段、
    周囲の音を収集する音収集手段、
    前記ユーザが歩行しながら自装置を操作していると判定された場合に、前記端末装置に備わるカメラから得た画像データに写る危険物候補に基づいて前記ユーザの危険を予測するとともに、前記収集した音の信号に基づいて前記音の発生源の方向を算出する危険予測手段、
    として機能させるプログラムを記録する記録媒体。
JP2019532574A 2017-07-28 2018-07-20 端末装置、危険予測方法、プログラム Active JP6822571B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017146960 2017-07-28
JP2017146960 2017-07-28
PCT/JP2018/027371 WO2019021973A1 (ja) 2017-07-28 2018-07-20 端末装置、危険予測方法、記録媒体

Publications (2)

Publication Number Publication Date
JPWO2019021973A1 true JPWO2019021973A1 (ja) 2020-07-30
JP6822571B2 JP6822571B2 (ja) 2021-01-27

Family

ID=65041174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019532574A Active JP6822571B2 (ja) 2017-07-28 2018-07-20 端末装置、危険予測方法、プログラム

Country Status (3)

Country Link
US (1) US20200372779A1 (ja)
JP (1) JP6822571B2 (ja)
WO (1) WO2019021973A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109937443A (zh) 2016-11-10 2019-06-25 株式会社半导体能源研究所 显示装置及显示装置的驱动方法
CN111559327B (zh) * 2019-02-14 2022-05-24 华为技术有限公司 一种数据处理方法及对应的装置
CN117379009A (zh) * 2023-10-18 2024-01-12 中国人民解放军总医院第二医学中心 一种社区老年人群心脑血管急危重症预警监测系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015061122A (ja) * 2013-09-17 2015-03-30 Necカシオモバイルコミュニケーションズ株式会社 報知装置、制御方法、及びプログラム
JP2015185899A (ja) * 2014-03-20 2015-10-22 株式会社Nttドコモ 携帯端末および音通知方法
JP2017010385A (ja) * 2015-06-24 2017-01-12 株式会社東芝 携帯端末、警告出力方法、及び、プログラム
JP2017060033A (ja) * 2015-09-17 2017-03-23 カシオ計算機株式会社 携帯情報機器、携帯情報システム、表示方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015061122A (ja) * 2013-09-17 2015-03-30 Necカシオモバイルコミュニケーションズ株式会社 報知装置、制御方法、及びプログラム
JP2015185899A (ja) * 2014-03-20 2015-10-22 株式会社Nttドコモ 携帯端末および音通知方法
JP2017010385A (ja) * 2015-06-24 2017-01-12 株式会社東芝 携帯端末、警告出力方法、及び、プログラム
JP2017060033A (ja) * 2015-09-17 2017-03-23 カシオ計算機株式会社 携帯情報機器、携帯情報システム、表示方法及びプログラム

Also Published As

Publication number Publication date
US20200372779A1 (en) 2020-11-26
JP6822571B2 (ja) 2021-01-27
WO2019021973A1 (ja) 2019-01-31

Similar Documents

Publication Publication Date Title
JP6948325B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2019206270A1 (zh) 测距方法、智能控制方法及装置、电子设备和存储介质
US20210365696A1 (en) Vehicle Intelligent Driving Control Method and Device and Storage Medium
JP4173901B2 (ja) 車両周辺監視装置
US9928710B2 (en) Danger alerting method and device, portable electronic apparatus
JP4161208B2 (ja) 携帯情報装置、携帯電話装置および表示制御方法
WO2017067187A1 (zh) 前车起步处理方法、装置和系统
JP4173902B2 (ja) 車両周辺監視装置
JP6822571B2 (ja) 端末装置、危険予測方法、プログラム
Tung et al. Use of phone sensors to enhance distracted pedestrians’ safety
JPWO2017163514A1 (ja) 眼鏡型ウェアラブル端末、その制御方法および制御プログラム
EP3157233A1 (en) Handheld device, method for operating the handheld device and computer program
CN110506277B (zh) 用于构建鲁棒的深度卷积神经网络的滤波器重用机制
KR20120140486A (ko) 휴대용 단말기에서 보행 안내 서비스를 제공하기 위한 장치 및 방법
JP5418661B2 (ja) 車両周辺監視装置
JP7077726B2 (ja) 車両システム、空間領域推測方法及び空間領域推測装置
JP2006202047A (ja) 移動物体検出装置及び移動物体検出方法
JP2010026601A (ja) 車両周辺監視装置
EP3648005B1 (en) Passage determination method and device
US20220189038A1 (en) Object tracking apparatus, control method, and program
KR101827557B1 (ko) 보행 안전 서비스 제공 방법
KR102263695B1 (ko) 복수개의 카메라를 이용한 휴대 장치 및 제어방법
JP6120444B2 (ja) ウェアラブルデバイス
JP2006027481A (ja) 物体警告装置及び物体警告方法
WO2015198284A1 (en) Reality description system and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6822571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150