JP2018195194A - Information processing system, information processing apparatus, information processing method and program - Google Patents

Information processing system, information processing apparatus, information processing method and program Download PDF

Info

Publication number
JP2018195194A
JP2018195194A JP2017100191A JP2017100191A JP2018195194A JP 2018195194 A JP2018195194 A JP 2018195194A JP 2017100191 A JP2017100191 A JP 2017100191A JP 2017100191 A JP2017100191 A JP 2017100191A JP 2018195194 A JP2018195194 A JP 2018195194A
Authority
JP
Japan
Prior art keywords
warning
user
information processing
information
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017100191A
Other languages
Japanese (ja)
Inventor
康洋 中村
Yasuhiro Nakamura
康洋 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017100191A priority Critical patent/JP2018195194A/en
Publication of JP2018195194A publication Critical patent/JP2018195194A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing system, an information processing apparatus, an information processing method, and a program for appropriately giving a warning according to a motion of a user and a surrounding situation.SOLUTION: An information processing system 1 comprises an acquisition device 100 that acquires images, a warning device 300 that outputs a warning, and an information processing device 200. The acquisition device transmits the acquired image to the information processing device. The warning device outputs a warning based on a content of a warning received from the information processing device. The information processing device specifies motion information representing a motion of the user and peripheral information representing a surrounding environment of the user based on the image received from the acquisition device: specifies a content of a warning regarding an operation of the user based on the operation information and the peripheral information; and transmits the content of the specified warning to the warning device.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システム、情報処理装置、情報処理方法およびプログラムに関する。   The present invention relates to an information processing system, an information processing apparatus, an information processing method, and a program.

スマートフォン等の携帯型電子機器の普及に伴い、歩きながらスマートフォン等の閲覧、操作等を行う、いわゆる「歩きスマホ」が増加している。歩きスマホ中のユーザが、前方不注意により、転倒したり、他者と衝突したりする場合もあり、社会的にも問題となっている。このように移動しながら電子機器を閲覧、操作するユーザに対しては、警告を行い、転倒、衝突等の事故を未然に防ぐことが好ましい。しかし、周囲の状況によっては、危険性が少なく、警告を行う必要がない場合もあり、ユーザの動作と周囲の状況に応じて適切に警告を行うことが求められている。   With the spread of portable electronic devices such as smartphones, so-called “walking smartphones” that browse and operate smartphones while walking are increasing. A user on a walking smartphone may fall over or collide with others due to carelessness in the front, which is a social problem. It is preferable to warn the user who browses and operates the electronic device while moving in this way, and to prevent accidents such as a fall and a collision. However, depending on the surrounding situation, there is less danger and there is a case where it is not necessary to give a warning, and it is required to give a warning appropriately according to the user's operation and the surrounding situation.

例えば、特許文献1には、監視対象が写った映像を基に、監視対象の移動軌跡と滞在時間とに基づいて、監視対象が所定の動作を実行したか否かを判定する監視システムが開示されている。   For example, Patent Document 1 discloses a monitoring system that determines whether or not a monitoring target has performed a predetermined operation based on a moving path and a staying time of the monitoring target based on an image of the monitoring target. Has been.

特開2011−34458号公報JP 2011-34458 A

しかしながら、特許文献1に記載の技術は、監視対象の動作を判定するものであり、監視対象の周辺の状況を監視し、警告内容を判定することについては検討されていない。つまり、ユーザの動作と周囲の状況に応じて適切に警告を行うことができないという課題があった。   However, the technique described in Patent Document 1 determines the operation of the monitoring target, and has not been studied for monitoring the situation around the monitoring target and determining the warning content. That is, there is a problem that warning cannot be performed appropriately according to the user's operation and the surrounding situation.

本発明は上記の点に鑑みてなされたものであり、ユーザの動作と周囲の状況に応じて適切に警告を行うことができる情報処理システム、情報処理装置、情報処理方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and provides an information processing system, an information processing apparatus, an information processing method, and a program capable of appropriately giving a warning according to a user's operation and surrounding circumstances. With the goal.

本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、画像を取得する取得装置と、警告を出力する警告装置と、情報処理装置とを備える情報処理システムであって、前記取得装置は取得した前記画像を前記情報処理装置に送信し、前記警告装置は前記情報処理装置から受信した警告の内容に基づいて警告を出力し、前記情報処理装置は、前記取得装置から受信した前記画像に基づいてユーザの動作を表す動作情報と前記ユーザの周辺環境を表す周辺情報とを特定し、前記動作情報と前記周辺情報とに基づいて、前記ユーザの動作に関する警告の内容を特定し、特定した前記警告の内容を前記警告装置に送信する、情報処理システムである。   SUMMARY An advantage of some aspects of the invention is that it is an information processing system including an acquisition device that acquires an image, a warning device that outputs a warning, and an information processing device. The acquisition device transmits the acquired image to the information processing device, the warning device outputs a warning based on the content of the warning received from the information processing device, and the information processing device receives the acquisition Based on the image received from the device, the operation information indicating the user's operation and the peripheral information indicating the user's surrounding environment are specified, and the warning regarding the user's operation is determined based on the operation information and the peripheral information. It is an information processing system which specifies the content and transmits the content of the specified warning to the warning device.

また、本発明の一態様は、画像を取得する取得部と、警告を出力する警告部と、制御部とを備え、前記制御部は、前記取得部が取得した前記画像に基づいてユーザの動作を表す動作情報と前記ユーザの周辺環境を表す周辺情報とを特定し、前記動作情報と前記周辺情報とに基づいて、前記ユーザの動作に関する警告の内容を特定し、特定した前記警告の内容に基づいて、前記警告部に警告を出力させる、情報処理装置である。   One embodiment of the present invention includes an acquisition unit that acquires an image, a warning unit that outputs a warning, and a control unit, and the control unit operates based on the image acquired by the acquisition unit. And the peripheral information indicating the surrounding environment of the user, the content of the warning regarding the user's operation is specified based on the motion information and the peripheral information, and the content of the specified warning Based on the information processing apparatus, the warning unit outputs a warning based on the information.

また、本発明の一態様は、画像を取得する取得ステップと、警告を出力する警告ステップと、前記取得ステップにおいて取得した前記画像に基づいてユーザの動作を表す動作情報と前記ユーザの周辺環境を表す周辺情報とを特定するステップと、前記動作情報と前記周辺情報とに基づいて、前記ユーザの動作に関する警告の内容を特定するステップと、特定した前記警告の内容に基づいて、前記警告部に警告を出力させるステップと、を有する情報処理方法である。   According to another aspect of the present invention, an acquisition step for acquiring an image, a warning step for outputting a warning, operation information representing a user's operation based on the image acquired in the acquisition step, and the surrounding environment of the user are provided. Identifying the surrounding information to be represented, identifying the content of the warning regarding the user's motion based on the operation information and the peripheral information, and based on the identified content of the warning, And a step of outputting a warning.

また、本発明の一態様は、コンピュータに、画像を取得する取得手順と、警告を出力する警告手順と、前記取得手順において取得した前記画像に基づいてユーザの動作を表す動作情報と前記ユーザの周辺環境を表す周辺情報とを特定する手順と、前記動作情報と前記周辺情報とに基づいて、前記ユーザの動作に関する警告の内容を特定する手順と、特定した前記警告の内容に基づいて、前記警告部に警告を出力させる手順と、を実行させるためのプログラムである。   According to one embodiment of the present invention, an acquisition procedure for acquiring an image, a warning procedure for outputting a warning, operation information representing a user's operation based on the image acquired in the acquisition procedure, and the user's Based on the procedure for identifying the surrounding information representing the surrounding environment, the procedure for identifying the content of the warning regarding the user's operation based on the operation information and the surrounding information, and the content of the identified warning, And a procedure for causing a warning unit to output a warning.

本発明によれば、ユーザの動作と周囲の状況に応じて適切に警告を行うことができる。   According to the present invention, it is possible to appropriately issue a warning according to the user's operation and the surrounding situation.

第1の実施形態に係る情報処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing system which concerns on 1st Embodiment. 第1の実施形態に係るユーザ検出の一例を示す図である。It is a figure which shows an example of the user detection which concerns on 1st Embodiment. 第1の実施形態に係る危険度算出の一例を示す第1の図である。It is a 1st figure which shows an example of risk degree calculation which concerns on 1st Embodiment. 第1の実施形態に係る危険度算出の一例を示す第2の図である。It is a 2nd figure which shows an example of the risk degree calculation which concerns on 1st Embodiment. 第1の実施形態に係る警告テーブルの一例を示す図である。It is a figure which shows an example of the warning table which concerns on 1st Embodiment. 第1の実施形態に係る情報処理システムの処理の一例を示すフローチャートである。It is a flowchart which shows an example of a process of the information processing system which concerns on 1st Embodiment. 第2の実施形態に係る情報処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing system which concerns on 2nd Embodiment. 第2の実施形態に係る情報処理システムの処理の一例を示すフローチャートである。It is a flowchart which shows an example of a process of the information processing system which concerns on 2nd Embodiment. 第3の実施形態に係る危険度の算出式の変更例を示す図である。It is a figure which shows the example of a change of the calculation formula of the risk degree which concerns on 3rd Embodiment.

以下、図面を参照しながら本発明の実施形態について説明する。
<第1の実施形態>
まず、本発明の第1の実施形態に係る情報処理システム1の構成について説明する。
図1は、第1の実施形態に係る情報処理システム1の構成を示すブロック図である。情報処理システム1は、取得装置100と、情報処理装置200と、警告装置300とを備える。情報処理装置200と、取得装置100および警告装置300は有線または無線の通信回線を介して接続されている。なお、取得装置100または警告装置300は、情報処理装置200内において取得装置100または警告装置300と同様の機能を有する取得部または警告部として構成されてもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
First, the configuration of the information processing system 1 according to the first embodiment of the present invention will be described.
FIG. 1 is a block diagram illustrating a configuration of an information processing system 1 according to the first embodiment. The information processing system 1 includes an acquisition device 100, an information processing device 200, and a warning device 300. The information processing apparatus 200, the acquisition apparatus 100, and the warning apparatus 300 are connected via a wired or wireless communication line. Note that the acquisition device 100 or the warning device 300 may be configured as an acquisition unit or a warning unit having the same function as the acquisition device 100 or the warning device 300 in the information processing device 200.

取得装置100は、ユーザの動作を表す動作情報とユーザの周辺環境を表す周辺情報とを取得する。本実施形態では、取得装置100はCMOS(Complementary Metal Oxide Semiconductor)カメラ、CCD(Charge Coupled Device)カメラ等の撮像装置であり、所定の範囲におけるユーザおよびユーザ周辺の画像を撮像する。取得装置100は、撮像した画像からなる撮像データ(静止画または動画)を情報処理装置200へ送信する。なお、取得装置100は、複数存在してもよい。また、取得装置100は、撮像装置に限らず、赤外線センサ等の各種センサにより、ユーザの動作を表す動作情報とユーザの周辺環境を表す周辺情報とを取得するものであってもよい。また、取得装置100は、例えばネットワーク経由で取得装置から画像を取得する通信機能を提供するものであってもよい。   The acquisition device 100 acquires operation information representing the user's operation and peripheral information representing the user's surrounding environment. In the present embodiment, the acquisition device 100 is an imaging device such as a CMOS (Complementary Metal Oxide Semiconductor) camera or a CCD (Charge Coupled Device) camera, and captures images of the user and the user's surroundings within a predetermined range. The acquisition device 100 transmits imaging data (still image or moving image) including the captured image to the information processing device 200. A plurality of acquisition devices 100 may exist. Further, the acquisition device 100 is not limited to the imaging device, and may acquire operation information representing the user's operation and peripheral information representing the user's surrounding environment using various sensors such as an infrared sensor. The acquisition device 100 may provide a communication function for acquiring an image from the acquisition device via a network, for example.

情報処理装置200は、情報処理機能を有するコンピュータ装置であり、例えば、サーバ装置、パーソナルコンピュータ等である。情報処理装置200は、制御部210と、記憶部220と、通信部230とを備える。   The information processing apparatus 200 is a computer apparatus having an information processing function, such as a server apparatus or a personal computer. The information processing apparatus 200 includes a control unit 210, a storage unit 220, and a communication unit 230.

制御部210は、情報処理装置200の各種機能を制御する。制御部210が有する機能の一部または全ては、例えば、制御部210が備えるCPU(Central Processing Unit)等の1以上のプロセッサが記憶部220に記憶されている各種プログラムを実行することにより実現されてもよい。制御部210は、ユーザ検出部211と、周辺検出部212と、危険度算出部213と、警告特定部214とを備える。   The control unit 210 controls various functions of the information processing apparatus 200. Some or all of the functions of the control unit 210 are realized by, for example, one or more processors such as a CPU (Central Processing Unit) provided in the control unit 210 executing various programs stored in the storage unit 220. May be. The control unit 210 includes a user detection unit 211, a periphery detection unit 212, a risk level calculation unit 213, and a warning identification unit 214.

ユーザ検出部211は、予め定められた条件を満たして移動しているユーザ(以降、第1ユーザとも称する)を検出する。本実施例では、ユーザ検出部211は、記憶部220から、取得装置100から取得した撮像データを取得する。ユーザ検出部211は、取得した撮像データを解析し、撮像データに含まれるユーザ(人物)を抽出する。そして、ユーザ検出部211は、抽出したユーザが、電子機器を把持し、当該電子機器を閲覧しながら歩行または走行しているか否かを判定する。ユーザ検出部211は、当該判定を、例えば、ユーザの体の部位(頭、顔、手、腕等)の位置、向き、移動方向、角度の情報やユーザの体の部位(手、腕等)付近の物体(電子機器等)の外観、形状等に基づいて行う。ユーザ検出部211は、当該判定により予め定められた条件を満たして移動していると判定された第1ユーザについての情報(位置、移動方向、移動速度等)を動作情報として特定し、周辺検出部212および危険度算出部213に出力する。
ユーザ検出部211による第1ユーザの検出の例については後述する。
The user detection unit 211 detects a user (hereinafter, also referred to as a first user) who is moving while satisfying a predetermined condition. In the present embodiment, the user detection unit 211 acquires the imaging data acquired from the acquisition device 100 from the storage unit 220. The user detection unit 211 analyzes the acquired imaging data and extracts a user (person) included in the imaging data. Then, the user detection unit 211 determines whether or not the extracted user is walking or running while holding the electronic device and browsing the electronic device. The user detection unit 211 performs the determination by, for example, information on the position, orientation, moving direction, and angle of the user's body part (head, face, hand, arm, etc.) and the user body part (hand, arm, etc.). This is based on the appearance, shape, etc. of nearby objects (electronic devices, etc.). The user detecting unit 211 identifies information (position, moving direction, moving speed, etc.) about the first user determined to be moving by satisfying a predetermined condition as a result of the determination, and detects the surroundings. To the unit 212 and the risk calculation unit 213.
An example of detection of the first user by the user detection unit 211 will be described later.

周辺検出部212は、ユーザ検出部211から入力された第1ユーザの周辺に存在する物体を検出する。当該物体は、例えば、第1ユーザ周辺の人物や動物、車、電車等の乗り物、ショッピングカートや自動販売機等の各種物体が含まれる。本実施形態では、周辺検出部212は、第1ユーザの周辺に存在するユーザ(以降、第2ユーザとも称する)を検出する。周辺検出部212は、記憶部220から、取得装置100から取得した撮像データを取得する。周辺検出部212は、取得した撮像データを解析し、第1ユーザから所定の範囲内に存在する第2ユーザを抽出する。周辺検出部212は、第2ユーザについての情報(位置、移動方向、移動速度等)を周辺情報として特定し、危険度算出部213に出力する。
周辺検出部212による第2ユーザの検出の例については後述する。なお、ユーザ検出部211または周辺検出部212は複数の取得装置100から得られた撮像データに基づいて、上述の処理を行ってもよい。
The surroundings detection unit 212 detects an object existing around the first user input from the user detection unit 211. Examples of the object include various objects such as persons and animals around the first user, vehicles such as cars and trains, shopping carts and vending machines. In the present embodiment, the periphery detection unit 212 detects a user (hereinafter also referred to as a second user) existing around the first user. The surrounding detection unit 212 acquires the imaging data acquired from the acquisition device 100 from the storage unit 220. The periphery detection unit 212 analyzes the acquired imaging data and extracts a second user existing within a predetermined range from the first user. The surroundings detection unit 212 identifies information (position, moving direction, moving speed, etc.) about the second user as surrounding information, and outputs it to the risk level calculation unit 213.
An example of detection of the second user by the periphery detection unit 212 will be described later. Note that the user detection unit 211 or the periphery detection unit 212 may perform the above-described processing based on imaging data obtained from the plurality of acquisition devices 100.

危険度算出部213は、ユーザ検出部211および周辺検出部212の検出結果に基づいて、危険度を算出する。危険度とは、第1ユーザの行動が第1ユーザまたは第2ユーザに対して及ぼす危険(影響)の度合いを表す情報である。本実施形態では、危険度は、第1ユーザについての危険の度合いを表す第1危険度と、第2ユーザについての危険の度合いを表す第2危険度に基づいて算出される。第1危険度および第2危険度を算出するための要素は、第1ユーザの周辺に存在する人(第2ユーザ)の数、第1ユーザおよび第2ユーザの移動速度、移動方向、位置、第1ユーザおよび第2ユーザ周辺の移動体(自動車、ショッピングカート等)の情報、第1ユーザおよび第2ユーザ周辺の設置物、障害物等の情報等を含む。危険度算出部213は、第1危険度および第2危険度に基づいて危険度を算出し、警告特定部214に出力する。
危険度算出部213による危険度の算出の例については後述する。
The risk level calculation unit 213 calculates the risk level based on the detection results of the user detection unit 211 and the periphery detection unit 212. The degree of risk is information representing the degree of risk (influence) that the action of the first user exerts on the first user or the second user. In the present embodiment, the risk level is calculated based on a first risk level that indicates the level of risk for the first user and a second level of risk that indicates the level of risk for the second user. The elements for calculating the first risk level and the second risk level are the number of people (second users) existing around the first user, the moving speed, the moving direction, the position of the first user and the second user, It includes information on moving bodies (automobiles, shopping carts, etc.) around the first user and the second user, information on installed objects and obstacles around the first user and the second user, and the like. The risk level calculation unit 213 calculates the risk level based on the first risk level and the second risk level, and outputs the risk level to the warning specifying unit 214.
An example of risk level calculation by the risk level calculation unit 213 will be described later.

警告特定部214は、危険度算出部213から入力された危険度に基づいて、第1ユーザの動作に関する警告の内容を特定する。警告の内容には、警告の対象、内容(メッセージ等)および警告手段を表す情報が含まれる。警告の内容は、警告を実施する場所およびタイミングを表す情報を含んでもよい。警告特定部214は、記憶部220が保持する警告テーブルに基づいて、警告の内容を特定する。その後、警告特定部214は、警告内容の特定結果を、通信部230を介して警告装置300に送信する。
警告特定部214による警告内容の特定の例については後述する。
The warning specifying unit 214 specifies the content of the warning related to the operation of the first user based on the risk level input from the risk level calculation unit 213. The content of the warning includes information indicating the target of the warning, the content (message, etc.) and the warning means. The content of the warning may include information indicating the location and timing of the warning. The warning specifying unit 214 specifies the content of the warning based on the warning table held by the storage unit 220. Thereafter, the warning specifying unit 214 transmits a warning result specifying result to the warning device 300 via the communication unit 230.
A specific example of warning content by the warning specifying unit 214 will be described later.

記憶部220は、例えば、HDD(Hard Disc Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)などにより構成される。記憶部220は、情報処理装置200に関する各種情報やプログラムを記憶する。記憶部220は、例えば、取得装置100から、通信部230を介して取得した撮像データや、警告テーブル、警告内容の特定結果等を記憶する。   The storage unit 220 includes, for example, an HDD (Hard Disc Drive), a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), a ROM (Read Only Memory), or a RAM (Random Access Memory). The storage unit 220 stores various information and programs related to the information processing apparatus 200. The storage unit 220 stores, for example, imaging data acquired from the acquisition device 100 via the communication unit 230, a warning table, a specific result of warning content, and the like.

通信部230は、有線または無線の通信回線を介して装置間の通信を行うための外部インターフェイスを備え、制御部210の制御に基づいて、取得装置100やその他の外部装置と通信する。   The communication unit 230 includes an external interface for performing communication between devices via a wired or wireless communication line, and communicates with the acquisition device 100 and other external devices based on the control of the control unit 210.

警告装置300は、情報処理装置200から受信した警告情報に基づいて、各種の警告を行う。警告装置300は、例えば、スピーカや指向性スピーカを備え、音声による警告を行う。指向性スピーカとは、音声の伝播する方向を制御し、音声を拡散させないスピーカである。指向性スピーカを用いることで、特定の狭い範囲にいる人に選択的に音声を流すことができる。つまり、警告の対象者にのみ警告音声を聞かせ、周囲の人には不要な警告音声を聞かせないようにすることができる。また、警告装置300は、例えば、ディスプレイやLED(Light Emitting Diode)ライトを備え、文字や映像、各種記号、ライトの点滅等により警告を行ってもよい。また、警告装置300は、例えばネットワーク経由で警告装置に警告を与える通信機能を提供するものであってもよい。   The warning device 300 performs various warnings based on the warning information received from the information processing device 200. The warning device 300 includes, for example, a speaker and a directional speaker, and issues a warning by voice. A directional speaker is a speaker that controls the direction of sound propagation and does not diffuse the sound. By using a directional speaker, audio can be selectively sent to a person in a specific narrow range. That is, it is possible to make only the warning target person hear the warning sound and prevent the surrounding people from listening to the unnecessary warning sound. In addition, the warning device 300 may include, for example, a display or an LED (Light Emitting Diode) light, and may give a warning by characters, video, various symbols, flashing lights, and the like. The warning device 300 may provide a communication function that gives a warning to the warning device via a network, for example.

次に、ユーザ検出部211および周辺検出部212による第1ユーザおよび第2ユーザの検出の例について説明する。
図2は、本実施形態におけるユーザ検出の一例を示す図である。図2の例では、取得装置100が撮像した撮像データの撮像範囲(画角)をA1で示している。
ユーザ検出部211は、撮像範囲A1内の画像を解析し、撮像範囲A1に含まれる人物を抽出する。ユーザ検出部211は、種々の方法により人物の抽出を行ってよい。例えば、予め背景のみが撮影された映像と入力映像の差分により検出する背景差分による方法を用いてもよい。また、例えば、設定された大きさの検出ウィンドウ内の画像を切り出したパターン画像に対し、人物であるかの判別を行う方法を用いてもよい。
Next, an example of detection of the first user and the second user by the user detection unit 211 and the periphery detection unit 212 will be described.
FIG. 2 is a diagram illustrating an example of user detection in the present embodiment. In the example of FIG. 2, the imaging range (view angle) of the imaging data captured by the acquisition apparatus 100 is indicated by A1.
The user detection unit 211 analyzes an image in the imaging range A1, and extracts a person included in the imaging range A1. The user detection unit 211 may extract a person by various methods. For example, a method based on a background difference that is detected based on a difference between a video in which only the background is captured in advance and an input video may be used. Also, for example, a method of determining whether a person is a pattern image obtained by cutting out an image within a detection window having a set size may be used.

ユーザ検出部211は、抽出したユーザが、電子機器を把持し、当該電子機器を閲覧しながら歩行または走行しているか否かを判定する。本実施例では、ユーザ検出部211は、ユーザの手、顔の位置を検出し、ユーザの手の位置に把持物があるかを判定する。把持物がある場合、ユーザ検出部211は、当該把持物が電子機器であるかを外観から判定する。また、ユーザ検出部211は、ユーザの顔が所定の時間以上、把持している電子機器の方向を向いているかを判定する。さらに、ユーザ検出部211は、ユーザが所定の速度以上で移動しているかを判定する。以上の条件に合致する場合、ユーザ検出部211は、ユーザが、電子機器を把持し、当該電子機器を閲覧しながら歩行または走行していると判定する。ユーザ検出部211は、当該ユーザを第1ユーザとして管理し、第1ユーザの情報(位置、移動方向、移動速度等)を周辺検出部212に出力する。なお、その他の判定方法(視線検出等を用いて、上述の判定を行ってもよい。   The user detection unit 211 determines whether or not the extracted user is walking or running while holding the electronic device and browsing the electronic device. In the present embodiment, the user detection unit 211 detects the position of the user's hand and face, and determines whether there is a gripping object at the position of the user's hand. When there is a gripping object, the user detection unit 211 determines from the appearance whether the gripping object is an electronic device. In addition, the user detection unit 211 determines whether the user's face is facing the direction of the electronic device being held for a predetermined time or more. Furthermore, the user detection unit 211 determines whether the user is moving at a predetermined speed or higher. When the above conditions are met, the user detection unit 211 determines that the user is walking or running while holding the electronic device and browsing the electronic device. The user detection unit 211 manages the user as a first user, and outputs information (position, movement direction, movement speed, etc.) of the first user to the periphery detection unit 212. In addition, you may perform the above-mentioned determination using other determination methods (line-of-sight detection etc.).

周辺検出部212は、ユーザ検出部211から取得した第1ユーザの情報に基づいて、第1ユーザの周辺に存在するユーザを抽出する。図2の例では、第1ユーザであるユーザ1を中心として、半径Rの円内に存在するユーザ1、ユーザ2、ユーザ3を抽出し、第2ユーザとして管理する。周辺検出部212は、ユーザ4については、半径Rの円内に存在しないため抽出しない。第2ユーザを抽出する範囲は、ユーザ1を中心とする円に限らず、例えば、ユーザの進行方向の範囲を広く設定してもよいし、第1ユーザ周辺の地形や駅等の構内の形状に応じて変更してもよい。周辺検出部212は、抽出した第2ユーザの情報(位置、移動方向、移動速度等)を危険度算出部に出力する。
以上で、ユーザ検出部211および周辺検出部212による第1ユーザおよび第2ユーザの検出の例についての説明を終了する。
The surroundings detection unit 212 extracts users existing around the first user based on the first user information acquired from the user detection unit 211. In the example of FIG. 2, the user 1, the user 2, and the user 3 existing in the circle with the radius R are extracted with the user 1 being the first user as the center, and are managed as the second user. The periphery detection unit 212 does not extract the user 4 because the user 4 does not exist within the circle with the radius R. The range for extracting the second user is not limited to the circle centered on the user 1, and for example, the range of the user's traveling direction may be set wide, and the terrain around the first user and the shape of the premises such as the station You may change according to. The surroundings detection unit 212 outputs the extracted information (position, moving direction, moving speed, etc.) of the second user to the risk level calculation unit.
Above, description about the example of the detection of the 1st user by the user detection part 211 and the periphery detection part 212 and a 2nd user is complete | finished.

次に、危険度算出部213による危険度の算出の例について説明する。
図3は、本実施形態に係る危険度算出の一例を示す第1の図である。図3(a)は、第1危険度の算出例を示す図である。本実施形態では、第1危険度yは第2ユーザの人数xをパラメータとする関数y=f(x)で表される。危険度算出部213は、周辺検出部212から取得した、第1ユーザ周辺の第2ユーザの人数を当該関数に入力して、第1危険度のレベルを取得する。この例では、第2ユーザの人数が3人であるため、f(3)=4が第1危険度のレベルとなる。
Next, an example of risk level calculation by the risk level calculation unit 213 will be described.
FIG. 3 is a first diagram illustrating an example of risk level calculation according to the present embodiment. FIG. 3A is a diagram illustrating a calculation example of the first risk level. In the present embodiment, the first risk y is expressed by a function y = f (x) having the number x of second users as a parameter. The risk level calculation unit 213 inputs the number of second users around the first user acquired from the periphery detection unit 212 to the function, and acquires the first risk level. In this example, since the number of second users is three, f (3) = 4 is the first risk level.

図3(b)は第2危険度の算出例を示す図である。本実施形態では、第2危険度yは、図3(a)と同様に、第2ユーザの人数xをパラメータとする関数y=g(x)で表される。危険度算出部213は、周辺検出部212から取得した、第1ユーザ周辺の第2ユーザの人数を当該関数に入力して、第2危険度のレベルを取得する。この例では、第2ユーザの人数が3人であるため、g(3)=2が第2危険度のレベルとなる。   FIG. 3B is a diagram illustrating a calculation example of the second risk level. In the present embodiment, the second risk level y is expressed by a function y = g (x) having the number x of second users as a parameter, as in FIG. The risk level calculation unit 213 inputs the number of second users around the first user acquired from the periphery detection unit 212 to the function, and acquires the second risk level. In this example, since the number of second users is 3, g (3) = 2 is the second risk level.

なお、関数y=f(x)およびy=g(x)は、各種条件により設定され、種々の関数となりえる。また、パラメータも第2ユーザの人数に限らず種々のパラメータを使用可能である。また、危険度算出部213は、関数によらず、予め定められた条件に基づいて第1危険度を取得してもよい。   The functions y = f (x) and y = g (x) are set according to various conditions and can be various functions. The parameters are not limited to the number of second users, and various parameters can be used. Further, the risk level calculation unit 213 may acquire the first risk level based on a predetermined condition regardless of the function.

図4は、本実施形態に係る危険度算出の一例を示す第2の図である。危険度算出部213は、算出した第1危険度および第2危険度に基づいて危険度を算出する。本実施形態では、危険度算出部213は、図4に示す通り、横軸を第1危険度、縦軸を第2危険度として、危険度を4つ(A、B、C、D)に分類する。図4の例では、第1危険度がレベル4、第2危険度がレベル2であるため、危険度はBに分類される。なお、危険度の算出は、上記の象限(マトリクス)による分類だけに限られず、その他の方法により行われてもよい。
以上で、危険度算出部213による危険度の算出の例についての説明を終了する。
FIG. 4 is a second diagram illustrating an example of risk level calculation according to the present embodiment. The risk level calculation unit 213 calculates a risk level based on the calculated first risk level and second risk level. In the present embodiment, as shown in FIG. 4, the risk level calculation unit 213 sets the risk level to four (A, B, C, D) with the horizontal axis as the first risk level and the vertical axis as the second risk level. Classify. In the example of FIG. 4, since the first risk level is level 4 and the second risk level is level 2, the risk level is classified as B. The calculation of the risk level is not limited to the classification based on the above quadrant (matrix), and may be performed by other methods.
This is the end of the description of the example of risk level calculation by the risk level calculation unit 213.

次に、警告特定部214による警告内容の特定の例について説明する。
警告特定部214は、危険度算出部213から入力された危険度と、記憶部220が保持する警告テーブルに基づいて、警告の内容を特定する。
Next, a specific example of warning content by the warning specifying unit 214 will be described.
The warning specifying unit 214 specifies the content of the warning based on the risk input from the risk calculation unit 213 and the warning table held by the storage unit 220.

図5は、本実施形態に係る警告テーブルの一例を示す図である。図5に示す通り、警告テーブルは、危険度毎のレコードを有し、各レコードは、危険度の「説明」および「警告内容」のフィールドを有する。   FIG. 5 is a diagram illustrating an example of a warning table according to the present embodiment. As shown in FIG. 5, the warning table has a record for each risk level, and each record has fields of “description” and “warning content” for the risk level.

「説明」フィールドは、各危険度の説明を示すフィールドである。例えば、危険度“A”は、“本人、周辺ともに危険度が高く、警告が必要なレベル”であることを示している。
「警告内容」のフィールドは、「警告対象」、「警告メッセージ」、「警告手段」のフィールドを有する。
The “explanation” field is a field indicating the explanation of each risk level. For example, the risk level “A” indicates that “the risk level is high for both the person and the surrounding area and a warning is required”.
The field of “warning content” includes fields of “warning target”, “warning message”, and “warning means”.

「警告対象」フィールドは、警告すべき対象を示すフィールドである。
「警告メッセージ」フィールドは、音声、映像等で警告対象に通知する警告の内容を示すフィールドである。
「警告手段」フィールドは、警告を行う手段を示すフィールドである。警告を行う手段には、スピーカや指向性スピーカを用いた音声による警告や、ディスプレイを用いた文字や映像による警告が含まれる。
The “warning target” field is a field indicating a target to be warned.
The “warning message” field is a field indicating the content of the warning to be notified to the warning target by audio, video, or the like.
The “warning means” field is a field indicating a means for giving a warning. The warning means includes a warning by sound using a speaker or a directional speaker, and a warning by characters or video using a display.

例えば、危険度“A”の場合は、“第1ユーザ”に対して、“「歩きスマホをやめてください。危険です。」”、“第2ユーザ”に対して、“「周辺に歩きスマホユーザがいます。危険です。」”と音声(スピーカ)により警告を行うことを示している。
また、図4の例では、危険度が“B”であるため、“第1ユーザ”に対して、“「歩きスマホをやめてください。危険です。」”と“音声(指向性スピーカ)”により警告を行うことを示している。この場合、警告装置300は、警告音声を、指向性スピーカにより、第1ユーザに向けて発する。
For example, when the risk level is “A”, for “first user”, “Please stop walking. It ’s dangerous.”, For “second user”, “There are smartphone users walking around. "This is dangerous."
In the example of FIG. 4, since the risk level is “B”, for “the first user”, “Please stop walking. It ’s dangerous.” And “speech (directional speaker)” In this case, the warning device 300 emits a warning sound toward the first user through a directional speaker.

警告特定部214は、上述したように警告テーブルに基づいて、警告内容(警告対象、警告メッセージ、警告手段)を特定し、特定した結果を警告装置300へ、通信部230を介して送信する。
以上で、警告特定部214による警告内容の特定の例についての説明を終了する。
As described above, the warning specifying unit 214 specifies the warning content (warning target, warning message, warning means) based on the warning table, and transmits the specified result to the warning device 300 via the communication unit 230.
Above, description about the specific example of the warning content by the warning specific | specification part 214 is complete | finished.

次に、情報処理システム1の処理の流れについて説明する。
図6は、本実施形態に係る情報処理システム1の処理の一例を示すフローチャートである。
Next, a processing flow of the information processing system 1 will be described.
FIG. 6 is a flowchart illustrating an example of processing of the information processing system 1 according to the present embodiment.

(ステップS101)情報処理装置200は、取得装置100が撮像した所定の範囲における撮像データを、通信部230を介して取得する。その後、ステップS102の処理に進む。
(ステップS102)ユーザ検出部211は、取得した撮像データを解析し、撮像データに含まれる人物を抽出する。その後、ステップS103の処理に進む。
(Step S <b> 101) The information processing apparatus 200 acquires imaging data in a predetermined range captured by the acquisition apparatus 100 via the communication unit 230. Thereafter, the process proceeds to step S102.
(Step S102) The user detection unit 211 analyzes the acquired imaging data and extracts a person included in the imaging data. Thereafter, the process proceeds to step S103.

(ステップS103)ユーザ検出部211は、抽出したユーザが、電子機器を把持し、当該電子機器を閲覧しながら歩行または走行しているか(すなわち第1ユーザであるか)を判定する。第1ユーザと判定された場合(ステップS103/YES)、ステップS104の処理に進む。ユーザが抽出されない場合、または抽出されたユーザが第1ユーザと判定されない場合(ステップS103/NO)、ステップS101の処理に戻る。
(ステップS104)周辺検出部212は、撮像データを解析し、第1ユーザの周辺の情報(物体、第2ユーザ等)を抽出する。その後、ステップS105の処理に進む。
(Step S103) The user detection unit 211 determines whether the extracted user is walking or running (that is, the first user) while holding the electronic device and browsing the electronic device. When it determines with a 1st user (step S103 / YES), it progresses to the process of step S104. If the user is not extracted, or if the extracted user is not determined to be the first user (step S103 / NO), the process returns to step S101.
(Step S <b> 104) The periphery detection unit 212 analyzes the imaging data, and extracts information around the first user (object, second user, etc.). Thereafter, the process proceeds to step S105.

(ステップS105)危険度算出部213は、ユーザ検出部211から入力された第1ユーザの動作情報と周辺検出部212から入力された第1ユーザの周辺情報に基づいて、危険度を算出する。具体的には、図3および図4の例で説明したように、第1危険度および第2危険度を算出し、算出した第1危険度および第2危険度に基づいて、危険度を算出する。その後、ステップS106の処理に進む。
(ステップS106)警告特定部214は、危険度算出部213から入力された危険度に基づいて、警告の内容(警告対象、警告メッセージ、警告手段等)を特定する。警告特定部214は、特定結果を、通信部230を介して警告装置300に送信する。その後、ステップS107の処理に進む。
(Step S <b> 105) The risk level calculation unit 213 calculates the risk level based on the first user's operation information input from the user detection unit 211 and the first user's peripheral information input from the periphery detection unit 212. Specifically, as described in the example of FIGS. 3 and 4, the first risk level and the second risk level are calculated, and the risk level is calculated based on the calculated first risk level and second risk level. To do. Thereafter, the process proceeds to step S106.
(Step S106) The warning specifying unit 214 specifies the content of the warning (warning target, warning message, warning means, etc.) based on the risk input from the risk calculation unit 213. The warning identification unit 214 transmits the identification result to the warning device 300 via the communication unit 230. Thereafter, the process proceeds to step S107.

(ステップS107)警告装置300は、情報処理装置200から受信した特定結果に基づいて、警告を行う。具体的には、特定結果に記述された警告対象(第1ユーザ、第2ユーザ等)に対して、警告メッセージの内容(「注意してください。」等)を、警告手段(スピーカ出力、ディスプレイ表示)によって警告する。その後、処理を終了する。
以上で、情報処理システム1の処理の流れの説明を終了する。
(Step S107) The warning device 300 issues a warning based on the specific result received from the information processing device 200. Specifically, for the warning target (first user, second user, etc.) described in the specific result, the warning message content (such as “Please be careful”) is displayed as warning means (speaker output, display). Warning). Thereafter, the process ends.
This is the end of the description of the processing flow of the information processing system 1.

以上説明したように、本実施形態に係る情報処理システム1は、画像を取得する取得装置100と、警告を出力する警告装置300と、情報処理装置200とを備える情報処理システムであって、取得装置100は取得した画像を情報処理装置200に送信し、警告装置300は情報処理装置200から受信した警告の内容に基づいて警告を出力し、情報処理装置200は、取得装置100から受信した画像に基づいてユーザの動作を表す動作情報とユーザの周辺環境を表す周辺情報とを特定し、動作情報と周辺情報とに基づいて、ユーザの動作に関する警告の内容を特定し、特定した警告の内容を警告装置300に送信する。
これにより、ユーザの動作と周囲の状況に応じて適切に警告を行うことができる。
As described above, the information processing system 1 according to the present embodiment is an information processing system including the acquisition device 100 that acquires an image, the warning device 300 that outputs a warning, and the information processing device 200. The apparatus 100 transmits the acquired image to the information processing apparatus 200, the warning apparatus 300 outputs a warning based on the content of the warning received from the information processing apparatus 200, and the information processing apparatus 200 receives the image received from the acquisition apparatus 100. Based on the action information indicating the action of the user and the peripheral information indicating the user's surrounding environment, the content of the warning about the action of the user is specified based on the action information and the peripheral information. Is transmitted to the warning device 300.
Thereby, a warning can be appropriately given according to a user's operation and surrounding circumstances.

また、本実施形態に係る情報処理装置200は、画像を取得する取得部と、警告を出力する警告部と、制御部210とを備え、制御部210は、取得部が取得した画像に基づいてユーザの動作を表す動作情報とユーザの周辺環境を表す周辺情報とを特定し、動作情報と周辺情報とに基づいて、ユーザの動作に関する警告の内容を特定し、特定した警告の内容に基づいて、警告部に警告を出力させる。
これにより、ユーザの動作と周囲の状況に応じて適切に警告を行うことができる。
Further, the information processing apparatus 200 according to the present embodiment includes an acquisition unit that acquires an image, a warning unit that outputs a warning, and a control unit 210. The control unit 210 is based on the image acquired by the acquisition unit. Identify the action information that represents the user's action and the surrounding information that represents the user's surrounding environment, identify the contents of the warning about the user's action based on the action information and the surrounding information, and based on the contents of the identified warning The warning part is made to output a warning.
Thereby, a warning can be appropriately given according to a user's operation and surrounding circumstances.

また、制御部210は、動作情報に基づいて、予め定められた条件を満たして移動している第1ユーザを検出し、周辺情報に基づいて、第1ユーザの周辺に存在する物体を検出し、第1ユーザと物体の検出結果に基づいて、危険度を算出し、危険度に基づいて第1ユーザの動作に関する警告の内容を特定する。
これにより、危険度に基づいて、危険を及ぼすユーザの動作に関して適切に警告の内容を特定することができる。
Further, the control unit 210 detects a first user who is moving while satisfying a predetermined condition based on the operation information, and detects an object present around the first user based on the peripheral information. The risk level is calculated based on the detection result of the first user and the object, and the content of the warning regarding the operation of the first user is specified based on the risk level.
Accordingly, it is possible to appropriately specify the content of the warning regarding the action of the user who gives a risk based on the risk level.

また、制御部210は、周辺情報に基づいて、前記第1ユーザの周辺に存在する第2ユーザを検出し、危険度に基づいて前記第1ユーザまたは第2ユーザに対する警告の内容を特定する。
これにより、危険度に基づいて、危険を及ぼす動作中のユーザまたはその周辺のユーザに適切に警告を行うことができる。
Further, the control unit 210 detects a second user existing around the first user based on the peripheral information, and specifies the content of the warning for the first user or the second user based on the degree of risk.
Thereby, based on the degree of danger, it is possible to appropriately warn a user who is in danger of operating or a user in the vicinity thereof.

また、制御部210は、第1ユーザについての第1危険度と、第2ユーザについての第2危険度に基づいて、危険度を算出する。
これにより、危険を及ぼす動作中のユーザと、その周辺のユーザのそれぞれの危険度を用いて、より精度よく危険度を算出することができる。
In addition, the control unit 210 calculates the risk level based on the first risk level for the first user and the second risk level for the second user.
As a result, it is possible to calculate the risk level with higher accuracy by using the respective risk levels of the user in danger and the surrounding users.

また、制御部210は、前記第2ユーザの数に基づいて前記危険度を算出する。
これにより、危険を及ぼす動作中のユーザの周辺の混雑具合に応じて、適切に警告の内容を判定することができる。
In addition, the control unit 210 calculates the degree of risk based on the number of the second users.
As a result, it is possible to appropriately determine the content of the warning according to the degree of congestion around the user who is in danger of operating.

また、制御部210は、電子機器を把持し、当該電子機器を閲覧しながら歩行または走行しているユーザを第1ユーザとして検出する。
これにより、いわゆる歩きスマホをしているユーザを検出し、当該周囲の状況に応じて適切に警告を行うことができる。
In addition, the control unit 210 detects the user who is walking or running while holding the electronic device and browsing the electronic device as the first user.
Thereby, the user who is carrying out what is called a walk smartphone can be detected, and a warning can be appropriately performed according to the surrounding situation.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。なお、上述した実施形態と同様の構成については、同一の符号を付し、その説明を援用する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described. In addition, about the structure similar to embodiment mentioned above, the same code | symbol is attached | subjected and the description is used.

図7は、本実施形態に係る情報処理システム2の構成を示すブロック図である。情報処理システム2は、取得装置100と、情報処理装置200と、警告装置300と、第2取得装置400と、第2情報処理装置500と、第2警告装置600とを備える。   FIG. 7 is a block diagram showing a configuration of the information processing system 2 according to the present embodiment. The information processing system 2 includes an acquisition device 100, an information processing device 200, a warning device 300, a second acquisition device 400, a second information processing device 500, and a second warning device 600.

取得装置100、情報処理装置200および警告装置300の構成は、第1の実施形態と同様である。ただし、本実施形態では、警告特定部214は、危険度に基づいて、警告を実施する場所またはタイミングを特定する。これにより、即時に警告する必要はないが、事後的に本人に対して注意喚起する(例えば、ユーザが改札通過時に改札機の表示画面に警告メッセージを表示する)等の柔軟な警告が可能となる。   The configurations of the acquisition device 100, the information processing device 200, and the warning device 300 are the same as those in the first embodiment. However, in the present embodiment, the warning specifying unit 214 specifies a place or timing for executing the warning based on the degree of risk. As a result, it is not necessary to give a warning immediately, but it is possible to provide a flexible warning such as alerting the person later (for example, a warning message is displayed on the display screen of the ticket gate when the user passes the ticket gate). Become.

警告特定部214は、警告場所として特定した装置(本実施形態では第2警告装置600で警告)に対して、通信部230を介して、特定結果を送信する。特定結果には、警告対象ユーザを特定するための情報を含めてもよい。ユーザを特定するための情報とは、例えば、服装、体格、所持品等を表す特徴量であってもよい。   The warning specifying unit 214 transmits the specifying result via the communication unit 230 to the device specified as the warning place (in this embodiment, the warning is given by the second warning device 600). The identification result may include information for identifying the warning target user. The information for specifying the user may be, for example, a feature amount indicating clothes, physique, personal belongings, and the like.

第2情報処理装置500は、有線または無線の通信回線を介して、情報処理装置200、第2取得装置および第2警告装置と接続されている。なお、第2取得装置400または第2警告装置600は、第2情報処理装置500内において、第2取得装置400または第2警告装置600と同様の機能を有する第2取得部または第2警告部として構成されてもよい。   The second information processing device 500 is connected to the information processing device 200, the second acquisition device, and the second warning device via a wired or wireless communication line. The second acquisition device 400 or the second warning device 600 is a second acquisition unit or second warning unit having the same function as the second acquisition device 400 or the second warning device 600 in the second information processing device 500. It may be configured as.

第2取得装置400は、本実施形態では、取得装置100と同様の機能を有する撮像装置である。第2取得装置400は、所定の範囲におけるユーザおよびユーザ周辺の画像を撮像する。第2取得装置400は、撮像した画像からなる撮像データ(静止画または動画)を第2情報処理装置500へ送信する。   In the present embodiment, the second acquisition device 400 is an imaging device having the same function as the acquisition device 100. The second acquisition device 400 captures images of the user and the surroundings of the user in a predetermined range. The second acquisition device 400 transmits imaging data (still image or moving image) including the captured image to the second information processing device 500.

第2情報処理装置500は、情報処理機能を有するコンピュータ装置であり、例えば、サーバ装置やパーソナルコンピュータである。第2情報処理装置500は、第2制御部510と、第2記憶部520と、第2通信部530とを備える。   The second information processing apparatus 500 is a computer apparatus having an information processing function, for example, a server apparatus or a personal computer. The second information processing apparatus 500 includes a second control unit 510, a second storage unit 520, and a second communication unit 530.

第2制御部510は、第2情報処理装置500の各種機能を制御する。第2制御部510が有する機能の一部または全ては、例えば、第2制御部510が備えるCPU(Central Processing Unit)等の1以上のプロセッサが第2記憶部520に記憶されている各種プログラムを実行することにより実現されてもよい。第2制御部510は、第2ユーザ検出部511と、第2警告特定部512とを備える。   The second control unit 510 controls various functions of the second information processing apparatus 500. Some or all of the functions of the second control unit 510 include various programs stored in the second storage unit 520 by one or more processors such as a CPU (Central Processing Unit) provided in the second control unit 510, for example. It may be realized by executing. The second control unit 510 includes a second user detection unit 511 and a second warning identification unit 512.

第2ユーザ検出部511は、第2取得装置400から取得した撮像データを解析し、撮像データに、警告対象の第1ユーザが含まれるか否かを判定する。第2ユーザ検出部511は、例えば、情報処理装置200から受信したユーザの特徴量が所定の基準以上に合致する場合に警告対象の第1ユーザであると判定する。第2ユーザ検出部511は、警告対象の第1ユーザを抽出した場合、その結果を第2警告特定部512に出力する。   The second user detection unit 511 analyzes the imaging data acquired from the second acquisition device 400 and determines whether or not the warning target first user is included in the imaging data. For example, the second user detection unit 511 determines that the user is the first user to be warned when the feature amount of the user received from the information processing apparatus 200 matches a predetermined criterion or more. When the second user detecting unit 511 extracts the first user to be warned, the second user detecting unit 511 outputs the result to the second warning identifying unit 512.

第2警告特定部512は、第2通信部530を介して、情報処理装置200から警告内容の特定結果を取得する。警告内容の特定結果には、警告対象、警告メッセージ、警告手段、警告場所、警告タイミングが含まれる。第2警告特定部512は、警告特定結果に基づいて、警告の内容を決定し、第2警告装置600に警告を実施させる。例えば、警告対象が“ユーザA”、警告メッセージが“「歩きスマホをやめてください。危険です。」”、警告手段が“第2警告装置(改札機表示画面)”、警告場所が“駅改札”、警告タイミングが“改札通過時”であるとする。この場合、第2警告特定部512は、第2ユーザ検出部から取得したユーザの情報に基づいて、ユーザAが駅改札において改札を通過するタイミングにおいて、第2警告装置(改札機表示画面)に「歩きスマホをやめてください。危険です。」と表示するよう制御する。   The second warning specifying unit 512 acquires a warning content specifying result from the information processing apparatus 200 via the second communication unit 530. The result of specifying the warning content includes a warning target, a warning message, a warning means, a warning location, and a warning timing. The second warning specifying unit 512 determines the content of the warning based on the warning specifying result, and causes the second warning device 600 to perform the warning. For example, the warning target is “User A”, the warning message is “Please stop walking. Dangerous.”, The warning means is “second warning device (ticket gate display screen)”, and the warning location is “station ticket gate”. The warning timing is “at the time of passing the ticket gate.” In this case, based on the user information acquired from the second user detection unit, the second warning specifying unit 512 passes the ticket gate at the station ticket gate. At the timing, the second warning device (ticket gate display screen) is controlled to display “Stop walking. It is dangerous.”

第2記憶部520は、例えば、HDD(Hard Disc Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)などにより構成される。第2記憶部520は、第2情報処理装置500に関する各種情報やプログラムを記憶する。第2記憶部520は、例えば、第2取得装置400から取得した撮像データや、情報処理装置200から取得した警告特定結果等を記憶する。   The second storage unit 520 includes, for example, an HDD (Hard Disc Drive), a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), a ROM (Read Only Memory), or a RAM (Random Access Memory). The second storage unit 520 stores various information and programs related to the second information processing apparatus 500. The second storage unit 520 stores, for example, imaging data acquired from the second acquisition device 400, a warning identification result acquired from the information processing device 200, and the like.

第2通信部530は、有線または無線の通信回線を介して装置間の通信を行うための外部インターフェイスを備え、第2制御部510の制御に基づいて、第2取得装置400やその他の外部装置と通信する。   The second communication unit 530 includes an external interface for performing communication between devices via a wired or wireless communication line. Based on the control of the second control unit 510, the second acquisition device 400 and other external devices Communicate with.

第2警告装置600は、取得装置100による撮像範囲と異なる場所に設置され、第2情報処理装置500の制御に基づいて、各種の警告を行う。第2警告装置600は、前述の通り改札機表示画面であってもよいし、警告装置300と同様に、スピーカや指向性スピーカであって、音声による警告をおこなってもよいし、ディスプレイやLED(Light Emitting Diode)ライトを備え、文字や映像、各種記号、ライトの点滅等により警告を行ってもよい。   The second warning device 600 is installed in a place different from the imaging range by the acquisition device 100 and performs various warnings based on the control of the second information processing device 500. As described above, the second warning device 600 may be a ticket gate display screen, and, like the warning device 300, may be a speaker or a directional speaker, and may give a voice warning, a display or an LED. (Light Emitting Diode) A light may be provided, and a warning may be given by characters, video, various symbols, blinking light, and the like.

次に、情報処理システム2の処理の流れについて説明する。
図8は、本実施形態に係る情報処理システム2の処理の一例を示すフローチャートである。図8において、ステップS101からステップS107の処理については、第1の実施形態と同様であるため、説明を省略し、ステップS201から説明を行う。
Next, a processing flow of the information processing system 2 will be described.
FIG. 8 is a flowchart illustrating an example of processing of the information processing system 2 according to the present embodiment. In FIG. 8, the processing from step S101 to step S107 is the same as that of the first embodiment, and thus the description thereof is omitted, and the description starts from step S201.

(ステップS201)警告特定部214は、警告のタイミングが即時であるか否かを判定し、即時の警告である場合(ステップS201/YES)、ステップS107の処理に進む。即時の警告でない場合(ステップS201/NO)、ステップS202の処理に進む。
(ステップS202)警告特定部214は、警告実施場所に設置された警告装置(この例では第2警告装置に接続する第2情報処理装置)に、特定結果を送信する。その後、ステップS203の処理に進む。
(Step S201) The warning specifying unit 214 determines whether or not the warning timing is immediate, and if it is an immediate warning (YES in Step S201), the process proceeds to Step S107. If it is not an immediate warning (step S201 / NO), the process proceeds to step S202.
(Step S202) The warning specifying unit 214 transmits the specific result to a warning device (in this example, the second information processing device connected to the second warning device) installed at the warning execution location. Thereafter, the process proceeds to step S203.

(ステップS203)第2情報処理装置500は、第2取得装置400が撮像した所定の範囲の撮像データを、第2通信部530を介して取得する。その後、ステップS204の処理に進む。
(ステップS204)第2ユーザ検出部511は、取得した撮像データを解析し、警告対象のユーザを抽出する。第2ユーザ検出部511は、警告対象のユーザを抽出した場合、警告対象を抽出した旨を第2警告特定部512に通知する。その後、ステップS205の処理に進む。
(Step S <b> 203) The second information processing apparatus 500 acquires imaging data in a predetermined range captured by the second acquisition apparatus 400 via the second communication unit 530. Thereafter, the process proceeds to step S204.
(Step S <b> 204) The second user detection unit 511 analyzes the acquired imaging data and extracts a warning target user. When the warning target user is extracted, the second user detection unit 511 notifies the second warning specifying unit 512 that the warning target has been extracted. Thereafter, the process proceeds to step S205.

(ステップS205)第2警告特定部512は、警告場所および警告タイミングが特定結果と合致するかを判定する。警告場所および警告タイミングが特定結果と合致する場合(ステップS205/YES)、第2警告特定部512は、第2警告装置600に警告を実施するよう指示する。その後、ステップS206の処理に進む。警告場所または警告タイミングが特定結果と合致しない場合(ステップS205/NO)、ステップS203の処理に戻る。
(ステップS206)第2警告装置600は、第2警告特定部512からの指示に基づき、警告を行う。その後、処理を終了する。
以上で、情報処理システム2の処理の一例の説明を終了する。
(Step S205) The second warning specifying unit 512 determines whether the warning location and the warning timing match the specified result. When the warning location and the warning timing match the specified result (step S205 / YES), the second warning specifying unit 512 instructs the second warning device 600 to perform the warning. Thereafter, the process proceeds to step S206. If the warning location or warning timing does not match the specific result (step S205 / NO), the process returns to step S203.
(Step S206) The second warning device 600 issues a warning based on an instruction from the second warning specifying unit 512. Thereafter, the process ends.
Above, description of an example of the process of the information processing system 2 is complete | finished.

以上説明したように、本実施形態に係る情報処理システム2において、情報処理装置200の制御部210は、危険度に基づいて、第1ユーザに対して警告を行うタイミングまたは場所を特定する。
これにより、警告のタイミングまたは場所を適切に特定することができる。
As described above, in the information processing system 2 according to the present embodiment, the control unit 210 of the information processing device 200 identifies the timing or place where the warning is given to the first user based on the degree of risk.
Thereby, the timing or place of warning can be specified appropriately.

また、制御部210は、特定の結果に基づいて、第2警告装置600に、前記画像に撮像されている場所とは異なる場所において、第1ユーザに対して警告を出力させる。
これにより、危険度に応じて、適切な場所で警告を行うことができる。
Further, the control unit 210 causes the second warning device 600 to output a warning to the first user at a location different from the location captured in the image based on the specific result.
Thereby, a warning can be given at an appropriate place according to the degree of danger.

<第3の実施形態>
次に、本発明の第3の実施形態について説明する。なお、上述した実施形態と同様の構成については、同一の符号を付し、その説明を援用する。
本実施形態は、第1または第2の実施形態とシステム構成は同じである。本実施形態では、危険度算出部213は、ユーザ検出部211または周辺検出部212の検出結果に基づいて、第1危険度または第2危険度の算出式を変更する。
<Third Embodiment>
Next, a third embodiment of the present invention will be described. In addition, about the structure similar to embodiment mentioned above, the same code | symbol is attached | subjected and the description is used.
This embodiment has the same system configuration as the first or second embodiment. In the present embodiment, the risk level calculation unit 213 changes the calculation formula for the first risk level or the second risk level based on the detection result of the user detection unit 211 or the periphery detection unit 212.

図9は、本実施形態に係る危険度の算出式の変更例を示す図である。危険度算出部213は、図9(a)に示すように、ユーザ検出部211または周辺検出部212の検出結果に基づいて、第1危険度の算出式をy=f(x)からy=f’(x)に変更する。また、危険度算出部213は、図9(b)に示すように、ユーザ検出部211または周辺検出部212の検出結果に基づいて、第2危険度の算出式をy=g(x)からy=g’(x)に変更する。危険度算出部213が各危険度の算出式を変更する契機の例について以下説明する。   FIG. 9 is a diagram illustrating a modification example of the risk degree calculation formula according to the present embodiment. As illustrated in FIG. 9A, the risk level calculation unit 213 changes the first risk level calculation formula from y = f (x) to y = based on the detection result of the user detection unit 211 or the surrounding detection unit 212. Change to f '(x). Further, as shown in FIG. 9B, the risk level calculation unit 213 calculates the second risk level calculation formula from y = g (x) based on the detection result of the user detection unit 211 or the periphery detection unit 212. Change to y = g ′ (x). An example of the opportunity for the risk level calculation unit 213 to change the calculation formula for each risk level will be described below.

第1の例について説明する。この例では、ユーザ検出部211または周辺検出部212は、撮像データに基づいて、第1ユーザまたは第2ユーザの移動方向や移動速度を算出する。ユーザ検出部211または周辺検出部212は、所定の期間の撮像データ(映像)から、現在時刻のユーザの移動方向および移動速度を算出してもよいし、所定の時間後のユーザの移動方向および移動速度の予測値を算出してもよい。また、ユーザ検出部211または周辺検出部212は、ユーザの加速度や体の向き等を用いてユーザの移動方向や移動速度を算出してもよい。   A first example will be described. In this example, the user detection unit 211 or the periphery detection unit 212 calculates the moving direction and moving speed of the first user or the second user based on the imaging data. The user detection unit 211 or the periphery detection unit 212 may calculate the moving direction and moving speed of the user at the current time from the imaging data (video) for a predetermined period, A predicted value of the moving speed may be calculated. Further, the user detection unit 211 or the periphery detection unit 212 may calculate the moving direction and moving speed of the user using the user's acceleration, body orientation, and the like.

危険度算出部213は、ユーザ検出部211または周辺検出部212から取得したユーザの移動方向や移動速度に基づいて、各危険度の算出式を変更する。具体的には、例えば、第1ユーザの移動方向と第2ユーザの移動方向から両ユーザが接触する可能性が低い場合(両ユーザがすれ違い、そのまま反対方向に移動している場合等)、危険度算出部213は、図9(a)に示すように、第1危険度の算出式をy=f(x)よりも低い値をとるy=f’(x)に変更する。また、例えば、第1ユーザの移動速度が所定の速度よりも早い場合に、危険度算出部213は、第1危険度の算出式をy=f(x)よりも高い値をとる関数に変更してもよい。
このように、ユーザの移動方向や移動速度に基づいて、危険度の算出式を設定、変更することで、危険度をより適切に算出し、警告内容の特定に用いることができる。
The risk level calculation unit 213 changes the calculation formula for each risk level based on the movement direction and movement speed of the user acquired from the user detection unit 211 or the periphery detection unit 212. Specifically, for example, when there is a low possibility that both users are in contact with each other from the moving direction of the first user and the moving direction of the second user (when both users pass each other and move in the opposite direction, etc.), it is dangerous. As shown in FIG. 9A, the degree calculation unit 213 changes the first risk degree calculation formula to y = f ′ (x), which is lower than y = f (x). Also, for example, when the moving speed of the first user is faster than a predetermined speed, the risk level calculation unit 213 changes the calculation formula for the first risk level to a function that takes a value higher than y = f (x). May be.
In this way, by setting and changing the risk level calculation formula based on the moving direction and speed of the user, the risk level can be calculated more appropriately and used to specify the warning content.

第2の例について説明する。この例では、ユーザ検出部211または周辺検出部212は、第1ユーザまたは第2ユーザの現在地に関する情報を取得する。現在地に関する情報は、例えば、公園、駅のホーム、道路、橋等の場所を表す情報である。また、ユーザ検出部211または周辺検出部212は、地面が凸凹している、ぬかるんで滑りやすい等の現在地に付随する情報をあわせて取得してもよい。ユーザ検出部211または周辺検出部212は、取得装置100から取得した撮像データを解析して、現在地に関する情報や付随情報を取得してもよい。また、ユーザ検出部211または周辺検出部212は、通信部230を介して、外部の装置(地図データサーバ等)から現在地に関する情報や付随情報を取得してもよい。   A second example will be described. In this example, the user detection unit 211 or the periphery detection unit 212 acquires information on the current location of the first user or the second user. The information on the current location is information representing places such as parks, station platforms, roads, bridges, and the like. In addition, the user detection unit 211 or the periphery detection unit 212 may also acquire information accompanying the current location such as the ground being uneven or being muddy and slippery. The user detection unit 211 or the periphery detection unit 212 may analyze the imaging data acquired from the acquisition device 100 and acquire information about the current location and accompanying information. In addition, the user detection unit 211 or the periphery detection unit 212 may acquire information on the current location or accompanying information from an external device (such as a map data server) via the communication unit 230.

危険度算出部213は、ユーザ検出部211または周辺検出部212から取得したユーザの現在地に関する情報や付随情報に基づいて、各危険度の算出式を変更する。例えば、危険度算出部213は、ユーザの現在地は公園であり、自動車等の危険ないが、周辺に花壇の柵があり転倒時に刺さる危険性がある等の判断をし、危険度の算出式を変更する。
このように、ユーザの現在地に関する情報や場所に付随する情報に基づいて、危険度の算出式を設定、変更することで、危険度をより適切に算出し、警告内容の特定に用いることができる。
The risk level calculation unit 213 changes the calculation formula for each risk level based on information about the current location of the user acquired from the user detection unit 211 or the periphery detection unit 212 and accompanying information. For example, the risk level calculation unit 213 determines that the current location of the user is a park and there is no danger of a car or the like, but there is a flower bed fence around and there is a risk of being stabbed in the event of a fall. change.
In this way, by setting and changing the calculation formula of the risk level based on the information on the current location of the user and the information accompanying the location, the risk level can be calculated more appropriately and used for identifying the warning content. .

第3の例について説明する。この例では、周辺検出部212は、第1ユーザの周辺の人間以外の移動体についての情報を取得する。移動体とは、例えば、自動車、自転車、ベビーカー等の乗り物や、物品搬送用のキャリー等である。また、周辺検出部212は、移動体の移動方向や移動速度等の付随情報をあわせて取得してもよい。周辺検出部212は、取得装置100から取得した撮像データを解析して、移動体に関する情報や付随情報を取得してもよい。また、周辺検出部212は、通信部230を介して、外部の装置から移動体に関する情報や付随情報を取得してもよい。   A third example will be described. In this example, the periphery detection unit 212 acquires information about a moving body other than a human being around the first user. The moving body is, for example, a vehicle such as an automobile, a bicycle, or a stroller, a carry for conveying an article, and the like. The periphery detection unit 212 may also acquire accompanying information such as the moving direction and moving speed of the moving object. The periphery detection unit 212 may analyze the imaging data acquired from the acquisition device 100 and acquire information about the moving body and accompanying information. In addition, the periphery detection unit 212 may acquire information on the moving body and accompanying information from an external device via the communication unit 230.

危険度算出部213は、周辺検出部212から取得した移動体に関する情報や付随情報に基づいて、各危険度の算出式を変更する。例えば、危険度算出部213は、周辺に人物は少ないが、車が第1ユーザに向かっている場合に、危険度の算出式を、より高い危険度が得られる算出式に変更する。
このように、ユーザ周辺の人間以外の移動体についての情報やそれに付随する情報に基づいて、危険度の算出式を設定、変更することで、危険度をより適切に算出し、警告内容の特定に用いることができる。
The risk level calculation unit 213 changes the calculation formula for each risk level based on the information about the moving object acquired from the periphery detection unit 212 and the accompanying information. For example, the risk level calculation unit 213 changes the risk level calculation formula to a calculation formula that provides a higher risk level when there are few people in the vicinity but the car is facing the first user.
In this way, by setting and changing the risk level calculation formula based on information about moving objects other than humans around the user and the information accompanying it, the risk level can be calculated more appropriately and the content of the warning can be specified. Can be used.

第4の例について説明する。この例では、周辺検出部212は、第1ユーザの周辺の設置物や障害物に関する情報を取得する。設置物や障害物とは、例えば、ごみ箱、ベンチ、ポスト、自動販売機、ガードレール等の各種物体である。周辺検出部212は、取得装置100から取得した撮像データを解析して、設置物や障害物に関する情報を取得してもよい。また、周辺検出部212は、通信部230を介して、外部の装置から設置物や障害物に関する情報を取得してもよい。   A fourth example will be described. In this example, the periphery detection unit 212 acquires information related to installation objects and obstacles around the first user. The installation object and the obstacle are, for example, various objects such as a trash can, a bench, a post, a vending machine, and a guardrail. The periphery detection unit 212 may analyze the imaging data acquired from the acquisition device 100 and acquire information on the installation object and the obstacle. In addition, the periphery detection unit 212 may acquire information regarding an installation object or an obstacle from an external device via the communication unit 230.

危険度算出部213は、周辺検出部212から取得した設置物や障害物に関する情報に基づいて、各危険度の算出式を変更する。例えば、危険度算出部213は、周辺に人物は少ないが、第1ユーザが障害物の方向に速度を落とさずに進行している場合は、危険度の算出式を、より高い危険度が得られる算出式に変更する。
このように、設置物や障害物に関する情報に基づいて、危険度の算出式を設定、変更することで、危険度をより適切に算出し、警告内容の特定に用いることができる。
The risk level calculation unit 213 changes the calculation formula for each risk level based on the information about the installation object and the obstacle acquired from the surroundings detection unit 212. For example, when there are few people in the vicinity, but the first user is proceeding without decreasing the speed in the direction of the obstacle, the risk level calculation unit 213 obtains a higher risk level as a risk level calculation formula. Change to the calculation formula.
In this way, by setting and changing the calculation formula of the risk level based on the information about the installation object and the obstacle, the risk level can be calculated more appropriately and used for specifying the warning content.

なお、上述した各実施形態における取得装置100、情報処理装置200、警告装置300、第2取得装置400、第2情報処理装置500、第2警告装置600の一部または全部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、各装置に内蔵されたコンピュータシステムであって、OS(Operating System)や周辺機器等のハードウェアを含むものとする。   Note that a part or all of the acquisition device 100, the information processing device 200, the warning device 300, the second acquisition device 400, the second information processing device 500, and the second warning device 600 in each of the embodiments described above is realized by a computer. It may be. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” is a computer system built in each device, and includes hardware such as an OS (Operating System) and peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In this case, a volatile memory inside a computer system that serves as a server or a client may be included that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

また、上述した実施形態における取得装置100、情報処理装置200、警告装置300、第2取得装置400、第2情報処理装置500、第2警告装置600の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。各装置の各機能部は個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。   In addition, some or all of the acquisition device 100, the information processing device 200, the warning device 300, the second acquisition device 400, the second information processing device 500, and the second warning device 600 in the above-described embodiment may be integrated into an LSI (Large Scale). Integration) or the like. Each functional unit of each device may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
また、本発明の一態様は、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。また、上記各実施形態や変形例に記載された要素であり、同様の効果を奏する要素同士を置換した構成も含まれる。
As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to
In addition, one aspect of the present invention can be modified in various ways within the scope of the claims, and the technical aspects of the present invention also relate to embodiments obtained by appropriately combining technical means disclosed in different embodiments. Included in the range. Moreover, it is the element described in said each embodiment and modification, and the structure which substituted the element which has the same effect is also contained.

なお、本発明の一態様は以下の態様からも把握される。
(1)画像を取得する取得装置と、警告を出力する警告装置と、情報処理装置とを備える情報処理システムであって、前記取得装置は取得した前記画像を前記情報処理装置に送信し、前記警告装置は前記情報処理装置から受信した警告の内容に基づいて警告を出力し、前記情報処理装置は、前記取得装置から受信した前記画像に基づいてユーザの動作を表す動作情報と前記ユーザの周辺環境を表す周辺情報とを特定し、前記動作情報と前記周辺情報とに基づいて、前記ユーザの動作に関する警告の内容を特定し、特定した前記警告の内容を前記警告装置に送信する、情報処理システム。
Note that one aspect of the present invention can be understood from the following aspects.
(1) An information processing system including an acquisition device that acquires an image, a warning device that outputs a warning, and an information processing device, wherein the acquisition device transmits the acquired image to the information processing device, and The warning device outputs a warning based on the content of the warning received from the information processing device, and the information processing device includes operation information representing the user's operation based on the image received from the acquisition device and the surroundings of the user Information processing for specifying surrounding information representing an environment, specifying the content of a warning regarding the user's operation based on the operation information and the peripheral information, and transmitting the specified content of the warning to the warning device system.

(2)画像を取得する取得部と、警告を出力する警告部と、制御部とを備え、前記制御部は、前記取得部が取得した前記画像に基づいてユーザの動作を表す動作情報と前記ユーザの周辺環境を表す周辺情報とを特定し、前記動作情報と前記周辺情報とに基づいて、前記ユーザの動作に関する警告の内容を特定し、特定した前記警告の内容に基づいて、前記警告部に警告を出力させる、情報処理装置。 (2) An acquisition unit that acquires an image, a warning unit that outputs a warning, and a control unit, wherein the control unit represents operation information representing a user's operation based on the image acquired by the acquisition unit, and the control unit Identifying peripheral information representing the surrounding environment of the user, identifying the content of a warning regarding the user's operation based on the operation information and the peripheral information, and based on the identified content of the warning, the warning unit An information processing device that causes a warning to be output.

(3)前記制御部は、前記動作情報に基づいて、予め定められた条件を満たして移動している第1ユーザを検出し、前記周辺情報に基づいて、前記第1ユーザの周辺に存在する物体を検出し、前記第1ユーザと前記物体の検出結果に基づいて、危険度を算出し、前記危険度に基づいて前記第1ユーザの動作に関する警告の内容を特定する、(2)に記載の情報処理装置。 (3) The control unit detects a first user who is moving while satisfying a predetermined condition based on the operation information, and exists around the first user based on the peripheral information. The object is detected, the risk level is calculated based on the detection result of the first user and the object, and the content of the warning regarding the operation of the first user is specified based on the risk level. Information processing device.

(4)前記制御部は、前記周辺情報に基づいて、前記第1ユーザの周辺に存在する第2ユーザを検出し、前記危険度に基づいて前記第1ユーザまたは第2ユーザに対する警告の内容を特定する、(3)に記載の情報処理装置。 (4) The control unit detects a second user existing around the first user based on the peripheral information, and displays a warning content for the first user or the second user based on the degree of risk. The information processing apparatus according to (3), which is specified.

(5)前記制御部は、前記第1ユーザについての第1危険度と、前記第2ユーザについての第2危険度に基づいて、前記危険度を算出する、(4)に記載の情報処理装置。 (5) The information processing apparatus according to (4), wherein the control unit calculates the risk level based on a first risk level for the first user and a second risk level for the second user. .

(6)前記制御部は、前記第2ユーザの数に基づいて前記危険度を算出する、(4)または(5)に記載の情報処理装置。 (6) The information processing apparatus according to (4) or (5), wherein the control unit calculates the degree of risk based on the number of the second users.

(7)前記制御部は、前記第1ユーザおよび前記物体の移動方向に基づいて、前記危険度を算出する、(3)から(6)のいずれか一項に記載の情報処理装置。 (7) The information processing apparatus according to any one of (3) to (6), wherein the control unit calculates the degree of risk based on a moving direction of the first user and the object.

(8)前記制御部は、前記危険度に基づいて、前記第1ユーザに対して警告を行うタイミングまたは場所を特定する、(3)から(7)のいずれか一項に記載の情報処理装置。 (8) The information processing apparatus according to any one of (3) to (7), wherein the control unit specifies a timing or a place where a warning is given to the first user based on the degree of risk. .

(9)前記制御部は、前記特定の結果に基づいて、前記警告装置に、前記画像に撮像されている場所とは異なる場所において、前記第1ユーザに対して警告を出力させる、(8)に記載の情報処理装置。 (9) Based on the specific result, the control unit causes the warning device to output a warning to the first user at a location different from the location captured in the image. (8) The information processing apparatus described in 1.

(10)前記制御部は、電子機器を把持し、当該電子機器を閲覧しながら歩行または走行している前記ユーザを前記第1ユーザとして検出する、(3)から(9)のいずれか一項に記載の情報処理装置。 (10) The control unit grips an electronic device and detects the user who is walking or running while browsing the electronic device as the first user, (3) to (9) The information processing apparatus described in 1.

(11)画像を取得する取得ステップと、警告を出力する警告ステップと、前記取得ステップにおいて取得した前記画像に基づいてユーザの動作を表す動作情報と前記ユーザの周辺環境を表す周辺情報とを特定するステップと、前記動作情報と前記周辺情報とに基づいて、前記ユーザの動作に関する警告の内容を特定するステップと、特定した前記警告の内容に基づいて、前記警告部に警告を出力させるステップと、を有する情報処理方法。 (11) Specifying an acquisition step for acquiring an image, a warning step for outputting a warning, operation information representing a user's operation based on the image acquired in the acquisition step, and peripheral information representing the surrounding environment of the user The step of specifying the content of the warning about the user's operation based on the operation information and the peripheral information, and the step of causing the warning unit to output a warning based on the content of the specified warning. And an information processing method.

(12)コンピュータに、画像を取得する取得手順と、警告を出力する警告手順と、
前記取得手順において取得した前記画像に基づいてユーザの動作を表す動作情報と前記ユーザの周辺環境を表す周辺情報とを特定する手順と、前記動作情報と前記周辺情報とに基づいて、前記ユーザの動作に関する警告の内容を特定する手順と、特定した前記警告の内容に基づいて、前記警告部に警告を出力させる手順と、を実行させるためのプログラム。
(12) An acquisition procedure for acquiring an image on a computer, a warning procedure for outputting a warning,
Based on the operation information representing the user's motion and the peripheral information representing the user's surrounding environment based on the image acquired in the acquisition procedure, and based on the motion information and the peripheral information, the user's A program for executing a procedure for specifying the content of a warning related to an operation and a procedure for causing the warning unit to output a warning based on the specified content of the warning.

1、2・・・情報処理システム、100・・・取得装置、200・・・情報処理装置、210・・・制御部、211・・・ユーザ検出部、212・・・周辺検出部、213・・・危険度算出部、214・・・警告特定部、220・・・記憶部、230・・・通信部、300・・・警告装置、400・・・第2取得装置、500・・・第2情報処理装置、510・・・第2制御部、511・・・第2ユーザ検出部、512・・・第2警告特定部、520・・・第2記憶部、530・・・第2通信部、600・・・第2警告装置 1, 2 ... Information processing system, 100 ... Acquisition device, 200 ... Information processing device, 210 ... Control unit, 211 ... User detection unit, 212 ... Periphery detection unit, 213 .. Risk level calculation unit, 214... Warning identification unit, 220... Storage unit, 230 .. communication unit, 300... Warning device, 400. 2 information processing devices, 510 ... second control unit, 511 ... second user detection unit, 512 ... second warning identification unit, 520 ... second storage unit, 530 ... second communication Part, 600 ... second warning device

Claims (12)

画像を取得する取得装置と、警告を出力する警告装置と、情報処理装置とを備える情報処理システムであって、
前記取得装置は取得した前記画像を前記情報処理装置に送信し、
前記警告装置は前記情報処理装置から受信した警告の内容に基づいて警告を出力し、
前記情報処理装置は、
前記取得装置から受信した前記画像に基づいてユーザの動作を表す動作情報と前記ユーザの周辺環境を表す周辺情報とを特定し、
前記動作情報と前記周辺情報とに基づいて、前記ユーザの動作に関する警告の内容を特定し、
特定した前記警告の内容を前記警告装置に送信する、
情報処理システム。
An information processing system comprising an acquisition device that acquires an image, a warning device that outputs a warning, and an information processing device,
The acquisition device transmits the acquired image to the information processing device,
The warning device outputs a warning based on the content of the warning received from the information processing device,
The information processing apparatus includes:
Identifying operation information representing a user's operation based on the image received from the acquisition device and surrounding information representing the user's surrounding environment;
Based on the operation information and the surrounding information, identify the content of the warning about the user's operation,
Sending the content of the identified warning to the warning device;
Information processing system.
画像を取得する取得部と、警告を出力する警告部と、制御部とを備え、
前記制御部は、
前記取得部が取得した前記画像に基づいてユーザの動作を表す動作情報と前記ユーザの周辺環境を表す周辺情報とを特定し、
前記動作情報と前記周辺情報とに基づいて、前記ユーザの動作に関する警告の内容を特定し、
特定した前記警告の内容に基づいて、前記警告部に警告を出力させる、
情報処理装置。
An acquisition unit that acquires an image, a warning unit that outputs a warning, and a control unit;
The controller is
Based on the image acquired by the acquisition unit, specify the operation information representing the user's operation and the peripheral information representing the user's surrounding environment,
Based on the operation information and the surrounding information, identify the content of the warning about the user's operation,
Based on the content of the identified warning, the warning unit outputs a warning,
Information processing device.
前記制御部は、
前記動作情報に基づいて、予め定められた条件を満たして移動している第1ユーザを検出し、
前記周辺情報に基づいて、前記第1ユーザの周辺に存在する物体を検出し、
前記第1ユーザと前記物体の検出結果に基づいて、危険度を算出し、
前記危険度に基づいて前記第1ユーザの動作に関する警告の内容を特定する、
請求項2に記載の情報処理装置。
The controller is
Based on the operation information, a first user who is moving while satisfying a predetermined condition is detected,
Based on the surrounding information, an object existing around the first user is detected,
Based on the detection result of the first user and the object, a risk level is calculated,
Identifying the content of a warning regarding the action of the first user based on the degree of risk;
The information processing apparatus according to claim 2.
前記制御部は、
前記周辺情報に基づいて、前記第1ユーザの周辺に存在する第2ユーザを検出し、
前記危険度に基づいて前記第1ユーザまたは第2ユーザに対する警告の内容を特定する、
請求項3に記載の情報処理装置。
The controller is
Based on the surrounding information, a second user existing around the first user is detected,
Identifying warning content for the first user or second user based on the degree of risk;
The information processing apparatus according to claim 3.
前記制御部は、前記第1ユーザについての第1危険度と、前記第2ユーザについての第2危険度に基づいて、前記危険度を算出する、
請求項4に記載の情報処理装置。
The control unit calculates the risk based on a first risk for the first user and a second risk for the second user.
The information processing apparatus according to claim 4.
前記制御部は、前記第2ユーザの数に基づいて前記危険度を算出する、
請求項4または請求項5に記載の情報処理装置。
The control unit calculates the degree of risk based on the number of the second users.
The information processing apparatus according to claim 4 or 5.
前記制御部は、前記第1ユーザおよび前記物体の移動方向に基づいて、前記危険度を算出する、
請求項3から請求項6のいずれか一項に記載の情報処理装置。
The control unit calculates the degree of risk based on a moving direction of the first user and the object;
The information processing apparatus according to any one of claims 3 to 6.
前記制御部は、前記危険度に基づいて、前記第1ユーザに対して警告を行うタイミングまたは場所を特定する、
請求項3から請求項7のいずれか一項に記載の情報処理装置。
The control unit specifies a timing or a place to give a warning to the first user based on the degree of risk.
The information processing apparatus according to any one of claims 3 to 7.
前記制御部は、前記特定の結果に基づいて、前記警告装置に、前記画像に撮像されている場所とは異なる場所において、前記第1ユーザに対して警告を出力させる、
請求項8に記載の情報処理装置。
The control unit causes the warning device to output a warning to the first user at a place different from the place captured in the image based on the specific result.
The information processing apparatus according to claim 8.
前記制御部は、電子機器を把持し、当該電子機器を閲覧しながら歩行または走行している前記ユーザを前記第1ユーザとして検出する、
請求項3から請求項9のいずれか一項に記載の情報処理装置。
The control unit grips an electronic device and detects the user walking or running while browsing the electronic device as the first user.
The information processing apparatus according to any one of claims 3 to 9.
画像を取得する取得ステップと、
警告を出力する警告ステップと、
前記取得ステップにおいて取得した前記画像に基づいてユーザの動作を表す動作情報と前記ユーザの周辺環境を表す周辺情報とを特定するステップと、
前記動作情報と前記周辺情報とに基づいて、前記ユーザの動作に関する警告の内容を特定するステップと、
特定した前記警告の内容に基づいて、前記警告部に警告を出力させるステップと、
を有する情報処理方法。
An acquisition step of acquiring an image;
A warning step that outputs a warning;
Identifying operation information representing a user's operation based on the image obtained in the obtaining step and surrounding information representing the user's surrounding environment;
Identifying the content of the warning about the user's action based on the action information and the peripheral information;
Based on the content of the identified warning, causing the warning unit to output a warning;
An information processing method comprising:
コンピュータに、
画像を取得する取得手順と、
警告を出力する警告手順と、
前記取得手順において取得した前記画像に基づいてユーザの動作を表す動作情報と前記ユーザの周辺環境を表す周辺情報とを特定する手順と、
前記動作情報と前記周辺情報とに基づいて、前記ユーザの動作に関する警告の内容を特定する手順と、
特定した前記警告の内容に基づいて、前記警告部に警告を出力させる手順と、
を実行させるためのプログラム。
On the computer,
An acquisition procedure to acquire an image;
A warning procedure that outputs a warning;
A procedure for specifying operation information representing a user's operation based on the image acquired in the acquisition procedure and peripheral information representing the user's surrounding environment;
A procedure for identifying the content of a warning regarding the user's action based on the action information and the peripheral information;
Based on the contents of the identified warning, a procedure for outputting a warning to the warning unit;
A program for running
JP2017100191A 2017-05-19 2017-05-19 Information processing system, information processing apparatus, information processing method and program Pending JP2018195194A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017100191A JP2018195194A (en) 2017-05-19 2017-05-19 Information processing system, information processing apparatus, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017100191A JP2018195194A (en) 2017-05-19 2017-05-19 Information processing system, information processing apparatus, information processing method and program

Publications (1)

Publication Number Publication Date
JP2018195194A true JP2018195194A (en) 2018-12-06

Family

ID=64570469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017100191A Pending JP2018195194A (en) 2017-05-19 2017-05-19 Information processing system, information processing apparatus, information processing method and program

Country Status (1)

Country Link
JP (1) JP2018195194A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095357A (en) * 2018-12-10 2020-06-18 トヨタ自動車株式会社 Behavior monitoring device, behavior monitoring system, and behavior monitoring program
CN115497332A (en) * 2021-06-18 2022-12-20 本田技研工业株式会社 Warning control device, moving body, warning control method, and computer-readable storage medium
JP7439694B2 (en) 2020-08-11 2024-02-28 トヨタ自動車株式会社 Information processing device, information processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095357A (en) * 2018-12-10 2020-06-18 トヨタ自動車株式会社 Behavior monitoring device, behavior monitoring system, and behavior monitoring program
JP7115277B2 (en) 2018-12-10 2022-08-09 トヨタ自動車株式会社 Behavior monitoring device, behavior monitoring system, and behavior monitoring program
JP7439694B2 (en) 2020-08-11 2024-02-28 トヨタ自動車株式会社 Information processing device, information processing method, and program
US11941965B2 (en) 2020-08-11 2024-03-26 Toyota Jidosha Kabushiki Kaisha Information processing apparatus issuing warning to person at risky point, information processing method, and non-transitory storage medium
CN115497332A (en) * 2021-06-18 2022-12-20 本田技研工业株式会社 Warning control device, moving body, warning control method, and computer-readable storage medium

Similar Documents

Publication Publication Date Title
US11282389B2 (en) Pedestrian detection for vehicle driving assistance
AU2015262344B2 (en) Processing apparatus, processing system, processing program, and processing method
US9975483B1 (en) Driver assist using smart mobile devices
WO2018046015A1 (en) Alarm method, device and terminal for vehicle
US9884621B2 (en) Autonomous parking controller and method based on ambient conditions relating to a vehicle parking location
US10909759B2 (en) Information processing to notify potential source of interest to user
KR20200110702A (en) Default preview area and gaze-based driver distraction detection
KR101339736B1 (en) System for warning traffic safety
JP2019008519A (en) Mobile body detection method, mobile body learning method, mobile body detector, mobile body learning device, mobile body detection system, and program
US10521680B2 (en) Detecting foliage using range data
WO2020051168A1 (en) Systems and methods for classifying driver behavior
JP5898001B2 (en) Vehicle periphery monitoring device
US20150310265A1 (en) Method and System for Proactively Recognizing an Action of a Road User
JP6556563B2 (en) Detection apparatus, detection method, detection program, and information processing system
JP2018195194A (en) Information processing system, information processing apparatus, information processing method and program
CN104239847B (en) Driving warning method and electronic device for vehicle
CN113205088B (en) Obstacle image presentation method, electronic device, and computer-readable medium
US11225265B2 (en) Electronic device and method for recognizing object using plurality of sensors
KR102279754B1 (en) Method, apparatus, server, and computer program for preventing crash accident
WO2017185268A1 (en) Method and apparatus for detecting obstacle on road
JP2015141553A (en) Risk avoidance control device, risk avoidance control method, and program
JP7397575B2 (en) Traffic light control device and traffic light control method
US20220105866A1 (en) System and method for adjusting a lead time of external audible signals of a vehicle to road users
JP2005092516A (en) On-vehicle device for detecting moving object
KR102084329B1 (en) Infant monitoring method in vehicle and the system thereof