JP7408419B2 - Information processing systems and electronic equipment - Google Patents

Information processing systems and electronic equipment Download PDF

Info

Publication number
JP7408419B2
JP7408419B2 JP2020012842A JP2020012842A JP7408419B2 JP 7408419 B2 JP7408419 B2 JP 7408419B2 JP 2020012842 A JP2020012842 A JP 2020012842A JP 2020012842 A JP2020012842 A JP 2020012842A JP 7408419 B2 JP7408419 B2 JP 7408419B2
Authority
JP
Japan
Prior art keywords
image
unit
audio
user terminal
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020012842A
Other languages
Japanese (ja)
Other versions
JP2021117921A (en
Inventor
弘継 野嶽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2020012842A priority Critical patent/JP7408419B2/en
Publication of JP2021117921A publication Critical patent/JP2021117921A/en
Application granted granted Critical
Publication of JP7408419B2 publication Critical patent/JP7408419B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Description

本出願は、情報処理システムおよび電子機器に関する。 The present application relates to information processing systems and electronic devices.

近年、小児、児童等が誘拐等の犯罪に巻き込まれることを防ぐ目的で各種のセキュリティー機能(防犯機能)が実装された子供向けの携帯電話機やシステムが提案されている。 In recent years, mobile phones and systems for children have been proposed that are equipped with various security functions (crime prevention functions) for the purpose of preventing children from being involved in crimes such as kidnapping.

特開2009-53855号公報Japanese Patent Application Publication No. 2009-53855 特開2008-102751号公報Japanese Patent Application Publication No. 2008-102751

児童誘拐等の犯罪行為を撲滅するため、かかる犯罪行為を抑止する抑止力となり得るシステムの構築が求められる。 In order to eradicate criminal acts such as child abduction, it is necessary to construct a system that can act as a deterrent to deter such criminal acts.

態様の1つに係る情報処理システムは、ユーザ端末と、前記ユーザ端末により取得されたデータを処理する情報処理装置と含む情報処理システムである。前記ユーザ端末は、前記情報処理装置との間で各種情報を送受信する通信部と、前記ユーザ端末の周囲の音声を入力可能に配置された音声入力部と、前記ユーザ端末の周囲の画像を撮像可能に配置された撮像部と、前記音声入力部により入力された入力音声を取得する音声取得部と、前記撮像部により撮像された画像を取得する画像取得部と、前記入力音声との比較を行うための比較音声の情報を予め記憶する記憶部と、前記入力音声の周波数と前記比較音声の周波数とが一致するか否かを判定し、前記入力音声の周波数と前記比較音声の周波数とが一致しないと判定した場合、前記通信部を介して、前記入力音声の音声データ及び前記画像取得部により取得された画像の画像データを、それぞれ端末取得音声データ及び端末取得画像データとして前記情報処理装置に送信する判定部とを備える。前記情報処理装置は、前記ユーザ端末から前記端末取得音声データ及び前記端末取得画像データを受信する通信部と、前記端末取得画像データとの比較を行うための比較画像データを記憶する比較画像データ格納部と、危険ワードの情報を記憶する危険ワード格納部と、年齢、性別、及び感情に対応付けられた危険度を記憶する危険度格納部と、前記端末取得音声データを解析し、当該端末取得音声データに対応するテキストデータを形態素に分割して取得する音声解析部と、前記端末取得画像データを解析し、端末取得画像に映し出された人物の年齢、性別、及び感情を取得する画像解析部と、前記端末取得画像データと前記比較画像データとが一致しない場合、前記音声解析部により取得された形態素と前記危険ワードとの一致率、並びに、前記画像解析部により取得された年齢、性別、及び感情に対応付けられた危険度に基づいて、前記ユーザ端末のユーザである児童が犯罪に巻き込まれる可能性が高いか否かを示す危険度を導出する危険度判定部とを備える。 An information processing system according to one aspect includes a user terminal and an information processing apparatus that processes data acquired by the user terminal. The user terminal includes a communication unit that transmits and receives various information to and from the information processing device, an audio input unit that is arranged to be able to input sounds surrounding the user terminal, and a device that captures images of the surroundings of the user terminal. an audio acquisition unit that acquires the input audio input by the audio input unit; an image acquisition unit that acquires the image captured by the imaging unit; and a comparison of the input audio. a storage unit that stores in advance information on comparison audio for performing the comparison; If it is determined that they do not match, the information processing device uses the audio data of the input audio and the image data of the image acquired by the image acquisition unit as terminal acquired audio data and terminal acquired image data, respectively, via the communication unit. and a determination unit that transmits the information to the user. The information processing device includes a communication unit that receives the terminal-acquired audio data and the terminal-acquired image data from the user terminal, and a comparison image data storage that stores comparison image data for comparing the terminal-acquired image data. a risk word storage section that stores information on risk words; a risk storage section that stores risk levels associated with age, gender, and emotion; A voice analysis unit that divides and acquires text data corresponding to voice data into morphemes; and an image analysis unit that analyzes the terminal-acquired image data and acquires the age, gender, and emotion of the person shown in the terminal-acquired image. and, if the terminal acquired image data and the comparison image data do not match, the match rate between the morpheme acquired by the voice analysis unit and the dangerous word, the age, gender, and age acquired by the image analysis unit. and a risk level determining unit that derives a risk level indicating whether or not a child who is a user of the user terminal is likely to be involved in a crime based on the risk level associated with the emotion.

また、態様の1つに係る電子機器は、音声及び画像に基づく処理を実行する電子機器であって、前記電子機器の周囲の音声を入力可能に配置された音声入力部と、前記電子機器の周囲の画像を撮像可能に配置された撮像部と、前記音声入力部により入力された入力音声を取得する音声取得部と、前記撮像部により撮像された画像を取得する画像取得部と、前記入力音声との比較を行うための比較音声の情報を予め記憶する音声記憶部と、前記画像との比較を行うための比較画像の情報を予め記憶する画像記憶部と、危険ワードの情報を記憶する危険ワード格納部と、年齢、性別、及び感情に対応付けられた危険度を記憶する危険度格納部と、前記音声取得部により取得された入力音声のデータを解析し、当該入力音声のデータに対応するテキストデータを形態素に分類して取得する音声解析部と、前記画像取得部により取得された画像のデータを解析し、当該画像に映し出された人物の年齢、性別、及び感情を取得する画像解析部と、前記音声取得部により取得された入力音声の周波数と前記比較音声の周波数とが一致するか否かを判定する音声判定部と、前記画像取得部により取得された画像と、前記画像記憶部に記憶されている前記比較画像とが一致するか否かを判定する画像判定部と、前記音声判定部により前記入力音声の周波数と前記比較音声の周波数とが一致しないと判定された場合、及び/又は前記画像取得部により取得された画像と、前記画像記憶部に記憶されている前記比較画像とが一致しないと判定された場合、前記音声解析部により取得された形態素と前記危険ワードとの一致率、並びに、前記画像解析部により取得された前記年齢、性別、及び感情に対応付けられた危険度に基づいて、前記電子機器のユーザが犯罪に巻き込まれる可能性が高いか否かを示す危険度を導出する危険度判定部とを備える。 Further, an electronic device according to one aspect is an electronic device that executes processing based on audio and images, and includes an audio input section arranged to be able to input sounds surrounding the electronic device; an imaging unit arranged to be able to capture surrounding images; an audio acquisition unit that acquires the input audio input by the audio input unit; an image acquisition unit that acquires the image captured by the imaging unit; A voice storage unit that stores in advance information on a comparison voice for comparison with voice, an image storage unit that stores in advance information on a comparison image for comparison with the image, and information on dangerous words. A risk word storage unit, a risk level storage unit that stores risk levels associated with age, gender, and emotion, and an input voice data acquired by the voice acquisition unit are analyzed, and the data of the input voice is A voice analysis unit that classifies and acquires the corresponding text data into morphemes, and an image that analyzes data of the image acquired by the image acquisition unit and acquires the age, gender, and emotion of the person shown in the image. an analysis unit, a voice determination unit that determines whether the frequency of the input voice acquired by the voice acquisition unit and the frequency of the comparison voice match, an image acquired by the image acquisition unit, and the image If the image determination unit determines whether the comparison image stored in the storage unit matches, and the audio determination unit determines that the frequency of the input audio and the frequency of the comparison audio do not match; , and/or when it is determined that the image acquired by the image acquisition unit and the comparison image stored in the image storage unit do not match, the morpheme acquired by the speech analysis unit and the dangerous word and whether or not the user of the electronic device is likely to be involved in a crime, based on the matching rate and the degree of risk associated with the age, gender, and emotion acquired by the image analysis unit. and a risk level determination unit that derives a level of risk indicating the level of risk.

図1は、実施形態に係る情報処理システムの概要を示す模式図である。FIG. 1 is a schematic diagram showing an overview of an information processing system according to an embodiment. 図2は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an information processing system according to an embodiment. 図3は、実施形態に係るユーザ端末の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a user terminal according to the embodiment. 図4は、実施形態に係るユーザ端末が有するコントローラ内部の構成例を示す図である。FIG. 4 is a diagram illustrating an example of the internal configuration of a controller included in a user terminal according to the embodiment. 図5は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 5 is a diagram illustrating a configuration example of an information processing device according to an embodiment. 図6は、実施形態に係る危険ワード格納部に格納される情報の概要を示す図である。FIG. 6 is a diagram illustrating an overview of information stored in the dangerous word storage unit according to the embodiment. 図7は、実施形態に係る危険度格納部に記憶される情報の概要を示す図である。FIG. 7 is a diagram illustrating an overview of information stored in the risk storage unit according to the embodiment. 図8は、実施形態に係る危険ワードの一致率の一例を示す図である。FIG. 8 is a diagram illustrating an example of the matching rate of dangerous words according to the embodiment. 図9は、実施形態に係る情報処理システムの処理手順の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of a processing procedure of the information processing system according to the embodiment. 図10は、実施形態に係る情報処理システムの処理手順の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of a processing procedure of the information processing system according to the embodiment. 図11は、実施形態に係る情報処理システムの処理手順の一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of a processing procedure of the information processing system according to the embodiment.

本出願に係る実施形態を、図面を参照しつつ詳細に説明する。以下の説明において、同様の構成要素について同一の符号を付すことがある。さらに、重複する説明は省略することがある。 Embodiments according to the present application will be described in detail with reference to the drawings. In the following description, similar components may be denoted by the same reference numerals. Furthermore, duplicate explanations may be omitted.

<<1.はじめに>>
児童は、感情に流されやすく、客観的かつ論理的な判断が難しいので、誘拐等の犯罪行為の可能性がある状況に遭遇した場合、適切な行動をとれない可能性が高い。また、保護者が、児童のスケジュールや位置を把握していたとしても、児童の現在の状況を把握しているとは限らないので、児童が誘拐等の犯罪行為の可能性がある状況に遭遇しても即座に行動することは難しい。また、警察などの行政機関が、誘拐等の犯罪行為が発生しても、かかる犯罪行為に対して行動できるのは通報後であるので、犯罪行為が発生してからある程度の時間が経過しており、初動が遅れてしまう。このように、児童等が誘拐等の犯罪行為に遭遇することを回避するのは困難を極めるが、児童等が犯罪行為に遭遇することをできるだけ防止するとともに、犯罪行為に対してできるだけ迅速な行動をとることができる防犯体制の構築が望まれる。
<<1. Introduction >>
Children are easily influenced by their emotions and have difficulty making objective and logical judgments, so when they encounter a situation where there is a possibility of a criminal act such as kidnapping, there is a high possibility that they will not be able to take appropriate action. Furthermore, even if parents are aware of their child's schedule and location, they may not necessarily be aware of their child's current situation, so they may encounter a situation where their child may commit a criminal act such as kidnapping. However, it is difficult to act immediately. Furthermore, even if a criminal act such as kidnapping occurs, administrative agencies such as the police can take action against such criminal act only after it has been reported, so a certain amount of time has passed since the criminal act occurred. As a result, the initial response will be delayed. In this way, it is extremely difficult to prevent children from encountering criminal acts such as kidnapping, but it is important to prevent children from encountering criminal acts as much as possible and take action as quickly as possible against criminal acts. It is desirable to build a crime prevention system that can take the following measures.

そこで、本出願では、犯罪行為に対して捜査機関ができるだけ迅速な行動をとることを可能とするとともに、犯罪行為に巻き込まれる児童等の撲滅を図ることができる情報処理システム及び電子機器を提案する。 Therefore, in this application, we propose an information processing system and electronic equipment that enable investigative agencies to take action as quickly as possible against criminal acts, and that can eradicate children and others who become involved in criminal acts. .

<<2.情報処理システムの概要>>
図1を用いて、実施形態に係る情報処理システムの概要を説明する。図1は、実施形態に係る情報処理システムの概要を示す模式図である。
<<2. Overview of information processing system >>
An overview of an information processing system according to an embodiment will be described using FIG. 1. FIG. 1 is a schematic diagram showing an overview of an information processing system according to an embodiment.

図1に示す実施形態に係る情報処理システムは、児童Pが携帯するユーザ端末1と、当該児童Pが犯罪被害に遭う事を防止するための処理を実行する情報処理装置200とを備える。 The information processing system according to the embodiment shown in FIG. 1 includes a user terminal 1 carried by a child P 1 and an information processing device 200 that executes processing to prevent the child P 1 from becoming a victim of crime. .

図1において、符号「P」は児童を示している。符号「P」は、児童及び児童の保護者以外の第三者を示し、不審者である場合と、不審者ではない場合とがある。符号「P」は児童の保護者を示している。また、図1において、符号「PS」は警察署を示している。 In FIG. 1, the symbol "P 1 " indicates a child. The code " P2 " indicates a third party other than the child and the child's guardian, and may or may not be a suspicious person. The code " P3 " indicates the child's guardian. Further, in FIG. 1, the symbol "PS" indicates a police station.

ユーザ端末1は、通信機能を備えたスマートフォン等の子供向けの通信装置である。ユーザ端末1は、携帯電話、スマートデバイス(スマートフォン、又はタブレット)、ウェアラブル端末、PDA(Personal Digital Assistant)、ポータブル音楽プレーヤ、ゲーム端末、ラップトップ型のパーソナルコンピュータ等の種々の端末であってよい。 The user terminal 1 is a communication device for children, such as a smartphone, which has a communication function. The user terminal 1 may be various terminals such as a mobile phone, a smart device (smartphone or tablet), a wearable terminal, a PDA (Personal Digital Assistant), a portable music player, a game terminal, a laptop personal computer, and the like.

また、ユーザ端末1は、音声入力機能及び撮像機能を有する。ユーザ端末1は、音声入力機能により、児童Pの周囲に存在する第三者Pの音声を取得できる。また、ユーザ端末1は、撮像機能により、児童の周囲に存在する第三者Pの画像を取得できる。また、ユーザ端末1は、警告音を出力する機能、及び警告音を出力中であることを表示する機能を有する。 Further, the user terminal 1 has a voice input function and an imaging function. The user terminal 1 can acquire the voice of a third person P2 who is present around the child P1 by using the voice input function. Further, the user terminal 1 can obtain an image of a third party P2 around the child by using the imaging function. Further, the user terminal 1 has a function of outputting a warning sound and a function of displaying that the warning sound is being outputted.

また、ユーザ端末1は、インターネット等のネットワークに接続し、情報処理装置200との間で各種情報を送受信する情報通信を行うことができる。 Further, the user terminal 1 can connect to a network such as the Internet and perform information communication with the information processing device 200 to send and receive various information.

情報処理装置200は、危険度判定処理を実行する情報処理装置であり、インターネット等のネットワーク上に配置されたサーバ装置やワークステーション等の汎用的な情報処理装置、複数の情報処理装置で構築されたクラウドシステム等により実現される。 The information processing device 200 is an information processing device that executes risk determination processing, and is constructed from a plurality of general-purpose information processing devices such as a server device or a workstation placed on a network such as the Internet. This will be realized using cloud systems, etc.

このようなユーザ端末1及び情報処理装置200を備える情報処理システムによる処理の一例について説明する。 An example of processing by an information processing system including such a user terminal 1 and information processing device 200 will be described.

ユーザ端末1は、入力音声(例えば、第三者Pの音声)を取得し、取得した入力音声の周波数と、予め保持する比較音声の周波数とが一致するか否かを判定する(ステップS1)。ここで、比較音声は、例えば、予め収録してユーザ端末1に記録された保護者Pや親族などの音声に相当する。 The user terminal 1 acquires an input voice (for example, the voice of a third party P2 ), and determines whether the frequency of the acquired input voice matches the frequency of a comparison voice held in advance (step S1 ). Here, the comparison voice corresponds to, for example, the voices of the guardian P3 , relatives, etc., recorded in advance and recorded on the user terminal 1.

ユーザ端末1は、入力音声の周波数と比較音声の周波数とが一致しないと判定した場合、カメラ(図示略)を起動し、カメラにより撮像された画像(例えば、第三者Pの顔画像を含む画像)を取得する(ステップS2)。そして、ユーザ端末1は、ステップS1で取得した入力音声の音声データと、ステップS2で取得した画像の画像データを情報処理装置200に送信する(ステップS3)。また、ユーザ端末1は、児童Pの現在位置の情報やユーザ端末1を特定する端末情報を情報処理装置200に送信できる(ステップS3)。児童Pの現在位置の情報やユーザ端末1を特定する端末情報は、警察管理装置400に対する通報を行う際に同封される。端末情報として、ユーザ端末1に付与された電話番号や個体識別番号などを例示できる。 When the user terminal 1 determines that the frequency of the input voice and the frequency of the comparison voice do not match, the user terminal 1 activates a camera (not shown) and displays the image captured by the camera (for example, the face image of the third party P2) . image) is acquired (step S2). Then, the user terminal 1 transmits the audio data of the input voice acquired in step S1 and the image data of the image acquired in step S2 to the information processing device 200 (step S3). Further, the user terminal 1 can transmit information on the current location of the child P1 and terminal information specifying the user terminal 1 to the information processing device 200 (step S3). Information on the current location of the child P 1 and terminal information specifying the user terminal 1 are enclosed when reporting to the police management device 400 . Examples of the terminal information include a telephone number and an individual identification number assigned to the user terminal 1.

情報処理装置200は、ユーザ端末1から受信した音声データ(端末取得音声データ)に基づいて音声解析処理を実行する(ステップS4)。情報処理装置200は、例えば、音声データを解析し、音声データに対応するテキストデータを形態素に分割する。 The information processing device 200 executes voice analysis processing based on the voice data received from the user terminal 1 (terminal acquired voice data) (step S4). For example, the information processing device 200 analyzes voice data and divides text data corresponding to the voice data into morphemes.

また、情報処理装置200は、画像データ(端末取得画像データ)に基づいて画像解析処理を実行する(ステップS5)。例えば、情報処理装置200は、画像データを解析し、画像に映し出されている人物の年齢、性別、及び感情を取得する。 Furthermore, the information processing device 200 executes image analysis processing based on the image data (terminal acquired image data) (step S5). For example, the information processing device 200 analyzes image data and obtains the age, gender, and emotion of the person shown in the image.

情報処理装置200は、音声解析処理結果及び画像解析処理結果に基づいて、ユーザ端末1のユーザである児童Pが犯罪に巻き込まれる可能性が高いか否かを示す危険度を導出する危険度判定処理を実行する(ステップS6)。情報処理装置200は、音声解析処理により取得された形態素と危険ワードとの一致率、並びに、画像解析処理により取得された年齢、性別、及び感情に対応付けられた危険度に基づいて、ユーザ端末1のユーザである児童Pが犯罪に巻き込まれる可能性が高いか否かを示す危険度を導出する。情報処理装置200は、危険ワードを記憶する危険ワード格納部と、年齢、性別、及び感情に対応付けられた危険度を記憶する危険度格納部とを備える。 The information processing device 200 derives a risk level indicating whether or not the child P1 who is the user of the user terminal 1 is likely to be involved in a crime based on the voice analysis processing result and the image analysis processing result. A determination process is executed (step S6). The information processing device 200 analyzes the user terminal based on the match rate between morphemes and risk words obtained through voice analysis processing, and the degree of risk associated with age, gender, and emotion obtained through image analysis processing. A risk level indicating whether there is a high possibility that child P1 , who is user No. 1, will be involved in a crime is derived. The information processing device 200 includes a risk word storage unit that stores risk words, and a risk storage unit that stores risk levels associated with age, gender, and emotion.

情報処理装置200は、危険度判定処理により導出した児童Pの危険度に応じて、児童P、保護者P、及び警察署PSのうちの少なくともいずれかに対して実施する処理を決定する。例えば、情報処理装置200は、第三者Pの危険度が90%を超える場合、保護者装置300に対して、児童Pの状況を通知するためのメッセージを送信し、保護者Pに児童Pの現在の状況を通知する(ステップS7)。さらに、情報処理装置200は、警察管理装置400に対して、例えば、緊急出動を要請する通報するためのメッセージを送信し、児童P1が危険な状況にあることを警察署PSに通報する(ステップS8)。この通報には、ユーザ端末1から受信した音声データ及び画像データの他、ユーザ端末1の現在位置の情報やユーザ端末1を特定する端末情報を含めることができる。さらに、情報処理装置200は、ユーザ端末1から警告音を出力させるための指令信号をユーザ端末1に送信する(ステップS9)。 The information processing device 200 determines a process to be performed on at least one of the child P 1 , the guardian P 3 , and the police station PS, depending on the risk level of the child P 1 derived through the risk level determination process. do. For example, if the risk level of the third party P 2 exceeds 90%, the information processing device 200 transmits a message to the guardian device 300 to notify the child P 1 of the situation, and The current situation of child P1 is notified to child P1 (step S7). Further, the information processing device 200 transmits, for example, a message to the police management device 400 to request emergency dispatch, and reports to the police station PS that the child P1 is in a dangerous situation (step S8). This report can include, in addition to the audio data and image data received from the user terminal 1, information on the current location of the user terminal 1 and terminal information that specifies the user terminal 1. Further, the information processing device 200 transmits a command signal to the user terminal 1 to cause the user terminal 1 to output a warning sound (step S9).

ユーザ端末1は、情報処理装置200から受信する指令信号に従って、警告音を出力すると共に(ステップS10)、警告音を出力中であることを示す画像を表示する(ステップS11)。 In accordance with the command signal received from the information processing device 200, the user terminal 1 outputs a warning sound (step S10) and displays an image indicating that the warning sound is being outputted (step S11).

このように、実施形態に係る情報処理システムにおいて、情報処理装置200は、客観的かつ論理的な判断が難しい児童Pの代わりに、児童Pの現在の状況の危険度を判定する。そして、情報処理装置200は、判定した危険度に応じて、児童Pの現在の状況を保護者Pへ通達するとともに、行政機関である警察署PSへの通報を実施する。そして、情報処理装置200は、警察署PSへの通報に際して、ユーザ端末1において取得された音声データ及び画像データを送信する。このため、実施形態に係る情報処理システムによれば、例えば児童Pの危険を保護者Pに把握させることができ、また、児童Pが犯罪に巻き込まれた際に事件解決に必要となる情報を捜査機関となる警察署PSに提供できる。これにより、捜査機関である警察署PSは、犯罪行為に対する迅速な行動が可能となる。 In this way, in the information processing system according to the embodiment, the information processing device 200 determines the degree of risk of the current situation of the child P 1 instead of the child P 1 for whom it is difficult to make an objective and logical judgment. Then, the information processing device 200 notifies the guardian P 3 of the current situation of the child P 1 according to the determined risk level, and also reports to the police station PS, which is an administrative agency. Then, the information processing device 200 transmits the audio data and image data acquired by the user terminal 1 when reporting to the police station PS. Therefore, according to the information processing system according to the embodiment, for example, it is possible to make the guardian P 3 aware of the danger of the child P 1 , and when the child P 1 is involved in a crime, it is possible to make the guardian P 3 understand the danger of the child P 1. This information can be provided to the police station PS, which is the investigating agency. This enables the police station PS, which is an investigative agency, to take swift action against criminal acts.

また、情報処理装置200が警察署PSへの通報に際して同封する音声データ及び画像データは、犯罪立証のための情報となり得る。このため、実施形態に係る情報処理システムが広く社会的に認知されることにより、児童誘拐等の犯罪行為を抑止する抑止力となり得る。この結果、犯罪行為に巻き込まれる児童等の撲滅を図ることができる。 Furthermore, the audio data and image data that the information processing device 200 encloses when reporting to the police station PS can be information for proving a crime. Therefore, if the information processing system according to the embodiment is widely recognized in society, it can serve as a deterrent to deter criminal acts such as child abduction. As a result, it is possible to eradicate children who become involved in criminal acts.

<<3.機能構成等>>
<3-1.システム構成>
図2を用いて、実施形態に係る情報処理システムの構成を説明する。図2は、実施形態に係る情報処理システムの構成例を示す図である。
<<3. Functional configuration etc. >>
<3-1. System configuration>
The configuration of the information processing system according to the embodiment will be explained using FIG. 2. FIG. 2 is a diagram illustrating a configuration example of an information processing system according to an embodiment.

図2に示すように、実施形態に係る情報処理システムSYSは、ユーザ端末1と、情報処理装置200と、保護者装置300と、警察管理装置400と、GPS衛星500を備える。情報処理システムSYSは、ユーザ端末1と情報処理装置200とが連携して動作することにより、ユーザ端末1のユーザ(例えば、児童P)の代わりに、かかるユーザの現在の状況の危険度に応じた処理を実現する。 As shown in FIG. 2, the information processing system SYS according to the embodiment includes a user terminal 1, an information processing device 200, a guardian device 300, a police management device 400, and a GPS satellite 500. The information processing system SYS operates in cooperation with the user terminal 1 and the information processing device 200, so that the information processing system SYS, on behalf of the user of the user terminal 1 (for example, child P 1 ), can monitor the risk level of the current situation of the user. Achieve appropriate processing.

情報処理システムSYSは、複数のユーザ端末1と、保護者装置300とを含むことができる。図2に示す例では、情報処理システムSYSは、ユーザ端末1として、ユーザ端末1~1等を備えている。また、情報処理システムSYSは、保護者装置300として、保護者装置300~300等を備えている。また、情報処理システムSYSは、GPS衛星500として、GPS衛星500~500等を備えている。なお、情報処理システムSYSは、複数の情報処理装置200を備えてもよく、複数の警察管理装置400を備えてもよい。 The information processing system SYS can include a plurality of user terminals 1 and a guardian device 300. In the example shown in FIG. 2, the information processing system SYS includes user terminals 1 a to 1 n , etc. as user terminals 1. The information processing system SYS also includes guardian devices 300 a to 300 n as the guardian device 300 . In addition, the information processing system SYS includes GPS satellites 500 a to 500 n as GPS satellites 500 . Note that the information processing system SYS may include a plurality of information processing devices 200 or a plurality of police management devices 400.

ユーザ端末1は、通信機能を備えた子供向けの通信装置である。ユーザ端末1は、携帯電話、スマートデバイス(スマートフォン、又はタブレット)、ウェアラブル端末、PDA(Personal Digital Assistant)、ポータブル音楽プレーヤ、ゲーム端末、ラップトップ型のパーソナルコンピュータ等のモバイル端末であってよい。また、ユーザ端末1は、M2M(Machine to Machine)デバイス、又はIoT(Internet of Things)デバイスであってもよい。ユーザ端末1は、ネットワークNWに接続し、ネットワークNWを介して、他の装置と通信できる。 The user terminal 1 is a communication device for children that has a communication function. The user terminal 1 may be a mobile terminal such as a mobile phone, a smart device (smartphone or tablet), a wearable terminal, a PDA (Personal Digital Assistant), a portable music player, a game terminal, a laptop personal computer, or the like. Further, the user terminal 1 may be an M2M (Machine to Machine) device or an IoT (Internet of Things) device. The user terminal 1 is connected to the network NW and can communicate with other devices via the network NW.

情報処理装置200は、危険度判定処理を実行する情報処理装置である。情報処理装置200は、インターネット等のネットワークNW上に配置されたサーバ装置やワークステーション等の汎用的な情報処理装置、複数の情報処理装置で構築されたクラウドシステム等により実現される。情報処理装置200は、ネットワークNWに接続し、ネットワークNWを介して、他の装置と通信できる。 The information processing device 200 is an information processing device that executes risk level determination processing. The information processing device 200 is realized by a general-purpose information processing device such as a server device or a workstation placed on a network NW such as the Internet, a cloud system constructed by a plurality of information processing devices, or the like. The information processing device 200 is connected to the network NW and can communicate with other devices via the network NW.

保護者装置300は、児童P(図1参照)の保護者P(図1参照)により保持される通信装置である。保護者装置300は、携帯電話、スマートデバイス(スマートフォン、又はタブレット)、ウェアラブル端末、PDA(Personal Digital Assistant)、ポータブル音楽プレーヤ、ゲーム端末、パーソナルコンピュータ等の装置であってよい。実施形態において、保護者装置300は、情報処理装置200からのメッセージを受信し、受信したメッセージを表示することができる。保護者装置300は、ネットワークNWに接続し、ネットワークNWを介して、他の装置と通信できる。 The guardian device 300 is a communication device held by the guardian P 3 (see FIG. 1) of the child P 1 (see FIG. 1). The guardian device 300 may be a device such as a mobile phone, a smart device (smartphone or tablet), a wearable terminal, a PDA (Personal Digital Assistant), a portable music player, a game terminal, a personal computer, or the like. In the embodiment, the guardian device 300 can receive a message from the information processing device 200 and display the received message. The guardian device 300 is connected to the network NW and can communicate with other devices via the network NW.

警察管理装置400は、警察署PSにより管理及び運営されるシステムである。警察管理装置400は、例えば、住民からの緊急通報に迅速かつ正確に対応し、現場にパトカーや交番の警察官を急行させることで、人命救助や事件・事故への対処などを支援するシステムなどを含む。警察管理装置400は、ポインティングデバイス機能などを備え、専用のペンを使った高い操作性と効率的な入力により、通報者からの情報を正確に受理したり、地図情報システムと連携し、豊富で効果的な検索機能により発生場所の早期特定を支援したりできる。実施形態において、警察管理装置400は、情報処理装置200からの通報を受信し、受信した通報に含まれる音声データ及び画像データを記録できる。警察管理装置400は、ネットワークNWに接続し、ネットワークNWを介して、他の装置と通信できる。 The police management device 400 is a system managed and operated by the police station PS. The police management device 400 is, for example, a system that quickly and accurately responds to emergency calls from residents and quickly dispatches police cars and police officers to the scene, thereby supporting lifesaving and response to incidents and accidents. including. The police management device 400 is equipped with a pointing device function, etc., and can accurately receive information from callers through high operability and efficient input using a dedicated pen. An effective search function can assist in early identification of the location of occurrence. In the embodiment, the police management device 400 can receive a report from the information processing device 200 and record audio data and image data included in the received report. The police management device 400 is connected to the network NW and can communicate with other devices via the network NW.

ネットワークNWは、ユーザ端末1と、情報処理装置200と、保護者装置300と、警察管理装置400とを相互に接続する。ネットワークNWは、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワークNWは、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワークNWは、Wi-Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。 The network NW interconnects the user terminal 1, the information processing device 200, the guardian device 300, and the police management device 400. The network NW may include public line networks such as the Internet, telephone line networks, and satellite communication networks, various LANs (Local Area Networks) including Ethernet (registered trademark), WANs (Wide Area Networks), and the like. Further, the network NW may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network). Further, the network NW may include a wireless communication network such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).

GPS衛星500は、GPS(Global Positioning System、全地球測位システム)の通信機能を備える通信装置に、通信装置の地理位置を特定可能な情報を送信(提供)する衛星である。通信装置(例えば、ユーザ端末1)は、GPS衛星500から出力される情報を取得し、解析することで、自身(ユーザ端末1)の位置情報(座標情報)を取得する。なお、位置情報は、GPSの他、Beidou、QZSS(Quasi-Zenith Satellite System)、GalileoやA-GPS(Assisted Global Positioning System)に代表される位置測位機能によって取得される座標情報であってもよい。典型的には、緯度、経度、高度、測位誤差に係る情報が含まれうる。または、例えば、NRA(National Regulatory Authority)またはその委託機関によって管理される情報管理装置に登録される位置情報であってよい。または、例えば、特定の地理位置を原点とするX軸、Y軸、Z軸の座標であってもよい。また、このような座標情報と一緒に屋外/屋内を示す識別子が付与されうる。 The GPS satellite 500 is a satellite that transmits (provides) information that can specify the geographic location of a communication device to a communication device that has a GPS (Global Positioning System) communication function. The communication device (for example, user terminal 1) obtains the information output from the GPS satellite 500 and analyzes it to obtain position information (coordinate information) of itself (user terminal 1). In addition to GPS, the location information may be coordinate information obtained by a positioning function such as Beidou, QZSS (Quasi-Zenith Satellite System), Galileo, or A-GPS (Assisted Global Positioning System). . Typically, information regarding latitude, longitude, altitude, and positioning error may be included. Alternatively, the location information may be registered in an information management device managed by the NRA (National Regulatory Authority) or its commissioned organization, for example. Alternatively, for example, the coordinates may be X-axis, Y-axis, and Z-axis coordinates with the origin at a specific geographic location. Further, an identifier indicating outdoor/indoor may be added together with such coordinate information.

<3-2.ユーザ端末>
図3は、実施形態に係るユーザ端末の構成例を示す図である。図3に示すように、ユーザ端末1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、カメラ13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17と、GPSレシーバ18とを有する。
<3-2. User terminal>
FIG. 3 is a diagram illustrating a configuration example of a user terminal according to the embodiment. As shown in FIG. 3, the user terminal 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, and a controller. 10, a speaker 11, a camera 12, a camera 13, a connector 14, an acceleration sensor 15, a direction sensor 16, a gyroscope 17, and a GPS receiver 18.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。 The touch screen display 2 has a display 2A and a touch screen 2B.

ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを含む。ディスプレイ2Aは、文字、画像、記号、及び図形等のオブジェクトを画面内に表示する。 The display 2A is a liquid crystal display (LCD), an organic EL display (OELD), or an inorganic EL display (IELD). display devices such as scence Display). The display 2A displays objects such as characters, images, symbols, and figures on the screen.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触又は近接を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触又は近接したときのタッチスクリーン2B上の位置を検出することができる。タッチスクリーン2Bは、タッチスクリーン2Bに対する指の接触又は近接を、検出位置とともにコントローラ10に通知する。 The touch screen 2B detects contact or proximity of a finger, pen, stylus pen, etc. to the touch screen 2B. The touch screen 2B can detect the position on the touch screen 2B when a plurality of fingers, pens, stylus pens, etc. touch or come close to the touch screen 2B. The touch screen 2B notifies the controller 10 of the contact or proximity of a finger to the touch screen 2B together with the detected position.

コントローラ10は、タッチスクリーン2Bにより検出された接触又は近接、検出位置、検出位置の変化、接触又は近接が継続した時間、接触又は近接が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別できる。コントローラ10が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるが、これらに限定されない。 The controller 10 detects at least one of the following: contact or proximity detected by the touch screen 2B, a detected position, a change in the detected position, a duration of contact or proximity, an interval at which contact or proximity was detected, and a number of times contact was detected. The type of gesture can be determined based on the Gestures that the controller 10 determines via the touch screen 2B include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. but not limited to.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式、赤外線方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はユーザ端末1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。 The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method, an infrared method, and a load detection method. In the following description, in order to simplify the description, it is assumed that the user touches the touch screen 2B using a finger in order to operate the user terminal 1.

ボタン3は、ユーザからの操作入力を受け付ける。ボタン3の数は、任意の数であってよい。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュを含むが、これらに限定されない。ボタン3は、例えばメニューボタン、パワーオンボタン、パワーオフボタン(電源ボタン)、リセットボタンなどの各種機能が割り当てられてよい。ボタン3は、音声入力の処理を実行させる機能が割り当てられてよい。 Button 3 accepts operation input from the user. The number of buttons 3 may be any number. The controller 10 detects an operation on the button 3 by cooperating with the button 3. Operations on the button 3 include, but are not limited to, click, double click, triple click, push, and multi-push, for example. The button 3 may be assigned various functions such as a menu button, a power-on button, a power-off button, a reset button, and the like. The button 3 may be assigned a function of executing voice input processing.

照度センサ4は、照度を検出する。照度は、照度センサ4の測定面の単位面積に入射する光束の値である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。 The illuminance sensor 4 detects illuminance. Illuminance is the value of the luminous flux incident on a unit area of the measurement surface of the illuminance sensor 4. The illuminance sensor 4 is used, for example, to adjust the brightness of the display 2A.

近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、赤外線を照射する発光素子と、発光素子から照射された赤外線の反射光を受光する受光素子を有する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。 The proximity sensor 5 detects the presence of nearby objects in a non-contact manner. The proximity sensor 5 includes a light emitting element that emits infrared light and a light receiving element that receives reflected light of the infrared light emitted from the light emitting element. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G、5G等のセルラーフォンの通信規格と、近距離無線の通信規格とが含まれる。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W-CDMA(登録商標)(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、PHS(Personal Handy-phone System)等がある。 The communication unit 6 communicates wirelessly. The wireless communication standards supported by the communication unit 6 include, for example, cellular phone communication standards such as 2G, 3G, 4G, and 5G, and short-range wireless communication standards. Communication standards for cellular phones include, for example, LTE (Long Term Evolution), W-CDMA (registered trademark) (Wideband Code Division Multiple Access), CDMA2000, PDC (Personal Digital Cellular), and GSM (registered trademark) (Global System for mobile communications), PHS (Personal Handy-phone System), etc.

通信ユニット6によってサポートされる近距離無線の通信規格としては、例えば、WiMAX(登録商標)(Worldwide interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(登録商標)(Near Field Communication)、WPAN(Wireless Personal Area Network)等が含まれる。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。 Examples of short-range wireless communication standards supported by the communication unit 6 include WiMAX (registered trademark) (Worldwide interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), and NFC ( (registered trademark) (Near Field Communication), WPAN (Wireless Personal Area Network), etc. The communication unit 6 may support one or more of the communication standards mentioned above.

通信ユニット6は、ネットワークNWに接続して、情報処理装置200との間で実行される情報通信を実現するための通信プロトコルをサポートできる。コントローラ10は、通信ユニット6を介して、情報処理装置200との間で各種情報を送受信する情報通信を行う。通信ユニット6は、コントローラ10により取得された音声データと、画像データとを情報処理装置200に送信する。 The communication unit 6 can connect to the network NW and support a communication protocol for realizing information communication with the information processing device 200. The controller 10 performs information communication to send and receive various information to and from the information processing device 200 via the communication unit 6 . The communication unit 6 transmits the audio data and image data acquired by the controller 10 to the information processing device 200.

レシーバ7およびスピーカ11は、音出力部である。レシーバ7およびスピーカ11は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音および音楽を出力するために用いられる。また、スピーカ11は、実施形態において、警告音を出力するために用いられる。レシーバ7およびスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。 Receiver 7 and speaker 11 are sound output units. The receiver 7 and the speaker 11 output the sound signal transmitted from the controller 10 as sound. The receiver 7 is used, for example, to output the other party's voice during a call. The speaker 11 is used, for example, to output ringtones and music. Further, the speaker 11 is used in the embodiment to output a warning sound. One of the receiver 7 and the speaker 11 may also serve as the other. The microphone 8 is a sound input section. The microphone 8 converts the user's voice etc. into a sound signal and transmits it to the controller 10.

ストレージ9は、プログラムおよびデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、および磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、または光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。 Storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing processing results of the controller 10. Storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. Storage 9 may include multiple types of storage media. The storage 9 may include a combination of a portable storage medium, such as a memory card, an optical disk, or a magneto-optical disk, and a storage medium reading device. The storage 9 may include a storage device used as a temporary storage area, such as a RAM (Random Access Memory).

ストレージ9が記憶するプログラムおよびデータの一部または全部は、通信ユニット6による無線通信でアクセス可能なクラウドストレージなどの他の装置からダウンロードされてもよい。ストレージ9が記憶するプログラムおよびデータの一部または全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。ストレージ9が記憶するプログラムおよびデータの一部または全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu-ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、およびソリッドステート記憶媒体を含むが、これらに限定されない。 Some or all of the programs and data stored in the storage 9 may be downloaded from other devices such as cloud storage that can be accessed via wireless communication by the communication unit 6. Part or all of the programs and data stored in the storage 9 may be stored in a non-transitory storage medium readable by a reading device included in the storage 9. Some or all of the programs and data stored in the storage 9 may be stored in a non-transitory storage medium readable by a reading device connected to the connector 14. Examples of non-transitory storage media include optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media. including but not limited to.

ストレージ9に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーションおよび制御プログラムは、通信ユニット6による無線通信または非一過的な記憶媒体を介してストレージ9に導入されてもよい。 The programs stored in the storage 9 include applications that are executed in the foreground or background, and control programs that support the operation of the applications. For example, the application causes the display 2A to display a screen and causes the controller 10 to execute processing in accordance with a gesture detected via the touch screen 2B. The control program is, for example, an OS. Applications and control programs may be introduced into the storage 9 via wireless communication by the communication unit 6 or via a non-transitory storage medium.

ストレージ9に記憶されるプログラムは、ユーザ端末1の各種動作に関する処理を実現するための機能をそれぞれ提供できる。ストレージ9に記憶されるプログラムが提供する機能は、照度センサ4の検出結果に基づいて、ディスプレイ2Aの輝度を調整する機能を含む。ストレージ9に記憶されるプログラムが提供する機能は、近接センサ5の検出結果に基づいて、タッチスクリーン2Bに対する操作を無効とする機能を含む。ストレージ9に記憶されるプログラムが提供する機能は、コネクタ14を介して接続される外部機器との間の通信を制御する機能を含む。ストレージ9に記憶されるプログラムが提供する機能は、タッチスクリーン2Bの検出結果に基づいて判別したジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能を含む。ユーザ端末1の各種動作に関する処理を実現するための機能は、後述する制御プログラム9Aにより提供されてもよい。 The programs stored in the storage 9 can each provide functions for realizing processing related to various operations of the user terminal 1. The functions provided by the program stored in the storage 9 include the function of adjusting the brightness of the display 2A based on the detection result of the illuminance sensor 4. The functions provided by the program stored in the storage 9 include the function of invalidating the operation on the touch screen 2B based on the detection result of the proximity sensor 5. The functions provided by the programs stored in the storage 9 include the function of controlling communication with external devices connected via the connector 14. The functions provided by the programs stored in the storage 9 include functions for performing various controls such as changing information displayed on the display 2A in accordance with gestures determined based on the detection results of the touch screen 2B. Functions for realizing processes related to various operations of the user terminal 1 may be provided by a control program 9A described later.

ストレージ9は、たとえば制御プログラム9A、防犯アプリケーション9B、音声データ9X、画像データ9Y、比較音声データ9Zを記憶する。 The storage 9 stores, for example, a control program 9A, a security application 9B, audio data 9X, image data 9Y, and comparison audio data 9Z.

制御プログラム9Aは、ユーザ端末1を制御するための機能を提供する。コントローラ10は、制御プログラム9Aを実行することにより、例えば、検出される操作に応じて、アプリケーションを起動または終了させる。 The control program 9A provides functions for controlling the user terminal 1. By executing the control program 9A, the controller 10 starts or ends an application depending on a detected operation, for example.

防犯アプリケーション9Bは、ユーザ端末1の防犯に関わる動作を実現するための各種機能を提供する。コントローラ10は、防犯アプリケーション9Bを実行することにより、後述するユーザ端末1の防犯に関わる動作を実行する。なお、防犯アプリケーション9Bにより提供される機能の一部を制御プログラム9Aが担ってもよい。また、防犯アプリケーション9Bにより提供される機能の一部が、実施形態に特有の処理を実現するために専用に作成されたプログラム、あるいは既存プログラム又はアプリケーションに対するアドオンなどで実装されてもよい。 The crime prevention application 9B provides various functions for realizing operations related to crime prevention of the user terminal 1. The controller 10 executes operations related to crime prevention of the user terminal 1, which will be described later, by executing the crime prevention application 9B. Note that the control program 9A may take on some of the functions provided by the security application 9B. Furthermore, some of the functions provided by the security application 9B may be implemented as a program created exclusively to implement processing specific to the embodiment, or as an add-on to an existing program or application.

音声データ9Xは、マイク8が入力した音声のデータである。音声データ9Xは、例えば、ユーザ端末1のユーザである児童Pに対して話しかけた第三者Pの音声データに該当する。 The audio data 9X is audio data input by the microphone 8. The audio data 9X corresponds to, for example, audio data of a third party P2 speaking to the child P1 who is the user of the user terminal 1.

画像データ9Yは、カメラ12又はカメラ13が撮像した画像のデータである。画像データ9Yは、例えば、ユーザ端末1のユーザである児童Pに対して話しかけた第三者Pの顔画像の画像データに該当する。 The image data 9Y is data of an image captured by the camera 12 or the camera 13. The image data 9Y corresponds to, for example, image data of a face image of a third party P2 who speaks to the child P1 who is the user of the user terminal 1.

比較音声データ9Zは、入力音声(音声データ9X)との比較を行うための比較音声の情報である。比較音声データ9Zには、例えば比較音声の情報として、予め収録された音声の周波数が記録される。比較音声は、保護者P(図1参照)や親族などの児童Pにとって安全な人物の音声に相当する。 The comparison audio data 9Z is comparison audio information for comparison with the input audio (audio data 9X). In the comparison audio data 9Z, for example, the frequency of a previously recorded audio is recorded as information on the comparison audio. The comparison voice corresponds to the voice of a person who is safe for the child P1 , such as the guardian P3 (see FIG. 1) or a relative.

図3に示すプログラム及びデータは、実施形態を説明するうえで必要と認めるものを例示するものであり、図3に示す例に特に限定される必要はない。例えば、電子メールの作成、送信、受信、および表示等のための電子メール機能を提供するメールアプリケーションや、WEBページを表示するためのWEBブラウジング機能を提供するブラウザアプリケーションなどが必要に応じて記憶され得る。また、図3に示すデータは、実施形態を説明するうえで必要と認めるものを例示するものであり、図3に示す例に特に限定される必要はない。例えば、ユーザ端末1の動作に関する各種の設定に関する情報を含む設定データ(ファイル)が記憶され得る。 The program and data shown in FIG. 3 are exemplified as necessary for explaining the embodiment, and do not need to be particularly limited to the example shown in FIG. 3. For example, mail applications that provide e-mail functions for creating, sending, receiving, and displaying e-mails, browser applications that provide web browsing functions for displaying web pages, etc. are stored as necessary. obtain. Further, the data shown in FIG. 3 is an example of what is deemed necessary for explaining the embodiment, and does not need to be particularly limited to the example shown in FIG. 3. For example, setting data (file) including information regarding various settings regarding the operation of the user terminal 1 may be stored.

コントローラ10は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサ(演算処理装置)によって実現される。例えば、コントローラ10は、ユーザ端末1内部の記憶装置に記憶されている各種プログラムを、コントローラ10が備えるプロセッサがRAM等を作業領域として実行することにより実現される。なお、コントローラ10は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。 The controller 10 is realized by, for example, a processor (arithmetic processing unit) such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). For example, the controller 10 is realized by a processor included in the controller 10 executing various programs stored in a storage device inside the user terminal 1 using a RAM or the like as a work area. Note that the controller 10 may be realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

コントローラ10は、ユーザ端末1の動作を統括的に制御して各種処理を実現する。具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、レシーバ7、およびスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、方位センサ16、ジャイロスコープ17、およびGPSレシーバ18を含むが、これらに限定されない。 The controller 10 comprehensively controls the operation of the user terminal 1 and implements various processes. Specifically, the controller 10 executes instructions included in a program stored in the storage 9 while referring to data stored in the storage 9 as necessary. The controller 10 controls the functional units according to data and instructions, thereby realizing various functions. The functional units include, for example, the display 2A, the communication unit 6, the receiver 7, and the speaker 11, but are not limited thereto. The controller 10 may change control depending on the detection result of the detection unit. The detection unit includes, for example, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, the camera 13, the acceleration sensor 15, the direction sensor 16, the gyroscope 17, and the GPS receiver 18. Not limited to these.

コントローラ10は、ストレージ9に記憶されるプログラムを実行することにより、ユーザ端末1の動作を制御する。コントローラ10は、制御プログラム9Aを実行することにより、例えば、照度センサ4の検出結果に基づいて、ディスプレイ2Aの輝度を調整できる。コントローラ10は、制御プログラム9Aを実行することにより、例えば、近接センサ5の検出結果に基づいて、タッチスクリーン2Bに対する操作を無効にできる。コントローラ10は、制御プログラム9Aを実行することにより、例えば、コネクタ14を介して接続される外部機器との間の通信を制御できる。コントローラ10は、制御プログラム9Aを実行することにより、例えば、タッチスクリーン2Bの検出結果に基づいて判別したジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行できる。 The controller 10 controls the operation of the user terminal 1 by executing a program stored in the storage 9. The controller 10 can adjust the brightness of the display 2A based on the detection result of the illuminance sensor 4, for example, by executing the control program 9A. By executing the control program 9A, the controller 10 can disable the operation on the touch screen 2B based on the detection result of the proximity sensor 5, for example. The controller 10 can control communication with an external device connected via the connector 14, for example, by executing the control program 9A. By executing the control program 9A, the controller 10 can perform various controls such as changing the information displayed on the display 2A in accordance with gestures determined based on the detection results of the touch screen 2B.

また、コントローラ10は、防犯アプリケーション9Bを実行することにより、ユーザ端末1の防犯に関わる動作を実行する。図4は、実施形態に係るユーザ端末が有するコントローラ内部の構成例を示す図である。 Further, the controller 10 executes operations related to crime prevention of the user terminal 1 by executing the crime prevention application 9B. FIG. 4 is a diagram illustrating an example of the internal configuration of a controller included in a user terminal according to the embodiment.

図4に示すように、コントローラ10は、音声取得部101と、画像取得部102と、判定部103と、報知部104とを有する。コントローラ10が有する各ブロック、すなわち、音声取得部101、画像取得部102、判定部103、及び報知部104はそれぞれコントローラ10が防犯アプリケーション9Bを実行することにより実現される機能を示す機能ブロックである。これら機能ブロックはソフトウェアブロックであってもよいし、ハードウェアブロックであってもよい。例えば、上述の機能ブロックが、それぞれ、ソフトウェア(マイクロプログラムを含む。)で実現される1つのソフトウェアモジュールであってもよいし、半導体チップ(ダイ)上の1つの回路ブロックであってもよい。勿論、各機能ブロックがそれぞれ1つのプロセッサ又は1つの集積回路であってもよい。機能ブロックの構成方法及び構成単位は任意である。 As shown in FIG. 4, the controller 10 includes an audio acquisition section 101, an image acquisition section 102, a determination section 103, and a notification section 104. Each block included in the controller 10, that is, the audio acquisition unit 101, the image acquisition unit 102, the determination unit 103, and the notification unit 104, is a functional block that represents a function that is realized when the controller 10 executes the security application 9B. . These functional blocks may be software blocks or hardware blocks. For example, each of the above functional blocks may be one software module realized by software (including a microprogram), or one circuit block on a semiconductor chip (die). Of course, each functional block may be one processor or one integrated circuit. The configuration method and configuration unit of the functional blocks are arbitrary.

音声取得部101は、マイク8から取得した入力音声の音声データを、音声データ9Xとしてストレージ9に記録する。音声取得部101により音声データを記録する時間は、任意に設定できる。音声取得部101により取得される音声データには、不審者である第三者Pが発した音声の音声データが含まれ得る。音声取得部101は、所定のタイミングでマイク8を起動し、音声入力が可能な状態にできる。所定のタイミングは任意に設定できる。例えば、児童Pが外出するスケジュール(時間帯)をマイク8の起動時間として設定できる。あるいは、音声取得部101は、加速度センサ15の検出結果に応じてマイク8を起動したり、GPSレシーバ18に基づく位置に基づいてマイク8を起動したりできる。また、音声取得部101により音声データを記録する時間についても、任意に設定できる。音声取得部101は、マイク8から取得した入力音声の音声データを判定部103に送出する。 The audio acquisition unit 101 records the audio data of the input audio acquired from the microphone 8 in the storage 9 as audio data 9X. The time for recording audio data by the audio acquisition unit 101 can be set arbitrarily. The audio data acquired by the audio acquisition unit 101 may include audio data of a voice uttered by a third party P2 who is a suspicious person. The audio acquisition unit 101 activates the microphone 8 at a predetermined timing to enable audio input. The predetermined timing can be set arbitrarily. For example, the schedule (time zone) in which the child P1 goes out can be set as the activation time of the microphone 8. Alternatively, the audio acquisition unit 101 can activate the microphone 8 according to the detection result of the acceleration sensor 15 or activate the microphone 8 based on the position based on the GPS receiver 18. Further, the time for recording audio data by the audio acquisition unit 101 can also be set arbitrarily. The audio acquisition unit 101 sends audio data of the input audio acquired from the microphone 8 to the determination unit 103.

画像取得部102は、判定部103からの信号に従って、カメラ12(またはカメラ13)により撮像された画像の画像データを取得する。画像取得部102は、例えば、第三者Pが位置する方向に合わせて、カメラ12(又はカメラ13)の撮像方向を調整してもよい。例えば、マイク8が指向性を有する場合、画像取得部102は、マイク8の音声入力方向を第三者Pの位置する方向と見做して、カメラ12(またはカメラ13)の撮像方向を調整可能である。画像取得部102は、カメラ12(またはカメラ13)から取得した画像の画像データを、画像データ9Yとしてストレージ9に記録する。画像取得部102により取得された画像データには、不審者である第三者Pが撮像された画像(顔画像)の画像データが含まれ得る。 The image acquisition unit 102 acquires image data of an image captured by the camera 12 (or camera 13) according to a signal from the determination unit 103. The image acquisition unit 102 may adjust the imaging direction of the camera 12 (or camera 13), for example, in accordance with the direction in which the third party P2 is located. For example, when the microphone 8 has directivity, the image acquisition unit 102 regards the audio input direction of the microphone 8 as the direction in which the third party P 2 is located, and changes the imaging direction of the camera 12 (or camera 13). Adjustable. The image acquisition unit 102 records image data of an image acquired from the camera 12 (or camera 13) in the storage 9 as image data 9Y. The image data acquired by the image acquisition unit 102 may include image data of an image (face image) of a third person P 2 who is a suspicious person.

判定部103は、音声取得部101により取得された入力音声の周波数と、比較音声データ9Zに記録された比較音声の周波数とが一致するか否かを判定する。一致するか否かは、入力音声の周波数が、比較音声の周波数の±5%の範囲内にあるか否かで判定する。判定部103は、周波数が一致すると判定した場合、ストレージ9に記録した音声データ9Xを破棄する。一方、判定部103は、音声取得部101により取得された入力音声の周波数と、比較音声の周波数とが一致しないと判定した場合、カメラ12(及び/又はカメラ13)を起動し、撮像を指令する信号を出力する。判定部103は、カメラ12及びカメラ13を起動してもよいし、カメラ12又はカメラ13のいずれか一方を起動させてもよい。また、判定部103は、カメラ12(及び/又はカメラ13)する際、音声の入力方向に基づいて、カメラ12又はカメラ13のいずれか一方を起動させてもよい。また、判定部103は、音声の入力方向に基づいて、第三者Pが位置する方向に合わせて、カメラ12(及び/又はカメラ13)の向きを変更してもよい。 The determination unit 103 determines whether the frequency of the input voice acquired by the voice acquisition unit 101 matches the frequency of the comparison voice recorded in the comparison voice data 9Z. Whether or not they match is determined by whether the frequency of the input voice is within a range of ±5% of the frequency of the comparison voice. When determining that the frequencies match, the determining unit 103 discards the audio data 9X recorded in the storage 9. On the other hand, if the determination unit 103 determines that the frequency of the input audio acquired by the audio acquisition unit 101 and the frequency of the comparison audio do not match, the determination unit 103 activates the camera 12 (and/or the camera 13) and instructs imaging. Outputs a signal to The determination unit 103 may start the camera 12 and the camera 13, or may start either the camera 12 or the camera 13. Further, when the determination unit 103 activates the camera 12 (and/or the camera 13), the determination unit 103 may activate either the camera 12 or the camera 13 based on the input direction of the audio. Further, the determination unit 103 may change the direction of the camera 12 (and/or the camera 13) based on the input direction of the voice in accordance with the direction in which the third party P2 is located.

判定部103は、画像取得部102により画像データが取得されると、画像取得部102により取得された画像データを取得するとともに、ストレージ9から音声データ9Xを取得する。判定部103は、ストレージ9から音声データ9Xを取得する場合、例えば、比較音声の周波数と一致しない音声データが記録された時点の前後1秒間に記録された音声データを取得する。判定部103は、音声データ9Xから取得した音声データ及び画像取得部102から取得した画像データを、端末取得音声及び端末取得画像として、通信ユニット6に送出する。 When the image data is acquired by the image acquisition unit 102, the determination unit 103 acquires the image data acquired by the image acquisition unit 102 and also acquires the audio data 9X from the storage 9. When acquiring the audio data 9X from the storage 9, the determination unit 103 acquires, for example, audio data recorded within 1 second before and after the time when the audio data that does not match the frequency of the comparison audio is recorded. The determination unit 103 sends the audio data acquired from the audio data 9X and the image data acquired from the image acquisition unit 102 to the communication unit 6 as terminal acquired audio and terminal acquired images.

なお、判定部103は、ユーザ端末1のユーザである児童Pの現在位置の情報やユーザ端末1を特定する端末情報などを、端末取得音声及び端末取得画像とともに情報処理装置200に送信できる。判定部103は、GPSレシーバ18により復調処理された処理後の信号に基づいて、ユーザ(児童P)の位置を算出し、算出した位置をユーザの現在位置として特定する。また、判定部103は、端末情報として、ストレージ9に記憶されている電話番号や個体識別番号などを取得できる。 Note that the determination unit 103 can transmit information on the current location of the child P 1 who is the user of the user terminal 1 and terminal information that specifies the user terminal 1 to the information processing device 200 together with the terminal acquired audio and the terminal acquired image. The determining unit 103 calculates the position of the user (child P 1 ) based on the signal demodulated by the GPS receiver 18, and specifies the calculated position as the current position of the user. Further, the determination unit 103 can acquire a telephone number, an individual identification number, etc. stored in the storage 9 as terminal information.

報知部104は、通信ユニット6が情報処理装置200から受信した指令信号に基づいて、報知処理を実行する。例えば、報知部104は、指令信号に基づく警告音をスピーカ11から出力するとともに、警告音を出力中であることを示す画像をディスプレイ2Aに表示する。 The notification unit 104 executes notification processing based on the command signal that the communication unit 6 receives from the information processing device 200. For example, the notification unit 104 outputs a warning sound based on the command signal from the speaker 11, and displays an image indicating that the warning sound is being outputted on the display 2A.

カメラ12は、ユーザ端末1のフロントフェイスに面している物体を撮像するインカメラである。カメラ13は、ユーザ端末1のバックフェイスに面している物体を撮像するアウトカメラである。カメラ12及び/又はカメラ13は、たとえば児童Pの周囲に存在する第三者Pの画像(顔画像)を撮像する。 The camera 12 is an in-camera that images an object facing the front face of the user terminal 1. The camera 13 is an out camera that images an object facing the back face of the user terminal 1. The camera 12 and/or the camera 13 captures, for example, an image (face image) of a third person P 2 around the child P 1 .

コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High-Difinition Multimedia Interface)、MHL(Mobile High-Difinition Link)、ライトピーク(Light Peak)、サンダーボルト(登録商標)(Thunderbolt)、LANコネクタ、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用に設計された端子でもよい。コネクタ14に接続される装置は、例えば、飛行体、充電器、外部ストレージ、通信装置、及び情報処理装置を含むが、これらに限定されない。 Connector 14 is a terminal to which other devices are connected. The connector 14 is USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), MHL (Mobile High-Definition Link), Light Peak, Thunderbolt (registered trademark), It may be a general-purpose terminal such as a LAN connector or an earphone microphone connector. Connector 14 may be a specially designed terminal such as a dock connector. Devices connected to connector 14 include, but are not limited to, for example, aircraft, chargers, external storage, communication devices, and information processing devices.

加速度センサ15は、ユーザ端末1に働く加速度の方向および大きさを検出する。加速度センサ15の検出結果は、ユーザ端末1のユーザの歩数を検出するために利用することもできる。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、ユーザ端末1の角度および角速度を検出する。加速度センサ15、方位センサ16およびジャイロスコープ17の検出結果は、ユーザ端末1の位置および姿勢の変化を検出するために、組み合わせて利用される。GPSレシーバ18は、GPS衛星500からの所定の周波数帯の電波信号を受信できる。GPSレシーバ18は、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。 Acceleration sensor 15 detects the direction and magnitude of acceleration acting on user terminal 1 . The detection result of the acceleration sensor 15 can also be used to detect the number of steps taken by the user of the user terminal 1. The orientation sensor 16 detects the direction of earth's magnetic field. Gyroscope 17 detects the angle and angular velocity of user terminal 1 . The detection results of the acceleration sensor 15, the orientation sensor 16, and the gyroscope 17 are used in combination to detect changes in the position and orientation of the user terminal 1. The GPS receiver 18 can receive radio signals in a predetermined frequency band from the GPS satellites 500. The GPS receiver 18 demodulates the received radio signal and sends the processed signal to the controller 10.

図3は、ユーザ端末1の構成の一例を示すものであり、本出願の要旨を損なわない範囲において適宜変更してよい。図3に例示するユーザ端末1は、カメラ12およびカメラ13を備えるが、たとえばインカメラ及びアウトカメラを切り換え可能な1つのカメラを備えてもよい。図3に例示するユーザ端末1は、ユーザ端末1の位置および姿勢を検出するために複数種類のセンサを備えるが、これらのうちいくつかのセンサを備えなくてもよい。あるいは、ユーザ端末1は、ユーザ端末1の位置および姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。 FIG. 3 shows an example of the configuration of the user terminal 1, and may be modified as appropriate without departing from the gist of the present application. The user terminal 1 illustrated in FIG. 3 includes a camera 12 and a camera 13, but may also include one camera that can be switched between an inside camera and an outside camera, for example. Although the user terminal 1 illustrated in FIG. 3 includes multiple types of sensors to detect the position and orientation of the user terminal 1, it is not necessary to include some of these sensors. Alternatively, the user terminal 1 may include other types of sensors for detecting at least one of the position and orientation of the user terminal 1.

<3-3.情報処理装置>
図5は、実施形態に係る情報処理装置の構成例を示す図である。図5に示すように、情報処理装置200は、通信部210と、記憶部220と、制御部230とを備える。
<3-3. Information processing equipment>
FIG. 5 is a diagram illustrating a configuration example of an information processing device according to an embodiment. As shown in FIG. 5, the information processing device 200 includes a communication section 210, a storage section 220, and a control section 230.

通信部210は、ネットワークNWに接続された他の装置との間で各種情報のやり取りを行うためのNIC(Network Interface Card)等のインターフェイスである。通信部210は、ユーザ端末1、保護者装置300並びに警察管理装置400との間で各種情報を送受信する情報通信を行うための通信プロトコルをサポートする。制御部230は、通信部210を介して、ユーザ端末1、保護者装置300並びに警察管理装置400との間でそれぞれ情報通信を行う。 The communication unit 210 is an interface such as a NIC (Network Interface Card) for exchanging various information with other devices connected to the network NW. The communication unit 210 supports communication protocols for performing information communication for transmitting and receiving various information among the user terminal 1, the guardian device 300, and the police management device 400. The control unit 230 communicates information with the user terminal 1 , the guardian device 300 , and the police management device 400 via the communication unit 210 .

記憶部220は、制御部230による各種処理等を実現するプログラム及びデータを記憶する。記憶部24は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部220は、制御部230の処理結果を一時的に記憶する作業領域としても利用され得る。 The storage unit 220 stores programs and data that enable the control unit 230 to perform various processes. The storage unit 24 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 220 can also be used as a work area for temporarily storing processing results of the control unit 230.

記憶部220は、図5に示すように、比較画像データ格納部221と、危険ワード格納部222と、危険度格納部223と、音声解析プログラム224と、画像解析プログラム225と、危険度判定プログラム226と、連絡先データベース227とを有する。 As shown in FIG. 5, the storage unit 220 includes a comparison image data storage unit 221, a risk word storage unit 222, a risk level storage unit 223, a voice analysis program 224, an image analysis program 225, and a risk level determination program. 226 and a contact database 227.

比較画像データ格納部221は、端末取得画像との比較を行うための画像データである。比較画像データ格納部221は、保護者P(図1参照)や親族などの児童Pにとって安全な人物の顔画像の画像データを記憶する。 The comparison image data storage section 221 is image data for comparison with terminal acquired images. The comparison image data storage unit 221 stores image data of facial images of people who are safe for the child P1, such as the guardian P3 (see FIG. 1 ) and relatives.

危険ワード格納部222は、危険ワードの情報を記憶する。危険ワードとは、児童の誘拐において犯罪者が用いる常套句などの情報に該当する。危険ワードは、過去の事件の情報などに基づいて設定できる。図6は、実施形態に係る危険ワード格納部222に格納される情報の概要を示す図である。危険ワードの情報の一例を示す図である。図6に示すように、危険ワード格納部222に記憶される危険ワードの情報は、危険ワードと、危険ワードの同義語とを対応付けて構成される。なお、図6は、危険ワードの情報の一例を示すものであり、図6に示す例には特に限定される必要はない。例えば、危険ワードの同義語は危険ワードに含めて、類義語などをさらに対応付けて、危険ワードの情報が構成されてもよい。 The dangerous word storage unit 222 stores information on dangerous words. Dangerous words correspond to information such as common phrases used by criminals when kidnapping children. Dangerous words can be set based on information on past incidents. FIG. 6 is a diagram showing an overview of information stored in the dangerous word storage unit 222 according to the embodiment. It is a figure which shows an example of the information of a dangerous word. As shown in FIG. 6, the information on dangerous words stored in the dangerous word storage section 222 is configured by associating dangerous words with synonyms of the dangerous words. Note that FIG. 6 shows an example of information on dangerous words, and there is no need to be particularly limited to the example shown in FIG. 6. For example, synonyms of the dangerous word may be included in the dangerous word, and synonyms and the like may be further associated with each other to configure information on the dangerous word.

危険度格納部223は、後述する画像解析部232による解析結果として得られる年齢、性別、及び感情に対応付けられた危険度を記憶する。図7は、実施形態に係る危険度格納部223に記憶される情報の概要を示す図である。危険度格納部223に記憶される危険度は、過去の事件の情報に基づく犯罪者の傾向などに基づいて設定できる。例えば、図7では、例えば、性別の比較では、男性の危険度が高くなり、また、性別に関係なく、年齢層が高めで、感情が「ネガティブ」である場合の危険度が高くなる例を示している。なお、図7は、危険度の一例を示すものであり、図7に示す例には特に限定される必要はない。例えば、図7に示す年齢設定は、図7に示す範囲で設定される必要はなく、5歳刻みや10歳刻みなどの任意の範囲で設定されてもよい。また、感情の分類として、ポジティブ(好意的、肯定的な感情)、ニュートラル(中立の感情)、ネガティブ(悲観的、否定的な感情)の3つに分類するが、ポジティブに対応する危険度の評価が不要の場合(例えば、犯罪の傾向からポジティブに対応する危険度がほとんど存在しない場合)、ニュートラルとネガティブの2つに分類してもよい。 The risk storage unit 223 stores risk levels associated with age, gender, and emotion obtained as an analysis result by an image analysis unit 232, which will be described later. FIG. 7 is a diagram showing an overview of information stored in the risk storage unit 223 according to the embodiment. The risk level stored in the risk level storage unit 223 can be set based on criminal tendencies based on information on past incidents. For example, in Figure 7, when comparing gender, the risk level is higher for men, and the risk level is higher for older age groups and "negative" emotions, regardless of gender. It shows. Note that FIG. 7 shows an example of the degree of risk, and there is no need to be particularly limited to the example shown in FIG. For example, the age setting shown in FIG. 7 does not need to be set within the range shown in FIG. 7, and may be set within any range such as every 5 years or every 10 years. Emotions are classified into three categories: positive (favorable, positive emotions), neutral (neutral emotions), and negative (pessimistic, negative emotions). If evaluation is not necessary (for example, if there is almost no risk of responding positively based on crime trends), it may be classified into two categories: neutral and negative.

音声解析プログラム224は、後述する音声解析部231の処理を実現するための機能を提供する。例えば、音声解析プログラム224は、入力された音声データ(端末取得音声データ)を解析して、テキストデータに変換し、当該端末取得音声データに対応するテキストデータを形態素に分割する機能を提供する。 The speech analysis program 224 provides a function for realizing the processing of the speech analysis section 231, which will be described later. For example, the speech analysis program 224 provides a function of analyzing input speech data (terminal-acquired speech data), converting it into text data, and dividing the text data corresponding to the terminal-acquired speech data into morphemes.

画像解析プログラム225は、後述する画像解析部232の処理を実現するための機能を提供する。例えば、画像解析プログラム225は、入力された画像データ(端末取得画像データ)を解析して、画像データに映し出された人物の年齢、性別、及び感情(精神状態)を取得し、年齢、性別及び感情の情報を出力する機能を提供する。 The image analysis program 225 provides functions for realizing the processing of the image analysis section 232, which will be described later. For example, the image analysis program 225 analyzes input image data (terminal acquired image data), acquires the age, gender, and emotion (mental state) of the person shown in the image data, and acquires the age, gender, and emotion (mental state) of the person shown in the image data. Provides a function to output emotional information.

危険度判定プログラム226は、後述する危険度判定部233の処理を実現するための機能を提供する。例えば、危険度判定プログラム226は、音声解析による危険ワードとの一致率、並びに、画像解析による年齢、性別、及び感情に対応付けられた危険度に基づいて、ユーザ端末1のユーザ(例えば、児童P)が犯罪に巻き込まれる可能性が高いか否かを示す危険度を導出するための機能を提供できる。 The risk level determination program 226 provides a function for realizing the processing of the risk level determination unit 233, which will be described later. For example, the risk level determination program 226 determines whether the user of the user terminal 1 (for example, a child It is possible to provide a function for deriving the degree of risk indicating whether or not P 1 ) is likely to be involved in a crime.

連絡先データベース227は、ユーザ端末1のユーザ(例えば、児童P)の状況を通知する際の連絡先の情報で構成される。例えば、連絡先の情報として、児童Pの保護者Pが使用する保護者装置300(図1等参照)の電話番号やメールアドレスなどが該当する。 The contact database 227 is configured with contact information when notifying the user of the user terminal 1 (for example, child P 1 ) about the status. For example, the contact information includes the telephone number and e-mail address of the guardian device 300 (see FIG. 1, etc.) used by the guardian P 3 of the child P 1 .

制御部230は、情報処理装置200の各部を制御するコントローラである。制御部230は、たとえばCPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサ(演算処理装置)によって実現される。例えば、制御部230は、情報処理装置200内部の記憶装置に記憶されている各種プログラムを、プロセッサがRAMを作業領域として実行されることにより実現される。なお、制御部230は、たとえばASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。CPU、MPU、ASIC、及びFPGAは何れもコントローラとみなすことができる。 The control unit 230 is a controller that controls each unit of the information processing device 200. The control unit 230 is realized by a processor (arithmetic processing unit) such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). For example, the control unit 230 is realized by a processor executing various programs stored in a storage device inside the information processing device 200 using the RAM as a work area. Note that the control unit 230 is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). CPUs, MPUs, ASICs, and FPGAs can all be considered controllers.

制御部230は、図5に示すように、音声解析部231と、画像解析部232と、危険度判定部233と、連絡処理部234とを有する。制御部230が有する各ブロック、すなわち、音声解析部231、画像解析部232、危険度判定部233、及び連絡処理部234はそれぞれ制御部230により実現される機能を示す機能ブロックである。これら機能ブロックはソフトウェアブロックであってもよいし、ハードウェアブロックであってもよい。例えば、上述の機能ブロックが、それぞれ、ソフトウェア(マイクロプログラムを含む。)で実現される1つのソフトウェアモジュールであってもよいし、半導体チップ(ダイ)上の1つの回路ブロックであってもよい。勿論、各機能ブロックがそれぞれ1つのプロセッサ又は1つの集積回路であってもよい。機能ブロックの構成方法及び構成単位は任意である。 As shown in FIG. 5, the control unit 230 includes a voice analysis unit 231, an image analysis unit 232, a risk determination unit 233, and a communication processing unit 234. Each block included in the control section 230, that is, the voice analysis section 231, the image analysis section 232, the risk level determination section 233, and the communication processing section 234 is a functional block indicating a function realized by the control section 230, respectively. These functional blocks may be software blocks or hardware blocks. For example, each of the above functional blocks may be one software module realized by software (including a microprogram), or one circuit block on a semiconductor chip (die). Of course, each functional block may be one processor or one integrated circuit. The configuration method and configuration unit of the functional blocks are arbitrary.

音声解析部231は、ユーザ端末1から受信した音声データ(端末取得音声データ)を解析する。具体的には、音声解析部231は、入力された音声データ(端末取得音声データ)を解析して、テキストデータに変換し、当該端末取得音声データに対応するテキストデータを形態素に分割する。音声解析部231は、解析結果を危険度判定部233に出力する。音声解析部231は、形態素のうち、危険ワードとの比較を行うことが可能な所定の品詞(名詞や動詞など)に対応する形態素を出力してもよい。音声解析部231は、例えば、プロセッサが音声解析プログラム224を実行することにより実現される。 The audio analysis unit 231 analyzes audio data received from the user terminal 1 (terminal acquired audio data). Specifically, the voice analysis unit 231 analyzes input voice data (terminal acquired voice data), converts it into text data, and divides the text data corresponding to the terminal acquired voice data into morphemes. The voice analysis section 231 outputs the analysis result to the risk determination section 233. Among the morphemes, the speech analysis unit 231 may output morphemes corresponding to predetermined parts of speech (such as nouns and verbs) that can be compared with dangerous words. The voice analysis unit 231 is realized, for example, by a processor executing the voice analysis program 224.

画像解析部232は、ユーザ端末1から受信した画像データ(端末取得画像データ)を解析する。具体的には、画像解析部232は、入力された画像データ(端末取得画像データ)を解析して、画像データに映し出された人物の年齢、性別、及び感情(精神状態)を取得する。画像解析部232は、解析結果を危険度判定部233に出力する。画像解析部232は、例えば、プロセッサが画像解析プログラム225を実行することにより実現される。 The image analysis unit 232 analyzes image data received from the user terminal 1 (terminal acquired image data). Specifically, the image analysis unit 232 analyzes the input image data (terminal acquired image data) and acquires the age, gender, and emotion (mental state) of the person depicted in the image data. The image analysis section 232 outputs the analysis result to the risk determination section 233. The image analysis unit 232 is realized, for example, by a processor executing the image analysis program 225.

危険度判定部233は、音声解析部231による音声解析による危険ワードとの一致率、並びに、画像解析部232による画像解析による年齢、性別、及び感情に対応付けられた危険度に基づいて、ユーザ端末1のユーザ(例えば、児童P)が犯罪に巻き込まれる可能性が高いか否かを示す危険度を導出する。 The risk level determination unit 233 determines the user's risk level based on the match rate with dangerous words based on voice analysis by the voice analysis unit 231 and the risk level associated with age, gender, and emotion based on image analysis by the image analysis unit 232. A risk level indicating whether there is a high possibility that the user of the terminal 1 (for example, child P 1 ) will be involved in a crime is derived.

具体的には、危険度判定部233は、比較画像データ格納部221に記憶されている比較画像データを取得し、ユーザ端末1から受信した画像(端末取得画像)と比較画像とが一致するか否かを判定する。一致するか否かは、端末取得画像と、比較画像との一致率が95%を超えるか否かで判定する。危険度判定部233は、ユーザ端末1から受信した画像(端末取得画像)と比較画像とが一致しないと判定した場合、危険ワード格納部222に記憶される危険ワードの情報を参照して、音声解析部231から取得した音声解析結果に含まれる形態素と危険ワードとの一致率を算出する。図8は、実施形態に係る危険ワードの一致率の一例を示す図である。図8に示すように、例えば、危険度判定部233は、音声解析部231から取得した音声解析結果に含まれる形態素の全てが危険ワードに該当する場合、一致率を100%と算出する。また、危険度判定部233は、音声解析部231から取得した音声解析結果に含まれる形態素の半数が危険ワードに該当する場合、一致率を50%と算出する。また、危険度判定部233は、音声解析部231から取得した音声解析結果に含まれる形態素の4分の1が危険ワードに該当する場合、一致率を25%と算出する。そして、危険度判定部233は、危険ワードとの一致率を所定の閾値と比較し、所定の閾値を超える場合、危険ワードとの一致率を音声解析結果に基づく危険度として導出する。 Specifically, the risk determination unit 233 acquires the comparison image data stored in the comparison image data storage unit 221, and determines whether the image received from the user terminal 1 (terminal acquired image) and the comparison image match. Determine whether or not. Whether or not they match is determined based on whether the matching rate between the terminal acquired image and the comparison image exceeds 95%. If the risk level determination unit 233 determines that the image received from the user terminal 1 (terminal acquired image) and the comparison image do not match, the risk level determination unit 233 refers to the information on the risk word stored in the risk word storage unit 222 and determines whether the voice The match rate between the morphemes included in the speech analysis results obtained from the analysis unit 231 and the risky words is calculated. FIG. 8 is a diagram illustrating an example of the matching rate of dangerous words according to the embodiment. As shown in FIG. 8, for example, when all of the morphemes included in the speech analysis result obtained from the speech analysis section 231 correspond to risky words, the risk determination section 233 calculates the matching rate as 100%. Furthermore, if half of the morphemes included in the speech analysis result obtained from the speech analysis section 231 correspond to risky words, the risk determination section 233 calculates the matching rate as 50%. Furthermore, if one-fourth of the morphemes included in the speech analysis result obtained from the speech analysis section 231 correspond to risky words, the risk determination section 233 calculates the matching rate as 25%. Then, the risk level determination unit 233 compares the matching rate with the dangerous word with a predetermined threshold value, and if the matching rate with the dangerous word exceeds the predetermined threshold value, derives the matching rate with the dangerous word as the risk level based on the voice analysis result.

また、危険度判定部233は、危険度格納部223に記憶されている危険度の情報に基づいて、画像解析部232による画像解析結果に対応する危険度を取得する。例えば、危険度判定部233は、画像解析部232から画像解析結果として取得した年齢、性別、感情が、「18歳、女性、ポジティブ」である場合、画像解析結果に対応する危険度として「0%」を取得する。そして、危険度判定部233は、危険度格納部223に記憶されている危険度の情報に基づいて取得した画像解析結果に対応する危険度を所定の閾値と比較し、所定の閾値を超える場合、取得した危険度を画像解析結果に基づく危険度として導出する。 Further, the risk level determination unit 233 obtains the level of risk corresponding to the image analysis result by the image analysis unit 232 based on the risk level information stored in the risk level storage unit 223 . For example, if the age, gender, and emotion obtained as the image analysis result from the image analysis unit 232 are "18 years old, female, positive," the risk determination unit 233 determines the risk level corresponding to the image analysis result as "0. %”. Then, the risk level determination unit 233 compares the level of risk corresponding to the acquired image analysis result based on the level of risk information stored in the level of risk storage unit 223 with a predetermined threshold value, and if the level of risk exceeds the predetermined threshold value, , the obtained degree of risk is derived as a degree of risk based on the image analysis results.

危険度判定部233は、音声解析結果に基づく危険度と画像解析結果に基づく危険度を統合し、最終的な危険度を決定する。例えば、音声解析結果に基づく危険度が「25%」で、画像解析結果に基づく危険度が「0%」である場合、危険度判定部233は、最終的な危険度を「25%」に決定する。 The risk level determining unit 233 integrates the level of risk based on the voice analysis result and the level of risk based on the image analysis result, and determines the final level of risk. For example, if the risk level based on the voice analysis result is "25%" and the risk level based on the image analysis result is "0%", the risk level determination unit 233 sets the final risk level to "25%". decide.

危険度判定部233は、決定した危険度に応じて、ユーザ端末1(児童P)、保護者装置300(保護者P)、及び警察管理装置400(警察署PS)のうちの少なくともいずれかに対して実施する処理を決定する。例えば、情報処理装置200は、第三者Pの危険度が75%を超える場合、警察管理装置400に対して、例えば、緊急出動を要請するメッセージを送信することを決定する。このメッセージには、ユーザ端末1から受信した音声データ及び画像データの他、ユーザ端末1の現在位置の情報やユーザ端末1を特定する端末情報を含めることができる。さらに、危険度判定部233は、保護者装置300に対して、児童Pの現在の状況(危険)を通知するためのメッセージを送信することを決定する。さらに、危険度判定部233は、ユーザ端末1に対して、警告音を出力させるための指令信号をユーザ端末1に送信することを決定する。 The risk level determining unit 233 selects at least one of the user terminal 1 (child P 1 ), the guardian device 300 (guardian P 3 ), and the police management device 400 (police station PS) according to the determined risk level. Decide what action to take. For example, if the risk level of the third party P2 exceeds 75%, the information processing device 200 decides to send a message requesting emergency dispatch to the police management device 400, for example. This message can include, in addition to the audio data and image data received from the user terminal 1, information on the current location of the user terminal 1 and terminal information that specifies the user terminal 1. Further, the risk level determining unit 233 decides to transmit a message to the guardian device 300 to notify the child P 1 of the current situation (danger). Further, the risk level determining unit 233 determines to transmit a command signal to the user terminal 1 to cause the user terminal 1 to output a warning sound.

連絡処理部234は、危険度判定部233の決定に従って、ユーザ端末1、保護者装置300及び警察管理装置400に対する連絡処理を実行する。 The communication processing unit 234 executes communication processing for the user terminal 1, the guardian device 300, and the police management device 400 according to the determination by the risk level determination unit 233.

<<4.処理手順例>>
図9~図11を用いて、実施形態に係る情報処理システムの処理手順例について説明する。図9~図11は、実施形態に係る情報処理システムの処理手順の一例を示す図である。
<<4. Processing procedure example >>
An example of a processing procedure of the information processing system according to the embodiment will be described using FIGS. 9 to 11. 9 to 11 are diagrams illustrating an example of the processing procedure of the information processing system according to the embodiment.

<4-1.システム全体の処理>
まず、図9を用いて、情報処理システムSYSの全体の処理の流れを説明する。図9に示すように、ユーザ端末1は、入力音声を取得し(ステップS101)、取得した音声データをストレージ9に格納する。ユーザ端末1は、入力音声の周波数と、比較音声(予め登録された保護者P(図1参照)等の音声)の周波数が一致するか否かを判定する(ステップS102)。一致するか否かは、入力音声の周波数が、比較音声の周波数の±5%の範囲内にあるか否かで判定する。
<4-1. Processing of the entire system>
First, the overall processing flow of the information processing system SYS will be explained using FIG. As shown in FIG. 9, the user terminal 1 acquires input audio (step S101) and stores the acquired audio data in the storage 9. The user terminal 1 determines whether the frequency of the input voice matches the frequency of the comparison voice (the voice of the guardian P 3 (see FIG. 1) registered in advance) (step S102). Whether or not they match is determined by whether the frequency of the input voice is within a range of ±5% of the frequency of the comparison voice.

ユーザ端末1は、入力音声の周波数と、比較音声の周波数が一致すると判定した場合(ステップS102;Yes)、上記ステップS101の手順に戻る。このとき、ユーザ端末1は、入力音声の音声データをそのまま破棄してもよいし、一旦ストレージ9に記録して、事後的に破棄してもよい。 When the user terminal 1 determines that the frequency of the input voice and the frequency of the comparison voice match (step S102; Yes), the process returns to step S101. At this time, the user terminal 1 may discard the audio data of the input audio as is, or may record it in the storage 9 once and discard it after the fact.

一方、ユーザ端末1は、入力音声の周波数と、比較音声の周波数が一致しないと判定した場合(ステップS102;No)、カメラ12(及び/又はカメラ13)を起動し、画像データを取得する(ステップS103)。 On the other hand, if the user terminal 1 determines that the frequency of the input audio and the frequency of the comparison audio do not match (step S102; No), the user terminal 1 activates the camera 12 (and/or the camera 13) and acquires image data ( Step S103).

画像データの取得後、ユーザ端末1は、所定の音声データ及び画像データを情報処理装置200に送信する(ステップS104)。ここで、ユーザ端末1は、所定の音声データとして、例えば、ストレージ9に格納した音声データの中から、比較音声の周波数と一致しない音声データが記録された時点の前後1秒間に記録された音声データを取得する。また、ユーザ端末1は、音声データ及び画像データとともに、ユーザ端末1の現在位置を示す位置情報及びユーザ端末1を特定するための端末情報を送信できる。 After acquiring the image data, the user terminal 1 transmits predetermined audio data and image data to the information processing device 200 (step S104). Here, the user terminal 1 stores, as the predetermined audio data, for example, audio recorded within 1 second before and after the time when audio data that does not match the frequency of the comparison audio is recorded from among the audio data stored in the storage 9. Get data. Further, the user terminal 1 can transmit location information indicating the current location of the user terminal 1 and terminal information for specifying the user terminal 1 along with audio data and image data.

情報処理装置200は、ユーザ端末1から音声データ及び画像データを受信すると、音声解析処理、及び画像解析処理をそれぞれ実施する(ステップS105,S106)。 When the information processing device 200 receives audio data and image data from the user terminal 1, it performs audio analysis processing and image analysis processing, respectively (steps S105 and S106).

情報処理装置200は、音声解析結果及び画像解析結果に基づく危険度判定処理(図10,11参照)を実行して危険度を導出する(ステップS107)。そして、情報処理装置200は、導出した危険度が75%以下であるか否かを判定する(ステップS108)。 The information processing device 200 derives the risk level by executing a risk level determination process (see FIGS. 10 and 11) based on the voice analysis result and the image analysis result (step S107). Then, the information processing device 200 determines whether the derived risk level is 75% or less (step S108).

情報処理装置200は、危険度が75%以下ではないと判定した場合(ステップS108;No)、すなわち、危険度が75%を超える場合、緊急出動を要請するメッセージを所轄の警察署PSが管理する警察管理装置400へ送信する(ステップS109)。 If the information processing device 200 determines that the degree of risk is not less than 75% (step S108; No), that is, if the degree of risk exceeds 75%, the information processing device 200 sends a message requesting emergency dispatch to the police station PS in charge. The information is transmitted to the police management device 400 (step S109).

続いて、情報処理装置200は、保護者(例えば、保護者P)が所有する保護者装置300へ、ユーザ端末1のユーザである児童(例えば、児童P)の危険を通知するメッセージを送信する(ステップS110)。 Subsequently, the information processing device 200 sends a message to the guardian device 300 owned by the guardian (for example, the guardian P 3 ) notifying the child (for example, the child P 1 ) who is the user of the user terminal 1 of the danger. Transmit (step S110).

続いて、情報処理装置200は、警告音の出力を指令する指令信号をユーザ端末1に送信して(ステップS111)、図9に示す情報処理装置200の処理を終了する。 Subsequently, the information processing device 200 transmits a command signal for instructing the output of a warning sound to the user terminal 1 (step S111), and ends the processing of the information processing device 200 shown in FIG. 9.

上記ステップS108において、情報処理装置200は、危険度が75%以下であると判定した場合(ステップS108;Yes)、危険度が50%以下であるか否かを判定する(ステップS112)。 If the information processing device 200 determines that the degree of risk is 75% or less in step S108 (step S108; Yes), it determines whether the degree of risk is 50% or less (step S112).

情報処理装置200は、危険度が50%以下ではないと判定した場合(ステップS1112;No)、すなわち、危険度が51%~75%の範囲にある場合、上記ステップS110及びステップS111の処理手順を実行する。すなわち、情報処理装置200は、保護者装置300へのメッセージ送信、及びユーザ端末1に警告音を出力させる指令信号の送信を実施して、図9に示す情報処理装置200の処理を終了する。 If the information processing device 200 determines that the degree of risk is not less than 50% (step S1112; No), that is, if the degree of risk is in the range of 51% to 75%, the information processing device 200 performs the processing procedures of steps S110 and S111 above. Execute. That is, the information processing device 200 transmits a message to the guardian device 300 and a command signal to cause the user terminal 1 to output a warning sound, and ends the processing of the information processing device 200 shown in FIG. 9.

一方、情報処理装置200は、上記ステップS112において、危険度が50%以下であると判定した場合(ステップS112;Yes)、危険度が30%以下であるか否かを判定する(ステップS113)。 On the other hand, if the information processing device 200 determines in step S112 that the risk level is 50% or less (step S112; Yes), it determines whether the risk level is 30% or less (step S113). .

情報処理装置200は、危険度が30%以下ではないと判定した場合(ステップS113;No)、すなわち、危険度が31%~50%の範囲にある場合、上記ステップS111の処理手順を実行する。すなわち、情報処理装置200は、ユーザ端末1に警告音を出力させる指令信号の送信を実施して、図9に示す情報処理装置200の処理を終了する。 If the information processing device 200 determines that the degree of risk is not less than 30% (step S113; No), that is, if the degree of risk is within the range of 31% to 50%, the information processing device 200 executes the processing procedure of step S111 above. . That is, the information processing device 200 transmits a command signal to cause the user terminal 1 to output a warning sound, and ends the processing of the information processing device 200 shown in FIG. 9 .

一方、情報処理装置200は、上記ステップS113において、危険度が30%以下であると判定した場合(ステップS113;Yes)、ユーザ端末1から受信した音声データ及び画像データを消去し(ステップS114)、図9に示す情報処理装置200の処理を終了する。なお、情報処理装置200は、図10を用いて後述する音声解析結果による危険度判定処理において音声データが消去されていれば、ステップS114における音声データ消去の手順を省略する。また、情報処理装置200は、図11を用いて後述する画像解析結果による危険度判定処理において画像データが消去されていれば、ステップS114における画像データ消去の手順を省略する。 On the other hand, if the information processing device 200 determines in step S113 that the risk level is 30% or less (step S113; Yes), it erases the audio data and image data received from the user terminal 1 (step S114). , the processing of the information processing apparatus 200 shown in FIG. 9 ends. Note that if the audio data has been deleted in the risk level determination process based on the audio analysis result, which will be described later with reference to FIG. 10, the information processing device 200 will omit the audio data deletion procedure in step S114. Furthermore, if the image data has been erased in the risk level determination process based on the image analysis result, which will be described later with reference to FIG. 11, the information processing apparatus 200 will omit the image data erase procedure in step S114.

ユーザ端末1は、情報処理装置200から警告音の出力を指令する指令信号を受信すると(ステップS115)、スピーカ11から警告音を出力する(ステップS116)。 When the user terminal 1 receives a command signal instructing the output of a warning sound from the information processing device 200 (step S115), the user terminal 1 outputs a warning sound from the speaker 11 (step S116).

そして、ユーザ端末1は、警告音を出力中であることを示す画像をディスプレイ2Aに表示させて(ステップS117)、図9に示すユーザ端末1の処理を終了する。 Then, the user terminal 1 causes the display 2A to display an image indicating that the warning sound is being outputted (step S117), and ends the process of the user terminal 1 shown in FIG. 9.

上記図9に示す処理手順において、ステップS105の音声解析処理及びステップS106の画像解析処理は、どちらの処理が先に行われてもよい。 In the processing procedure shown in FIG. 9, either the audio analysis process in step S105 or the image analysis process in step S106 may be performed first.

<4-2.音声による危険度判定処理>
図10を用いて、情報処理装置200による音声解析結果に基づく危険度判定処理の流れを説明する。図10に示すように、危険度判定部233は、音声解析部231による音声解析結果を取得する(ステップS201)。
<4-2. Voice-based risk determination process>
The flow of the risk level determination process based on the voice analysis result by the information processing device 200 will be explained using FIG. 10 . As shown in FIG. 10, the risk determination unit 233 acquires the voice analysis result by the voice analysis unit 231 (step S201).

続いて、危険度判定部233は、音声解析結果と危険ワードとの一致率を算出する(ステップS202)。 Subsequently, the risk level determination unit 233 calculates the match rate between the voice analysis result and the risk word (step S202).

そして、危険度判定部233は、ステップS202で算出した一致率が10%以下であるか否かを判定する(ステップS203)。 Then, the risk level determining unit 233 determines whether the matching rate calculated in step S202 is 10% or less (step S203).

危険度判定部233は、ステップS202で算出した一致率が10%以下であると判定した場合(ステップS203;Yes)、ユーザ端末1から受信し、ストレージ9に格納した音声データ(端末取得音声データ)を消去し(ステップS204)、図10に示す音声解析結果に基づく危険度判定処理を終了する。 If the risk determination unit 233 determines that the match rate calculated in step S202 is 10% or less (step S203; Yes), the risk determination unit 233 uses the audio data received from the user terminal 1 and stored in the storage 9 (terminal acquired audio data). ) (step S204), and the risk level determination process based on the voice analysis results shown in FIG. 10 is ended.

一方、危険度判定部233は、ステップS202で算出した一致率が10%以下ではないと判定した場合(ステップS203;No)、一致率を危険度として出力して(ステップS205)、図10に示す音声解析結果に基づく危険度判定処理を終了する。 On the other hand, if the risk determination unit 233 determines that the match rate calculated in step S202 is not less than 10% (step S203; No), it outputs the match rate as the risk level (step S205), and The risk level determination process based on the voice analysis result shown in FIG.

<4-3.画像による危険度判定処理>
図11を用いて、情報処理装置200による画像解析結果に基づく危険度判定処理の流れを説明する。図11に示すように、危険度判定部233は、ユーザ端末1から受信した画像である端末取得画像と、比較画像データ格納部221に予め登録されている比較画像とが一致するか否かを判定する(ステップS301)。
<4-3. Image-based risk determination process>
The flow of risk determination processing based on the image analysis result by the information processing device 200 will be described using FIG. 11. As shown in FIG. 11, the risk determination unit 233 determines whether the terminal acquired image, which is the image received from the user terminal 1, matches the comparison image registered in advance in the comparison image data storage unit 221. Determination is made (step S301).

危険度判定部233は、端末取得画像と比較画像とが一致しないと判定した場合(ステップS301;No)、画像解析結果に基づく危険度を危険度格納部223から取得する(ステップS302)。 If the risk level determination unit 233 determines that the terminal acquired image and the comparison image do not match (step S301; No), the risk level determination unit 233 acquires the level of risk based on the image analysis result from the risk level storage unit 223 (step S302).

危険度判定部233は、ステップS302で取得した危険度が10%以下であるか否かを判定する(ステップS303)。 The risk level determining unit 233 determines whether the risk level acquired in step S302 is 10% or less (step S303).

危険度判定部233は、ステップS302で取得した危険度が10%以下であると判定した場合(ステップS303;Yes)、ユーザ端末1から受信し、ストレージ9に格納した画像データ(端末取得画像データ)を消去し(ステップS304)、図11に示す画像解析結果に基づく危険度判定処理を終了する。 If the risk level determination unit 233 determines that the level of risk acquired in step S302 is 10% or less (step S303; Yes), the risk level determination unit 233 uses the image data (terminal acquired image data) received from the user terminal 1 and stored in the storage 9. ) (step S304), and the risk level determination process based on the image analysis results shown in FIG. 11 is completed.

一方、危険度判定部233は、危険度が10%以下ではないと判定した場合(ステップS303;No)、ステップS302で取得した危険度を出力して(ステップS305)、図11に示す画像解析結果に基づく危険度判定処理を終了する。 On the other hand, if the risk determination unit 233 determines that the risk is not 10% or less (step S303; No), it outputs the risk obtained in step S302 (step S305), and performs the image analysis shown in FIG. The risk determination process based on the result is ended.

図10を用いて上述した音声解析結果に基づく危険度判定処理、及び図11を用いて上述した音声解析結果に基づく危険度判定処理は、統合して実施されてもよい。すなわち、危険度判定部233は、音声解析結果に基づく危険度が10%を超える場合に、一致率を危険度として出力するとともに、図11に示す画像解析結果に基づく危険度判定処理を実行するようにしてもよい。 The risk level determination process based on the voice analysis result described above using FIG. 10 and the risk level determination process based on the voice analysis result described above using FIG. 11 may be performed in an integrated manner. That is, when the risk level based on the voice analysis result exceeds 10%, the risk level determination unit 233 outputs the matching rate as the level of risk, and executes the risk level determination process based on the image analysis result shown in FIG. You can do it like this.

上述してきたように、実施形態に係る情報処理システムSYSにおいて、情報処理装置200は、客観的かつ論理的な判断が難しいユーザ端末1のユーザ(例えば、児童P)に代わって、ユーザ(児童P)の現在の状況の危険度を判定する。そして、情報処理装置200は、判定した危険度に応じて、ユーザ(児童P)の現在の状況を所定の連絡先(例えば、保護者P)に通達するとともに、捜査機関である警察署PSへの通報を実施する。そして、情報処理装置200は、警察署PSへの通報に際して、ユーザ端末1において取得された音声データ及び画像データを送信する。これにより、情報処理装置200は、ユーザ端末1からの音声及び画像に基づいて、音声解析処理及び画像解析処理を行い、ユーザ端末1のユーザに危険度として判定できる。このため、実施形態に係る情報処理システムSYSによれば、例えば児童Pの危険を保護者Pに把握させることができ、また、児童Pが犯罪に巻き込まれた際に事件解決に必要となる情報を捜査機関となる警察署PSに提供できる。これにより、捜査機関は、犯罪行為に対する迅速な行動が可能となる。 As described above, in the information processing system SYS according to the embodiment, the information processing device 200 uses a user ( child P1 ) Determine the degree of risk of the current situation. Then, the information processing device 200 notifies a predetermined contact point (for example, a guardian P 3 ) of the current situation of the user (child P 1 ) according to the determined degree of risk, and also notifies the police station, which is the investigating agency, of the current situation of the user (child P 1 ). Report to PS. Then, the information processing device 200 transmits the audio data and image data acquired by the user terminal 1 when reporting to the police station PS. Thereby, the information processing device 200 performs audio analysis processing and image analysis processing based on the audio and images from the user terminal 1, and can determine the degree of risk for the user of the user terminal 1. Therefore, according to the information processing system SYS according to the embodiment, for example, it is possible to make the guardian P 3 understand the danger of the child P 1 , and when the child P 1 is involved in a crime, it is possible to make the guardian P 3 understand the danger of the child P 1. This information can be provided to the police station PS, which is the investigating agency. This enables investigative agencies to take swift action against criminal acts.

また、情報処理装置200が警察署PSへの通報に際して同封する音声データ及び画像データは、犯罪立証のための情報となり得る。このため、実施形態に係る情報処理システムSYSが広く社会的に認知されることにより、児童誘拐等の犯罪行為の抑止力となり得る。この結果、犯罪行為に巻き込まれる児童等の撲滅を図ることができる。 Furthermore, the audio data and image data that the information processing device 200 encloses when reporting to the police station PS can be information for proving a crime. Therefore, the information processing system SYS according to the embodiment is widely recognized in society, which can serve as a deterrent against criminal acts such as child abduction. As a result, it is possible to eradicate children who become involved in criminal acts.

<<5.変形例>> <<5. Modified example >>

上記実施形態において、危険度判定部233による画像解析結果に基づく危険度判定処理は、端末取得画像データを解析して得られる周辺環境の情報をさらに加味して、危険度を導出してもよい。例えば、周辺環境がユーザ端末1のユーザである児童Pの通常の行動範囲から逸脱している場合、危険度が大きくなるように、危険度格納部223から取得した画像解析結果に対応する危険度に重み付けを行ってもよい。このような処理は、画像解析プログラム225に対して、画像データの周辺環境を解析し、周辺環境を示す情報を出力する機能を追加することにより実現できる。 In the embodiment described above, the risk level determination process based on the image analysis result by the risk level determination unit 233 may derive the level of risk by further taking into account information about the surrounding environment obtained by analyzing the image data acquired by the terminal. . For example, if the surrounding environment deviates from the normal action range of the child P1 who is the user of the user terminal 1 , the risk level will increase according to the image analysis result obtained from the risk level storage unit 223. Weighting may be performed at different times. Such processing can be realized by adding a function to the image analysis program 225 that analyzes the surrounding environment of image data and outputs information indicating the surrounding environment.

また、上記実施形態において、危険度判定部233による画像解析結果に基づく危険度判定処理は、端末取得画像データを解析して得られる画像のぶれ具合をさらに加味して、危険度を導出してもよい。例えば、画像のぶれ具合が、予め定められる閾値を超える場合、すなわち通常の使用状態にないと判断できる場合に、危険度が大きくなるように、危険度格納部223から取得した画像解析結果に対応する危険度に重み付けを行ってもよい。このような処理は、画像解析プログラム225に対して、画像のぶれを解析し、画像のぶれ具体を出力する機能を追加することにより実現できる。 Furthermore, in the embodiment described above, the risk level determination process based on the image analysis result by the risk level determination unit 233 derives the level of risk by further taking into consideration the degree of blurring of the image obtained by analyzing the image data acquired by the terminal. Good too. For example, if the degree of blur in the image exceeds a predetermined threshold, that is, if it can be determined that the situation is not in normal use, the risk level will be increased based on the image analysis results obtained from the risk level storage unit 223. The degree of risk may be weighted. Such processing can be realized by adding a function to the image analysis program 225 to analyze image blur and output the specific image blur.

また、上記実施形態において、情報処理装置200において実行される音声解析結果及び画像解析結果に基づく危険度判定処理は、音声解析結果に基づく危険度判定処理又は画像解析結果に基づく危険度判定処理のいずれかが実施されてもよい。 Furthermore, in the above embodiment, the risk level determination process based on the voice analysis result and the image analysis result executed in the information processing device 200 is the same as the risk level determination process based on the voice analysis result or the risk level determination process based on the image analysis result. Either may be implemented.

例えば、情報処理装置200が、音声解析結果に基づく危険度判定処理のみを実施する場合、音声解析結果に基づく危険度が閾値を超える場合、保護者装置300及び警察管理装置400へのメッセージの送信、ユーザ端末1への警告音の出力を指令する指令信号の送信を実施できる。 For example, when the information processing device 200 performs only the risk level determination process based on the voice analysis result, if the level of risk based on the voice analysis result exceeds a threshold value, the information processing device 200 transmits a message to the guardian device 300 and the police management device 400. , a command signal instructing the user terminal 1 to output a warning sound can be transmitted.

また、例えば、情報処理装置200が、画像解析結果に基づく危険度判定処理のみを実施する場合、画像解析結果に対応する危険度が閾値を超える場合、保護者装置300及び警察管理装置400へのメッセージの送信、ユーザ端末1への警告音の出力を指令する指令信号の送信を実施できる。 Further, for example, when the information processing device 200 only performs a risk level determination process based on the image analysis result, if the risk level corresponding to the image analysis result exceeds a threshold value, the information processing device 200 may send information to the guardian device 300 and the police management device 400. It is possible to send a message and send a command signal that instructs the user terminal 1 to output a warning sound.

また、上記の実施形態において、保護者等の音声(周波数)は、保護者の年齢とともに変化することが考えらえる。そこで、例えば、比較音声データ9Zとしてユーザ端末1のユーザ(例えば、児童P)の保護者の音声(周波数)が予め登録されている場合、ユーザ端末1は、保護者の音声を保護者の年齢に応じた音声の変化を予測し、予測結果に基づく音声を入力音声との比較に用いてもよい。年齢に応じた音声の変化予測は、例えば、機械学習によって、人間の音声の変化と年齢との関連性を学習し、年齢に応じた音声の変化を予測する学習済みモデルにより実行されてもよいし、予め獲得されたパラメータによる音声の加工により実行されてもよい。 Furthermore, in the embodiments described above, it is conceivable that the voice (frequency) of the guardian, etc. changes with the age of the guardian. Therefore, for example, if the voice (frequency) of the guardian of the user of the user terminal 1 (for example, child P 1 ) is registered in advance as the comparison voice data 9Z, the user terminal 1 Changes in voice depending on age may be predicted, and the voice based on the prediction result may be used for comparison with input voice. Prediction of changes in voice according to age may be performed, for example, by machine learning using a trained model that learns the relationship between changes in human voice and age and predicts changes in voice according to age. However, the processing may be performed by processing the voice using parameters obtained in advance.

また、上記の実施形態において、保護者等の顔画像についても、保護者の年齢とともに変化することが考えらえる。そこで、例えば、比較画像データ格納部221に、ユーザ端末1のユーザ(例えば、児童P)の保護者の顔画像が予め登録されている場合、情報処理装置200は、保護者の音声を保護者の年齢に応じた顔画像の変化を予測し、予測結果に基づく顔画像を端末取得画像との比較に用いてもよい。年齢に応じた顔画像の変化予測は、例えば、機械学習によって、人間の顔画像の変化と年齢との関連性を学習し、年齢に応じた顔画像の変化を予測する学習済みモデルにより実行されてもよいし、予め獲得されたパラメータによる顔画像の加工により実行されてもよい。 Furthermore, in the embodiments described above, it is conceivable that the face image of the guardian, etc. also changes with the age of the guardian. Therefore, for example, if the face image of the guardian of the user of the user terminal 1 (for example, child P 1 ) is registered in the comparison image data storage unit 221 in advance, the information processing device 200 protects the voice of the guardian. Changes in the facial image according to the person's age may be predicted, and the facial image based on the prediction result may be used for comparison with the terminal-acquired image. Prediction of changes in facial images according to age is performed using, for example, a trained model that uses machine learning to learn the relationship between changes in human facial images and age, and predicts changes in facial images according to age. Alternatively, the processing may be performed by processing a face image using parameters obtained in advance.

また、情報処理装置200において実行される音声解析結果及び画像解析結果に基づく危険度判定処理は、音声解析結果及び画像解析結果に基づく危険度判定処理のいずれか一方または双方が、ユーザ端末1において実施されてもよい。 In addition, the risk level determination process based on the voice analysis result and the image analysis result executed in the information processing device 200 is performed in the user terminal 1. may be implemented.

例えば、ユーザ端末1において音声解析結果及び画像解析結果に基づく危険度判定処理を実施する場合、ユーザ端末1として機能する電子機器が、前記電子機器の周囲の音声を入力可能に配置された音声入力部と、前記電子機器の周囲の画像を撮像可能に配置された撮像部と、前記音声入力部により入力された入力音声を取得する音声取得部と、前記撮像部により撮像された画像を取得する画像取得部と、前記入力音声との比較を行うための比較音声の情報を予め記憶する音声記憶部と、前記画像との比較を行うための比較画像の情報を予め記憶する画像記憶部と、危険ワードの情報を記憶する危険ワード格納部と、年齢、性別、及び感情に対応付けられた危険度を記憶する危険度格納部と、前記音声取得部により取得された入力音声のデータを解析し、当該入力音声のデータに対応するテキストデータを形態素に分類して取得する音声解析部と、前記画像取得部により取得された画像のデータを解析し、当該画像に映し出された人物の年齢、性別、及び感情を取得する画像解析部と、前記音声取得部により取得された入力音声の周波数と前記比較音声の周波数とが一致するか否かを判定する音声判定部と、前記画像取得部により取得された画像と、前記画像記憶部に記憶されている前記比較画像とが一致するか否かを判定する画像判定部と、前記音声判定部により前記入力音声の周波数と前記比較音声の周波数とが一致しないと判定された場合、及び/又は前記画像取得部により取得された画像と、前記画像記憶部に記憶されている前記比較画像とが一致しないと判定された場合、前記音声解析部により取得された形態素と前記危険ワードとの一致率、並びに、前記画像解析部により取得された前記年齢、性別、及び感情に対応付けられた危険度に基づいて、前記電子機器のユーザが犯罪に巻き込まれる可能性が高いか否かを示す危険度を導出する危険度判定部とを備えればよい。 For example, when the user terminal 1 performs a risk determination process based on the audio analysis result and the image analysis result, an electronic device functioning as the user terminal 1 has an audio input device arranged to input sounds surrounding the electronic device. an imaging unit arranged to be able to capture an image of the surroundings of the electronic device; an audio acquisition unit that acquires input audio input by the audio input unit; and an audio acquisition unit that acquires the image captured by the imaging unit. an image acquisition unit; an audio storage unit that stores in advance information on a comparison audio for comparison with the input audio; and an image storage unit that stores in advance information on a comparison image for comparison with the image; A risk word storage unit that stores information on risk words, a risk level storage unit that stores risk levels associated with age, gender, and emotion, and analyzes input voice data acquired by the voice acquisition unit. , a voice analysis unit that classifies and acquires text data corresponding to the input voice data into morphemes; and a voice analysis unit that analyzes the image data acquired by the image acquisition unit and determines the age and gender of the person shown in the image. , an image analysis unit that acquires the emotion, a voice determination unit that determines whether the frequency of the input voice acquired by the voice acquisition unit and the frequency of the comparison voice match, and the image acquisition unit acquires the emotion. an image determining unit that determines whether the input image matches the comparison image stored in the image storage unit; and an audio determining unit that determines whether the input audio frequency and the comparison audio frequency match. If it is determined that they do not match, and/or if it is determined that the image acquired by the image acquisition unit and the comparison image stored in the image storage unit do not match, the image is acquired by the voice analysis unit. The user of the electronic device is involved in a crime based on the matching rate between the morpheme and the dangerous word, and the degree of risk associated with the age, gender, and emotion acquired by the image analysis unit. What is necessary is to include a risk level determination unit that derives a risk level indicating whether or not the possibility is high.

音声入力部は、ユーザ端末1が備えるマイク8により実現できる。撮像部は、ユーザ端末1が備えるカメラ12,13により実現できる。音声記憶部並びに画像記憶部は、ユーザ端末1が備えるストレージ9により実現できる。音声取得部、画像取得部、音声解析部、画像解析部、判定部、並びに危険度判定部は、ユーザ端末1が備えるコントローラ10により実現できる。例えば、コントローラ10が備えるプロセッサが、音声取得部、音声解析部、画像解析部、判定部、並びに危険度判定部の処理機能を実現するためのプログラムを実行することにより実現できる。 The voice input section can be realized by the microphone 8 included in the user terminal 1. The imaging unit can be realized by cameras 12 and 13 included in the user terminal 1. The audio storage unit and the image storage unit can be realized by the storage 9 included in the user terminal 1. The audio acquisition unit, image acquisition unit, audio analysis unit, image analysis unit, determination unit, and risk determination unit can be realized by the controller 10 included in the user terminal 1. For example, this can be realized by a processor included in the controller 10 executing a program for realizing the processing functions of a voice acquisition section, a voice analysis section, an image analysis section, a determination section, and a risk determination section.

また、例えば、ユーザ端末1において音声解析結果に基づく危険度判定処理を実施する場合、ユーザ端末1として機能する電子機器が、上記音声入力部と、上記音声取得部と、上記音声記憶部と、上記危険ワード格納部と、上記音声解析部と、上記音声判定部と、上記危険度判定部とを備えればよい。なお、この場合、上記危険度判定部は、前記音声解析部により取得された形態素と前記危険ワードとの一致率と危険度として導出する。 Further, for example, when the user terminal 1 performs a risk determination process based on the voice analysis result, the electronic device functioning as the user terminal 1 includes the voice input section, the voice acquisition section, the voice storage section, It is sufficient to include the risk word storage section, the voice analysis section, the voice determination section, and the risk level determination section. In this case, the risk level determination unit derives the match rate and risk level between the morpheme acquired by the speech analysis unit and the risk word.

また、例えば、ユーザ端末1において画像解析結果に基づく危険度判定処理を実施する場合、ユーザ端末1として機能する電子機器が、上記撮像部と、上記画像取得部と、上記画像記憶部と、上記危険度格納部と、上記画像判定部と、上記危険度判定部とを備えればよい。なお、この場合、上記危険度判定部は、画像解析部により取得された前記年齢、性別、及び感情に対応付けられた危険度を危険度格納部から取得し、導出する。 Further, for example, when the user terminal 1 performs a risk determination process based on the image analysis result, an electronic device functioning as the user terminal 1 includes the above-mentioned imaging section, the above-mentioned image acquisition section, the above-mentioned image storage section, and the above-mentioned It is sufficient to include a risk storage section, the image determination section, and the risk determination section. In this case, the risk level determination unit acquires and derives the risk level associated with the age, gender, and emotion acquired by the image analysis unit from the risk level storage unit.

<<6.その他>>
実施形態に係る情報処理装置200は、専用のコンピュータシステムで実現してもよいし、汎用のコンピュータシステムで実現してもよい。
<<6. Others>>
The information processing device 200 according to the embodiment may be implemented with a dedicated computer system or a general-purpose computer system.

情報処理装置200において実行されるプログラムを、インターネット等のネットワーク上のサーバ装置が備えるディスク装置に格納しておき、情報処理装置200がダウンロード等できるようにしてもよい。また、情報処理装置200が実行する上述の処理機能を、OS(Operating System)とアプリケーションソフトとの協働により実現してもよい。この場合には、OS以外の部分を媒体に格納して配布してもよいし、OS以外の部分をサーバ装置に格納しておき、情報処理装置200がダウンロード等できるようにしてもよい。 The program executed by the information processing device 200 may be stored in a disk device included in a server device on a network such as the Internet, so that the information processing device 200 can download the program. Further, the above-described processing functions executed by the information processing device 200 may be realized by collaboration between an OS (Operating System) and application software. In this case, the parts other than the OS may be stored on a medium and distributed, or the parts other than the OS may be stored in a server device so that the information processing device 200 can download them.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

また、上記してきた実施形態は、処理内容を矛盾させない領域で適宜組み合わせることが可能である。また、実施形態に係る処理手順を示す各図に示された各ステップは、適宜順序を変更することが可能である。 Furthermore, the embodiments described above can be combined as appropriate in areas where the processing contents do not conflict. Further, the order of each step shown in each figure showing the processing procedure according to the embodiment can be changed as appropriate.

以上、本開示の各実施形態について説明したが、本開示の技術的範囲は、上述の各実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。 Although each embodiment of the present disclosure has been described above, the technical scope of the present disclosure is not limited to each of the above-mentioned embodiments as is, and various changes can be made without departing from the gist of the present disclosure. be. Furthermore, components of different embodiments and modifications may be combined as appropriate.

また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。 Moreover, the effects in each embodiment described in this specification are merely examples and are not limited, and other effects may also be provided.

1 ユーザ端末
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B 防犯アプリケーション
9X 音声データ
9Y 画像データ
9Z 比較音声データ
10 コントローラ
11 スピーカ
12,13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
18 GPSレシーバ
200 情報処理装置
210 通信部
220 記憶部
221 比較画像データ格納部
222 危険ワード格納部
223 危険度格納部
224 音声解析プログラム
225 画像解析プログラム
226 危険度判定プログラム
227 連絡先データベース
230 制御部
231 音声解析部
232 画像解析部
233 危険度判定部
234 連絡処理部
300 保護者装置
400 警察管理装置
1 User terminal 2 Touch screen display 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Control program 9B Security application 9X Audio data 9Y Image data 9Z Comparison audio data 10 Controller 11 Speaker 12 , 13 Camera 14 Connector 15 Acceleration sensor 16 Direction sensor 17 Gyroscope 18 GPS receiver 200 Information processing device 210 Communication section 220 Storage section 221 Comparison image data storage section 222 Danger word storage section 223 Risk storage section 224 Voice analysis program 225 Image analysis Program 226 Risk level determination program 227 Contact database 230 Control unit 231 Voice analysis unit 232 Image analysis unit 233 Risk level determination unit 234 Contact processing unit 300 Guardian device 400 Police management device

Claims (5)

ユーザ端末と、前記ユーザ端末により取得されたデータを処理する情報処理装置と含む情報処理システムであって、
前記ユーザ端末は、
前記情報処理装置との間で各種情報を送受信する通信部と、
前記ユーザ端末の周囲の音声を入力可能に配置された音声入力部と、
前記ユーザ端末の周囲の画像を撮像可能に配置された撮像部と、
前記音声入力部により入力された入力音声を取得する音声取得部と、
前記撮像部により撮像された画像を取得する画像取得部と、
前記入力音声との比較を行うための比較音声の情報を予め記憶する記憶部と、
前記入力音声の周波数と前記比較音声の周波数とが一致するか否かを判定し、前記入力音声の周波数と前記比較音声の周波数とが一致しないと判定した場合、前記通信部を介して、前記入力音声の音声データ及び前記画像取得部により取得された画像の画像データを、それぞれ端末取得音声データ及び端末取得画像データとして前記情報処理装置に送信する判定部と
を備え、
前記情報処理装置は、
前記ユーザ端末から前記端末取得音声データ及び前記端末取得画像データを受信する通信部と、
前記端末取得画像データとの比較を行うための比較画像データを記憶する比較画像データ格納部と、
危険ワードの情報を記憶する危険ワード格納部と、
年齢、性別、及び感情に対応付けられた危険度を記憶する危険度格納部と、
前記端末取得音声データを解析し、当該端末取得音声データに対応するテキストデータを形態素に分割して取得する音声解析部と、
前記端末取得画像データを解析し、端末取得画像に映し出された人物の年齢、性別、及び感情を取得する画像解析部と、
前記端末取得画像データと前記比較画像データとが一致しない場合、前記音声解析部により取得された形態素と前記危険ワードとの一致率、並びに、前記画像解析部により取得された年齢、性別、及び感情に対応付けられた危険度に基づいて、前記ユーザ端末のユーザである児童が犯罪に巻き込まれる可能性が高いか否かを示す危険度を導出する危険度判定部と
を備える情報処理システム。
An information processing system including a user terminal and an information processing device that processes data acquired by the user terminal,
The user terminal is
a communication unit that transmits and receives various information to and from the information processing device;
an audio input unit arranged to be able to input audio surrounding the user terminal;
an imaging unit arranged to be able to capture an image of the surroundings of the user terminal;
an audio acquisition unit that acquires the input audio input by the audio input unit;
an image acquisition unit that acquires an image captured by the imaging unit;
a storage unit that stores in advance information on comparison audio for comparison with the input audio;
It is determined whether the frequency of the input voice and the frequency of the comparison voice match, and if it is determined that the frequency of the input voice and the frequency of the comparison voice do not match, the a determination unit that transmits audio data of the input audio and image data of the image acquired by the image acquisition unit to the information processing device as terminal acquired audio data and terminal acquired image data, respectively;
The information processing device includes:
a communication unit that receives the terminal acquired audio data and the terminal acquired image data from the user terminal;
a comparison image data storage unit that stores comparison image data for comparison with the terminal acquired image data;
a dangerous word storage unit that stores information about dangerous words;
a risk level storage unit that stores risk levels associated with age, gender, and emotion;
a speech analysis unit that analyzes the terminal-obtained speech data and divides text data corresponding to the terminal-obtained speech data into morphemes and obtains the text data;
an image analysis unit that analyzes the terminal-obtained image data and obtains the age, gender, and emotion of the person shown in the terminal-obtained image;
If the terminal acquired image data and the comparison image data do not match, the match rate between the morpheme acquired by the voice analysis unit and the dangerous word, and the age, gender, and emotion acquired by the image analysis unit an information processing system comprising: a risk level determining unit that derives a risk level indicating whether or not a child who is a user of the user terminal is likely to be involved in a crime based on a risk level associated with the crime;
前記危険度判定部は、
前記危険度が予め定められる閾値を超えると判定した場合、前記通信部を介して、警告音の出力を指令する所定の信号を前記ユーザ端末に送信する
請求項1に記載の情報処理システム。
The risk determination unit includes:
The information processing system according to claim 1, wherein when it is determined that the degree of risk exceeds a predetermined threshold, a predetermined signal instructing the output of a warning sound is transmitted to the user terminal via the communication unit.
所定の連絡先を予め登録する連絡先データベースをさらに備え、
前記危険度判定部は、
前記危険度が予め定められる閾値を超えると判定した場合、前記通信部を介して、前記連絡先データベースに登録された連絡先に対して、前記ユーザ端末のユーザである児童の状況を示す通知を送信する
請求項2に記載の情報処理システム。
It further includes a contact database for pre-registering predetermined contact information,
The risk determination unit includes:
If it is determined that the degree of risk exceeds a predetermined threshold, a notification indicating the status of the child who is the user of the user terminal is sent to the contacts registered in the contact database via the communication unit. The information processing system according to claim 2.
前記ユーザ端末は、
前記所定の信号の受信に応じて、警報音を出力する音出力部と、
前記所定の信号の受信に応じて、警報音を出力中であることを示す画像を表示する表示部と
をさらに備える請求項2または3に記載の情報処理システム。
The user terminal is
a sound output unit that outputs an alarm sound in response to reception of the predetermined signal;
The information processing system according to claim 2 or 3, further comprising: a display unit that displays an image indicating that an alarm sound is being outputted in response to reception of the predetermined signal.
音声及び画像に基づく処理を実行する電子機器であって、
前記電子機器の周囲の音声を入力可能に配置された音声入力部と、
前記電子機器の周囲の画像を撮像可能に配置された撮像部と、
前記音声入力部により入力された入力音声を取得する音声取得部と、
前記撮像部により撮像された画像を取得する画像取得部と、
前記入力音声との比較を行うための比較音声の情報を予め記憶する音声記憶部と、
前記画像との比較を行うための比較画像の情報を予め記憶する画像記憶部と、
危険ワードの情報を記憶する危険ワード格納部と、
年齢、性別、及び感情に対応付けられた危険度を記憶する危険度格納部と、
前記音声取得部により取得された入力音声のデータを解析し、当該入力音声のデータに対応するテキストデータを形態素に分類して取得する音声解析部と、
前記画像取得部により取得された画像のデータを解析し、当該画像に映し出された人物の年齢、性別、及び感情を取得する画像解析部と、
前記音声取得部により取得された入力音声の周波数と前記比較音声の周波数とが一致するか否かを判定する音声判定部と、
前記画像取得部により取得された画像と、前記画像記憶部に記憶されている前記比較画像とが一致するか否かを判定する画像判定部と、
前記音声判定部により前記入力音声の周波数と前記比較音声の周波数とが一致しないと判定された場合、及び/又は前記画像取得部により取得された画像と、前記画像記憶部に記憶されている前記比較画像とが一致しないと判定された場合、前記音声解析部により取得された形態素と前記危険ワードとの一致率、並びに、前記画像解析部により取得された前記年齢、性別、及び感情に対応付けられた危険度に基づいて、前記電子機器のユーザが犯罪に巻き込まれる可能性が高いか否かを示す危険度を導出する危険度判定部と
を備える電子機器。
An electronic device that performs processing based on audio and images,
an audio input unit arranged to be able to input audio surrounding the electronic device;
an imaging unit arranged to be able to capture an image of the surroundings of the electronic device;
an audio acquisition unit that acquires the input audio input by the audio input unit;
an image acquisition unit that acquires an image captured by the imaging unit;
an audio storage unit that stores in advance information on comparison audio for comparison with the input audio;
an image storage unit that stores in advance information on a comparison image for comparison with the image;
a dangerous word storage unit that stores information about dangerous words;
a risk level storage unit that stores risk levels associated with age, gender, and emotion;
a speech analysis unit that analyzes input speech data acquired by the speech acquisition unit, classifies text data corresponding to the input speech data into morphemes, and obtains the text data;
an image analysis unit that analyzes the data of the image acquired by the image acquisition unit and acquires the age, gender, and emotion of the person shown in the image;
a voice determination unit that determines whether the frequency of the input voice acquired by the voice acquisition unit and the frequency of the comparison voice match;
an image determination unit that determines whether the image acquired by the image acquisition unit and the comparison image stored in the image storage unit match;
If the audio determination unit determines that the frequency of the input audio and the frequency of the comparison audio do not match, and/or the image acquired by the image acquisition unit and the image stored in the image storage unit If it is determined that the comparison images do not match, the morpheme obtained by the speech analysis unit and the risk word are matched with each other, and the age, gender, and emotion obtained by the image analysis unit are associated with each other. an electronic device, comprising: a risk level determination unit that derives a risk level indicating whether or not a user of the electronic device is likely to be involved in a crime, based on the determined risk level.
JP2020012842A 2020-01-29 2020-01-29 Information processing systems and electronic equipment Active JP7408419B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020012842A JP7408419B2 (en) 2020-01-29 2020-01-29 Information processing systems and electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020012842A JP7408419B2 (en) 2020-01-29 2020-01-29 Information processing systems and electronic equipment

Publications (2)

Publication Number Publication Date
JP2021117921A JP2021117921A (en) 2021-08-10
JP7408419B2 true JP7408419B2 (en) 2024-01-05

Family

ID=77175007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020012842A Active JP7408419B2 (en) 2020-01-29 2020-01-29 Information processing systems and electronic equipment

Country Status (1)

Country Link
JP (1) JP7408419B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023152857A1 (en) * 2022-02-10 2023-08-17 日本電気株式会社 Notification assistance device, notification assistance method, and computer-readable storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133558A (en) 2000-10-27 2002-05-10 Victor Co Of Japan Ltd Communication method of monitoring signal, and communication device of monitoring signal
JP2008140346A (en) 2006-11-24 2008-06-19 Jupiter Net:Kk Radiocommunication device equipped with emergency notification function
JP2011151451A (en) 2010-01-19 2011-08-04 Nippon Telegraph & Telephone East Corp Communication content discrimination device
JP2014187645A (en) 2013-03-25 2014-10-02 Ms&Ad Research Institute Co Ltd Monitoring system, imaging apparatus, server device, monitoring method, and program
JP2016177484A (en) 2015-03-19 2016-10-06 ソフトバンク株式会社 Security system
JP2019191846A (en) 2018-04-24 2019-10-31 鎌倉インベストメント株式会社 Monitoring system
JP2019200715A (en) 2018-05-18 2019-11-21 キヤノン株式会社 Image processing apparatus, image processing method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133558A (en) 2000-10-27 2002-05-10 Victor Co Of Japan Ltd Communication method of monitoring signal, and communication device of monitoring signal
JP2008140346A (en) 2006-11-24 2008-06-19 Jupiter Net:Kk Radiocommunication device equipped with emergency notification function
JP2011151451A (en) 2010-01-19 2011-08-04 Nippon Telegraph & Telephone East Corp Communication content discrimination device
JP2014187645A (en) 2013-03-25 2014-10-02 Ms&Ad Research Institute Co Ltd Monitoring system, imaging apparatus, server device, monitoring method, and program
JP2016177484A (en) 2015-03-19 2016-10-06 ソフトバンク株式会社 Security system
JP2019191846A (en) 2018-04-24 2019-10-31 鎌倉インベストメント株式会社 Monitoring system
JP2019200715A (en) 2018-05-18 2019-11-21 キヤノン株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2021117921A (en) 2021-08-10

Similar Documents

Publication Publication Date Title
US9912490B2 (en) Method and device for deleting smart scene
US20220279116A1 (en) Object tracking method and electronic device
US20140315513A1 (en) Method for making emergency call, mobile electronic device and computer readable storage medium
WO2014169763A1 (en) Method for making emergency call, mobile electronic device and computer readable storage medium
US9064392B2 (en) Method and system for awareness detection
US8680989B2 (en) Sensor to detect an emergency event
JP6261777B2 (en) Voice prompt method, apparatus, program, and recording medium
US10334100B2 (en) Presence-based device mode modification
US10379602B2 (en) Method and device for switching environment picture
CN111243224A (en) Method and device for realizing alarm
US10334097B2 (en) Method and apparatus for disabling alarm in device, and storage medium
WO2023093742A1 (en) Operation execution method and apparatus, and electronic device and readable storage medium
KR20150124785A (en) Apparatas and method for providing a video telephony emergency call service in an electronic device
US10643457B2 (en) Event-driven safety notification based on automated incident monitoring
US11775625B2 (en) Alert task processing method, terminal, and computer-readable storage medium
CN115022457A (en) Reminding method, intelligent terminal and storage medium
CN109309762B (en) Message processing method, device, mobile terminal and storage medium
JP7408419B2 (en) Information processing systems and electronic equipment
CN108063869B (en) Safety early warning method and mobile terminal
CN111177521A (en) Method and device for determining query term classification model
US9165457B1 (en) Devices, systems, and methods for multidimensional telemetry transmission
CN106550012B (en) Monitoring method of intelligent equipment and intelligent equipment
CN105872245B (en) Message treatment method and device
JP2015061122A (en) Informing device, control method, and program
CN111210589A (en) Method and device for realizing alarm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R150 Certificate of patent or registration of utility model

Ref document number: 7408419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150