JP2023127393A - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP2023127393A
JP2023127393A JP2022031164A JP2022031164A JP2023127393A JP 2023127393 A JP2023127393 A JP 2023127393A JP 2022031164 A JP2022031164 A JP 2022031164A JP 2022031164 A JP2022031164 A JP 2022031164A JP 2023127393 A JP2023127393 A JP 2023127393A
Authority
JP
Japan
Prior art keywords
terminal device
sound
information processing
casing
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022031164A
Other languages
Japanese (ja)
Inventor
香 池松
Kaori Ikematsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2022031164A priority Critical patent/JP2023127393A/en
Publication of JP2023127393A publication Critical patent/JP2023127393A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an information processing device capable of detecting water wetting on a surface of a terminal device using sound output from a speaker and acquired by a microphone, an information processing method, and an information processing program.SOLUTION: In an information processing system 1, a server device 100 comprises: an instruction unit which issues an instruction to output sound from a speaker SK attached to a housing of a terminal device 10; a detection unit which detects a foreign matter adhering to the housing of the terminal device by using active acoustic sensing on the basis of sound acquired by a microphone MK attached to the housing of the terminal device; and a learning unit which learns characteristics of sound with the foreign matter adhering to the housing of the terminal device and constructs a model. The detection unit also detects the foreign matter adhering to the housing of the terminal device by using the model.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

腕にスピーカーとマイクを張り付けて手のジェスチャーを認識するアクティブ音響センシングの技術が開示されている。 Active acoustic sensing technology has been disclosed that recognizes hand gestures by attaching a speaker and microphone to the arm.

アクティブ音響センシングを用いた手のジェスチャー認識手法の検討,情報処理学会研究報告,2016/8/6,[2021年11月22日検索],インターネット <URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_action_common_download&item_id=171767&item_no=1&attribute_id=1&file_no=1>Study of hand gesture recognition method using active acoustic sensing, Information Processing Society of Japan Research Report, August 6, 2016, [Retrieved November 22, 2021], Internet <URL: https://ipsj.ixsq.nii. ac.jp/ej/?action=repository_action_common_download&item_id=171767&item_no=1&attribute_id=1&file_no=1>

しかしながら、上記の従来技術では、単にジェスチャーの認識を行っているに過ぎず、利用者に対して更なるサービスを提供する余地がある。例えば、近年、防水機能を備えたスマートデバイスの登場により、海やプールなど水際や、キッチンや風呂場など水回り、雨天時の屋外であっても気軽にデバイス操作が行えるようになった。しかし、静電容量式のタッチセンシングの場合、画面上に水滴が付着した状態ではタッチの誤検出(水滴の場所でタッチが発生する、水滴によりタッチ位置がずれる等)が発生することがある。 However, the above-mentioned conventional technology merely recognizes gestures, and there is room to provide further services to users. For example, in recent years, with the advent of waterproof smart devices, it has become easy to operate devices near water such as the ocean or pool, around water such as in the kitchen or bathroom, or outdoors during rainy weather. However, in the case of capacitive touch sensing, if there are water droplets on the screen, erroneous touch detection may occur (a touch may occur at the location of the water drop, the touch position may be shifted due to the water drop, etc.).

本願は、上記に鑑みてなされたものであって、スピーカーから出力しマイクで取得した音で、端末装置の表面の水濡れを検知することを目的とする。 The present application has been made in view of the above, and aims to detect water wetness on the surface of a terminal device using sound output from a speaker and acquired by a microphone.

本願に係る情報処理装置は、端末装置の筐体に取り付けたスピーカーから音を出力する命令を出す命令部と、前記端末装置の筐体に取り付けたマイクで取得した音に基づいて、アクティブ音響センシングを用いて前記端末装置の筐体の異物付着を検知する検知部と、を備えることを特徴とする。 The information processing device according to the present application includes an instruction unit that issues a command to output sound from a speaker attached to a casing of a terminal device, and an active acoustic sensing system based on sound acquired by a microphone attached to the casing of the terminal device. and a detection unit that detects foreign matter adhesion to the casing of the terminal device using the following.

実施形態の一態様によれば、スピーカーから出力しマイクで取得した音で、端末装置の表面の水濡れを検知することができる。 According to one aspect of the embodiment, water wetness on the surface of a terminal device can be detected using sound output from a speaker and acquired by a microphone.

図1は、実施形態に係る情報処理方法の概要を示す説明図である。FIG. 1 is an explanatory diagram showing an overview of an information processing method according to an embodiment. 図2は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an information processing system according to an embodiment. 図3は、実施形態に係る端末装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a terminal device according to an embodiment. 図4は、実施形態に係るサーバ装置の構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of a server device according to an embodiment. 図5は、利用者情報データベースの一例を示す図である。FIG. 5 is a diagram showing an example of a user information database. 図6は、履歴情報データベースの一例を示す図である。FIG. 6 is a diagram showing an example of a history information database. 図7は、検知情報データベースの一例を示す図である。FIG. 7 is a diagram showing an example of a detection information database. 図8は、実施形態に係る処理手順を示すフローチャートである。FIG. 8 is a flowchart showing the processing procedure according to the embodiment. 図9は、ハードウェア構成の一例を示す図である。FIG. 9 is a diagram showing an example of the hardware configuration.

以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An information processing apparatus, an information processing method, and an information processing program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the information processing apparatus, information processing method, and information processing program according to the present application are not limited to this embodiment. In addition, in the following embodiments, the same parts are given the same reference numerals, and redundant explanations will be omitted.

〔1.情報処理方法の概要〕
まず、図1を参照し、実施形態に係る情報処理装置が行う情報処理方法の概要について説明する。図1は、実施形態に係る情報処理方法の概要を示す説明図である。なお、図1では、スピーカーから出力しマイクで取得した音で、端末装置の表面の水濡れを検知する場合を例に挙げて説明する。
[1. Overview of information processing method]
First, with reference to FIG. 1, an overview of an information processing method performed by an information processing apparatus according to an embodiment will be described. FIG. 1 is an explanatory diagram showing an overview of an information processing method according to an embodiment. Note that, in FIG. 1, an example will be described in which water wetness on the surface of a terminal device is detected by sound output from a speaker and acquired by a microphone.

図1に示すように、情報処理システム1は、端末装置10とサーバ装置100とを含む。端末装置10とサーバ装置100とは、ネットワークN(図2参照)を介して有線又は無線で互いに通信可能に接続される。本実施形態では、端末装置10は、サーバ装置100と連携する。 As shown in FIG. 1, the information processing system 1 includes a terminal device 10 and a server device 100. The terminal device 10 and the server device 100 are connected to be able to communicate with each other by wire or wirelessly via a network N (see FIG. 2). In this embodiment, the terminal device 10 cooperates with the server device 100.

端末装置10は、利用者U(ユーザ)により使用されるスマートフォンやタブレット端末等のスマートデバイスであり、4G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、利用者Uから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。 The terminal device 10 is a smart device such as a smartphone or a tablet terminal used by a user U (user), and is connected to an arbitrary server device via a wireless communication network such as 4G (Generation) or LTE (Long Term Evolution). This is a mobile terminal device that can communicate. Further, the terminal device 10 has a screen such as a liquid crystal display, which has a touch panel function, and displays data such as content through a tap operation, a slide operation, a scroll operation, etc. from the user U using a finger or a stylus. Accepts various operations on. Note that an operation performed on an area of the screen where content is displayed may be an operation on the content. Further, the terminal device 10 may be not only a smart device but also an information processing device such as a desktop PC (Personal Computer) or a notebook PC.

サーバ装置100は、各利用者Uの端末装置10と連携し、各利用者Uの端末装置10に対して、各種アプリケーション(以下、アプリ)等に対するAPI(Application Programming Interface)サービス等と、各種データを提供する情報処理装置であり、コンピュータやクラウドシステム等により実現される。 The server device 100 cooperates with the terminal device 10 of each user U, and provides API (Application Programming Interface) services for various applications (hereinafter referred to as apps) and various data to the terminal device 10 of each user U. It is an information processing device that provides information, and is realized using computers, cloud systems, etc.

また、サーバ装置100は、各利用者Uの端末装置10に対して、オンラインで何らかのWebサービスを提供する情報処理装置であってもよい。例えば、サーバ装置100は、Webサービスとして、インターネット接続、検索サービス、SNS(Social Networking Service)、電子商取引(EC:Electronic Commerce)、電子決済、オンラインゲーム、オンラインバンキング、オンライントレーディング、宿泊・チケット予約、動画・音楽配信、ニュース、地図、ルート検索、経路案内、路線情報、運行情報、天気予報等のサービスを提供してもよい。実際には、サーバ装置100は、上記のようなWebサービスを提供する各種サーバと連携し、Webサービスを仲介してもよいし、Webサービスの処理を担当してもよい。 Further, the server device 100 may be an information processing device that provides some kind of web service online to the terminal device 10 of each user U. For example, the server device 100 provides web services such as Internet connection, search service, SNS (Social Networking Service), electronic commerce (EC), electronic payment, online games, online banking, online trading, accommodation/ticket reservation, Services such as video/music distribution, news, maps, route searches, route guidance, route information, operation information, weather forecasts, etc. may be provided. In reality, the server device 100 may cooperate with various servers that provide the above-mentioned Web services, mediate the Web services, or may be in charge of processing the Web services.

なお、サーバ装置100は、利用者Uに関する利用者情報を取得可能である。例えば、サーバ装置100は、利用者Uの性別、年代、居住地域といった利用者Uの属性に関する情報を取得する。そして、サーバ装置100は、利用者Uを示す識別情報(利用者ID等)とともに利用者Uの属性に関する情報を記憶して管理する。 Note that the server device 100 can acquire user information regarding the user U. For example, the server device 100 acquires information regarding user U's attributes such as user U's gender, age, and residential area. The server device 100 stores and manages identification information indicating the user U (user ID, etc.) as well as information regarding attributes of the user U.

また、サーバ装置100は、利用者Uの端末装置10から、あるいは利用者ID等に基づいて各種サーバ等から、利用者Uの行動を示す各種の履歴情報(ログデータ)を取得する。例えば、サーバ装置100は、利用者Uの位置や日時の履歴である位置履歴を端末装置10から取得する。また、サーバ装置100は、利用者Uが入力した検索クエリの履歴である検索履歴を検索サーバ(検索エンジン)から取得する。また、サーバ装置100は、利用者Uが閲覧したコンテンツの履歴である閲覧履歴をコンテンツサーバから取得する。また、サーバ装置100は、利用者Uの商品購入や決済処理の履歴である購入履歴(決済履歴)を電子商取引サーバや決済処理サーバから取得する。また、サーバ装置100は、利用者Uのマーケットプレイスへの出品の履歴である出品履歴や販売履歴を電子商取引サーバや決済処理サーバから取得してもよい。また、サーバ装置100は、利用者Uの投稿の履歴である投稿履歴を口コミの投稿サービスを提供する投稿サーバやSNSサーバから取得する。 Further, the server device 100 acquires various kinds of history information (log data) indicating the actions of the user U from the terminal device 10 of the user U or from various servers based on the user ID or the like. For example, the server device 100 acquires a location history, which is a history of user U's location, date and time, from the terminal device 10. The server device 100 also acquires a search history, which is a history of search queries input by the user U, from a search server (search engine). Additionally, the server device 100 acquires a viewing history, which is a history of content viewed by the user U, from the content server. The server device 100 also acquires a purchase history (payment history) that is a history of product purchases and payment processing by the user U from the electronic commerce server and the payment processing server. Further, the server device 100 may acquire the listing history and the sales history, which are the listing history of the user U on the marketplace, from the electronic commerce server or the payment processing server. The server device 100 also acquires a posting history, which is a history of postings by the user U, from a posting server or SNS server that provides a word-of-mouth posting service.

〔1-1.アクティブ音響センシングを用いた水濡れ検知〕
一般的に、アクティブ音響センシングの技術では、スピーカーで音響信号を発生し、マイクで反響音・筐体伝播音を音響信号として取得する。そして、取得した音響信号をFFT(Fast Fourier Transformation:高速フーリエ変換)で解析を行い、周波数帯ごとの信号強度を特徴量として機械学習する。
[1-1. Water wetness detection using active acoustic sensing]
Generally, in active acoustic sensing technology, a speaker generates an acoustic signal, and a microphone captures the reflected sound and the sound propagated through the housing as the acoustic signal. Then, the acquired acoustic signal is analyzed using FFT (Fast Fourier Transformation), and machine learning is performed using the signal strength of each frequency band as a feature quantity.

本実施形態では、サーバ装置100は、対象となる各利用者Uの端末装置10の筐体に取り付けたスピーカーから音を出力し、当該端末装置10の筐体に取り付けたマイクでその音を取得するアクティブ音響センシングを用いて、当該端末装置10の表面の水濡れ(水滴)を検知する。 In this embodiment, the server device 100 outputs sound from a speaker attached to the casing of the terminal device 10 of each target user U, and acquires the sound with a microphone attached to the casing of the terminal device 10. Wetness (water droplets) on the surface of the terminal device 10 is detected using active acoustic sensing.

図1に示すように、サーバ装置100は、ネットワークN(図2参照)を介して、各利用者Uの端末装置10の筐体に取り付けたスピーカーSKから音を出力するように命令(指示)を出す(ステップS1)。命令(指示)は、データであってもよいし、信号であってもよい。なお、スピーカーSKが端末装置10から独立している場合には、サーバ装置100は、スピーカーSKに直接、音を出力するように命令を出してもよい。 As shown in FIG. 1, the server device 100 gives an instruction (instruction) to output sound from the speaker SK attached to the housing of the terminal device 10 of each user U via the network N (see FIG. 2). (Step S1). The command (instruction) may be data or a signal. Note that if the speaker SK is independent from the terminal device 10, the server device 100 may directly issue a command to the speaker SK to output sound.

次に、利用者Uの端末装置10は、サーバ装置100からの命令を受けて、当該端末装置10の筐体に取り付けたスピーカーSKから音を出力する(ステップS2)。例えば、スピーカーSKは、アクティブ音響センシングに利用可能な振動スピーカーである。なお、スピーカーSKは筐体の表面に外付けされていてもよいし、筐体に内蔵・搭載されていてもよい。 Next, the terminal device 10 of the user U outputs sound from the speaker SK attached to the casing of the terminal device 10 in response to the command from the server device 100 (step S2). For example, speaker SK is a vibration speaker that can be used for active acoustic sensing. Note that the speaker SK may be externally attached to the surface of the casing, or may be built-in/mounted in the casing.

次に、利用者Uの端末装置10は、当該端末装置10の筐体に取り付けたマイクMKでその音を取得する(ステップS3)。例えば、マイクMKは、アクティブ音響センシングに利用可能なピエゾマイクである。なお、マイクMKは筐体の表面に外付けされていてもよいし、筐体に内蔵・搭載されていてもよい。 Next, the terminal device 10 of the user U acquires the sound using the microphone MK attached to the casing of the terminal device 10 (step S3). For example, microphone MK is a piezo microphone that can be used for active acoustic sensing. Note that the microphone MK may be externally attached to the surface of the casing, or may be built-in/mounted in the casing.

次に、利用者Uの端末装置10は、ネットワークN(図2参照)を介して、マイクMKで取得した音に関する情報をサーバ装置100へ送信する(ステップS4)。なお、マイクMKが端末装置10から独立している場合には、マイクMKが直接、取得した音に関する情報をサーバ装置100へ送信してもよい。 Next, the terminal device 10 of the user U transmits information regarding the sound acquired by the microphone MK to the server device 100 via the network N (see FIG. 2) (step S4). Note that when the microphone MK is independent from the terminal device 10, the microphone MK may directly transmit information regarding the acquired sound to the server device 100.

次に、サーバ装置100は、各利用者Uの端末装置10から、マイクMKで取得した音に関する情報を受信し、アクティブ音響センシングを用いて、当該端末装置10の筐体の水濡れを検知する(ステップS5)。端末装置10の筐体は画面DPを含む。サーバ装置100は、筐体の画面DPの水濡れを検知する。 Next, the server device 100 receives information regarding the sound acquired by the microphone MK from the terminal device 10 of each user U, and detects water wetness of the casing of the terminal device 10 using active acoustic sensing. (Step S5). The housing of the terminal device 10 includes a screen DP. The server device 100 detects water on the screen DP of the casing.

なお、サーバ装置100は、端末装置10の筐体が水濡れした状態の音の特徴(特性)と、水濡れしていない状態の音の特徴とに基づいて、端末装置10の筐体の水濡れを検知してもよい。このとき、サーバ装置100は、筐体が水濡れした状態での音の特徴を学習したモデルを構築(生成、更新)し、モデルを用いて端末装置10の筐体の水濡れを検知する。 Note that the server device 100 detects water in the casing of the terminal device 10 based on the characteristics (characteristics) of the sound when the casing of the terminal device 10 is wet and the characteristics of the sound when the casing is not wet. Wetness may also be detected. At this time, the server device 100 constructs (generates, updates) a model that has learned the characteristics of the sound when the casing is wet, and uses the model to detect whether the casing of the terminal device 10 is wet.

例えば、サーバ装置100は、端末装置10の筐体を水濡れさせた状態でスピーカーSKから出力された音(出力音)の特徴とマイクMKで取得された音(取得音)の特徴とを学習してモデルを構築する。このとき、サーバ装置100は、取得音の特徴(又は出力音の特徴と取得音の特徴との両方)を学習してモデルを構築する。あるいは、サーバ装置100は、出力音と取得音との差分を学習してモデルを構築する。 For example, the server device 100 learns the characteristics of the sound output from the speaker SK (output sound) and the characteristics of the sound acquired by the microphone MK (obtained sound) when the housing of the terminal device 10 is wet with water. and build the model. At this time, the server device 100 learns the characteristics of the acquired sound (or both the characteristics of the output sound and the characteristics of the acquired sound) and constructs a model. Alternatively, the server device 100 constructs a model by learning the difference between the output sound and the acquired sound.

サーバ装置100は、端末装置10の筐体の所定の箇所(場所、部分、部位)が水濡れした状態の取得音の特徴(又は出力音と取得音の差分の特徴)を学習することで、どの箇所が濡れているかを示すモデルを構築してもよい。例えば、サーバ装置100は、取得音を入力した際に、端末装置10の筐体のどの箇所(背面、画面、マイク部分、スピーカー部分、充電コネクタ部分等)が濡れているかを示す情報を出力するモデルを構築してもよい。 The server device 100 learns the characteristics of the acquired sound (or the characteristics of the difference between the output sound and the acquired sound) when a predetermined location (location, part, part) of the housing of the terminal device 10 is wet. A model may be built that shows which areas are wet. For example, when the acquired sound is input, the server device 100 outputs information indicating which part of the housing of the terminal device 10 (back surface, screen, microphone part, speaker part, charging connector part, etc.) is wet. You can also build a model.

このとき、サーバ装置100は、端末装置10の種別(機種、サイズ等)ごとに学習してモデルを構築してもよい。また、サーバ装置100は、端末装置10の周辺機器やパーツ又はアクセサリ(カバーやリング等)ごとに学習してモデルを構築してもよい。 At this time, the server device 100 may learn and build a model for each type of terminal device 10 (model, size, etc.). Further, the server device 100 may learn and build a model for each peripheral device, part, or accessory (cover, ring, etc.) of the terminal device 10.

また、サーバ装置100は、端末装置10の筐体の水濡れの検知結果に基づいて、端末装置10の筐体のタッチパネル等の接触の判定に関する閾値を変化させてもよい。また、サーバ装置100は、端末装置10の筐体の水濡れの検知結果に基づいて、端末装置10における操作が有効か無効かを判定してもよい。このように、スマートデバイス上でアクティブ音響センシング技術を用いて、水滴の付着(水滴が付着している状態)を検出することでタッチ誤操作を軽減する。水滴が付着している場合には、タッチ感度の閾値を変更し、水滴によって生じ得るようなシグナルではタッチ入力を検出しないようにする。また、水滴は広がるが指は水滴ほど形が変化しないため、タッチ感度に加えて、接触面積の値に閾値を設けてもよい。 Further, the server device 100 may change a threshold value regarding determination of contact with a touch panel or the like of the casing of the terminal device 10 based on the detection result of water wetting of the casing of the terminal device 10 . Further, the server device 100 may determine whether the operation on the terminal device 10 is valid or invalid based on the detection result of water wetness of the casing of the terminal device 10. In this way, by using active acoustic sensing technology on a smart device to detect the adhesion of water droplets (a state in which water droplets are attached), erroneous touch operations can be reduced. If water droplets are present, the touch sensitivity threshold is changed so that the touch input is not detected by signals such as those caused by water droplets. Further, since a water droplet spreads, but the shape of a finger does not change as much as a water droplet, a threshold value may be provided for the value of the contact area in addition to the touch sensitivity.

また、サーバ装置100は、各利用者Uの端末装置10において「謎のタッチがある」及び「水濡れの検知(水滴検知)がなされている」という結果から、「水濡れだから、操作をキャンセルする」等の制御を行ってもよい。 In addition, the server device 100 receives the result that "there is a mysterious touch" and "water wetness is detected (water droplet detection)" on the terminal device 10 of each user U. You may also perform a control such as "

また、サーバ装置100は、ネットワークN(図2参照)を介して、各利用者Uの端末装置10の筐体の水濡れの検知結果に関する情報を、検知対象の端末装置10(又はその端末装置と通信中の相手側の端末装置10)に提供する。 In addition, the server device 100 transmits information regarding the detection result of water wetness of the casing of the terminal device 10 of each user U via the network N (see FIG. 2) to the terminal device 10 to be detected (or the terminal device thereof). and the other party's terminal device 10) that is communicating with the other party.

また、サーバ装置100は、端末装置10の表面の水濡れ(水滴)に限らず、端末装置10の表面の汚れ(粉塵、油膜、気泡等)を検知してもよい。このとき、サーバ装置100は、水濡れの状態の音の特徴と、汚れの状態の音の特徴を学習したモデルを構築し、モデルを用いて水濡れか汚れかを判定してもよい。 Further, the server device 100 may detect not only water wetting (water droplets) on the surface of the terminal device 10 but also dirt (dust, oil film, air bubbles, etc.) on the surface of the terminal device 10. At this time, the server device 100 may construct a model that has learned the sound characteristics of a wet state and the sound characteristics of a dirty state, and use the model to determine whether the object is wet or dirty.

また、空気中から伝わる音も、右手左手等の特徴になる。そこで、サーバ装置100は、空気中から伝わる音から、右手左手等の特徴を学習したモデルを構築し、モデルを用いて、利用者Uが端末装置10を右手で触っているのか、左手で触っているのかを判定してもよい。 In addition, the sound transmitted through the air also becomes a characteristic of the right hand, left hand, etc. Therefore, the server device 100 constructs a model that learns characteristics such as right and left hands from sounds transmitted through the air, and uses the model to determine whether the user U is touching the terminal device 10 with the right hand or with the left hand. It may also be possible to determine whether

このように、本実施形態では、対象となる利用者Uの端末装置10の筐体に、所定の波長の音を含む出力音を出力可能なスピーカーSKと、当該スピーカーSKが出力した出力音を取得可能なマイクMKとを取り付ける。そして、サーバ装置100が、当該マイクMKが取得した取得音が有する特性に応じて、当該筐体における水濡れを検知する。これにより、サーバ装置100は、利用者Uの端末装置10の表面の水濡れを検知することができ、不審な操作の原因が水濡れのせいである等を判定することができるようになる。また、サーバ装置100は、例えば利用者Uが肉眼で確認(視認)できない水滴や、利用者Uが気づいていない水滴等を検知できるようになる。 As described above, in the present embodiment, the housing of the terminal device 10 of the target user U includes a speaker SK capable of outputting an output sound including sound of a predetermined wavelength, and an output sound output from the speaker SK. Attach an available microphone MK. Then, the server device 100 detects water wetting in the casing according to the characteristics of the sound acquired by the microphone MK. Thereby, the server device 100 can detect water wetness on the surface of the terminal device 10 of the user U, and can determine whether the suspicious operation is due to water wetness. Further, the server device 100 can detect, for example, water droplets that the user U cannot see (visually recognize) with the naked eye, water droplets that the user U is not aware of, and the like.

なお、実際には、上記の実施形態において、サーバ装置100の代わりに、他の端末装置10や、対象となる利用者Uの端末装置10自体を用いてもよい。すなわち、処置の主体はサーバ装置100に限らず、他の端末装置10や、対象となる利用者Uの端末装置10自体が、アクティブ音響センシングを用いて、利用者Uの端末装置10の表面の水濡れを検知してもよい。 In addition, in the above-mentioned embodiment, other terminal devices 10 or the terminal device 10 itself of the target user U may be used instead of the server device 100. That is, the subject of the treatment is not limited to the server device 100, but also other terminal devices 10 or the target user U's terminal device 10 itself, using active acoustic sensing to detect the surface of the user U's terminal device 10. Water wetness may also be detected.

例えば、他の端末装置10は、利用者Uの端末装置10の筐体に取り付けたスピーカーSKから音を出力し、利用者Uの端末装置10の筐体に取り付けたマイクMKでその音を取得するアクティブ音響センシングを用いて、利用者Uの端末装置10の表面の水濡れを検知する。これにより、他の端末装置10は、利用者Uの端末装置10の表面の水濡れを検知することができ、利用者Uの端末装置10からの不審な通信内容の原因が水濡れのせいである等を判定することができるようになる。 For example, the other terminal device 10 outputs sound from a speaker SK attached to the casing of user U's terminal device 10, and acquires the sound with a microphone MK attached to the casing of user U's terminal device 10. Wetness of the surface of the terminal device 10 of the user U is detected using active acoustic sensing. As a result, other terminal devices 10 can detect water wetness on the surface of user U's terminal device 10, and can determine whether the suspicious communication content from user U's terminal device 10 is due to water wetness. You will be able to determine whether there is any such thing.

また、利用者Uの端末装置10は、当該端末装置10の筐体に取り付けたスピーカーSKから音を出力し、当該端末装置10の筐体に取り付けたマイクMKでその音を取得するアクティブ音響センシングを用いて、当該端末装置10の表面の水濡れを検知する。これにより、利用者Uの端末装置10は、当該端末装置10の表面の水濡れについて自己診断を行うことができるようになる。また、利用者Uの端末装置10は、例えば利用者Uが肉眼で確認(視認)できない水滴や、利用者Uが気づいていない水滴等を検知できるようになる。 In addition, the terminal device 10 of the user U performs active acoustic sensing in which the speaker SK attached to the casing of the terminal device 10 outputs sound and the microphone MK attached to the casing of the terminal device 10 acquires the sound. is used to detect water wetness on the surface of the terminal device 10. This allows the terminal device 10 of the user U to self-diagnose whether the surface of the terminal device 10 is wet with water. Further, the terminal device 10 of the user U can detect, for example, water droplets that the user U cannot see (visually recognize) with the naked eye, water droplets that the user U is not aware of, and the like.

〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係るサーバ装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、端末装置10とサーバ装置100とを含む。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Configuration example of information processing system]
Next, the configuration of the information processing system 1 including the server device 100 according to the embodiment will be described using FIG. 2. FIG. 2 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. As shown in FIG. 2, the information processing system 1 according to the embodiment includes a terminal device 10 and a server device 100. These various devices are connected via a network N so that they can communicate by wire or wirelessly. The network N is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet.

また、図2に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図2では、図示の簡略化のため、端末装置10を1台のみ示したが、これはあくまでも例示であって限定されるものではなく、2台以上であってもよい。 Furthermore, the number of devices included in the information processing system 1 shown in FIG. 2 is not limited to what is illustrated. For example, in FIG. 2, only one terminal device 10 is shown for simplification of illustration, but this is just an example and is not limited, and there may be two or more terminal devices.

端末装置10は、利用者Uによって使用される情報処理装置である。例えば、端末装置10は、スマートフォンやタブレット端末等のスマートデバイス、フィーチャーフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、通信機能を備えたゲーム機やAV機器、カーナビゲーションシステム、スマートウォッチやヘッドマウントディスプレイ等のウェアラブルデバイス(Wearable Device)、スマートグラス等である。 The terminal device 10 is an information processing device used by the user U. For example, the terminal device 10 may be a smart device such as a smartphone or a tablet terminal, a feature phone, a PC (Personal Computer), a PDA (Personal Digital Assistant), a game console or AV device with a communication function, a car navigation system, a smart watch, or the like. These include wearable devices such as head-mounted displays, smart glasses, etc.

また、かかる端末装置10は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、サーバ装置100と通信することができる。 The terminal device 10 also supports wireless communication networks such as LTE (Long Term Evolution), 4G (4th Generation), and 5G (5th Generation), Bluetooth (registered trademark), and wireless LAN (Local The server device 100 can be connected to the network N via short-range wireless communication such as an area network) and can communicate with the server device 100.

サーバ装置100は、例えばPCやブレードサーバ(blade server)等のコンピュータ、あるいはメインフレーム又はワークステーション等である。なお、サーバ装置100は、クラウドコンピューティングにより実現されてもよい。 The server device 100 is, for example, a computer such as a PC or a blade server, or a mainframe or a workstation. Note that the server device 100 may be realized by cloud computing.

〔3.端末装置の構成例〕
次に、図3を用いて、端末装置10の構成について説明する。図3は、端末装置10の構成例を示す図である。図3に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
[3. Configuration example of terminal device]
Next, the configuration of the terminal device 10 will be explained using FIG. 3. FIG. 3 is a diagram showing a configuration example of the terminal device 10. As shown in FIG. As shown in FIG. 3, the terminal device 10 includes a communication section 11, a display section 12, an input section 13, a positioning section 14, a sensor section 20, a control section 30 (controller), and a storage section 40. Be prepared.

(通信部11)
通信部11は、ネットワークN(図2参照)と有線又は無線で接続され、ネットワークNを介して、サーバ装置100との間で情報の送受信を行う。例えば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
(Communication Department 11)
The communication unit 11 is connected to a network N (see FIG. 2) by wire or wirelessly, and transmits and receives information to and from the server device 100 via the network N. For example, the communication unit 11 is realized by a NIC (Network Interface Card), an antenna, or the like.

(表示部12)
表示部12は、位置情報等の各種情報を表示する表示デバイスである。例えば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、タッチパネル式のディスプレイであるが、これに限定されるものではない。
(Display section 12)
The display unit 12 is a display device that displays various information such as position information. For example, the display unit 12 is a liquid crystal display (LCD) or an organic electro-luminescent display (EL display). Further, the display unit 12 is a touch panel type display, but is not limited to this.

(入力部13)
入力部13は、利用者Uから各種操作を受け付ける入力デバイスである。例えば、入力部13は、文字や数字等を入力するためのボタン等を有する。なお、入力部13は、入出力ポート(I/O port)やUSB(Universal Serial Bus)ポート等であってもよい。また、表示部12がタッチパネル式のディスプレイである場合、表示部12の一部が入力部13として機能する。また、入力部13は、利用者Uから音声入力を受け付けるマイク等であってもよい。マイクはワイヤレスであってもよい。
(Input section 13)
The input unit 13 is an input device that receives various operations from the user U. For example, the input unit 13 includes buttons for inputting characters, numbers, and the like. Note that the input unit 13 may be an input/output port (I/O port), a USB (Universal Serial Bus) port, or the like. Further, when the display section 12 is a touch panel display, a part of the display section 12 functions as the input section 13. Further, the input unit 13 may be a microphone or the like that receives voice input from the user U. The microphone may be wireless.

(測位部14)
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(例えば、緯度及び経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは、GNSS(Global Navigation Satellite System)の一例に過ぎない。
(Positioning unit 14)
The positioning unit 14 receives a signal (radio wave) sent from a GPS (Global Positioning System) satellite, and based on the received signal, determines position information (for example, latitude and longitude). That is, the positioning unit 14 positions the terminal device 10 . Note that GPS is just one example of GNSS (Global Navigation Satellite System).

また、測位部14は、GPS以外にも、種々の手法により位置を測位することができる。例えば、測位部14は、位置補正等のための補助的な測位手段として、下記のように、端末装置10の様々な通信機能を利用して位置を測位してもよい。 Further, the positioning unit 14 can measure the position using various methods other than GPS. For example, the positioning unit 14 may use various communication functions of the terminal device 10 to measure the position as an auxiliary positioning means for position correction and the like, as described below.

(Wi-Fi測位)
例えば、測位部14は、端末装置10のWi-Fi(登録商標)通信機能や、各通信会社が備える通信網を利用して、端末装置10の位置を測位する。具体的には、測位部14は、Wi-Fi通信等を行い、付近の基地局やアクセスポイントとの距離を測位することにより、端末装置10の位置を測位する。
(Wi-Fi positioning)
For example, the positioning unit 14 positions the terminal device 10 using the Wi-Fi (registered trademark) communication function of the terminal device 10 or the communication network provided by each communication company. Specifically, the positioning unit 14 performs Wi-Fi communication, etc., and determines the position of the terminal device 10 by measuring the distance to nearby base stations and access points.

(ビーコン測位)
また、測位部14は、端末装置10のBluetooth(登録商標)機能を利用して位置を測位してもよい。例えば、測位部14は、Bluetooth(登録商標)機能によって接続されるビーコン(beacon)発信機と接続することにより、端末装置10の位置を測位する。
(Beacon positioning)
Further, the positioning unit 14 may use the Bluetooth (registered trademark) function of the terminal device 10 to measure the position. For example, the positioning unit 14 measures the position of the terminal device 10 by connecting to a beacon transmitter connected by a Bluetooth (registered trademark) function.

(地磁気測位)
また、測位部14は、予め測定された構造物の地磁気のパターンと、端末装置10が備える地磁気センサとに基づいて、端末装置10の位置を測位する。
(geomagnetic positioning)
Furthermore, the positioning unit 14 positions the terminal device 10 based on the geomagnetic pattern of the structure measured in advance and the geomagnetic sensor included in the terminal device 10 .

(RFID測位)
また、例えば、端末装置10が駅改札や店舗等で使用される非接触型ICカードと同等のRFID(Radio Frequency Identification)タグの機能を備えている場合、もしくはRFIDタグを読み取る機能を備えている場合、端末装置10によって決済等が行われた情報とともに、使用された位置が記録される。測位部14は、かかる情報を取得することで、端末装置10の位置を測位してもよい。また、位置は、端末装置10が備える光学式センサや、赤外線センサ等によって測位されてもよい。
(RFID positioning)
Further, for example, if the terminal device 10 has an RFID (Radio Frequency Identification) tag function equivalent to a contactless IC card used at station ticket gates, stores, etc., or has a function to read an RFID tag. In this case, the location where the terminal device 10 used the terminal device 10 is recorded together with the information that the payment was made. The positioning unit 14 may measure the position of the terminal device 10 by acquiring such information. Further, the position may be determined by an optical sensor, an infrared sensor, or the like provided in the terminal device 10.

測位部14は、必要に応じて、上述した測位手段の一つ又は組合せを用いて、端末装置10の位置を測位してもよい。 The positioning unit 14 may position the terminal device 10 using one or a combination of the above-mentioned positioning means, if necessary.

(センサ部20)
センサ部20は、端末装置10に搭載又は接続される各種のセンサを含む。なお、接続は、有線接続、無線接続を問わない。例えば、センサ類は、ウェアラブルデバイスやワイヤレスデバイス等、端末装置10以外の検知装置であってもよい。図3に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、磁気センサ27と、画像センサ(カメラ)28とを備える。
(sensor section 20)
The sensor unit 20 includes various sensors mounted on or connected to the terminal device 10. Note that the connection may be a wired connection or a wireless connection. For example, the sensors may be a detection device other than the terminal device 10, such as a wearable device or a wireless device. In the example shown in FIG. 3, the sensor unit 20 includes an acceleration sensor 21, a gyro sensor 22, an atmospheric pressure sensor 23, an air temperature sensor 24, a sound sensor 25, an optical sensor 26, a magnetic sensor 27, and an image sensor ( camera) 28.

なお、上記した各センサ21~28は、あくまでも例示であって限定されるものではない。すなわち、センサ部20は、各センサ21~28のうちの一部を備える構成であってもよいし、各センサ21~28に加えてあるいは代えて、湿度センサ等その他のセンサを備えてもよい。 Note that each of the sensors 21 to 28 described above is merely an example and is not limited to the above. That is, the sensor section 20 may be configured to include a portion of each of the sensors 21 to 28, or may include other sensors such as a humidity sensor in addition to or instead of each of the sensors 21 to 28. .

加速度センサ21は、例えば、3軸加速度センサであり、端末装置10の移動方向、速度、及び、加速度等の端末装置10の物理的な動きを検知する。ジャイロセンサ22は、端末装置10の角速度等に基づいて3軸方向の傾き等の端末装置10の物理的な動きを検知する。気圧センサ23は、例えば端末装置10の周囲の気圧を検知する。 The acceleration sensor 21 is, for example, a three-axis acceleration sensor, and detects the physical movement of the terminal device 10, such as the moving direction, speed, and acceleration of the terminal device 10. The gyro sensor 22 detects physical movements of the terminal device 10 such as tilt in three axes directions based on the angular velocity of the terminal device 10 and the like. The atmospheric pressure sensor 23 detects the atmospheric pressure around the terminal device 10, for example.

端末装置10は、上記した加速度センサ21やジャイロセンサ22、気圧センサ23等を備えることから、これらの各センサ21~23等を利用した歩行者自律航法(PDR:Pedestrian Dead-Reckoning)等の技術を用いて端末装置10の位置を測位することが可能になる。これにより、GPS等の測位システムでは取得することが困難な屋内での位置情報を取得することが可能になる。 Since the terminal device 10 is equipped with the above-mentioned acceleration sensor 21, gyro sensor 22, atmospheric pressure sensor 23, etc., it is possible to implement technologies such as pedestrian autonomous navigation (PDR) using these sensors 21 to 23, etc. It becomes possible to measure the position of the terminal device 10 using the . This makes it possible to obtain indoor position information that is difficult to obtain using positioning systems such as GPS.

例えば、加速度センサ21を利用した歩数計により、歩数や歩くスピード、歩いた距離を算出することができる。また、ジャイロセンサ22を利用して、利用者Uの進行方向や視線の方向、体の傾きを知ることができる。また、気圧センサ23で検知した気圧から、利用者Uの端末装置10が存在する高度やフロアの階数を知ることもできる。 For example, a pedometer using the acceleration sensor 21 can calculate the number of steps, walking speed, and distance walked. Furthermore, by using the gyro sensor 22, it is possible to know the direction of travel of the user U, the direction of the line of sight, and the inclination of the user's body. Further, from the atmospheric pressure detected by the atmospheric pressure sensor 23, it is also possible to know the altitude and the number of floors where the terminal device 10 of the user U is located.

気温センサ24は、例えば端末装置10の周囲の気温を検知する。音センサ25は、例えば端末装置10の周囲の音を検知する。光センサ26は、端末装置10の周囲の照度を検知する。磁気センサ27は、例えば端末装置10の周囲の地磁気を検知する。画像センサ28は、端末装置10の周囲の画像を撮像する。 The temperature sensor 24 detects, for example, the temperature around the terminal device 10. The sound sensor 25 detects, for example, sounds around the terminal device 10. The optical sensor 26 detects the illuminance around the terminal device 10 . The magnetic sensor 27 detects, for example, the earth's magnetism around the terminal device 10. The image sensor 28 captures an image of the surroundings of the terminal device 10.

上記した気圧センサ23、気温センサ24、音センサ25、光センサ26及び画像センサ28は、それぞれ気圧、気温、音、照度を検知したり、周囲の画像を撮像したりすることで、端末装置10の周囲の環境や状況等を検知することができる。また、端末装置10の周囲の環境や状況等から、端末装置10の位置情報の精度を向上させることが可能になる。 The above-mentioned atmospheric pressure sensor 23, temperature sensor 24, sound sensor 25, optical sensor 26, and image sensor 28 each detect atmospheric pressure, temperature, sound, and illuminance, and capture images of the surroundings, so that the terminal device 10 It is possible to detect the surrounding environment and situation. Furthermore, it is possible to improve the accuracy of the location information of the terminal device 10 based on the environment and situation around the terminal device 10.

(制御部30)
制御部30は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路等のハードウェアで構成されてもよい。制御部30は、送信部31と、受信部32と、処理部33とを備える。
(Control unit 30)
The control unit 30 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM, an input/output port, etc., and various circuits. Further, the control unit 30 may be configured with hardware such as an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control section 30 includes a transmitting section 31, a receiving section 32, and a processing section 33.

(送信部31)
送信部31は、例えば入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載又は接続された各センサ21~28によって検知された各種情報、測位部14によって測位された端末装置10の位置情報等を、通信部11を介してサーバ装置100へ送信することができる。
(Transmission unit 31)
The transmitting unit 31 receives, for example, various information input by the user U using the input unit 13, various information detected by the sensors 21 to 28 mounted on or connected to the terminal device 10, and information measured by the positioning unit 14. The location information of the terminal device 10 and the like can be transmitted to the server device 100 via the communication unit 11.

(受信部32)
受信部32は、通信部11を介して、サーバ装置100から提供される各種情報や、サーバ装置100からの各種情報の要求を受信することができる。
(Receiving unit 32)
The receiving unit 32 can receive various information provided from the server device 100 and requests for various information from the server device 100 via the communication unit 11 .

(処理部33)
処理部33は、表示部12等を含め、端末装置10全体を制御する。例えば、処理部33は、送信部31によって送信される各種情報や、受信部32によって受信されたサーバ装置100からの各種情報を表示部12へ出力して表示させることができる。
(Processing unit 33)
The processing unit 33 controls the entire terminal device 10, including the display unit 12 and the like. For example, the processing unit 33 can output various information transmitted by the transmitting unit 31 and various information received from the server device 100 by the receiving unit 32 to the display unit 12 for display.

本実施形態では、処理部33は、端末装置10の筐体に取り付けたスピーカーSKから音(出力音)を出力し、端末装置10の筐体に取り付けたマイクMKで音(取得音)を取得する。このとき、処理部33は、受信部32がサーバ装置100や他の端末装置10から受信したスピーカーSKから音を出力する旨の命令に応じて、スピーカーSKから音を出力してもよい。また、処理部33は、送信部31からサーバ装置100や他の端末装置10へ、マイクMKで取得した音に関する情報を送信してもよい。 In the present embodiment, the processing unit 33 outputs sound (output sound) from the speaker SK attached to the casing of the terminal device 10, and acquires the sound (obtained sound) with the microphone MK attached to the casing of the terminal device 10. do. At this time, the processing unit 33 may output sound from the speaker SK in response to a command to output sound from the speaker SK received by the receiving unit 32 from the server device 100 or another terminal device 10. Further, the processing unit 33 may transmit information regarding the sound acquired by the microphone MK from the transmitting unit 31 to the server device 100 or other terminal device 10.

(記憶部40)
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データ等が記憶される。
(Storage unit 40)
The storage unit 40 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an optical disk. Ru. The storage unit 40 stores various programs, various data, and the like.

〔4.サーバ装置の構成例〕
次に、図4を用いて、実施形態に係るサーバ装置100の構成について説明する。図4は、実施形態に係るサーバ装置100の構成例を示す図である。図4に示すように、サーバ装置100は、通信部110と、記憶部120と、制御部130とを有する。
[4. Configuration example of server device]
Next, the configuration of the server device 100 according to the embodiment will be described using FIG. 4. FIG. 4 is a diagram showing a configuration example of the server device 100 according to the embodiment. As shown in FIG. 4, the server device 100 includes a communication section 110, a storage section 120, and a control section 130.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークN(図2参照)と有線又は無線で接続される。
(Communication Department 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). Further, the communication unit 110 is connected to the network N (see FIG. 2) by wire or wirelessly.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD、SSD、光ディスク等の記憶装置によって実現される。図4に示すように、記憶部120は、利用者情報データベース121と、履歴情報データベース122と、検知情報データベース123とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as an HDD, an SSD, or an optical disk. As shown in FIG. 4, the storage unit 120 includes a user information database 121, a history information database 122, and a detection information database 123.

(利用者情報データベース121)
利用者情報データベース121は、利用者Uに関する利用者情報を記憶する。例えば、利用者情報データベース121は、利用者Uの属性等の種々の情報を記憶する。図5は、利用者情報データベース121の一例を示す図である。図5に示した例では、利用者情報データベース121は、「利用者ID(Identifier)」、「年齢」、「性別」、「自宅」、「勤務地」、「興味」といった項目を有する。
(User information database 121)
The user information database 121 stores user information regarding the user U. For example, the user information database 121 stores various information such as user U's attributes. FIG. 5 is a diagram showing an example of the user information database 121. In the example shown in FIG. 5, the user information database 121 has items such as "user ID (identifier),""age,""gender,""home,""worklocation," and "interest."

「利用者ID」は、利用者Uを識別するための識別情報を示す。なお、「利用者ID」は、利用者Uの連絡先(電話番号、メールアドレス等)であってもよいし、利用者Uの端末装置10を識別するための識別情報であってもよい。 “User ID” indicates identification information for identifying user U. Note that the "user ID" may be user U's contact information (telephone number, email address, etc.), or may be identification information for identifying user U's terminal device 10.

また、「年齢」は、利用者IDにより識別される利用者Uの年齢を示す。なお、「年齢」は、利用者Uの具体的な年齢(例えば35歳など)を示す情報であってもよいし、利用者Uの年代(例えば30代など)を示す情報であってもよい。あるいは、「年齢」は、利用者Uの生年月日を示す情報であってもよいし、利用者Uの世代(例えば80年代生まれなど)を示す情報であってもよい。また、「性別」は、利用者IDにより識別される利用者Uの性別を示す。 Moreover, "age" indicates the age of the user U identified by the user ID. Note that the "age" may be information indicating the specific age of the user U (for example, 35 years old, etc.), or may be information indicating the age of the user U (for example, 30s, etc.) . Alternatively, the "age" may be information indicating the date of birth of the user U, or may be information indicating the generation of the user U (for example, born in the 1980s). Furthermore, “gender” indicates the gender of the user U identified by the user ID.

また、「自宅」は、利用者IDにより識別される利用者Uの自宅の位置情報を示す。なお、図5に示す例では、「自宅」は、「LC11」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。 Moreover, "home" indicates the location information of the home of the user U identified by the user ID. In the example shown in FIG. 5, "home" is illustrated as an abstract code such as "LC11", but it may also be latitude and longitude information. Furthermore, for example, "home" may be a region name or address.

また、「勤務地」は、利用者IDにより識別される利用者Uの勤務地(学生の場合は学校)の位置情報を示す。なお、図5に示す例では、「勤務地」は、「LC12」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「勤務地」は、地域名や住所であってもよい。 Moreover, "work place" indicates the location information of the work place (school in the case of a student) of the user U identified by the user ID. In the example shown in FIG. 5, the "work location" is illustrated as an abstract code such as "LC12", but it may also be latitude/longitude information or the like. Further, for example, the "work location" may be a region name or address.

また、「興味」は、利用者IDにより識別される利用者Uの興味を示す。すなわち、「興味」は、利用者IDにより識別される利用者Uが関心の高い対象を示す。例えば、「興味」は、利用者Uが検索エンジンに入力して検索した検索クエリ(キーワード)等であってもよい。なお、図5に示す例では、「興味」は、各利用者Uに1つずつ図示するが、複数であってもよい。 Moreover, "interest" indicates the interest of the user U identified by the user ID. That is, "interest" indicates an object in which the user U identified by the user ID has a high interest. For example, "interest" may be a search query (keyword) that the user U inputs into a search engine. In the example shown in FIG. 5, one "interest" is shown for each user U, but there may be a plurality of "interests".

例えば、図5に示す例において、利用者ID「U1」により識別される利用者Uの年齢は、「20代」であり、性別は、「男性」であることを示す。また、例えば、利用者ID「U1」により識別される利用者Uは、自宅が「LC11」であることを示す。また、例えば、利用者ID「U1」により識別される利用者Uは、勤務地が「LC12」であることを示す。また、例えば、利用者ID「U1」により識別される利用者Uは、「スポーツ」に興味があることを示す。 For example, in the example shown in FIG. 5, the age of the user U identified by the user ID "U1" is "20s", and the gender is "male". Further, for example, the user U identified by the user ID "U1" indicates that his home is "LC11". Further, for example, the user U identified by the user ID "U1" indicates that the work location is "LC12". Further, for example, the user U identified by the user ID "U1" indicates that he is interested in "sports."

ここで、図5に示す例では、「U1」、「LC11」及び「LC12」といった抽象的な値を用いて図示するが、「U1」、「LC11」及び「LC12」には、具体的な文字列や数値等の情報が記憶されるものとする。以下、他の情報に関する図においても、抽象的な値を図示する場合がある。 Here, in the example shown in FIG. 5, abstract values such as "U1", "LC11", and "LC12" are used for illustration, but "U1", "LC11", and "LC12" have specific values. It is assumed that information such as character strings and numerical values is stored. Below, abstract values may be illustrated in diagrams related to other information as well.

なお、利用者情報データベース121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、利用者情報データベース121は、利用者Uの端末装置10に関する各種情報を記憶してもよい。また、利用者情報データベース121は、利用者Uのデモグラフィック(人口統計学的属性)、サイコグラフィック(心理学的属性)、ジオグラフィック(地理学的属性)、ベヘイビオラル(行動学的属性)等の属性に関する情報を記憶してもよい。例えば、利用者情報データベース121は、氏名、家族構成、出身地(地元)、職業、職位、収入、資格、居住形態(戸建、マンション等)、車の有無、通学・通勤時間、通学・通勤経路、定期券区間(駅、路線等)、利用頻度の高い駅(自宅・勤務地の最寄駅以外)、習い事(場所、時間帯等)、趣味、興味、ライフスタイル等の情報を記憶してもよい。 Note that the user information database 121 is not limited to the above, and may store various information depending on the purpose. For example, the user information database 121 may store various information regarding the terminal device 10 of the user U. In addition, the user information database 121 includes information such as demographic (demographic attributes), psychographic (psychological attributes), geographic (geographical attributes), behavioral (behavioral attributes), etc. of user U. Information regarding attributes may also be stored. For example, the user information database 121 includes name, family composition, place of birth (locality), occupation, position, income, qualifications, type of residence (single-family house, condominium, etc.), presence or absence of a car, commuting/commuting time, commuting/commuting, etc. Memorizes information such as routes, commuter pass sections (stations, lines, etc.), frequently used stations (other than the stations closest to your home or work), lessons (location, time zone, etc.), hobbies, interests, lifestyle, etc. You can.

(履歴情報データベース122)
履歴情報データベース122は、利用者Uの行動を示す履歴情報(ログデータ)に関する各種情報を記憶する。図6は、履歴情報データベース122の一例を示す図である。図6に示した例では、履歴情報データベース122は、「利用者ID」、「位置履歴」、「検索履歴」、「閲覧履歴」、「購入履歴」、「投稿履歴」といった項目を有する。
(History information database 122)
The history information database 122 stores various information related to history information (log data) indicating the actions of the user U. FIG. 6 is a diagram showing an example of the history information database 122. In the example shown in FIG. 6, the history information database 122 includes items such as "user ID,""locationhistory,""searchhistory,""browsinghistory,""purchasehistory," and "posting history."

「利用者ID」は、利用者Uを識別するための識別情報を示す。また、「位置履歴」は、利用者Uの位置や移動の履歴である位置履歴を示す。また、「検索履歴」は、利用者Uが入力した検索クエリの履歴である検索履歴を示す。また、「閲覧履歴」は、利用者Uが閲覧したコンテンツの履歴である閲覧履歴を示す。また、「購入履歴」は、利用者Uによる購入の履歴である購入履歴を示す。また、「投稿履歴」は、利用者Uによる投稿の履歴である投稿履歴を示す。なお、「投稿履歴」は、利用者Uの所有物に関する質問を含んでいてもよい。 “User ID” indicates identification information for identifying user U. Further, “position history” indicates a position history that is a history of the user U's position and movement. Further, “search history” indicates a search history that is a history of search queries input by the user U. In addition, “browsing history” indicates a browsing history that is a history of contents that the user U has viewed. Moreover, "purchase history" indicates a purchase history that is a history of purchases by user U. Moreover, "posting history" indicates a posting history that is a history of postings by user U. Note that the "posting history" may include questions regarding user U's belongings.

例えば、図6に示す例において、利用者ID「U1」により識別される利用者Uは、「位置履歴#1」の通りに移動し、「検索履歴#1」の通りに検索し、「閲覧履歴#1」の通りにコンテンツを閲覧し、「購入履歴#1」の通りに所定の店舗等で所定の商品等を購入し、「投稿履歴」の通りに投稿したことを示す。 For example, in the example shown in FIG. 6, user U identified by user ID "U1" moves as per "location history #1", searches as per "search history #1", and searches as per "view history #1". This indicates that the content was viewed according to "history #1", a predetermined product, etc. was purchased at a predetermined store etc. according to "purchase history #1", and the content was posted according to "posting history".

ここで、図6に示す例では、「U1」、「位置履歴#1」、「検索履歴#1」、「閲覧履歴#1」、「購入履歴#1」及び「投稿履歴#1」といった抽象的な値を用いて図示するが、「U1」、「位置履歴#1」、「検索履歴#1」、「閲覧履歴#1」、「購入履歴#1」及び「投稿履歴#1」には、具体的な文字列や数値等の情報が記憶されるものとする。 Here, in the example shown in FIG. 6, abstracts such as "U1", "location history #1", "search history #1", "browsing history #1", "purchase history #1" and "posting history #1" are used. Although the figures are illustrated using ``U1'', ``Location history #1'', ``Search history #1'', ``Browsing history #1'', ``Purchase history #1'' and ``Posting history #1'', It is assumed that information such as specific character strings and numerical values is stored.

なお、履歴情報データベース122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、履歴情報データベース122は、利用者Uの所定のサービスの利用履歴等を記憶してもよい。また、履歴情報データベース122は、利用者Uの実店舗の来店履歴又は施設の訪問履歴等を記憶してもよい。また、履歴情報データベース122は、利用者Uの端末装置10を用いた決済(電子決済)での決済履歴等を記憶してもよい。 Note that the history information database 122 is not limited to the above, and may store various information depending on the purpose. For example, the history information database 122 may store the user U's usage history of a predetermined service. Further, the history information database 122 may store the user U's visit history to a physical store, visit history to a facility, or the like. Further, the history information database 122 may store the payment history of user U's payment using the terminal device 10 (electronic payment).

(検知情報データベース123)
検知情報データベース123は、水濡れ等の検知結果に関する各種情報を記憶する。図7は、検知情報データベース123の一例を示す図である。図7に示した例では、検知情報データベース123は、「利用者ID」、「端末」、「出力音」、「取得音」、「水濡れ」、「汚れ」、「箇所」といった項目を有する。
(Detection information database 123)
The detection information database 123 stores various information regarding detection results such as water wetting. FIG. 7 is a diagram showing an example of the detection information database 123. In the example shown in FIG. 7, the detection information database 123 has items such as "user ID", "terminal", "output sound", "obtained sound", "wet water", "dirt", and "location". .

「利用者ID」は、利用者Uを識別するための識別情報を示す。また、「端末」は、利用者Uの端末装置10の種別(機種、サイズ等)を示す。なお、「端末」は、端末装置10の周辺機器やパーツ又はアクセサリ(カバーやリング等)に関する情報も含んでいてもよい。 “User ID” indicates identification information for identifying user U. Further, "terminal" indicates the type (model, size, etc.) of the terminal device 10 of the user U. Note that the "terminal" may also include information regarding peripheral devices, parts, or accessories (cover, ring, etc.) of the terminal device 10.

また、「出力音」は、端末装置10の筐体に取り付けたスピーカーSKから出力された音(出力音)の特徴を示す。また、「取得音」は、端末装置10の筐体に取り付けたマイクNKで取得された音(取得音)の特徴を示す。 Moreover, "output sound" indicates the characteristics of the sound (output sound) output from the speaker SK attached to the housing of the terminal device 10. Furthermore, “obtained sound” indicates the characteristics of the sound (obtained sound) obtained by the microphone NK attached to the housing of the terminal device 10.

また、「水濡れ」は、端末装置10の筐体に付着した水滴等の水濡れの有無を示す。
また、「汚れ」は、端末装置10の筐体に付着した汚れの有無を示す。なお、「汚れ」は、汚れの種別(粉塵、油膜、気泡等)を示す情報であってもよい。
Furthermore, “wet” indicates whether or not there is water such as water droplets attached to the casing of the terminal device 10.
Further, "dirt" indicates the presence or absence of dirt attached to the casing of the terminal device 10. Note that "dirt" may be information indicating the type of dirt (dust, oil film, air bubbles, etc.).

また、「箇所」は、水濡れや汚れが生じた端末装置10の筐体の箇所(場所、部分、部位)を示す。なお、「箇所」は、「水濡れ」が生じた箇所と、「汚れ」が生じた箇所とを個別に示してもよい。 Further, "location" indicates a location (location, portion, region) of the housing of the terminal device 10 where water or dirt has occurred. Note that the "location" may separately indicate a location where "wet water" has occurred and a location where "dirt" has occurred.

例えば、図7に示す例において、利用者ID「U1」により識別される利用者Uは、「端末#1」で示される種別の端末装置10を使用しており、その端末装置10に取り付けたスピーカーSKから「出力音#1」で示される音を出力し、その端末装置10に取り付けたマイクMKで「取得音#1」で示される音を取得し、アクティブ音響センシングの結果、「水濡れ」と「汚れ」が端末装置10の「画面」に生じていることを検知したことを示す。 For example, in the example shown in FIG. The speaker SK outputs the sound indicated by "output sound #1", the microphone MK attached to the terminal device 10 acquires the sound indicated by "obtained sound #1", and as a result of active acoustic sensing, the sound indicated by "water wetness" is detected. ” indicates that it has been detected that “dirt” has occurred on the “screen” of the terminal device 10.

ここで、図7に示す例では、「U1」、「端末#1」、「出力音#1」及び「取得音#1」といった抽象的な値を用いて図示するが、「U1」、「端末#1」、「出力音#1」及び「取得音#1」には、具体的な文字列や数値等の情報が記憶されるものとする。 Here, in the example shown in FIG. 7, abstract values such as "U1", "terminal #1", "output sound #1", and "obtained sound #1" are used for illustration, but "U1", " It is assumed that information such as specific character strings and numerical values is stored in "terminal #1", "output sound #1", and "obtained sound #1".

なお、検知情報データベース123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、検知情報データベース123は、出力音及び取得音(又はその差分)の特徴を学習して構築したモデルを記憶してもよい。また、検知情報データベース123は、端末装置10の筐体の水濡れの検知結果に基づいて調整を行う項目等を記憶してもよい。また、検知情報データベース123は、利用者Uが端末装置10を右手で触っているのか、左手で触っているのかを示す情報等を記憶してもよい。 Note that the detection information database 123 is not limited to the above, and may store various information depending on the purpose. For example, the detection information database 123 may store a model constructed by learning the characteristics of the output sound and the acquired sound (or the difference thereof). Further, the detection information database 123 may store items to be adjusted based on the detection result of water wetness of the housing of the terminal device 10. Further, the detection information database 123 may store information indicating whether the user U is touching the terminal device 10 with the right hand or the left hand.

(制御部130)
図4に戻り、説明を続ける。制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、サーバ装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。図4に示す例では、制御部130は、取得部131と、命令部132と、検知部133と、学習部134と、調整部135と、提供部136とを有する。
(Control unit 130)
Returning to FIG. 4, the explanation will be continued. The control unit 130 is a controller, and controls the server device 100 using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array). This is realized by executing various programs (corresponding to an example of an information processing program) stored in an internal storage device using a storage area such as a RAM as a work area. In the example shown in FIG. 4, the control unit 130 includes an acquisition unit 131, an instruction unit 132, a detection unit 133, a learning unit 134, an adjustment unit 135, and a provision unit 136.

(取得部131)
取得部131は、利用者Uにより入力された検索クエリを取得する。例えば、取得部131は、利用者Uが検索エンジン等に検索クエリを入力してキーワード検索を行った際に、通信部110を介して、当該検索クエリを取得する。すなわち、取得部131は、通信部110を介して、利用者Uにより検索エンジンやサイト又はアプリの検索窓に入力されたキーワードを取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires a search query input by the user U. For example, when the user U inputs a search query into a search engine or the like and performs a keyword search, the acquisition unit 131 acquires the search query via the communication unit 110. That is, the acquisition unit 131 acquires, via the communication unit 110, a keyword input by the user U into a search window of a search engine, site, or application.

また、取得部131は、通信部110を介して、利用者Uに関する利用者情報を取得する。例えば、取得部131は、利用者Uの端末装置10から、利用者Uを示す識別情報(利用者ID等)や、利用者Uの位置情報、利用者Uの属性情報等を取得する。また、取得部131は、利用者Uのユーザ登録時に、利用者Uを示す識別情報や、利用者Uの属性情報等を取得してもよい。そして、取得部131は、利用者情報を、記憶部120の利用者情報データベース121に登録する。 The acquisition unit 131 also acquires user information regarding the user U via the communication unit 110. For example, the acquisition unit 131 acquires identification information indicating the user U (user ID, etc.), location information of the user U, attribute information of the user U, etc. from the terminal device 10 of the user U. Further, the acquisition unit 131 may acquire identification information indicating the user U, attribute information of the user U, etc. at the time of user U's user registration. The acquisition unit 131 then registers the user information in the user information database 121 of the storage unit 120.

また、取得部131は、通信部110を介して、利用者Uの行動を示す各種の履歴情報(ログデータ)を取得する。例えば、取得部131は、利用者Uの端末装置10から、あるいは利用者ID等に基づいて各種サーバ等から、利用者Uの行動を示す各種の履歴情報を取得する。そして、取得部131は、各種の履歴情報を、記憶部120の履歴情報データベース122に登録する。 Further, the acquisition unit 131 acquires various types of history information (log data) indicating the behavior of the user U via the communication unit 110. For example, the acquisition unit 131 acquires various types of history information indicating the behavior of the user U from the terminal device 10 of the user U or from various servers based on the user ID or the like. The acquisition unit 131 then registers various types of history information in the history information database 122 of the storage unit 120.

(命令部132)
命令部132は、通信部110を介して、対象となる各利用者Uの端末装置10に対して、端末装置10の筐体に取り付けたスピーカーSKから音を出力する命令を出す。
(Instruction part 132)
The command unit 132 issues a command to the terminal device 10 of each target user U to output sound from the speaker SK attached to the casing of the terminal device 10 via the communication unit 110.

(検知部133)
検知部133は、通信部110を介して、端末装置10の筐体に取り付けたマイクMKで取得した音を受信し、端末装置10の筐体に取り付けたマイクMKで取得した音に基づいて、アクティブ音響センシングを用いて端末装置10の筐体の異物付着(水濡れや汚れ等)を検知する。
(Detection unit 133)
The detection unit 133 receives the sound acquired by the microphone MK attached to the casing of the terminal device 10 via the communication unit 110, and based on the sound acquired by the microphone MK attached to the casing of the terminal device 10, Active acoustic sensing is used to detect foreign matter adhesion (wet water, dirt, etc.) on the casing of the terminal device 10.

検知部133は、端末装置10の筐体の異物付着した状態の音の特徴と、異物付着していない状態の音の特徴とに基づいて、端末装置10の筐体の異物付着を検知する。 The detection unit 133 detects the adhesion of a foreign object to the casing of the terminal device 10 based on the characteristics of the sound when the casing of the terminal device 10 has the foreign object attached and the characteristics of the sound when the casing of the terminal device 10 has no foreign object.

(学習部134)
学習部134は、端末装置10の筐体の異物付着した状態の音の特徴を学習してモデルを構築する。このとき、検知部133は、モデルを用いて端末装置10の筐体の異物付着を検知する。
(Learning section 134)
The learning unit 134 learns the characteristics of the sound when a foreign object is attached to the casing of the terminal device 10 and constructs a model. At this time, the detection unit 133 detects the adhesion of foreign matter to the casing of the terminal device 10 using the model.

例えば、学習部134は、端末装置10の筐体を異物付着させた状態でマイクMKで取得された取得音の特徴、又はスピーカーSKから出力された出力音の特徴とマイクMKで取得された取得音の特徴との両方を学習してモデルを構築する。 For example, the learning unit 134 learns the characteristics of the acquired sound acquired by the microphone MK with a foreign object attached to the housing of the terminal device 10, or the characteristics of the output sound output from the speaker SK and the acquired sound acquired by the microphone MK. Build a model by learning both sound characteristics and sound characteristics.

また、学習部134は、端末装置10の筐体を異物付着させた状態でスピーカーSKから出力された出力音の特徴とマイクMKで取得された取得音の特徴との差分を学習してモデルを構築する。 In addition, the learning unit 134 learns the difference between the characteristics of the output sound output from the speaker SK and the characteristics of the acquired sound acquired by the microphone MK with a foreign object attached to the housing of the terminal device 10 to create a model. To construct.

また、学習部134は、端末装置10の筐体の所定の箇所が異物付着した状態の取得音の特徴を学習し、どの箇所が濡れているかを示すモデルを構築する。このとき、検知部133は、モデルを用いて端末装置10の筐体のどの箇所が濡れているかを検知(又は推定)する。 Further, the learning unit 134 learns the characteristics of the acquired sound when a predetermined part of the housing of the terminal device 10 has foreign matter attached, and constructs a model indicating which part is wet. At this time, the detection unit 133 uses the model to detect (or estimate) which part of the housing of the terminal device 10 is wet.

また、学習部134は、端末装置10の種別ごとに学習してモデルを構築する。また、学習部134は、端末装置10の周辺機器、パーツ又はアクセサリごとに学習してモデルを構築する。 Further, the learning unit 134 learns and constructs a model for each type of terminal device 10. Further, the learning unit 134 learns and constructs a model for each peripheral device, part, or accessory of the terminal device 10.

また、学習部134は、端末装置10の筐体の異物付着した状態の音の特徴と、端末装置10の筐体の汚れが付着した状態の音の特徴とを学習し、異物付着か汚れかを示すモデルを構築する。このとき、検知部133は、モデルを用いて異物付着か汚れかを検知(又は推定)する。すなわち、検知部133は、モデルを用いて端末装置10の筐体が異物付着した状態か汚れが付着した状態かを検知(又は推定)する。 The learning unit 134 also learns the characteristics of the sound when the casing of the terminal device 10 has foreign matter attached to it, and the characteristics of the sound when the casing of the terminal device 10 has dirt attached, and determines whether the casing of the terminal device 10 has foreign matter or dirt. Build a model that shows At this time, the detection unit 133 uses the model to detect (or estimate) whether foreign matter is attached or dirty. That is, the detection unit 133 uses the model to detect (or estimate) whether the casing of the terminal device 10 has foreign matter or dirt attached to it.

(調整部135)
調整部135は、各利用者Uの端末装置10の筐体の異物付着の検知結果に基づいて、各種制御を行う。例えば、調整部135は、端末装置10の筐体の異物付着の検知結果に基づいて、端末装置10の筐体のタッチパネル等の接触の判定に関する閾値を変化させてもよい。また、調整部135は、端末装置10の筐体の異物付着の検知結果に基づいて、端末装置10における操作が有効か無効かを判定してもよい。
(Adjustment section 135)
The adjustment unit 135 performs various controls based on the detection result of foreign matter adhering to the casing of the terminal device 10 of each user U. For example, the adjustment unit 135 may change a threshold value for determining contact with a touch panel or the like on the casing of the terminal device 10 based on the detection result of foreign matter adhesion on the casing of the terminal device 10 . Further, the adjustment unit 135 may determine whether the operation on the terminal device 10 is valid or invalid based on the detection result of foreign matter adhesion to the housing of the terminal device 10.

また、調整部135は、各利用者Uの端末装置10において「謎のタッチがある」及び「異物付着の検知(異物検知)がなされている」という結果から、「異物付着だから、操作をキャンセルする」等の制御を行ってもよい。 In addition, based on the results that "there is a mysterious touch" and "foreign object has been detected (foreign object detection)" on the terminal device 10 of each user U, the adjustment unit 135 cancels the operation because of foreign object. You may also perform a control such as "

(提供部136)
提供部136は、通信部110を介して、各利用者Uの端末装置10の筐体の異物付着の検知結果に関する情報を、検知対象の端末装置10(又はその端末装置と通信中の相手側の端末装置10)に提供する。
(Providing unit 136)
The providing unit 136 transmits, via the communication unit 110, information regarding the detection result of foreign matter adhesion on the casing of the terminal device 10 of each user U to the terminal device 10 to be detected (or the other party communicating with the terminal device). terminal device 10).

〔5.処理手順〕
次に、図8を用いて実施形態に係る端末装置10及びサーバ装置100による処理手順について説明する。図8は、実施形態に係る処理手順を示すフローチャートである。なお、以下に示す処理手順は、端末装置10の制御部30及びサーバ装置100の制御部130によって繰り返し実行される。
[5. Processing procedure]
Next, a processing procedure by the terminal device 10 and the server device 100 according to the embodiment will be described using FIG. 8. FIG. 8 is a flowchart showing the processing procedure according to the embodiment. Note that the processing procedure shown below is repeatedly executed by the control unit 30 of the terminal device 10 and the control unit 130 of the server device 100.

図8に示すように、サーバ装置100の命令部132は、通信部110を介して、対象となる各利用者Uの端末装置10に対して、端末装置10の筐体に取り付けたスピーカーSKから音を出力する命令を出す(ステップS101)。このとき、端末装置10の筐体に取り付けたスピーカーSKは、音を出力する。 As shown in FIG. 8, the instruction unit 132 of the server device 100 sends a message from the speaker SK attached to the housing of the terminal device 10 to the terminal device 10 of each target user U via the communication unit 110. A command to output sound is issued (step S101). At this time, the speaker SK attached to the housing of the terminal device 10 outputs sound.

続いて、サーバ装置100の検知部133は、通信部110を介して、端末装置10の筐体に取り付けたマイクMKで取得した音を受信する(ステップS102)。このとき、端末装置10の筐体に取り付けたマイクMKは、スピーカーSKから出力された音を取得し、取得音に関する情報をサーバ装置100に送信する。 Subsequently, the detection unit 133 of the server device 100 receives, via the communication unit 110, the sound acquired by the microphone MK attached to the housing of the terminal device 10 (step S102). At this time, the microphone MK attached to the housing of the terminal device 10 acquires the sound output from the speaker SK, and transmits information regarding the acquired sound to the server device 100.

続いて、サーバ装置100の検知部133は、端末装置10の筐体に取り付けたマイクMKで取得した音に基づいて、アクティブ音響センシングを用いて端末装置10の筐体の水濡れを検知する(ステップS103)。 Subsequently, the detection unit 133 of the server device 100 detects water wetness of the casing of the terminal device 10 using active acoustic sensing based on the sound acquired by the microphone MK attached to the casing of the terminal device 10 ( Step S103).

続いて、サーバ装置100の学習部134は、端末装置10の筐体の水濡れした状態の音の特徴を学習してモデルを構築する(ステップS104)。例えば、学習部134は、端末装置10の筐体を水濡れさせた状態でマイクMKで取得された取得音の特徴、又はスピーカーSKから出力された出力音の特徴とマイクMKで取得された取得音の特徴との両方を学習してモデルを構築する。あるいは、学習部134は、端末装置10の筐体を水濡れさせた状態でスピーカーSKから出力された出力音の特徴とマイクMKで取得された取得音の特徴との差分を学習してモデルを構築する。 Next, the learning unit 134 of the server device 100 learns the characteristics of the sound when the casing of the terminal device 10 is wet and constructs a model (step S104). For example, the learning unit 134 learns the characteristics of the acquired sound acquired by the microphone MK while the housing of the terminal device 10 is wet, or the characteristics of the output sound output from the speaker SK and the acquired sound acquired by the microphone MK. Build a model by learning both sound characteristics and sound characteristics. Alternatively, the learning unit 134 creates a model by learning the difference between the characteristics of the output sound output from the speaker SK and the characteristics of the acquired sound acquired by the microphone MK while the housing of the terminal device 10 is wet. To construct.

続いて、サーバ装置100の学習部134は、端末装置10の筐体の所定の箇所が水濡れした状態の取得音の特徴を学習し、どの箇所が濡れているかを示すモデルを構築する(ステップS105)。このとき、検知部133は、モデルを用いて端末装置10の筐体のどの箇所が濡れているかを検知(又は推定)する。 Next, the learning unit 134 of the server device 100 learns the characteristics of the acquired sound when a predetermined part of the housing of the terminal device 10 is wet, and constructs a model indicating which part is wet (step S105). At this time, the detection unit 133 uses the model to detect (or estimate) which part of the housing of the terminal device 10 is wet.

続いて、サーバ装置100の学習部134は、端末装置10の種別ごと、及び端末装置10の周辺機器/パーツ/アクセサリごとに学習してモデルを構築する(ステップS106)。 Subsequently, the learning unit 134 of the server device 100 learns and constructs a model for each type of terminal device 10 and each peripheral device/part/accessory of the terminal device 10 (step S106).

続いて、サーバ装置100の学習部134は、端末装置10の筐体の水濡れした状態の音の特徴と、端末装置10の筐体の汚れが付着した状態の音の特徴とを学習し、水濡れか汚れかを示すモデルを構築する(ステップS107)。このとき、検知部133は、モデルを用いて水濡れか汚れかを検知(又は推定)する。 Subsequently, the learning unit 134 of the server device 100 learns the characteristics of the sound when the casing of the terminal device 10 is wet and the characteristics of the sound when the casing of the terminal device 10 is dirty. A model indicating whether the object is wet or dirty is constructed (step S107). At this time, the detection unit 133 uses the model to detect (or estimate) whether the object is wet or dirty.

続いて、サーバ装置100の調整部135は、各利用者Uの端末装置10の筐体の水濡れの検知結果に基づいて、各種制御を行う(ステップS108)。 Subsequently, the adjustment unit 135 of the server device 100 performs various controls based on the detection result of the water wetness of the casing of the terminal device 10 of each user U (step S108).

続いて、サーバ装置100の提供部136は、通信部110を介して、各利用者Uの端末装置10の筐体の水濡れの検知結果に関する情報を、検知対象の端末装置10(又はその端末装置と通信中の相手側の端末装置10)に提供する(ステップS109)。 Subsequently, the providing unit 136 of the server device 100 transmits information regarding the detection result of water wetness of the casing of the terminal device 10 of each user U to the terminal device 10 to be detected (or its terminal) via the communication unit 110. The information is provided to the other party's terminal device 10 that is communicating with the device (step S109).

〔6.変形例〕
上述した端末装置10及びサーバ装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
[6. Modified example]
The terminal device 10 and server device 100 described above may be implemented in various different forms other than the above embodiments. Therefore, a modification of the embodiment will be described below.

上記の実施形態において、サーバ装置100が実行している処理の一部又は全部は、実際には、端末装置10が実行してもよい。例えば、スタンドアローン(Stand-alone)で(端末装置10単体で)処理が完結してもよい。この場合、端末装置10に、上記の実施形態におけるサーバ装置100の機能が備わっているものとする。また、上記の実施形態では、端末装置10はサーバ装置100と連携しているため、利用者Uから見れば、サーバ装置100の処理も端末装置10が実行しているように見える。すなわち、他の観点では、端末装置10は、サーバ装置100を備えているともいえる。 In the above embodiment, part or all of the processing executed by the server device 100 may actually be executed by the terminal device 10. For example, the process may be completed stand-alone (by the terminal device 10 alone). In this case, it is assumed that the terminal device 10 has the functions of the server device 100 in the above embodiment. Further, in the embodiment described above, since the terminal device 10 cooperates with the server device 100, it appears to the user U that the terminal device 10 is also executing the processing of the server device 100. That is, from another point of view, it can be said that the terminal device 10 includes the server device 100.

また、上記の実施形態において、1台の端末装置10の筐体にスピーカーSKとマイクMKとをそれぞれ複数取り付けてもよい。スピーカーSKとマイクMKの数は同数でなくてもよい。例えば、端末装置10の筐体に取り付けた1つのスピーカーSKから出力された音を、端末装置10の筐体の複数の箇所に取り付けたマイクNKのそれぞれで取得するようにしてもよい。反対に、端末装置10の筐体の複数の箇所に取り付けたスピーカーSKから出力された音を、端末装置10の筐体に取り付けた1つのマイクNKで取得するようにしてもよい。なお、複数のスピーカーSKから同時に音を出力するとマイクMKが適切に音を取得できない場合は、それぞれのスピーカーSKから音を出力するタイミングをずらしてもよい。このとき、サーバ装置100は、どのスピーカーSKから出力した音を、どのマイクMKで取得したかによって、端末装置10の筐体の水濡れの箇所を推定するようにしてもよい。 Furthermore, in the embodiment described above, a plurality of speakers SK and microphones MK may each be attached to the housing of one terminal device 10. The number of speakers SK and microphones MK may not be the same. For example, the sound output from one speaker SK attached to the housing of the terminal device 10 may be acquired by each of the microphones NK attached to a plurality of locations on the housing of the terminal device 10. On the contrary, the sound output from the speakers SK attached to a plurality of locations on the housing of the terminal device 10 may be acquired by one microphone NK attached to the housing of the terminal device 10. Note that if the microphone MK cannot properly acquire sound when sound is output from a plurality of speakers SK at the same time, the timing at which sound is output from each speaker SK may be shifted. At this time, the server device 100 may estimate the water-wet location of the casing of the terminal device 10 based on which speaker SK outputs the sound and which microphone MK acquires the sound.

また、上記の実施形態において、1台の端末装置10の筐体に、1対のスピーカーSKとマイクMKとのペア(組)を複数設置してもよい。この場合、スピーカーSKとマイクMKの数は同数である。例えば、1台の端末装置10の正面側(画面側)と背面側とのそれぞれにスピーカーSKとマイクMKとのペアを設置してもよい。なお、複数のスピーカーSKから同時に音を出力するとマイクMKが適切に音を取得できない場合は、それぞれのスピーカーSKから音を出力するタイミングをずらしてもよい。 Further, in the above embodiment, a plurality of pairs (sets) of a pair of speakers SK and microphones MK may be installed in the housing of one terminal device 10. In this case, the number of speakers SK and microphones MK is the same. For example, a pair of speaker SK and microphone MK may be installed on the front side (screen side) and the back side of one terminal device 10, respectively. Note that if the microphone MK cannot properly acquire sound when sound is output from a plurality of speakers SK at the same time, the timing at which sound is output from each speaker SK may be shifted.

〔7.効果〕
上述してきたように、本願に係る情報処理装置(端末装置10及びサーバ装置100)は、端末装置10の筐体に取り付けたスピーカーSKから音を出力する命令を出す命令部132と、端末装置10の筐体に取り付けたマイクMKで取得した音に基づいて、アクティブ音響センシングを用いて端末装置10の筐体の異物付着を検知する検知部133と、を備える。
[7. effect〕
As described above, the information processing device (terminal device 10 and server device 100) according to the present application includes a command unit 132 that issues a command to output sound from the speaker SK attached to the housing of the terminal device 10; The terminal device 10 includes a detection unit 133 that detects foreign matter adhesion to the casing of the terminal device 10 using active acoustic sensing based on the sound acquired by the microphone MK attached to the casing of the terminal device 10 .

検知部133は、端末装置10の筐体の異物付着した状態の音の特徴と、異物付着していない状態の音の特徴とに基づいて、端末装置10の筐体の異物付着を検知する。 The detection unit 133 detects the adhesion of a foreign object to the casing of the terminal device 10 based on the characteristics of the sound when the casing of the terminal device 10 has the foreign object attached and the characteristics of the sound when the casing of the terminal device 10 has no foreign object.

また、本願に係る情報処理装置は、端末装置10の筐体の異物付着した状態の音の特徴を学習してモデルを構築する学習部134と、をさらに備える。検知部133は、モデルを用いて端末装置10の筐体の異物付着を検知する。 Further, the information processing device according to the present application further includes a learning unit 134 that learns the characteristics of the sound in a state where a foreign object is attached to the casing of the terminal device 10 and constructs a model. The detection unit 133 detects foreign matter adhesion to the casing of the terminal device 10 using the model.

学習部134は、端末装置10の筐体を異物付着させた状態でマイクMKで取得された取得音の特徴、又はスピーカーSKから出力された出力音の特徴とマイクMKで取得された取得音の特徴との両方を学習してモデルを構築する。 The learning unit 134 learns the characteristics of the acquired sound acquired by the microphone MK with a foreign object attached to the housing of the terminal device 10, or the characteristics of the output sound output from the speaker SK and the acquired sound acquired by the microphone MK. Build a model by learning both features.

学習部134は、端末装置10の筐体を異物付着させた状態でスピーカーSKから出力された出力音の特徴とマイクMKで取得された取得音の特徴との差分を学習してモデルを構築する。 The learning unit 134 constructs a model by learning the difference between the characteristics of the output sound output from the speaker SK and the characteristics of the acquired sound acquired by the microphone MK with a foreign object attached to the housing of the terminal device 10. .

学習部134は、端末装置10の筐体の所定の箇所が異物付着した状態の取得音の特徴を学習し、どの箇所が濡れているかを示すモデルを構築する。 The learning unit 134 learns the characteristics of the acquired sound when a predetermined part of the housing of the terminal device 10 has foreign matter attached, and constructs a model indicating which part is wet.

学習部134は、端末装置10の種別ごとに学習してモデルを構築する。 The learning unit 134 learns and constructs a model for each type of terminal device 10.

学習部134は、端末装置10の周辺機器、パーツ又はアクセサリごとに学習してモデルを構築する。 The learning unit 134 learns and constructs a model for each peripheral device, part, or accessory of the terminal device 10.

学習部134は、端末装置10の筐体の水濡れした状態の音の特徴と、端末装置10の筐体の汚れが付着した状態の音の特徴とを学習し、水濡れか汚れかを示すモデルを構築する。 The learning unit 134 learns the characteristics of the sound when the casing of the terminal device 10 is wet and the characteristics of the sound when the casing of the terminal device 10 is dirty, and indicates whether the casing is wet or dirty. Build the model.

上述した各処理のいずれかもしくは組合せにより、本願に係る情報処理装置は、スピーカーから出力しマイクで取得した音で、端末装置の表面の水濡れを検知することができる。 By using any one or a combination of the above-described processes, the information processing device according to the present application can detect water wetness on the surface of the terminal device using the sound output from the speaker and acquired by the microphone.

〔8.ハードウェア構成〕
また、上述した実施形態に係る端末装置10やサーバ装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。以下、サーバ装置100を例に挙げて説明する。図9は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[8. Hardware configuration]
Further, the terminal device 10 and the server device 100 according to the embodiments described above are realized by, for example, a computer 1000 having a configuration as shown in FIG. The following will explain the server device 100 as an example. FIG. 9 is a diagram showing an example of the hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and a calculation device 1030, a primary storage device 1040, a secondary storage device 1050, an output I/F (Interface) 1060, an input I/F 1070, and a network I/F 1080 are connected to a bus. 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。 The arithmetic unit 1030 operates based on programs stored in the primary storage device 1040 and the secondary storage device 1050, programs read from the input device 1020, and performs various processes. The arithmetic device 1030 is realized by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like.

一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USB(Universal Serial Bus)メモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。 The primary storage device 1040 is a memory device such as a RAM (Random Access Memory) that temporarily stores data used by the calculation device 1030 for various calculations. Further, the secondary storage device 1050 is a storage device in which data used by the calculation device 1030 for various calculations and various databases are registered, and includes a ROM (Read Only Memory), an HDD (Hard Disk Drive), and an SSD (Solid Disk Drive). This is realized using flash memory, etc. The secondary storage device 1050 may be a built-in storage or an external storage. Further, the secondary storage device 1050 may be a removable storage medium such as a USB (Universal Serial Bus) memory or an SD (Secure Digital) memory card. Further, the secondary storage device 1050 may be a cloud storage (online storage), a NAS (Network Attached Storage), a file server, or the like.

出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェースであり、例えば、USB等により実現される。 The output I/F 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various information such as a display, a projector, and a printer. (Digital Visual Interface) and HDMI (registered trademark) (High Definition Multimedia Interface). Further, the input I/F 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, keypad, button, scanner, etc., and is realized by, for example, a USB or the like.

また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。 Further, the output I/F 1060 and the input I/F 1070 may be wirelessly connected to the output device 1010 and the input device 1020, respectively. That is, output device 1010 and input device 1020 may be wireless devices.

また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。 Moreover, the output device 1010 and the input device 1020 may be integrated like a touch panel. In this case, the output I/F 1060 and the input I/F 1070 may also be integrated as an input/output I/F.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 Note that the input device 1020 is, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like.

ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network I/F 1080 receives data from other devices via network N and sends it to computing device 1030, and also sends data generated by computing device 1030 to other devices via network N.

演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 Arithmetic device 1030 controls output device 1010 and input device 1020 via output I/F 1060 and input I/F 1070. For example, the arithmetic device 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040, and executes the loaded program.

例えば、コンピュータ1000がサーバ装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。 For example, when the computer 1000 functions as the server device 100, the arithmetic unit 1030 of the computer 1000 realizes the functions of the control unit 130 by executing a program loaded onto the primary storage device 1040. Further, the arithmetic device 1030 of the computer 1000 may load a program obtained from another device via the network I/F 1080 onto the primary storage device 1040, and execute the loaded program. Furthermore, the arithmetic unit 1030 of the computer 1000 may cooperate with other devices via the network I/F 1080, and may call and use program functions, data, etc. from other programs of other devices.

〔9.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[9. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Furthermore, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are in a so-called equivalent range. Furthermore, the aforementioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the constituent elements can be made without departing from the gist of the embodiments described above.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

例えば、上述したサーバ装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 For example, the server device 100 described above may be realized by a plurality of server computers, and depending on the function, it may be realized by calling an external platform etc. using an API (Application Programming Interface), network computing, etc. Can be changed flexibly.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.

1 情報処理システム
10 端末装置
SK スピーカー
MK マイク
100 サーバ装置
110 通信部
120 記憶部
121 利用者情報データベース
122 履歴情報データベース
123 検知情報データベース
130 制御部
131 取得部
132 命令部
133 検知部
134 学習部
135 調整部
136 提供部
1 Information processing system 10 Terminal device SK Speaker MK Microphone 100 Server device 110 Communication unit 120 Storage unit 121 User information database 122 History information database 123 Detection information database 130 Control unit 131 Acquisition unit 132 Command unit 133 Detection unit 134 Learning unit 135 Adjustment Section 136 Provision Section

Claims (11)

端末装置の筐体に取り付けたスピーカーから音を出力する命令を出す命令部と、
前記端末装置の筐体に取り付けたマイクで取得した音に基づいて、アクティブ音響センシングを用いて前記端末装置の筐体の異物付着を検知する検知部と、
を備えることを特徴とする情報処理装置。
a command unit that issues a command to output sound from a speaker attached to a housing of the terminal device;
a detection unit that uses active acoustic sensing to detect foreign matter adhesion to the casing of the terminal device based on sound acquired by a microphone attached to the casing of the terminal device;
An information processing device comprising:
前記検知部は、前記端末装置の筐体の異物付着した状態の音の特徴と、異物付着していない状態の音の特徴とに基づいて、前記端末装置の筐体の異物付着を検知する
ことを特徴とする請求項1に記載の情報処理装置。
The detection unit detects the adhesion of a foreign object to the casing of the terminal device based on the characteristics of the sound when the casing of the terminal device has the foreign object attached and the characteristics of the sound when the casing of the terminal device has no foreign object attached. The information processing device according to claim 1, characterized in that:
前記端末装置の筐体の異物付着した状態の音の特徴を学習してモデルを構築する学習部と、
をさらに備え、
前記検知部は、前記モデルを用いて前記端末装置の筐体の異物付着を検知する
ことを特徴とする請求項1又は2に記載の情報処理装置。
a learning unit that constructs a model by learning the characteristics of sound in a state where a foreign object is attached to the housing of the terminal device;
Furthermore,
3. The information processing apparatus according to claim 1, wherein the detection unit detects adhesion of foreign matter to a casing of the terminal device using the model.
前記学習部は、前記端末装置の筐体を異物付着させた状態で前記マイクで取得された取得音の特徴、又は前記スピーカーから出力された出力音の特徴と前記マイクで取得された取得音の特徴との両方を学習してモデルを構築する
ことを特徴とする請求項3に記載の情報処理装置。
The learning unit is configured to learn the characteristics of the acquired sound acquired by the microphone with a foreign object attached to the housing of the terminal device, or the characteristics of the output sound output from the speaker and the acquired sound acquired by the microphone. The information processing device according to claim 3, wherein the information processing device constructs a model by learning both the characteristics and the characteristics.
前記学習部は、前記端末装置の筐体を異物付着させた状態で前記スピーカーから出力された出力音の特徴と前記マイクで取得された取得音の特徴との差分を学習してモデルを構築する
ことを特徴とする請求項3に記載の情報処理装置。
The learning unit constructs a model by learning the difference between the characteristics of the output sound output from the speaker and the characteristics of the acquired sound acquired by the microphone with a foreign object attached to the casing of the terminal device. The information processing device according to claim 3, characterized in that:
前記学習部は、前記端末装置の筐体の所定の箇所が異物付着した状態の取得音の特徴を学習し、どの箇所が濡れているかを示すモデルを構築する
ことを特徴とする請求項3に記載の情報処理装置。
Claim 3, wherein the learning unit learns the characteristics of the acquired sound when a predetermined part of the housing of the terminal device has foreign matter attached, and constructs a model indicating which part is wet. The information processing device described.
前記学習部は、前記端末装置の種別ごとに学習してモデルを構築する
ことを特徴とする請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the learning unit constructs a model by learning for each type of the terminal device.
前記学習部は、前記端末装置の周辺機器、パーツ又はアクセサリごとに学習してモデルを構築する
ことを特徴とする請求項3に記載の情報処理装置。
The information processing device according to claim 3, wherein the learning unit constructs a model by learning for each peripheral device, part, or accessory of the terminal device.
前記学習部は、前記端末装置の筐体の水濡れした状態の音の特徴と、前記端末装置の筐体の汚れが付着した状態の音の特徴とを学習し、水濡れか汚れかを示すモデルを構築する
ことを特徴とする請求項3に記載の情報処理装置。
The learning unit learns the characteristics of the sound when the casing of the terminal device is wet with water and the characteristics of the sound when the casing of the terminal device is dirty, and indicates whether the casing of the terminal device is wet or dirty. The information processing device according to claim 3, wherein the information processing device constructs a model.
情報処理装置が実行する情報処理方法であって、
端末装置の筐体に取り付けたスピーカーから音を出力する命令を出す命令工程と、
前記端末装置の筐体に取り付けたマイクで取得した音に基づいて、アクティブ音響センシングを用いて前記端末装置の筐体の異物付着を検知する検知工程と、
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing device, the method comprising:
a command step for issuing a command to output sound from a speaker attached to the housing of the terminal device;
a detection step of detecting foreign matter adhesion to the casing of the terminal device using active acoustic sensing based on sound acquired by a microphone attached to the casing of the terminal device;
An information processing method characterized by comprising:
端末装置の筐体に取り付けたスピーカーから音を出力する命令を出す命令手順と、
前記端末装置の筐体に取り付けたマイクで取得した音に基づいて、アクティブ音響センシングを用いて前記端末装置の筐体の異物付着を検知する検知手順と、
をコンピュータに実行させるための情報処理プログラム。
a command procedure for issuing a command to output sound from a speaker attached to the housing of the terminal device;
a detection procedure of detecting foreign matter adhesion to the casing of the terminal device using active acoustic sensing based on sound acquired by a microphone attached to the casing of the terminal device;
An information processing program that allows a computer to execute.
JP2022031164A 2022-03-01 2022-03-01 Information processing device, information processing method, and information processing program Pending JP2023127393A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022031164A JP2023127393A (en) 2022-03-01 2022-03-01 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022031164A JP2023127393A (en) 2022-03-01 2022-03-01 Information processing device, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
JP2023127393A true JP2023127393A (en) 2023-09-13

Family

ID=87971589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022031164A Pending JP2023127393A (en) 2022-03-01 2022-03-01 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP2023127393A (en)

Similar Documents

Publication Publication Date Title
JP2023027548A (en) Device, method, and program for processing information
JP2022110843A (en) Information processing device, information processing method and information processing program
JP2023127393A (en) Information processing device, information processing method, and information processing program
JP7388744B2 (en) Information processing device, information processing method, and information processing program
JP7317901B2 (en) Information processing device, information processing method and information processing program
JP7122432B1 (en) Information processing device, information processing method and information processing program
JP7145997B2 (en) Information processing device, information processing method and information processing program
JP7212665B2 (en) Information processing device, information processing method and information processing program
JP7168640B2 (en) Information processing device, information processing method and information processing program
JP7459021B2 (en) Information processing device, information processing method, and information processing program
JP7145247B2 (en) Information processing device, information processing method and information processing program
JP7459026B2 (en) Information processing device, information processing method, and information processing program
JP7244458B2 (en) Information processing device, information processing method and information processing program
JP7453199B2 (en) Information processing device, information processing method, and information processing program
JP7193519B2 (en) Information processing device, information processing method and information processing program
JP7337123B2 (en) Information processing device, information processing method and information processing program
JP2023127364A (en) Information processing device, information processing method, and information processing program
JP2023179929A (en) Information processing device, information processing method, and information processing program
JP2023179878A (en) Information processing device, information processing method and information processing program
JP2023043772A (en) Information processing device, information processing method, and information processing program
JP2023028857A (en) Information processing system
JP2023170207A (en) Information processor, method for processing information, and program
JP2022117806A (en) Information processing device, information processing method, and information processing program
JP2024042231A (en) Information processing device, information processing method, and information processing program
JP2023120695A (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026