JP2021189961A - Information processing apparatus, information processing method, and information processing program - Google Patents
Information processing apparatus, information processing method, and information processing program Download PDFInfo
- Publication number
- JP2021189961A JP2021189961A JP2020097120A JP2020097120A JP2021189961A JP 2021189961 A JP2021189961 A JP 2021189961A JP 2020097120 A JP2020097120 A JP 2020097120A JP 2020097120 A JP2020097120 A JP 2020097120A JP 2021189961 A JP2021189961 A JP 2021189961A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- unit
- sensor
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 55
- 238000003672 processing method Methods 0.000 title claims abstract description 13
- 230000007613 environmental effect Effects 0.000 claims description 52
- 230000008859 change Effects 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 18
- 239000000284 extract Substances 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000002411 adverse Effects 0.000 claims description 5
- 230000008092 positive effect Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 238000012986 modification Methods 0.000 abstract description 6
- 230000004048 modification Effects 0.000 abstract description 6
- 238000004891 communication Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 230000010354 integration Effects 0.000 description 11
- 230000015654 memory Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000004630 mental health Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000019441 ethanol Nutrition 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000000414 obstructive effect Effects 0.000 description 1
- 206010036067 polydipsia Diseases 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method and an information processing program.
所定の空間における音を種別ごとに集積した音統計データベースを構成する技術が開示されている。 A technique for constructing a sound statistics database in which sounds in a predetermined space are collected for each type is disclosed.
しかしながら、上記の従来技術では、所定の空間に設置した録音装置等を用いた定点観測を想定している。そのため、建物の室内等の特定の場所の環境分析はできても、移動するユーザの日々の生活における周囲の環境や状況等に関する情報を保険分野に活用することは想定されていない。 However, in the above-mentioned conventional technique, fixed point observation using a recording device or the like installed in a predetermined space is assumed. Therefore, although it is possible to analyze the environment of a specific place such as the interior of a building, it is not assumed that information on the surrounding environment and situation in the daily life of a moving user will be utilized in the insurance field.
本願は、上記に鑑みてなされたものであって、環境情報を保険分野に活用することを目的とする。 The present application has been made in view of the above, and an object thereof is to utilize environmental information in the insurance field.
本願に係る情報処理装置は、センサを有するユーザの端末装置が同時期に取得したセンサ情報と前記ユーザの識別情報とを取得する取得部と、前記センサ情報に基づいて前記ユーザの保険料率を査定する査定部と、を備えることを特徴とする。 The information processing device according to the present application assesses the insurance premium rate of the user based on the acquisition unit that acquires the sensor information acquired by the terminal device of the user having the sensor and the identification information of the user at the same time, and the sensor information. It is characterized by having an assessment department and an assessment department.
実施形態の一態様によれば、環境情報を保険分野に活用することができる。 According to one aspect of the embodiment, environmental information can be utilized in the insurance field.
以下に、本願に係る情報処理装置、情報処理方法、および情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、および情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, the information processing apparatus, the information processing method, and the embodiment for implementing the information processing program (hereinafter referred to as “the embodiment”) according to the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the information processing apparatus, information processing method, and information processing program according to the present application. Further, in the following embodiments, the same parts are designated by the same reference numerals, and duplicate explanations are omitted.
〔1.情報処理方法の概要〕
まず、図1を参照し、実施形態に係る情報処理装置が行う情報処理方法の概要について説明する。図1は、実施形態に係る情報処理方法の概要を示す説明図である。なお、図1では、環境情報に基づいてユーザの保険料率の査定及び変更を行う場合を例に挙げて説明する。
[1. Overview of information processing method]
First, with reference to FIG. 1, an outline of an information processing method performed by the information processing apparatus according to the embodiment will be described. FIG. 1 is an explanatory diagram showing an outline of an information processing method according to an embodiment. In FIG. 1, a case where the user's insurance premium rate is assessed and changed based on the environmental information will be described as an example.
図1に示すように、情報処理システム1は、端末装置10と情報提供装置100とを含む。端末装置10と情報提供装置100とは、それぞれネットワークN(図2参照)を介して有線又は無線で互いに通信可能に接続される。
As shown in FIG. 1, the information processing system 1 includes a
端末装置10は、ユーザUにより利用されるスマートフォンやタブレット等のスマートデバイスであり、4G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、ユーザから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。ここでは、スマートフォンを例に説明する。
The
情報提供装置100は、ユーザUの端末装置10から、端末装置10に搭載された各種センサ(Sensor:検知器)の出力であるセンサ情報(センサデータ)とユーザ情報と位置情報とを取得する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。ここでは、情報提供装置100は、不特定多数の端末装置10のそれぞれから、センサ情報とユーザ情報と位置情報とを取得し、センサ情報とユーザ情報と位置情報とを紐づけてデータベースに記憶する。そして、情報提供装置100は、センサ情報に基づいて、ユーザUの日々の生活における周囲の環境や状況に関するコンテキストを推定し、ユーザUのストレス度やユーザUの生活習慣等を推定する。そして、情報提供装置100は、推定した結果に基づいて、ユーザUの保険料率(又は保険料額)を査定し、必要に応じて変更する。例えば、既存の保険料率の算定手法で既に決められているユーザUの保険料率を、情報提供装置100が、推定した結果に基づいて改めて査定し、その査定結果に応じてユーザUの保険料率を変更してもよい。なお、ユーザ情報は、ユーザU又は端末装置10を一意に識別するための識別情報等である。
The
〔1−1.データ収集から保険料率の変更までの情報処理方法の概要〕
まず、図1を参照して、データ収集から保険料率の変更までの情報処理方法の概要について説明する。
[1-1. Outline of information processing method from data collection to change of insurance premium rate]
First, with reference to FIG. 1, an outline of an information processing method from data collection to change of insurance premium rate will be described.
図1に示すように、情報提供装置100は、各地に所在する複数のユーザUの端末装置10のそれぞれからセンサ情報とユーザ情報と位置情報とを受信する(ステップS1)。
As shown in FIG. 1, the
このとき、端末装置10は移動中であってもよいし、一か所に留まっていてもよい。また、情報提供装置100は、各地を移動する同じ端末装置10からセンサ情報とユーザ情報と位置情報とを受信してもよい。例えば、センサ情報は、環境音、気圧、照度等である。
At this time, the
情報提供装置100は、センサ情報に含まれる音から環境音を抽出し、その環境音を、音の種別毎に分類(カテゴライズ)する。このとき、情報提供装置100は、環境音を、騒音等のユーザUの身体や精神に悪影響をもたらす音ごとに分類する。また、環境音を、ユーザUの身体や精神に良い影響をもたらす音ごとに分類する。
The
また、位置情報は、端末装置10がセンサ情報を取得した時点での位置情報である。なお、位置情報も広義ではセンサ情報に該当する。
Further, the position information is the position information at the time when the
また、センサ情報や位置情報には、端末装置10がそのセンサ情報や位置情報を取得した日時に関する情報も含まれる。
Further, the sensor information and the position information also include information regarding the date and time when the
図1の例では、情報提供装置100は、ユーザU1〜U5が所持する端末装置10A〜10Eのそれぞれからセンサ情報とユーザ情報と位置情報とを受信する。なお、ユーザU1〜U5は、同一人であってもよい。また、端末装置10A〜10Eは、同一の装置であってもよい。
In the example of FIG. 1, the
そして、情報提供装置100は、端末装置10から受信したセンサ情報とユーザ情報と位置情報とを紐づけて記憶する(ステップS2)。
Then, the
例えば、情報提供装置100は、センサ情報とユーザ情報と位置情報とを紐づけてデータベースに蓄積し、所定の期間(例えば、一週間/一か月/半年/1年等)保持する。なお、実際には、期間を定めず、蓄積し続けてもよい。
For example, the
なお、情報提供装置100は、環境音を音の種別毎に分類した場合、音の種別毎に、ユーザ情報と位置情報とに紐づけて記憶する。
When the environmental sounds are classified by sound type, the
ここで、情報提供装置100は、端末装置10から適切なセンサ情報を取得できていない場合、位置情報に基づいてセンサ情報を推定する(ステップS3)。
Here, when the
例えば、情報提供装置100は、阻害要因や端末装置10のセンサの故障等によりセンサ情報を取得できない場合、あるいは端末装置10から取得したセンサ情報の精度や信頼性が低いと思われる場合には、位置情報からセンサ情報を推定する。例えば、情報提供装置100は、位置情報に基づいて、その位置で過去に取得されたセンサ情報や、同じ又は近い位置に存在する他のユーザの端末装置10から取得したセンサ情報を用いて、その位置で得られると予想されるセンサ情報を推定する。あるいは、情報提供装置100は、位置情報と、その位置で得られると予想されるセンサ情報との組を正解データとしてモデルに学習させる。そして、情報提供装置100は、学習済モデルに対して、位置情報を入力することにより、その位置で得られると予想されるセンサ情報を取得する。すなわち、情報提供装置100は、位置情報を入力した際にモデルが出力したセンサ情報を、推定結果として取得する。
For example, when the
反対に、情報提供装置100は、端末装置10から適切な位置情報を取得できない場合には、センサ情報に基づいて位置情報を推定してもよい。例えば、情報提供装置100は、センサ情報と、そのセンサ情報が得られると予想される位置情報との組を正解データとしてモデルに学習させてもよい。そして、情報提供装置100は、学習済モデルに対して、センサ情報を入力することにより、そのセンサ情報が得られると予想される位置情報を取得する。すなわち、情報提供装置100は、センサ情報を入力した際にモデルが出力した位置情報を、推定結果として取得してもよい。また、情報提供装置100は、環境音、気圧、照度等に基づいて、ユーザUが屋内にいるか屋外にいるかを推定してもよい。
On the contrary, when the
そして、情報提供装置100は、センサ情報に基づいて、ユーザUの日々の生活における周囲の環境や状況に関するコンテキストがユーザUへ及ぼす影響や、ユーザUの生活習慣等を推定する(ステップS4)。
Then, the
例えば、情報提供装置100は、環境音を分析し、環境音に基づいてユーザUのストレス度や心身の健康状態、生活習慣等を推定する。情報提供装置100は、環境音に、上下階や隣り合う部屋からの生活音や、道路や線路等を通過する車両の通過音、工事等の騒音や耳障りな音、他者からの叱責・罵倒や苦情等が含まれている場合、ユーザUの特性(性格、人柄等)を加味して、それらの環境音によるユーザUのストレス度を推定する。また、情報提供装置100は、環境音に、複数の人間の談笑や酔った口調、飲食物の注文や提供に関する内容等が含まれている場合、ユーザUが酒場で飲酒していると推定する。また、情報提供装置100は、環境音に、水の流れる音や鳥の鳴き声等が含まれている場合、ユーザUが川の近くにいると推定する。
For example, the
また、情報提供装置100は、環境音や音声内容から、ユーザUがイライラしていることや悩んでいること等を推定してもよい。例えば、情報提供装置100は、ユーザUが物を激しく又は杜撰に扱っていたり、物に当たり散らしていたり、口調が攻撃的であったり、壁を叩いたりしている場合には、ユーザUがイライラしていると推定する。
Further, the
また、情報提供装置100は、気温や気圧に基づいて、ユーザUが高い山の上にいることや、雪の多い地域にいること等を推定する。また、情報提供装置100は、光度や照度に基づいて、ユーザUが日照権の侵害された部屋(他の建物等により日当たりが阻害される暗い部屋)で生活していること等を推定する。
Further, the
そして、情報提供装置100は、推定した結果に基づいて、ユーザUの保険料率(又は保険料額)を査定する(ステップS5)。
Then, the
情報提供装置100は、査定の結果に応じて、ユーザUの保険料率(又は保険料額)を変更する(ステップS6)。
The
例えば、情報提供装置100は、査定の結果、既存の保険料率の算定手法で既に決められているユーザUの保険料率(又は保険料額)を変更する必要があると判断した場合、ユーザUの保険料率(又は保険料額)を変更する。このとき、情報提供装置100は、査定の結果に基づいてユーザUの保険料率(又は保険料額)を決定する。
For example, when the
なお、1度の解析でユーザUの保険料率(又は保険料額)を判断すると、査定したユーザUの保険料率(又は保険料額)が既存の保険料率と大きく異なる場合、それが一時的なセンサ異常や偶発的な環境要因によるものである可能性もある。そのため、情報提供装置100は、査定したユーザUの保険料率(又は保険料額)について、何度か(例えば数日間)再計測を行うと好ましい。このとき、情報提供装置100は、何度か再計測したユーザUの保険料率(又は保険料額)の移動平均を求めてもよい。また、情報提供装置100は、査定したユーザUの保険料率(又は保険料額)を変更候補として保留し、変更候補についてヒアリングや調査をすることにより、変更候補をユーザUの保険料率(又は保険料額)として正式に採用するか否かを最終決定してもよい。
When the insurance premium rate (or insurance premium amount) of user U is judged by one analysis, if the assessed insurance premium rate (or insurance premium amount) of user U is significantly different from the existing insurance premium rate, it is temporary. It may also be due to sensor anomalies or accidental environmental factors. Therefore, it is preferable that the
情報提供装置100は、ユーザUの保険料率(又は保険料額)の変更を、保険会社又はユーザUの端末装置10に通知する(ステップS7)。
The
なお、情報提供装置100は、ユーザUの保険料率(又は保険料額)の変更を、保険会社やユーザUの端末装置10に通知してもよいし、しなくてもよい。また、保険会社やユーザUの端末装置10に通知する場合、変更した直後にリアルタイムに通知してもよいし、約款や規定により決められた期間や期日に通知してもよい。
The
〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係る情報提供装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、端末装置10と情報提供装置100とを含む。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Information processing system configuration example]
Next, the configuration of the information processing system 1 including the
また、図2に示す情報処理システム1に含まれる各装置の数や種類は図示したものに限られない。例えば、図2では、図示の簡略化のため、端末装置10を1種類のみ示したが、これはあくまでも例示であって限定されるものではなく、2種類以上であってもよい。
Further, the number and types of each device included in the information processing system 1 shown in FIG. 2 are not limited to those shown in the figure. For example, in FIG. 2, for simplification of the illustration, only one type of
端末装置10は、ユーザUによって使用される情報処理装置であって、各種センサを有し、持ち運んだり移動させたりすることが可能な小型の可搬型機器や移動型機器である。例えば、端末装置10は、スマートフォンやタブレット端末等のスマートデバイスである。なお、実際には、フィーチャーフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、カーナビゲーションシステム、スマートウォッチやヘッドマウントディスプレイ等のウェアラブルデバイス(Wearable Device)、スマートグラス、スマートスピーカ、360度カメラ等であってもよい。
The
また、かかる端末装置10は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、情報提供装置100と通信することができる。
Further, the
情報提供装置100は、例えばPCやサーバ装置、あるいはメインフレーム又はワークステーション等である。なお、情報提供装置100は、クラウドコンピューティングにより実現されてもよい。
The
〔3.端末装置の構成例〕
次に、図3を用いて、端末装置10の構成について説明する。図3は、端末装置10の構成例を示す図である。図3に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
[3. Configuration example of terminal device]
Next, the configuration of the
(通信部11)
通信部11は、ネットワークN(図2参照)と有線又は無線で接続され、ネットワークNを介して、情報提供装置100との間で情報の送受信を行う。例えば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
(Communication unit 11)
The communication unit 11 is connected to the network N (see FIG. 2) by wire or wirelessly, and transmits / receives information to / from the
(表示部12)
表示部12は、位置情報等の各種情報を表示する表示デバイスである。例えば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、タッチパネル式のディスプレイであるが、これに限定されるものではない。
(Display unit 12)
The display unit 12 is a display device that displays various information such as position information. For example, the display unit 12 is a liquid crystal display (LCD) or an organic EL display (Organic Electro-Luminescent Display). Further, the display unit 12 is a touch panel type display, but the display unit 12 is not limited thereto.
(入力部13)
入力部13は、ユーザUから各種操作を受け付ける入力デバイスである。入力部13は、例えば、文字や数字等を入力するためのボタン等を有する。また、表示部12がタッチパネル式のディスプレイである場合、表示部12の一部が入力部13として機能する。なお、入力部13は、ユーザUから音声入力を受け付けるマイク等であってもよい。マイクはワイヤレスであってもよい。
(Input unit 13)
The
(測位部14)
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(例えば、緯度および経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは、GNSS(Global Navigation Satellite System)の一例に過ぎない。
(Positioning unit 14)
The positioning unit 14 receives a signal (radio wave) transmitted from a GPS (Global Positioning System) satellite, and based on the received signal, position information (for example, latitude) indicating the current position of the
また、測位部14は、GPS以外にも、種々の手法により位置を測位することができる。例えば、測位部14は、位置補正等のための補助的な測位手段として、下記のように、端末装置10の様々な通信機能を利用して位置を測位してもよい。
In addition, the positioning unit 14 can position the position by various methods other than GPS. For example, the positioning unit 14 may position the position by using various communication functions of the
(Wi−Fi測位)
例えば、測位部14は、端末装置10のWi−Fi(登録商標)通信機能や、各通信会社が備える通信網を利用して、端末装置10の位置を測位する。具体的には、測位部14は、Wi−Fi通信等を行い、付近の基地局やアクセスポイントとの距離を測位することにより、端末装置10の位置を測位する。
(Wi-Fi positioning)
For example, the positioning unit 14 positions the position of the
(ビーコン測位)
また、測位部14は、端末装置10のBluetooth(登録商標)機能を利用して位置を測位してもよい。例えば、測位部14は、Bluetooth機能によって接続されるビーコン(beacon)発信機と接続することにより、端末装置10の位置を測位する。
(Beacon positioning)
Further, the positioning unit 14 may position the position by using the Bluetooth (registered trademark) function of the
(地磁気測位)
また、測位部14は、予め測定された構造物の地磁気のパターンと、端末装置10が備える地磁気センサとに基づいて、端末装置10の位置を測位する。
(Geomagnetic positioning)
Further, the positioning unit 14 positions the position of the
(RFID測位)
また、例えば、端末装置10が駅改札や店舗等で使用される非接触型ICカードと同等のRFID(Radio Frequency Identification)タグの機能を備えている場合、もしくはRFIDタグを読み取る機能を備えている場合、端末装置10によって決済等が行われた情報とともに、使用された位置が記録される。測位部14は、かかる情報を取得することで、端末装置10の位置を測位してもよい。また、位置は、端末装置10が備える光学式センサや、赤外線センサ等によって測位されてもよい。
(RFID positioning)
Further, for example, when the
測位部14は、必要に応じて、上述した測位手段の一つ又は組合せを用いて、端末装置10の位置を測位してもよい。
The positioning unit 14 may position the position of the
(センサ部20)
センサ部20は、端末装置10に搭載される各種のセンサを含む。図3に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、磁気センサ27と、画像センサ(カメラ)28とを備える。
(Sensor unit 20)
The
なお、上記した各センサ21〜28は、あくまでも例示であって限定されるものではない。すなわち、センサ部20は、各センサ21〜28のうちの一部を備える構成であってもよいし、各センサ21〜28に加えてあるいは代えて、湿度センサ等その他のセンサを備えてもよい。
It should be noted that the above-mentioned
加速度センサ21は、例えば、3軸加速度センサであり、端末装置10の移動方向、速度、および、加速度等の端末装置10の物理的な動きを検知する。ジャイロセンサ22は、端末装置10の角速度等に基づいて3軸方向の傾き等の端末装置10の物理的な動きを検知する。気圧センサ23は、例えば端末装置10の周囲の気圧を検知する。
The
端末装置10は、上記した加速度センサ21やジャイロセンサ22、気圧センサ23等を備えることから、これらの各センサ21〜23等を利用した歩行者自律航法(PDR:Pedestrian Dead-Reckoning)等の技術を用いて端末装置10の位置を測位することが可能になる。これにより、GPS等の測位システムでは取得することが困難な屋内での位置情報を取得することが可能になる。
Since the
例えば、加速度センサ21を利用した歩数計により、歩数や歩くスピード、歩いた距離を算出することができる。また、ジャイロセンサ22を利用して、ユーザUの進行方向や視線の方向、体の傾きを知ることができる。また、気圧センサ23で検知した気圧から、ユーザUの端末装置10が存在する高度やフロアの階数を知ることもできる。
For example, a pedometer using an
気温センサ24は、例えば端末装置10の周囲の気温を検知する。音センサ25は、例えば端末装置10の周囲の音を検知する。光センサ26は、端末装置10の周囲の照度を検知する。磁気センサ27は、例えば端末装置10の周囲の地磁気を検知する。画像センサ28は、端末装置10の周囲の画像を撮像する。
The air temperature sensor 24 detects, for example, the air temperature around the
上記した気圧センサ23、気温センサ24、音センサ25、光センサ26および画像センサ28は、それぞれ気圧、気温、音、照度を検知したり、周囲の画像を撮像したりすることで、端末装置10の周囲の環境や状況等を検知することができる。また、端末装置10の周囲の環境や状況等から、端末装置10の位置情報の精度を向上させることが可能になる。
The
(制御部30)
制御部30は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路等のハードウェアで構成されてもよい。制御部30は、送信部31と、受信部32と、処理部33とを備える。
(Control unit 30)
The control unit 30 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM, an input / output port, and various circuits. Further, the control unit 30 may be configured by hardware such as an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 30 includes a transmission unit 31, a reception unit 32, and a processing unit 33.
(送信部31)
送信部31は、例えば入力部13を用いてユーザUにより入力された各種情報や、端末装置10に搭載された各センサ21〜28によって検知された各種情報、測位部14によって測位された端末装置10の位置情報等を、通信部11を介して情報提供装置100へ送信することができる。
(Transmitting unit 31)
The transmission unit 31 is, for example, various information input by the user U using the
(受信部32)
受信部32は、通信部11を介して、情報提供装置100から提供される各種情報や、情報提供装置100からのセンサ情報の要求を受信することができる。
(Receiver 32)
The receiving unit 32 can receive various information provided by the
(処理部33)
処理部33は、表示部12等を含め、端末装置10全体を制御する。例えば、処理部33は、送信部31によって送信される各種情報や、受信部32によって受信された情報提供装置100からの各種情報を表示部12へ出力して表示させることができる。
(Processing unit 33)
The processing unit 33 controls the entire
(記憶部40)
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データ等が記憶される。
(Memory unit 40)
The storage unit 40 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an optical disk. To. Various programs, various data, and the like are stored in the storage unit 40.
〔4.情報提供装置の構成例〕
次に、図4を用いて、実施形態に係る情報提供装置100の構成について説明する。図4は、実施形態に係る情報提供装置100の構成例を示す図である。図4に示すように、情報提供装置100は、通信部110と、記憶部120と、制御部130とを有する。
[4. Configuration example of information providing device]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークN(図2参照)と有線又は無線で接続される。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Further, the communication unit 110 is connected to the network N (see FIG. 2) by wire or wirelessly.
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現される。図4に示すように、記憶部120は、ユーザ情報データベース121と、センサ情報データベース122と、保険契約情報データベース123とを有する。
(Memory unit 120)
The
(ユーザ情報データベース121)
ユーザ情報データベース121は、ユーザUに関する各種情報を記憶する。例えば、ユーザ情報データベース121は、ユーザUの属性等の種々の情報を記憶する。図5は、ユーザ情報データベース121の一例を示す図である。図5に示した例では、ユーザ情報データベース121は、「ユーザID(Identifier)」、「年齢」、「性別」、「自宅」、「勤務地」、「端末ID」といった項目を有する。
(User information database 121)
The
「ユーザID」は、ユーザUを識別するための識別情報を示す。また、「年齢」は、ユーザIDにより識別されるユーザUの年齢を示す。なお、「年齢」は、例えば35歳等、ユーザIDにより識別されるユーザUの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザUの性別を示す。 The "user ID" indicates identification information for identifying the user U. Further, "age" indicates the age of the user U identified by the user ID. The "age" may be a specific age of the user U identified by the user ID, for example, 35 years old. Further, "gender" indicates the gender of the user U identified by the user ID.
また、「自宅」は、ユーザIDにより識別されるユーザUの自宅の位置情報を示す。なお、図5に示す例では、「自宅」は、「LC11」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。 Further, "home" indicates the location information of the home of the user U identified by the user ID. In the example shown in FIG. 5, "home" is illustrated with an abstract reference numeral such as "LC11", but may be latitude / longitude information or the like. Further, for example, "home" may be a region name or an address.
また、「勤務地」は、ユーザIDにより識別されるユーザUの勤務地(学生の場合は学校)の位置情報を示す。なお、図5に示す例では、「勤務地」は、「LC12」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「勤務地」は、地域名や住所であってもよい。 Further, the "work location" indicates the location information of the work location (school in the case of a student) of the user U identified by the user ID. In the example shown in FIG. 5, the “work location” is illustrated with an abstract code such as “LC12”, but may be latitude / longitude information or the like. Further, for example, the "work location" may be a region name or an address.
また、「端末ID」は、ユーザIDにより識別されるユーザUが現在利用している端末装置10(稼働中の端末装置)を識別するための識別情報を示す。なお、「端末ID」は、複数であってもよい。すなわち、1人のユーザUが複数の端末装置を同時に利用してもよい。また、「端末ID」は、端末装置10の種別を示す情報を含んでいてもよい。
Further, the "terminal ID" indicates identification information for identifying the terminal device 10 (operating terminal device) currently used by the user U identified by the user ID. The number of "terminal IDs" may be plural. That is, one user U may use a plurality of terminal devices at the same time. Further, the "terminal ID" may include information indicating the type of the
例えば、図5に示す例において、ユーザID「U1」により識別されるユーザUの年齢は、「20代」であり、性別は、「男性」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザUは、自宅が「LC11」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザUは、勤務地が「LC12」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザUは端末ID「D1」により識別される端末装置10を利用していることを示す。
For example, in the example shown in FIG. 5, the age of the user U identified by the user ID "U1" is "20's", and the gender is "male". Further, for example, the user U identified by the user ID "U1" indicates that the home is "LC11". Further, for example, the user U identified by the user ID "U1" indicates that the work location is "LC12". Further, for example, it is shown that the user U identified by the user ID "U1" is using the
ここで、図5に示す例では、「U1」、「LC11」、「LC12」および「D1」といった抽象的な値を用いて図示するが、「U1」、「LC11」、「LC12」および「D1」には、具体的な文字列や数値等の情報が記憶されるものとする。以下、他の情報に関する図においても、抽象的な値を図示する場合がある。 Here, in the example shown in FIG. 5, although illustrated using abstract values such as “U1”, “LC11”, “LC12” and “D1”, “U1”, “LC11”, “LC12” and “ It is assumed that information such as a specific character string or a numerical value is stored in "D1". Hereinafter, abstract values may be illustrated also in figures relating to other information.
なお、ユーザ情報データベース121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報データベース121は、ユーザUの端末装置10に関する各種情報を記憶してもよい。また、ユーザ情報データベース121は、ユーザUのデモグラフィック(人口統計学的属性)、サイコグラフィック(心理学的属性)、ジオグラフィック(地理学的属性)、ベヘイビオラル(行動学的属性)等の属性に関する情報を記憶してもよい。例えば、ユーザ情報データベース121は、氏名、家族構成、職業、職位、収入、資格、居住形態(戸建、マンション等)、車の有無、通学・通勤時間、通学・通勤経路、定期券区間(駅、路線等)、利用頻度の高い駅(自宅・勤務地の最寄駅以外)、行動履歴(利用頻度の高い位置情報)、習い事(場所、時間帯等)、趣味、興味、ライフスタイル等の情報を記憶してもよい。また、ユーザ情報データベース121は、ユーザUが検索エンジン等に入力した検索クエリ(検索キーワード)に関する情報を記憶してもよい。
The
(センサ情報データベース122)
センサ情報データベース122は、センサ出力に関する各種情報を記憶する。例えば、センサ情報データベース122は、ユーザUの端末装置10からのセンサ情報とユーザ情報と位置情報とを紐づけて記憶する。図6は、センサ情報データベース122の一例を示す図である。図6に示した例では、センサ情報データベース122は、「ユーザID」、「取得日時」、「センサ情報」、「位置情報」、「コンテキスト」、「影響」、「生活習慣」といった項目を有する。
(Sensor information database 122)
The
「ユーザID」は、端末装置10から取得したユーザ情報であって、当該端末装置10を使用するユーザUを識別するための識別情報を示す。なお、「ユーザID」は、当該端末装置10を識別するための識別情報であってもよい。すなわち、「ユーザID」は、「端末ID」であってもよい。
The "user ID" is user information acquired from the
「取得日時」は、端末装置10がセンサ情報とユーザ情報と位置情報とを取得した日時を示す。なお、情報提供装置100が端末装置10からリアルタイムでセンサ情報とユーザ情報と位置情報とを取得している場合には、情報提供装置100が端末装置10からセンサ情報とユーザ情報と位置情報とを取得した日時であってもよい。また、「取得日時」は、年月日時分秒に限らず、曜日、昼間/夜間等に関する情報を含んでいてもよい。
The "acquisition date and time" indicates the date and time when the
「センサ情報」は、端末装置10の各種センサの出力(検知結果)を示す。「センサ情報」は、例えば環境音、気圧、照度等である。なお、環境音は、音の種別毎に分類(カテゴライズ)されて記憶されてもよい。例えば、環境音は、騒音等のユーザUの身体や精神に悪影響をもたらす音ごとに分類されて記憶される。また、環境音は、ユーザUの身体や精神に良い影響をもたらす音ごとに分類されて記憶される。
"Sensor information" indicates the output (detection result) of various sensors of the
「位置情報」は、端末装置10がセンサ情報を取得した時点での位置情報を示す。「位置情報」は、例えばGPSやPDR等で測位した位置情報である。
The "position information" indicates the position information at the time when the
「コンテキスト」は、ユーザUの置かれた環境や状況を示す。「コンテキスト」は、例えばユーザUが川の近くや山の上にいることや、街の中や店内にいることや、スポーツやゲーム等をしていることや、車を運転していることや、日照権の侵害された部屋にいること等を示す。 The "context" indicates the environment or situation in which the user U is placed. "Context" means, for example, that user U is near a river or on a mountain, in a city or in a store, playing sports, playing games, driving a car, or sunshine. Indicates that you are in a room where your rights have been infringed.
「影響」は、センサ情報に基づくユーザUの周囲の環境や状況がユーザUに及ぼす影響を示す。例えば、ユーザUのストレス度や心身の健康状態等を示す。また、「影響」は、ユーザUの周囲の環境や状況がユーザUの身体や精神に及ぼす悪影響や、ユーザUの身体や精神に及ぼす良い影響の分析結果を示してもよい。 “Effect” indicates the influence of the environment or situation around the user U based on the sensor information on the user U. For example, the stress level of the user U, the physical and mental health condition, and the like are shown. Further, the "influence" may indicate an analysis result of an adverse effect of the environment or situation around the user U on the body or mind of the user U or a positive effect on the body or mind of the user U.
「生活習慣」は、センサ情報に基づくユーザUの生活習慣を示す。「生活習慣」は、例えばユーザUの日々の生活における行動パターンやその分析結果等を示す。例えば、通勤時間が長い、他人と接する機会が多い、適度に運動している、外食が多い、過度の飲酒・喫煙、休日・夜間も活動している等を示す。 “Lifestyle” indicates the lifestyle of the user U based on the sensor information. The “lifestyle” indicates, for example, a behavior pattern in the daily life of the user U and an analysis result thereof. For example, it indicates long commuting time, many opportunities to interact with others, moderate exercise, eating out a lot, excessive drinking / smoking, and activities on holidays / night.
例えば、図6に示す例において、ユーザID「U1」により識別されるユーザUの端末装置10は、取得日時「取得日時#11」に、センサ情報「センサ情報#11」と位置情報「位置情報#11」とを取得していることを示す。また、ユーザID「U1」により識別されるユーザUは、コンテキスト「コンテキスト#11」が示す周囲の環境や状況から影響「影響#11」を受けており、生活習慣「生活習慣#11」が示す行動を習慣的に行っていることを示す。
For example, in the example shown in FIG. 6, the
なお、センサ情報データベース122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、センサ情報データベース122は、センサ情報を保管する有効期限に関する情報を記憶してもよい。また、センサ情報データベース122は、センサ情報の分析結果(環境の評価結果)に関する情報を記憶してもよい。また、センサ情報データベース122は、端末装置10のユーザUが入力したセンサ情報取得時の状況等に関するコメントに関する情報を記憶してもよい。なお、コメントは、テキストでも音声でもよい。
The
(保険契約情報データベース123)
保険契約情報データベース123は、ユーザUの加入する保険の契約に関する各種情報を記憶する。図7は、保険契約情報データベース123の一例を示す図である。図7に示した例では、保険契約情報データベース123は、「ユーザID」、「保険契約ID」、「契約内容」、「保険料率」といった項目を有する。
(Insurance contract information database 123)
The insurance
「ユーザID」は、保険の契約者又は被保険者となるユーザUを識別するための識別情報を示す。 The "user ID" indicates identification information for identifying the user U who is the policyholder or the insured.
「保険契約ID」は、ユーザUが加入している保険を識別するための識別情報を示す。なお、「保険契約ID」は、ユーザUが加入している保険の取扱保険会社や保険商品の種別を示す情報が含まれていてもよい。なお、「保険契約ID」は、複数であってもよい。すなわち、1人のユーザUが複数の保険に加入していてもよい。 The “insurance contract ID” indicates identification information for identifying the insurance covered by the user U. The "insurance contract ID" may include information indicating the type of insurance company or insurance product that the user U has subscribed to. The number of "insurance contract IDs" may be plural. That is, one user U may have a plurality of insurances.
「契約内容」は、ユーザUが加入している保険の内容や詳細情報を示す。「契約内容」は、例えば保険金の支払い条件の他、ユーザUの保険加入日や加入年数等を示す。 The “contract content” indicates the content and detailed information of the insurance covered by the user U. The “contract content” indicates, for example, the insurance payment conditions, the insurance coverage date of the user U, the number of years of coverage, and the like.
「保険料率」は、ユーザUが加入している保険の保険料の利率を示す。「保険料率」は、保険料額を示す情報であってもよい。 The "insurance premium rate" indicates the interest rate of the insurance premium of the insurance subscribed to by the user U. The "insurance premium rate" may be information indicating the insurance premium amount.
例えば、図7に示す例において、ユーザID「U1」により識別されるユーザは、保険契約ID「保険契約#1」により識別される保険に加入しており、契約内容「契約内容#1」で示される契約内容に従い、保険料率「保険料率#11」で保険料を支払っていることを示している。 For example, in the example shown in FIG. 7, the user identified by the user ID "U1" is insured by the insurance identified by the insurance contract ID "insurance contract # 1", and the contract content "contract content # 1" is used. It indicates that the insurance premium is paid at the insurance premium rate "insurance premium rate # 11" according to the contents of the contract shown.
なお、保険契約情報データベース123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、保険契約情報データベース123は、保険契約に関する口コミや評判、所定の評価指標に基づく評価結果等に関する情報を記憶してもよい。
The insurance
(制御部130)
図4に戻り、説明を続ける。制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報提供装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。図4に示す例では、制御部130は、取得部131と、集積部132と、推定部133と、査定部134と、変更部135と、出力部136を有する。
(Control unit 130)
Returning to FIG. 4, the explanation will be continued. The control unit 130 is a controller, and is an
(取得部131)
取得部131は、通信部110を介して、各地に所在する複数のユーザUの端末装置10のそれぞれからセンサ情報(センサデータ)とユーザ情報と位置情報とを取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires sensor information (sensor data), user information, and position information from each of the
(集積部132)
集積部132は、端末装置10から受信したセンサ情報とユーザ情報と位置情報とを紐づけてデータベースに集積する。なお、集積部132は、取得部131の一部であってもよい。
(Aggregation unit 132)
The collecting unit 132 collects the sensor information received from the
また、集積部132は、端末装置10から受信したセンサ情報に音が含まれている場合、その音から環境音のみを抽出する。例えば、集積部132は、センサ情報に含まれる音をフィルタリングして環境音のみを抽出してもよい。このとき、集積部132は、環境音を、音の種別毎に分類(カテゴライズ)してもよい。例えば、集積部132は、環境音を、騒音等のユーザUの身体や精神に悪影響をもたらす音ごとに分類する。また、集積部132は、環境音を、ユーザUの身体や精神に良い影響をもたらす音ごとに分類する。すなわち、集積部132は、環境音の抽出部や分類部としても機能する。
Further, when the sensor information received from the
なお、集積部132は、機械学習に基づくモデルを用いて、端末装置10から受信したセンサ情報に含まれる音から環境音を抽出してもよい。この場合、集積部132は、例えば端末装置10から受信したセンサ情報に含まれる音と、音の種別毎に分類(カテゴライズ)した環境音との組を正解データとしてモデルに学習させてもよい。そして、集積部132は、学習済モデルに対して、センサ情報に含まれる音を入力することにより、音の種別毎に分類した環境音を抽出する。すなわち、集積部132は、センサ情報に含まれる音を入力した際にモデルが出力した環境音を、抽出結果としてもよい。
The integrated unit 132 may extract environmental sounds from the sounds included in the sensor information received from the
なお、モデルは、任意の種別のモデルが採用可能である。例えば、集積部132は、SVM(Support Vector Machine)やDNN(Deep Neural Network)をモデルとして採用してもよい。ここで、DNNは、CNN(Convolutional Neural Network)やRNN(Recurrent Neural Network)であってもよい。また、RNNは、LSTM(Long short-term memory)等であってもよい。すなわち、モデルは、任意の形式のモデルが採用可能である。また、モデルは、例えば、CNNとRNNとを組み合わせたモデル等、複数のモデルを組み合わせることで実現されるモデルであってもよい。 Any type of model can be adopted as the model. For example, the integration unit 132 may adopt an SVM (Support Vector Machine) or a DNN (Deep Neural Network) as a model. Here, the DNN may be a CNN (Convolutional Neural Network) or an RNN (Recurrent Neural Network). Further, the RNN may be an LSTM (Long short-term memory) or the like. That is, any type of model can be adopted as the model. Further, the model may be a model realized by combining a plurality of models, for example, a model in which a CNN and an RNN are combined.
学習は、例えばディープニューラルネットワーク(DNN:Deep Neural Network)を利用したディープラーニング(深層学習)等である。また、データマイニングやその他の機械学習アルゴリズムを利用してもよい。集積部132は、上述した各種の学習手法により、モデルの学習を行う。 The learning is, for example, deep learning (deep learning) using a deep neural network (DNN). Data mining and other machine learning algorithms may also be used. The integration unit 132 learns the model by the various learning methods described above.
(推定部133)
推定部133は、ユーザUの端末装置10からのセンサ情報に基づいて、ユーザUの日々の生活における周囲の環境や状況に関するコンテキストがユーザUへ及ぼす影響や、ユーザUの生活習慣等を推定する。例えば、推定部133は、環境音を分析し、環境音に基づいてユーザUのストレス度や心身の健康状態、生活習慣等を推定する。
(Estimation unit 133)
Based on the sensor information from the
なお、推定部133は、機械学習に基づくモデルを用いて、ユーザUの属性を推定してもよい。この場合、推定部133は、例えば端末装置10から受信したセンサ情報をモデルに入力し、ユーザUへの影響や生活習慣等を正解データとして学習を行う。
The estimation unit 133 may estimate the attributes of the user U using a model based on machine learning. In this case, the estimation unit 133 inputs, for example, the sensor information received from the
また、推定部133は、端末装置10から適切なセンサ情報を取得できていない場合、位置情報に基づいてセンサ情報を推定してもよい。例えば、推定部133は、位置情報に基づいて、その位置で過去に取得されたセンサ情報や、同じ又は近い位置に存在する他のユーザの端末装置10から取得したセンサ情報を用いて、その位置で得られると予想されるセンサ情報を推定する。あるいは、推定部133は、機械学習に基づくモデルを用いて、センサ情報を推定してもよい。この場合、推定部133は、位置情報をモデルに入力し、その位置で得られると予想されるセンサ情報を正解データとして学習を行う。
Further, the estimation unit 133 may estimate the sensor information based on the position information when the appropriate sensor information cannot be acquired from the
反対に、推定部133は、端末装置10から適切な位置情報を取得できない場合には、センサ情報に基づいて位置情報を推定してもよい。例えば、推定部133は、センサ情報を入力とし、センサ情報に紐づけられた位置情報を正解データとした機械学習等により位置情報を推定する。
On the contrary, when the estimation unit 133 cannot acquire appropriate position information from the
また、推定部133は、環境音、気圧、照度等に基づいて、ユーザUが屋内にいるか屋外にいるかを推定してもよい。 Further, the estimation unit 133 may estimate whether the user U is indoors or outdoors based on the environmental sound, the atmospheric pressure, the illuminance, and the like.
(査定部134)
査定部134は、推定部133により推定された結果に基づいて、ユーザUの保険料率(又は保険料額)を査定する。
(Assessment Department 134)
The assessment unit 134 assesses the insurance premium rate (or insurance premium amount) of the user U based on the result estimated by the estimation unit 133.
なお、査定部134は、機械学習に基づくモデルを用いて、ユーザUの保険料率(又は保険料額)を査定してもよい。この場合、査定部134は、例えば端末装置10から受信したセンサ情報をモデルに入力し、ユーザUの保険料率(又は保険料額)を正解データとして学習を行う。
The assessment unit 134 may assess the insurance premium rate (or insurance premium amount) of the user U using a model based on machine learning. In this case, the assessment unit 134 inputs, for example, the sensor information received from the
(変更部135)
変更部135は、査定部134による査定の結果に基づいて、既存の保険料率の算定手法で既に決められているユーザUの保険料率(又は保険料額)を変更する。例えば、変更部135は、査定部134による査定の結果、ユーザUの保険料率(又は保険料額)を変更する必要があると判断した場合、ユーザUの保険料率(又は保険料額)を変更する。このとき、変更部135は、査定部134による査定の結果に基づいて、ユーザUの保険料率(又は保険料額)を決定する。
(Change 135)
The change unit 135 changes the insurance premium rate (or insurance premium amount) of the user U already determined by the existing insurance premium rate calculation method based on the result of the assessment by the assessment unit 134. For example, if the change unit 135 determines that it is necessary to change the insurance premium rate (or insurance premium amount) of user U as a result of the assessment by the assessment unit 134, the insurance premium rate (or insurance premium amount) of user U is changed. do. At this time, the change unit 135 determines the insurance premium rate (or insurance premium amount) of the user U based on the result of the assessment by the assessment unit 134.
(出力部136)
出力部136は、通信部110を介して、保険会社又はユーザUの端末装置10に対して、ユーザUの保険料率(又は保険料額)の変更に関する情報を送信する。なお、出力部136は、変更部135の一部であってもよい。
(Output unit 136)
The output unit 136 transmits information regarding the change of the insurance premium rate (or insurance premium amount) of the user U to the insurance company or the
〔5.処理手順〕
次に、図8を用いて実施形態に係る情報提供装置100による処理手順について説明する。図8は、実施形態に係る処理手順を示すフローチャートである。なお、以下に示す処理手順は、情報提供装置100の制御部130によって繰り返し実行される。
[5. Processing procedure]
Next, the processing procedure by the
図8に示すように、情報提供装置100は、各地に所在する複数のユーザUの端末装置10のそれぞれからセンサ情報(センサデータ)とユーザ情報と位置情報とを取得する(ステップS101)。
As shown in FIG. 8, the
情報提供装置100は、センサ情報とユーザ情報と位置情報とを紐づけてデータベースに記憶する(ステップS102)。例えば、情報提供装置100は、センサ情報に含まれる音から環境音を抽出し、抽出された環境音を音の種別毎に分類(カテゴライズ)し、分類された環境音を音の種別毎にユーザ情報と位置情報とに紐づけて記憶する。
The
このとき、情報提供装置100は、ユーザUの端末装置10から、適切なセンサ情報を取得できているか否かを判定する(ステップS103)。
At this time, the
情報提供装置100は、ユーザUの端末装置10から、適切なセンサ情報を取得できていない場合には(ステップS103;No)、位置情報に基づいてセンサ情報を推定する(ステップS104)。
If the
情報提供装置100は、ユーザUの端末装置10から、適切なセンサ情報を取得できている場合(ステップS103;Yes)、又はセンサ情報を推定した場合(ステップS104)には、センサ情報に基づいて、ユーザUの日々の生活における周囲の環境や状況に関するコンテキストを推定し、ユーザUのストレス度やユーザUの生活習慣等を推定する(ステップS105)。
When the
そして、情報提供装置100は、推定した結果に基づいて、ユーザUの保険料率(又は保険料額)を査定する(ステップS106)。
Then, the
情報提供装置100は、査定の結果、ユーザUの保険料率(又は保険料額)を変更する必要があるか否かを判断する(ステップS107)。
As a result of the assessment, the
情報提供装置100は、ユーザUの保険料率(又は保険料額)を変更する必要があると判断した場合、ユーザUの保険料率(又は保険料額)を変更する(ステップS108)。
When the
情報提供装置100は、ユーザUの保険料率(又は保険料額)の変更を、保険会社又はユーザUの端末装置10に通知する(ステップS109)。
The
〔6.変形例〕
上述した端末装置10および情報提供装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
[6. Modification example]
The
上記の実施形態において、端末装置10がユーザUの衣服のポケットや鞄(バッグ、リュック、ポーチ)等の中にしまわれている可能性もある。そこで、端末装置10は、ユーザUにより使用(操作、動画視聴等)されている場合にのみ、センサ情報を情報提供装置100に送信するようにしてもよい。例えば、情報提供装置100は、端末装置10が何らかのアプリケーションプログラム(アプリ)等を起動している場合にはセンサ情報を取得し、何らアプリ等を起動していない場合にはセンサ情報を取得しないようにする。もしくは、情報提供装置100は、端末装置10が非スリープ状態の場合にはセンサ情報を取得し、端末装置10がスリープ状態の場合にはセンサ情報を取得しないようにする。なお、「センサ情報を取得しない」には、「センサ情報を取得しても記憶しない」ことを含む。
In the above embodiment, the
また、情報提供装置100は、センサ情報とともに、端末装置10の操作履歴等を取得し、端末装置10がユーザUにより所定時間以上(例えば5分以上)使用されていない場合には、端末装置10がユーザUの衣服のポケットや鞄等の中にしまわれていると推定し、端末装置10からのセンサ情報を取得しないようにしてもよい。
Further, the
また、情報提供装置100は、センサ情報(環境音、気圧、照度等)又はその変化等に基づいて、端末装置10がユーザUの衣服のポケットや鞄等の中にしまわれていると推定した場合には、端末装置10からのセンサ情報を取得しないようにしてもよい。
Further, the
また、上記の実施形態において、情報提供装置100は、センサ情報に含まれる音から環境音を抽出し、その環境音が所定の条件を満たす場合に、ユーザUの保険料率(又は保険料額)を変更してもよい。例えば、情報提供装置100は、環境音の音量が所定の閾値以上である場合に、ユーザUの保険料率(又は保険料額)を変更する。もしくは、情報提供装置100は、環境音の種別が所定の種別である場合に、ユーザUの保険料率(又は保険料額)を変更する。
Further, in the above embodiment, the
なお、情報提供装置100は、ユーザUの端末装置10内の一機能として実装されてもよい。例えば、情報提供装置100は、ユーザUの端末装置10のうちの一台であってもよい。
The
〔7.効果〕
上述してきたように、本願に係る情報提供装置100は、取得部131と、査定部134とを備える。取得部131は、センサを有するユーザの端末装置が同時期に取得したセンサ情報とユーザの識別情報とを取得する。査定部134は、センサ情報に基づいてユーザの保険料率を査定する。このように、本願に係る情報提供装置100は、HaaS(Hardware as a Service)を活用して環境情報を収集し、収集した環境情報を保険分野に活用することができる。
[7. effect〕
As described above, the
〔8.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報提供装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。以下、情報提供装置100を例に挙げて説明する。図9は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[8. Hardware configuration]
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。
The arithmetic unit 1030 operates based on a program stored in the primary storage device 1040 or the
一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USBメモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。
The primary storage device 1040 is a memory device such as a RAM (Random Access Memory) that temporarily stores data used by the arithmetic unit 1030 for various calculations. Further, the
出力I/F1060は、ディスプレイ、プロジェクタ、およびプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USB等により実現される。
The output I / F 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various information such as a display, a projector, and a printer. For example, USB (Universal Serial Bus) or DVI. (Digital Visual Interface), HDMI (Registered Trademark) (High Definition Multimedia Interface), etc. are realized by standard connectors. Further, the input I /
また、出力I/F1060および入力I/F1070はそれぞれ出力装置1010および入力装置1020と無線で接続してもよい。すなわち、出力装置1010および入力装置1020は、ワイヤレス機器であってもよい。
Further, the output I / F 1060 and the input I /
また、出力装置1010および入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060および入力I/F1070も、入出力I/Fとして一体化していてもよい。
Further, the output device 1010 and the input device 1020 may be integrated like a touch panel. In this case, the output I / F 1060 and the input I /
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 The input device 1020 is, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like.
ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
The network I /
演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The arithmetic unit 1030 controls the output device 1010 and the input device 1020 via the output I / F 1060 and the input I /
例えば、コンピュータ1000が情報提供装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。
For example, when the computer 1000 functions as the
〔9.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[9. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Further, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, that is, those in a so-called equal range. Furthermore, the components described above can be combined as appropriate. Further, various omissions, replacements or changes of the components can be made without departing from the gist of the above-described embodiment.
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed. All or part of it can be done automatically by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
例えば、上述した情報提供装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現する等、構成は柔軟に変更できる。
For example, the above-mentioned
また、上述してきた実施形態および変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not conflict with each other.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」等に読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit" and the like. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.
1 情報処理システム
10 端末装置
14 測位部
20 センサ部
100 情報提供装置
110 通信部
120 記憶部
121 ユーザ情報データベース
122 センサ情報データベース
123 保険契約情報データベース
130 制御部
131 取得部
132 集積部
133 推定部
134 査定部
135 変更部
136 出力部
1
Claims (15)
前記センサ情報に基づいて前記ユーザの保険料率を査定する査定部と、
を備えることを特徴とする情報処理装置。 An acquisition unit that acquires sensor information acquired by the terminal device of a user having a sensor at the same time and identification information of the user, and an acquisition unit.
An assessment unit that assesses the insurance premium rate of the user based on the sensor information,
An information processing device characterized by being equipped with.
をさらに備えることを特徴とする請求項1に記載の情報処理装置。 A change department that changes the insurance premium rate of the user based on the result of the assessment by the assessment department,
The information processing apparatus according to claim 1, further comprising.
ことを特徴とする請求項2に記載の情報処理装置。 The information according to claim 2, wherein the changing unit changes the insurance premium rate of the user when it is determined that the insurance premium rate of the user needs to be changed as a result of the assessment by the assessment unit. Processing equipment.
をさらに備えることを特徴とする請求項2又は3に記載の情報処理装置。 A notification unit that notifies at least one of the insurance company and the terminal device of the user of the change in the insurance premium rate of the user by the change unit.
The information processing apparatus according to claim 2 or 3, further comprising.
をさらに備え、
前記査定部は、前記推定部により推定された結果に基づいて前記ユーザの保険料率を査定する
ことを特徴とする請求項2〜4のうちいずれか1つに記載の情報処理装置。 An estimation unit that estimates the context of the user's environment and situation based on the sensor information, and an estimation unit.
Further prepare
The information processing apparatus according to any one of claims 2 to 4, wherein the assessment unit assesses the insurance premium rate of the user based on the result estimated by the estimation unit.
ことを特徴とする請求項5に記載の情報処理装置。 The information processing apparatus according to claim 5, wherein the estimation unit estimates the influence of the environment and situation of the user on the user based on the sensor information.
をさらに備え、
前記推定部は、前記環境音による前記ユーザへの影響を推定する
ことを特徴とする請求項5又は6に記載の情報処理装置。 An extraction unit that extracts environmental sounds from the sounds included in the sensor information,
Further prepare
The information processing apparatus according to claim 5, wherein the estimation unit estimates the influence of the environmental sound on the user.
をさらに備えることを特徴とする請求項7に記載の情報処理装置。 A classification unit that classifies environmental sounds by sound type,
The information processing apparatus according to claim 7, further comprising.
ことを特徴とする請求項8に記載の情報処理装置。 The information processing apparatus according to claim 8, wherein the classification unit classifies the environmental sounds into sounds that adversely affect the body and mind of the user.
ことを特徴とする請求項8又は9に記載の情報処理装置。 The information processing apparatus according to claim 8 or 9, wherein the classification unit classifies the environmental sounds into sounds that have a positive effect on the body and mind of the user.
ことを特徴とする請求項8〜10のうちいずれか1つに記載の情報処理装置。 The information processing device according to any one of claims 8 to 10, wherein the changing unit changes the insurance premium rate of the user when the environmental sound satisfies a predetermined condition.
ことを特徴とする請求項5〜10のうちいずれか1つに記載の情報処理装置。 The information processing device according to any one of claims 5 to 10, wherein the estimation unit estimates the lifestyle of the user based on the sensor information.
前記推定部は、前記センサ情報を取得できていない場合、前記位置情報に基づいて前記センサ情報を推定する
ことを特徴とする請求項5〜9のうちいずれか1つに記載の情報処理装置。 The acquisition unit further acquires position information from the terminal device, and the acquisition unit further acquires position information.
The information processing apparatus according to any one of claims 5 to 9, wherein the estimation unit estimates the sensor information based on the position information when the sensor information cannot be acquired.
センサを有するユーザの端末装置が同時期に取得したセンサ情報と前記ユーザの識別情報とを取得する取得工程と、
前記センサ情報に基づいて前記ユーザの保険料率を査定する査定工程と、
を含むことを特徴とする情報処理方法。 It is an information processing method executed by an information processing device.
The acquisition process of acquiring the sensor information acquired by the terminal device of the user having the sensor and the identification information of the user at the same time, and the acquisition process.
An assessment process that assesses the insurance premium rate of the user based on the sensor information,
An information processing method characterized by including.
前記センサ情報に基づいて前記ユーザの保険料率を査定する査定手順と、
をコンピュータに実行させるための情報処理プログラム。 The acquisition procedure for acquiring the sensor information acquired by the terminal device of the user having the sensor and the identification information of the user at the same time, and the acquisition procedure.
An assessment procedure for assessing the insurance premium rate of the user based on the sensor information, and
Information processing program to make a computer execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020097120A JP7372210B2 (en) | 2020-06-03 | 2020-06-03 | Information processing device, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020097120A JP7372210B2 (en) | 2020-06-03 | 2020-06-03 | Information processing device, information processing method, and information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021189961A true JP2021189961A (en) | 2021-12-13 |
JP7372210B2 JP7372210B2 (en) | 2023-10-31 |
Family
ID=78849668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020097120A Active JP7372210B2 (en) | 2020-06-03 | 2020-06-03 | Information processing device, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7372210B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008275330A (en) * | 2007-04-25 | 2008-11-13 | Mitsubishi Electric Corp | Positioning information processing device |
JP2014530438A (en) * | 2011-10-17 | 2014-11-17 | コーニンクレッカ フィリップス エヌ ヴェ | Medical feedback system based on sound analysis in medical environment |
JP2017532653A (en) * | 2014-09-08 | 2017-11-02 | リーオ インコーポレイテッド | Environmental monitoring device and method |
JP2018136625A (en) * | 2017-02-20 | 2018-08-30 | Kddi株式会社 | Identification apparatus, identification method and identification program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6796525B2 (en) | 2017-03-23 | 2020-12-09 | 株式会社日立製作所 | Image processing equipment, image processing system and image processing method |
-
2020
- 2020-06-03 JP JP2020097120A patent/JP7372210B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008275330A (en) * | 2007-04-25 | 2008-11-13 | Mitsubishi Electric Corp | Positioning information processing device |
JP2014530438A (en) * | 2011-10-17 | 2014-11-17 | コーニンクレッカ フィリップス エヌ ヴェ | Medical feedback system based on sound analysis in medical environment |
JP2017532653A (en) * | 2014-09-08 | 2017-11-02 | リーオ インコーポレイテッド | Environmental monitoring device and method |
JP2018136625A (en) * | 2017-02-20 | 2018-08-30 | Kddi株式会社 | Identification apparatus, identification method and identification program |
Also Published As
Publication number | Publication date |
---|---|
JP7372210B2 (en) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7317901B2 (en) | Information processing device, information processing method and information processing program | |
JP7174782B2 (en) | Information processing device, information processing method and information processing program | |
JP7372210B2 (en) | Information processing device, information processing method, and information processing program | |
JP7155196B2 (en) | Information processing device, information processing method and information processing program | |
JP7187597B2 (en) | Information processing device, information processing method and information processing program | |
JP7244458B2 (en) | Information processing device, information processing method and information processing program | |
JP2023027548A (en) | Device, method, and program for processing information | |
JP2022041090A (en) | Information processor, information processing method and information processing program | |
JP7155195B2 (en) | Information processing device, information processing method and information processing program | |
JP7459021B2 (en) | Information processing device, information processing method, and information processing program | |
JP7337123B2 (en) | Information processing device, information processing method and information processing program | |
JP7016980B1 (en) | Information processing equipment, information processing methods and information processing programs | |
JP7145247B2 (en) | Information processing device, information processing method and information processing program | |
JP7475405B2 (en) | Information processing device, information processing method, and information processing program | |
JP7388744B2 (en) | Information processing device, information processing method, and information processing program | |
JP7025480B2 (en) | Information processing equipment, information processing methods and information processing programs | |
JP7077431B1 (en) | Information processing equipment, information processing methods and information processing programs | |
JP7159373B2 (en) | Information processing device, information processing method and information processing program | |
JP7095040B2 (en) | Information processing equipment, information processing methods and information processing programs | |
JP2023043778A (en) | Information processing device, information processing method, and information processing program | |
JP2023043762A (en) | Information processing device, information processing method, and information processing program | |
JP2023028857A (en) | Information processing system | |
JP2023043779A (en) | Information processing device, information processing method, and information processing program | |
JP2024043930A (en) | Information processor, method for processing information, and information processing program | |
JP2023043772A (en) | Information processing device, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220725 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230111 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230111 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230117 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230124 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230317 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20230322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7372210 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |