JP5018120B2 - Mobile terminal, program, and display screen control method for mobile terminal - Google Patents

Mobile terminal, program, and display screen control method for mobile terminal Download PDF

Info

Publication number
JP5018120B2
JP5018120B2 JP2007037605A JP2007037605A JP5018120B2 JP 5018120 B2 JP5018120 B2 JP 5018120B2 JP 2007037605 A JP2007037605 A JP 2007037605A JP 2007037605 A JP2007037605 A JP 2007037605A JP 5018120 B2 JP5018120 B2 JP 5018120B2
Authority
JP
Japan
Prior art keywords
mobile terminal
identifier
term
sections
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007037605A
Other languages
Japanese (ja)
Other versions
JP2008204040A (en
Inventor
大輔 上坂
亜令 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2007037605A priority Critical patent/JP5018120B2/en
Publication of JP2008204040A publication Critical patent/JP2008204040A/en
Application granted granted Critical
Publication of JP5018120B2 publication Critical patent/JP5018120B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)

Description

本発明は、携帯端末の利用者が行う携帯端末に対する各種操作内容を推定する技術に関する。   The present invention relates to a technique for estimating various operation contents for a mobile terminal performed by a user of the mobile terminal.

特許文献1には、利用者の行動を推定する携帯端末が記載されている。特許文献1によると、携帯端末は、あるセンサから得られるセンサデータの値の変化に基づき、各センサから得られるセンサデータを時間軸上で分割し、分割した各センサデータから特徴量を抽出して、特徴量と、利用者の携帯端末におけるサービス利用履歴、つまり、利用者の行動との関係を学習することで、利用者の行動を予測している。なお、センサデータの分割は、あるセンサが2値のセンサデータを出力する場合には、その値が変化する点で、アナログ値で出力する場合には、その値が閾値以上変化する点にて行うこととしている。   Patent Document 1 describes a portable terminal that estimates user behavior. According to Patent Document 1, the mobile terminal divides sensor data obtained from each sensor on the time axis based on a change in the value of sensor data obtained from a certain sensor, and extracts a feature amount from each divided sensor data. Thus, the user's behavior is predicted by learning the relationship between the feature amount and the service usage history in the user's mobile terminal, that is, the user's behavior. The sensor data is divided when a sensor outputs binary sensor data, and when the sensor data is output as an analog value, the value changes more than a threshold value. To do.

特開2006−134080号公報JP 2006-134080 A

従来技術では、あるセンサの出力変化点にて、各センサデータの分割を行っているが、あるセンサの出力変化点において他のセンサデータを分割することの意義、つまり、あるセンサに基づき分割した他のセンサデータから抽出した特徴量が、利用者の携帯端末を通じて行う各種行動の区切りと因果関係があるか否かが不明であり、推定誤差が大きくなるという問題がある。   In the prior art, each sensor data is divided at the output change point of a certain sensor, but the meaning of dividing other sensor data at the output change point of a certain sensor, that is, divided based on a certain sensor. It is unclear whether or not the feature amount extracted from other sensor data has a causal relationship with the break of various actions performed through the user's mobile terminal, and there is a problem that the estimation error increases.

また、現在の行動は、過去の行動に起因して生じる部分があるが、従来技術ではセンサによる状況情報からユーザ行動を予測するのみであり、この点からも推定誤差が大きくなってしまう。更に、直近1区間のセンサデータからのみ行動の推定を行い、中長期的な行動の経過が考慮されていないという問題がある。   Moreover, although the present action has a part which arises from the past action, in a prior art, only a user action is estimated from the situation information by a sensor, and an estimation error will also become large from this point. Furthermore, there is a problem that the behavior is estimated only from the sensor data of the most recent one section, and the progress of the medium- to long-term behavior is not taken into consideration.

したがって、本発明は上記問題を解決し、利用者が行う各種操作内容をより高い精度で推定する携帯端末と、該携帯端末による操作内容の推定結果を利用し、各サービス提供のために携帯端末へ表示させる画面を制御する方法を提供することを目的とする。   Therefore, the present invention solves the above-described problem, uses a mobile terminal that estimates the details of various operations performed by the user with higher accuracy, and uses the estimation results of the operation contents by the mobile terminal to provide each service for providing each service. An object is to provide a method for controlling a screen to be displayed.

本発明における携帯端末によれば、
1つ以上のセンサより得られたセンサデータ及び/又は1つ以上の携帯端末の状態に関するデータを取得し、それぞれを、状況情報として保存する手段と、利用者の携帯端末に対する各操作内容を示すデータそれぞれを行動情報として保存する手段と、各状況情報それぞれについて、状況情報を時間軸上で区間に分割して相互に類似する区間を認識し、類似する区間には同一識別子を付与し、状況情報を識別子列として出力する手段と、各時刻における、識別子列それぞれの識別子と、行動情報との関係に基づき、識別子の組合せと行動情報の関係を求める手段と、取得した状況情報に対応する識別子を求め、求めた識別子と、前記識別子の組合せと行動情報の関係に基づき、利用者が携帯端末に対して行う操作内容を推定する手段とを有することを特徴とする。
According to the portable terminal of the present invention,
Means for acquiring sensor data obtained from one or more sensors and / or data relating to the state of one or more portable terminals, and storing the data as status information, and each operation content of the user's portable terminal A means for storing each piece of data as behavior information, and for each situation information, the situation information is divided into sections on the time axis to recognize similar sections, and the same identifier is assigned to the similar sections. A means for outputting information as an identifier string, a means for obtaining a relation between identifier combinations and action information based on the relation between the identifier of each identifier string and action information at each time, and an identifier corresponding to the acquired situation information And a means for estimating an operation performed by the user on the portable terminal based on the obtained identifier and the relationship between the combination of the identifier and the action information. It is characterized in.

本発明の携帯端末における他の実施形態によれば、
識別子列として出力する手段は、第1の手段から第Nの手段、ここで、Nは2以上の整数、を備えており、第1の手段は、状況情報を第1の区間に分割して相互に類似する第1の区間を認識し、類似する第1の区間には同一の第1の識別子を付与した第1の識別子列として出力し、第Kの手段、ここでKは2以上N以下の整数、は、第K−1の識別子列を入力とし、第K−1の識別子列の第K−1の区間を結合した第Kの区間に対して相互に類似する第Kの区間を認識し、類似する第Kの区間には同一の第Kの識別子を付与した第Kの識別子列として出力し、第Nの手段の出力が、状況情報を識別子列として出力する手段の出力であることも好ましい。
According to another embodiment of the mobile terminal of the present invention,
The means for outputting as an identifier string comprises the first means to the Nth means, where N is an integer equal to or greater than 2, and the first means divides the status information into the first sections. Recognizing first sections that are similar to each other, and outputting the same first section as a first identifier string to which the same first identifier is assigned, the Kth means, where K is 2 or more N The following integers are input to the K-1th identifier string, and are similar to the Kth section obtained by combining the K-1th section of the K-1th identifier string. Recognized and output as a Kth identifier string with the same Kth identifier assigned to the similar Kth section, and the output of the Nth means is the output of the means for outputting the status information as an identifier string It is also preferable.

また、本発明の携帯端末における他の実施形態によれば、
第Kの手段は、第K−1の区間の結合数が異なる、異なる長さの第Kの区間に対して、それぞれ処理を行うことで、1つの第K−1の識別子列から複数の第Kの識別子列を出力することも好ましい。
According to another embodiment of the mobile terminal of the present invention,
The K-th means performs a process on each of the K-th sections having different lengths and the number of couplings of the (K-1) -th section being different, thereby making it possible to perform a plurality of operations from one K-1-th identifier string. It is also preferable to output K identifier strings.

更に、本発明の携帯端末における他の実施形態によれば、
前記推定する手段は、保存された行動情報に基づき行動間の関係を求め、該行動間の関係と、取得した行動情報を、利用者が携帯端末に対して行う操作内容の推定に使用することも好ましい。
Furthermore, according to another embodiment of the portable terminal of the present invention,
The estimating means obtains a relationship between behaviors based on the stored behavior information, and uses the relationship between the behaviors and the acquired behavior information for estimation of operation contents performed on the mobile terminal by the user. Is also preferable.

更に、本発明の携帯端末における他の実施形態によれば、
操作内容の推定結果に応じてユーザインタフェースを変更する手段を有することも好ましい。
Furthermore, according to another embodiment of the portable terminal of the present invention,
It is also preferable to have means for changing the user interface according to the estimation result of the operation content.

本発明におけるプログラムによれば、
携帯端末を、前記携帯端末として機能させることを特徴とする。
According to the program of the present invention,
A portable terminal is made to function as the portable terminal.

本発明における方法によれば、
前記携帯端末とネットワークとを含むシステムにおいて、ネットワークが、携帯端末に表示させる画面を制御する方法であって、携帯端末が、操作内容の推定結果を、ネットワークに送信するステップと、ネットワークが、推定結果に基づき携帯端末に表示させる画面を決定するステップと、ネットワークが、決定した画面を携帯端末に表示させるための情報を携帯端末に送信するステップとを備えていることを特徴とする。
According to the method of the present invention,
In the system including the mobile terminal and the network, the network is a method for controlling a screen to be displayed on the mobile terminal, the mobile terminal transmitting an operation result estimation result to the network, and the network A step of determining a screen to be displayed on the mobile terminal based on the result, and a step of transmitting information for causing the mobile terminal to display the determined screen on the mobile terminal are provided.

特定のセンサのデータにより他のセンサデータを分割するのではなく、センサデータ毎に類似性を探索するため各利用者固有の特性に対応することができる。また、第1の区間により1回目の類似性の探索を行った後、区間を結合させつつ類似性の探索を1回以上繰り返すことで、過去の経過を考慮した推定が可能になり、結合数を変化させ様々な区間に対して類似性の探索を行うことで推定精度を高めることができる。更に、状況情報から推定を行うのみならず、過去の行動履歴から行動間の因果関係を考慮して推定を行うことで、更に、推定精度を向上させることができる。   Instead of dividing other sensor data according to the data of a specific sensor, it searches for similarities for each sensor data, so that it can correspond to the characteristics unique to each user. In addition, after the first similarity search is performed using the first interval, the similarity search is repeated one or more times while combining the intervals, so that estimation in consideration of the past progress can be performed. The accuracy of estimation can be increased by searching for similarities for various sections. Furthermore, not only estimating from situation information but also estimating from the past action history in consideration of the causal relationship between actions, the estimation accuracy can be further improved.

また、推定結果に基づきそのユーザインタフェースを変更又は再構築し、あるいは、推定結果をネットワークに送信してネットワーク側で推定結果に応じた画面を携帯端末に表示させる様にすることで、推定結果に応じたユーザインタフェース又はサービス提供が可能となる。   In addition, the user interface is changed or reconstructed based on the estimation result, or the estimation result is transmitted to the network, and a screen corresponding to the estimation result is displayed on the mobile terminal on the network side. A corresponding user interface or service can be provided.

本発明を実施するための最良の実施形態について、以下では図面を用いて詳細に説明する。   The best mode for carrying out the present invention will be described in detail below with reference to the drawings.

図1は、本発明による携帯端末の機能ブロック図である。携帯端末は、移動通信ネットワークに接続可能な通信端末であり、図1においては、本発明の説明に必要な部分のみを示し、無線インタフェース等のその他の機能ブロックについては省略している。図1によると、携帯端末は、1つ以上のセンサ1と、端末状態取得部2と、入出力部3と、ログ収集部4と、パターン抽出部5と、行動パターン学習部6と、行動推定部7と、ユーザインタフェース制御部8と、記憶部9とを備えている。また、パターン抽出部5は、短期パターン抽出部51と、中期パターン抽出部52とを備えている。   FIG. 1 is a functional block diagram of a portable terminal according to the present invention. The portable terminal is a communication terminal that can be connected to a mobile communication network. In FIG. 1, only the portions necessary for the description of the present invention are shown, and other functional blocks such as a wireless interface are omitted. According to FIG. 1, the mobile terminal includes one or more sensors 1, a terminal state acquisition unit 2, an input / output unit 3, a log collection unit 4, a pattern extraction unit 5, an action pattern learning unit 6, an action An estimation unit 7, a user interface control unit 8, and a storage unit 9 are provided. The pattern extraction unit 5 includes a short-term pattern extraction unit 51 and a medium-term pattern extraction unit 52.

センサ1は、現在の携帯端末が置かれている環境及び利用者の生体情報に関する各種状態を取得するためのものであり、例えば、方位センサ、加速度センサ、環境雑音計測センサ(マイクロフォン)、温度センサ、湿度センサ、照度センサ、紫外線センサ、GPS(Global Positioning System:全地球測位システム)レシーバ、体温や脈拍を計測するセンサ等、又は、これらの一部を含んでいる。なお、これらセンサは携帯端末内部に携帯端末と一体として構成されている必要はなく、取得した携帯端末付近の環境に関する、或いは、利用者の生体情報に関するセンサデータを、有線又は無線により携帯端末に送信できるように構成されていれば良い。   The sensor 1 is for acquiring various conditions relating to the environment in which the current mobile terminal is placed and the biological information of the user. For example, an orientation sensor, an acceleration sensor, an environmental noise measurement sensor (microphone), a temperature sensor , A humidity sensor, an illuminance sensor, an ultraviolet sensor, a GPS (Global Positioning System) receiver, a sensor for measuring body temperature and pulse, or a part thereof. These sensors do not need to be integrated with the mobile terminal inside the mobile terminal, and the acquired sensor data related to the environment near the mobile terminal or the biometric information of the user is transmitted to the mobile terminal by wire or wirelessly. What is necessary is just to be comprised so that transmission is possible.

端末状態取得部2は、携帯端末の状態に関する情報を取得する。携帯端末の状態に関する情報とは、携帯端末が保持している時刻、受信電波強度、電池残量、フリップ又はスライド開閉状態、充電中であるか否か、音量やマナーモード等に関する設定状態、外部記憶メディア着脱状態、イヤホン着脱状態、電源ON/OFF状態、メール受信、着呼といった、携帯端末が取得可能な状態に関する値をいう。なお、具体的にどの状態を取得するかについては設計事項である。   The terminal state acquisition unit 2 acquires information related to the state of the mobile terminal. Information on the status of the mobile device includes the time held by the mobile device, received radio wave intensity, remaining battery level, flip / slide open / closed state, whether charging is in progress, volume, manner mode, etc., external A value related to a state that can be acquired by the mobile terminal, such as a storage medium attachment / detachment state, an earphone attachment / detachment state, a power ON / OFF state, mail reception, and an incoming call. In addition, it is a design matter about which state is specifically acquired.

入出力部3は、携帯端末を操作するための各種キー類、音声入力のためのマイクロフォン、音声出力のためのスピーカー、表示のためのディスプレイを含む、利用者に対する各種表示といった出力機能及び利用者からの携帯端末への各種操作のための入力機能を提供する。   The input / output unit 3 includes output functions such as various displays for the user, including various keys for operating the mobile terminal, a microphone for voice input, a speaker for voice output, and a display for display. Provides input functions for various operations on mobile terminals.

ログ収集部4は、各センサ1が取得したセンサデータと、端末状態取得部2が取得した携帯端末の状態に関する情報それぞれに対して、必要に応じて特徴量の抽出処理及び量子化処理を行い、処理結果を状況情報として記憶部9が保持する状況情報ログに出力する。また、利用者の各種行動を入出力部3から取得し、必要に応じて特徴量の抽出処理及び量子化処理を行い、処理結果を行動情報として記憶部9が保持する行動情報ログに出力する。ここで、入出力部3から取得する利用者の各種行動とは、発呼、通話、メール送信、音楽ダウンロード等の各種オンラインサービスの利用、電卓等のアプリケーションの利用、ウェブページの閲覧、受信メール閲覧、着呼に対する応答等、利用者が携帯端末に対して行う各種操作内容をいう。   The log collection unit 4 performs feature amount extraction processing and quantization processing on the sensor data acquired by each sensor 1 and the information on the state of the mobile terminal acquired by the terminal state acquisition unit 2 as necessary. The processing result is output to the status information log held by the storage unit 9 as status information. In addition, the user's various actions are acquired from the input / output unit 3, the feature amount extraction process and the quantization process are performed as necessary, and the processing result is output to the action information log held in the storage unit 9 as action information. . Here, the user's various actions acquired from the input / output unit 3 are the use of various online services such as outgoing calls, telephone calls, mail transmissions, music downloads, the use of applications such as calculators, browsing of web pages, received mails. This refers to various operations that the user performs on the mobile terminal, such as browsing and responding to an incoming call.

特徴量の抽出処理は、処理対象であるデータごとに異なるものであるが、例えば、加速度や環境雑音等、値が連続量となるデータに対しては、バンドパスフィルタによる前処理を行った後、FFT(Fast Fourier Transform:高速フーリエ変換)によりパワースペクトラムを求めてこれを特徴量とすることができる。また、位置情報に対しては、ベクトル量子化等によりクラスタリングを行ったり、地図を一定サイズの格子状に区切りその番地に識別子をつけたりする方法を使用することができる。なお、特徴量の抽出処理及び量子化処理は、取得したローデータのデータ量を削減し、その後の処理を簡略化するために行うものであり、携帯端末のフリップ開閉状態の様に、離散的な値で取得されるデータに対しては、特徴量の抽出処理及び量子化処理を行わず、取得したローデータをそのまま状況情報又は行動情報としても良い。もちろん、離散的な値で取得されるデータに対しても特徴量の抽出処理及び量子化処理を適用してデータ量を削減することは可能である。   The feature amount extraction processing differs depending on the data to be processed. For example, for data with continuous values, such as acceleration and environmental noise, after pre-processing using a bandpass filter , FFT (Fast Fourier Transform: Fast Fourier Transform) can be used to obtain a power spectrum and use it as a feature quantity. For the position information, clustering by vector quantization or the like, or a method of dividing a map into a grid of a certain size and attaching an identifier to the address can be used. Note that the feature amount extraction processing and quantization processing are performed in order to reduce the amount of acquired raw data and simplify subsequent processing. With respect to data acquired with a simple value, the feature data extraction processing and quantization processing are not performed, and the acquired raw data may be used as situation information or behavior information as it is. Of course, it is possible to reduce the data amount by applying the feature amount extraction processing and the quantization processing to the data acquired as discrete values.

パターン抽出部5は、本実施形態においては、短期パターン抽出部51と、中期パターン抽出部52の2段階の構成であり、状況情報ログから読み込んだ各状況情報を、時間的区間に分割して相互に類似する区間を認識し、類似する区間には同一ラベルを付与して、状況情報をラベル列として出力する。なお、ラベルとは、区間を認識する為の識別子を意味し、区間を識別する為に使用するものであれば、例えば、インデックス値といった、他の表現であっても、本実施形態におけるラベルに含まれるものである。以下に、詳細を説明する。   In this embodiment, the pattern extraction unit 5 has a two-stage configuration of a short-term pattern extraction unit 51 and a medium-term pattern extraction unit 52, and divides each piece of situation information read from the situation information log into temporal sections. Recognizing sections that are similar to each other, assign the same label to similar sections, and output the status information as a label string. Note that a label means an identifier for recognizing a section, and if used for identifying a section, for example, other expressions such as index values can be used as labels in the present embodiment. It is included. Details will be described below.

図2は、短期パターン抽出部51による処理を説明する図である。まず状況情報ログから読み込んだ状況情報を、以下では短期区間と呼ぶある一定の時間間隔に分割する。図2(a)に示す様に、本例においては、#1から#MのM個の短期区間に分割している。続いて、#1から#Mの全短期区間から生成された一つのモデルデータに対する各短期区間のデータの出力確率を計算し、出力確率が閾値未満の短期区間が存在するか否かを判定する。出力確率が閾値未満である短期区間が存在する場合には、出力確率が閾値以上である短期区間のみを選択して、選択した短期区間からモデルデータを生成し、生成したモデルデータに対する選択した各短期区間のデータの出力確率を計算して閾値と比較することを、閾値未満のものが存在しなくなるまで繰り返す。閾値未満のものが存在しなくなった時点におけるモデルデータにモデルデータを特定する中間ラベルを付与し、閾値未満のものが存在しなくなった時点で選択されていた短期区間を処理済短期区間とする。図2(b)に示す様に、本例においては、#1と#4を含む短期区間が選択されて、モデルデータには、中間ラベル“ア”が付与されている。   FIG. 2 is a diagram for explaining processing by the short-term pattern extraction unit 51. First, the status information read from the status information log is divided into certain time intervals called short-term sections below. As shown in FIG. 2A, in this example, it is divided into M short-term sections from # 1 to #M. Subsequently, the output probability of each short-term section data for one model data generated from all short-term sections # 1 to #M is calculated, and it is determined whether or not there is a short-term section whose output probability is less than the threshold. . If there is a short-term section whose output probability is less than the threshold, select only the short-term section whose output probability is greater than or equal to the threshold, generate model data from the selected short-term section, and select each selected model data The calculation of the output probability of the data in the short-term section and comparison with the threshold value are repeated until there is no more than the threshold value. An intermediate label for identifying the model data is given to the model data when there is no more than the threshold, and the short-term section selected when there is no more than the threshold is defined as the processed short-term section. As shown in FIG. 2B, in this example, a short-term section including # 1 and # 4 is selected, and an intermediate label “A” is given to the model data.

続いて、全短期区間から上記処理で処理済短期区間となった#1と#4を含む短期区間を除いた区間に対して、上記処理と同じ処理を行う。図2(c)に示す様に、2回目の処理においては、#2と#7を含む短期区間が選択され、モデルデータには、中間ラベル“イ”が付与されている。   Subsequently, the same processing as the above processing is performed on the sections excluding the short-term sections including # 1 and # 4 that have been processed short-term sections from the entire short-term section. As shown in FIG. 2C, in the second process, a short-term section including # 2 and # 7 is selected, and an intermediate label “A” is given to the model data.

更に、各回の処理での処理済短期区間を除きつつ、モデルデータを生成することを、全短期区間が処理済短期区間となるまで繰り返す。図2(d)及び(e)に示す様に、本例においては、3回目の処理で#3と#5を含む短期区間が、4回目の処理で#6と#Mを含む短期区間が選択され、モデルデータには、それぞれ、中間ラベル“ウ”、“エ”が付与されている。   Further, the generation of the model data is repeated while excluding the processed short-term section in each process until all the short-term sections are processed short-term sections. As shown in FIGS. 2D and 2E, in this example, a short-term section including # 3 and # 5 in the third process, and a short-term section including # 6 and #M in the fourth process. The intermediate labels “C” and “D” are assigned to the selected model data.

続いて、各短期区間に対して、モデルデータとの類似度を求め、類似度が所定の閾値以上であるモデルデータを選択する。図2(f)に示す様に、本例においては、短期区間#1には“ア”と“イ”が、短期区間#2及び#Mには“イ”と“エ”が、短期区間#3及び#4には“ア”と“ウ”が、短期区間#5及び#7には“イ”と“ウ”が、短期区間#6には“ア”と“エ”が、それぞれ、類似するモデルデータとして選択されている。なお、図2においては、各短期区間に対し、いずれも類似するモデルデータが2つ選択されているが、これは例示であり、それぞれの短期区間に対して選択されるモデルデータの数は短期区間データと閾値に依存する。   Subsequently, for each short-term section, the similarity with the model data is obtained, and the model data with the similarity equal to or higher than a predetermined threshold is selected. As shown in FIG. 2 (f), in this example, “A” and “I” are in short-term section # 1, and “I” and “D” are in short-term sections # 2 and #M. # 3 and # 4 have “a” and “c”, short-term sections # 5 and # 7 have “b” and “c”, and short-term sections # 6 have “a” and “d”. Are selected as similar model data. In FIG. 2, two similar model data are selected for each short-term section, but this is an example, and the number of model data selected for each short-term section is short-term. Depends on interval data and threshold.

最後に各短期区間に類似するとして選択されたモデルデータの組合せに対してその組合せを示す短期ラベルを付与する。図2(g)に示す様に、本例においては、モデルデータ#ア及び#イの組合せには“α”、#イ及び#エの組合せには“β”、 #ア及び#ウの組合せには”γ“、#イ及び#ウの組合せには“ε”、#ア及び#エの組合せには“ζ”が、短期ラベルとして付与されている。なお、出現回数の少ない組合せについては、パターン無しを示す短期ラベルを付与しデータを省略することができる。   Finally, a short-term label indicating the combination is assigned to the combination of model data selected as being similar to each short-term section. As shown in FIG. 2 (g), in this example, the combination of model data #a and #a is "α", the combination of #a and #e is "β", and the combination of #a and #c. “Γ”, “ε” for the combination of #i and #c, and “ζ” for the combination of #a and #d are assigned as short-term labels. For combinations with a small number of appearances, a short-term label indicating no pattern can be assigned and data can be omitted.

短期パターン抽出部51は、生成したモデルデータと、短期ラベルが示すモデルデータの組合せと、図2(g)に示す様な、状況情報を短期ラベルで表現した短期ラベル列とを記憶部9が保存する短期パターンDBに格納する。   The short-term pattern extracting unit 51 stores the generated model data, the combination of the model data indicated by the short-term label, and the short-term label string expressing the situation information with the short-term label as shown in FIG. Store in the short-term pattern DB to be saved.

なお、短期パターン抽出部51は、状況情報を短期区間に分割し、各短期区間の類似性を判定して相互に類似する短期区間には同一の短期ラベルを付与して出力すれば良く、上述した処理方法に限定されるものではない。   The short-term pattern extraction unit 51 may divide the status information into short-term sections, determine the similarity of each short-term section, give the short-term sections similar to each other, and output the same short-term label. The processing method is not limited to the above.

続いて、中期パターン抽出部52は、短期パターンDBが保持する各短期ラベル列を読み込み、短期区間を結合した中期区間での類似性に基づき、短期パターン抽出部51での処理と同じ処理を行う。好ましくは、中期パターン抽出部52においては、短期区間の様々な結合数で得られる、様々な中期区間に対して類似性の認識処理を行うことにより、例えば、1つのセンサから得られる1つの短期ラベル列より複数の中期ラベル列を生成する。図3においては、センサ#1から得られる1つの短期ラベル列に対し、3系統の中期ラベル列を生成している。中期パターン抽出部52は、短期パターン抽出部5と同様、生成したモデルデータと、中期ラベルが示すモデルデータの組合せと、短期ラベル列を中期ラベルで表現した中期ラベル列を、記憶部9が保存する中期パターンDBに格納する。なお、1つの短期ラベル列から生成する中期ラベル列数は、短期ラベル列ごとに同一である必要はない。   Subsequently, the medium-term pattern extraction unit 52 reads each short-term label string held in the short-term pattern DB, and performs the same processing as the processing in the short-term pattern extraction unit 51 based on the similarity in the medium-term section obtained by combining the short-term sections. . Preferably, in the medium-term pattern extraction unit 52, for example, one short-term obtained from one sensor is obtained by performing similarity recognition processing on various medium-term intervals obtained with various combinations of short-term intervals. A plurality of medium-term label sequences are generated from the label sequence. In FIG. 3, three medium-term label strings are generated for one short-term label string obtained from sensor # 1. Similarly to the short-term pattern extraction unit 5, the medium-term pattern extraction unit 52 stores the generated model data, the combination of model data indicated by the medium-term label, and the medium-term label sequence in which the short-term label sequence is expressed by the medium-term label. Stored in the medium-term pattern DB. Note that the number of medium-term label columns generated from one short-term label column does not need to be the same for each short-term label column.

なお、中期パターン抽出部52は、中期区間の類似性を判定して、相互に類似する中期区間には同一の中期ラベルを付与して出力すれば良く、上述した処理方法に限定されるものではない。更に、中期ラベル列の中期区間を更に結合して類似性の認識処理を行う等、3段以上の構成を使用することもできる。   The medium-term pattern extraction unit 52 may determine the similarity of the medium-term sections, give the same medium-term label to the similar medium-term sections and output them, and is not limited to the processing method described above. Absent. Furthermore, it is possible to use a configuration of three or more stages, such as further combining the medium-term sections of the medium-term label row to perform similarity recognition processing.

行動パターン学習部6は、中期パターンDBの中期ラベル列と、行動情報ログを読み込み、中期ラベルの組合せと、そのときの行動情報の内容との関係をモデル化して求める。モデル化には、ベイジアンネットワークを用いることができるが、これに限定されるものではない。   The behavior pattern learning unit 6 reads the medium-term label string of the medium-term pattern DB and the behavior information log, and obtains the relationship between the combination of the medium-term labels and the content of the behavior information at that time by modeling. For the modeling, a Bayesian network can be used, but the present invention is not limited to this.

図3は、行動パターン学習部6が行う処理を説明する図である。ここでは、センサ#1、#2及び#3の3つのセンサが搭載され、それぞれのセンサから3系統の中期ラベル例が生成されて中期パターンDBに格納されているものとする。行動パターン学習部6は、中期パターンDBに格納されている中期ラベル列と行動情報ログを読み込み、各時刻における中期ラベルの組合せと、そのときの行動情報の内容を調べる。例えば、図3の点線で示す時刻においては、中期ラベル“A22”、“B23”、“C12”及び“C31”の組合せに対して、行動#2が対応している。行動パターン学習部6は、各時刻における中期ラベルの組合せと行動情報が示す内容との対応関係を調べ、中期ラベルの組合せから、各行動の出現確率を求めるモデル及びパラメータを算出し、結果を記憶部9が保存する行動パターンDBに格納する。   FIG. 3 is a diagram for explaining processing performed by the behavior pattern learning unit 6. Here, it is assumed that three sensors # 1, # 2, and # 3 are mounted, and three-system examples of medium-term labels are generated from each sensor and stored in the medium-term pattern DB. The behavior pattern learning unit 6 reads the medium term label string and the behavior information log stored in the medium term pattern DB, and examines the combination of the medium term labels at each time and the content of the behavior information at that time. For example, at the time indicated by the dotted line in FIG. 3, action # 2 corresponds to the combination of the medium-term labels “A22”, “B23”, “C12”, and “C31”. The behavior pattern learning unit 6 examines the correspondence between the combination of medium-term labels at each time and the content indicated by the behavior information, calculates a model and parameters for determining the appearance probability of each behavior from the combination of medium-term labels, and stores the results It stores in action pattern DB which the part 9 preserve | saves.

行動推定部7は、現在又は直近の各状況情報を取得して、取得した各状況情報に対応する中期ラベルをそれぞれ求め、求めた中期ラベルと、行動パターンDBに格納されているモデル及びパラメータに基づき、携帯端末利用者が、これから携帯端末を利用して行う行動、具体的には携帯端末に対して行う操作内容を推定する。好ましい実施形態によると、行動推定部7は、行動情報ログから過去の行動情報の時間的な因果関係を解析して、行動パターンDBに格納されているモデル及びパラメータに基づく行動推定結果を修正する。これは、電話をかけたところ、相手が応答しなかったため、その相手にメールを送信するといった様に、ある行動の発生原因が過去の行動や、その結果に依存する場合があるためであり、例えば、行動パターンDBに格納されているモデル及びパラメータから、行動#1を行う確率が50%と算出されたとしても、過去の行動履歴から行動#1を行う可能性が高いと推定できる場合には、最終推定結果を50%より高い値に修正する。   The behavior estimation unit 7 obtains each current or latest situation information, obtains a medium term label corresponding to each obtained situation information, and uses the obtained medium term label and the model and parameters stored in the behavior pattern DB. Based on this, the mobile terminal user estimates an action to be performed using the mobile terminal, specifically, an operation content to be performed on the mobile terminal. According to a preferred embodiment, the behavior estimation unit 7 analyzes the temporal causal relationship of past behavior information from the behavior information log, and corrects the behavior estimation result based on the model and parameters stored in the behavior pattern DB. . This is because when a phone call was made, the other party did not respond, and the cause of certain actions may depend on past actions or results, such as sending an email to the other party. For example, even if the probability of performing action # 1 is calculated as 50% from the models and parameters stored in the action pattern DB, it can be estimated that the possibility of performing action # 1 is high from the past action history. Corrects the final estimation result to a value higher than 50%.

ユーザインタフェース制御部8は、行動推定部7による操作内容の推定結果に基づき、例えば、メニューの階層構造の再構築といった、利用者へのユーザインタフェースの変更制御を行う。   The user interface control unit 8 performs change control of the user interface to the user, for example, reconstruction of the hierarchical structure of the menu, based on the estimation result of the operation content by the behavior estimation unit 7.

更に、携帯端末は、推定結果をネットワーク上の所定のサーバに送信し、ネットワーク上のサーバは、推定結果に基づき携帯端末に表示させる画面を決定して、決定した画面を携帯端末に表示させるための情報を携帯端末に送信する。これにより、行動に即した情報の提供やサービスの提示を行うことが可能になる。なお、行動パターンDBに格納されている学習済モデルをネットワーク上の所定のサーバに送信しネットワーク側で様々なサービスに利用しても良い。   Further, the mobile terminal transmits the estimation result to a predetermined server on the network, and the server on the network determines a screen to be displayed on the mobile terminal based on the estimation result and causes the mobile terminal to display the determined screen. Send information to your mobile device. As a result, it is possible to provide information and present services according to the behavior. The learned model stored in the behavior pattern DB may be transmitted to a predetermined server on the network and used for various services on the network side.

以上、本発明によれば、特定のセンサにより他のセンサデータを分割するのではなく、センサデータ毎にその類似性を探索するため、各利用者固有の特性に対応することができる。更に、短期ラベル列の短期区間を様々な長さで結合した中期区間により類似性の探索を行い、行動の推定に使用するため従来技術より推定の精度が向上する。また、状況情報から行動を推定するのみならず、過去の行動履歴から行動間の因果関係を考慮して推定を行うことで、更に、精度を向上させることができる。なお、本発明は、行動パターンを数学的なモデルとして保存するため、保存したデータから各利用者の行動履歴を直接把握することはできず、プライバシの保護の観点からも好ましいものである。   As described above, according to the present invention, since other sensor data is not divided by a specific sensor but the similarity is searched for each sensor data, it is possible to deal with the characteristics unique to each user. Furthermore, since the similarity search is performed by using the medium-term section obtained by combining the short-term sections of the short-term label string with various lengths and used for estimating the behavior, the accuracy of the estimation is improved as compared with the prior art. In addition to estimating the behavior from the situation information, the accuracy can be further improved by estimating the behavior from the past behavior history in consideration of the causal relationship between the behaviors. In the present invention, since the behavior pattern is saved as a mathematical model, the behavior history of each user cannot be directly grasped from the saved data, which is preferable from the viewpoint of privacy protection.

なお、本発明は、コンピュータ又はプロセッサを有する携帯端末に読み込まれ、該コンピュータ又は携帯端末を、上記携帯端末として機能をさせるプログラムにより実現することができるものである。更に、本発明は、ハードウェアのみや、ソフトウェアのみならず、それらの組合せによっても実現可能である。   The present invention can be realized by a program that is read by a portable terminal having a computer or a processor and causes the computer or portable terminal to function as the portable terminal. Furthermore, the present invention can be realized not only by hardware and software but also by a combination thereof.

本発明による携帯端末の機能ブロック図である。It is a functional block diagram of the portable terminal by this invention. 短期パターン抽出部によるパターン抽出処理を説明する図である。It is a figure explaining the pattern extraction process by a short-term pattern extraction part. 行動パターン学習部が行う処理を説明する図である。It is a figure explaining the process which an action pattern learning part performs.

符号の説明Explanation of symbols

1 センサ
2 端末状態取得部
3 入出力部
4 ログ収集部
5 パターン抽出部
51 短期パターン抽出部
61 中期パターン抽出部
6 行動パターン学習部
7 行動推定部
8 ユーザインタフェース制御部
9 記憶部
DESCRIPTION OF SYMBOLS 1 Sensor 2 Terminal state acquisition part 3 Input / output part 4 Log collection part 5 Pattern extraction part 51 Short-term pattern extraction part 61 Medium-term pattern extraction part 6 Behavior pattern learning part 7 Behavior estimation part 8 User interface control part 9 Storage part

Claims (6)

1つ以上のセンサより得られたセンサデータ及び/又は1つ以上の携帯端末の状態に関するデータを取得し、それぞれを、状況情報として保存する手段と、
携帯端末に対する各操作内容を示すデータそれぞれを行動情報として保存する手段と、
各状況情報それぞれについて、状況情報を時間区間に分割して相互に類似する区間を認識し、類似する区間には同一識別子を付与し、状況情報を識別子列として出力する手段と、
各時刻における、識別子列それぞれの識別子と、行動情報との関係に基づき、識別子の組合せと行動情報の関係を求める手段と、
取得した状況情報に対応する識別子を求め、求めた識別子と、前記識別子の組合せと行動情報の関係に基づき、利用者が携帯端末に対して行う操作内容を推定する手段と、
を有し、
識別子列として出力する手段は、第1の手段から第Nの手段、ここで、Nは2以上の整数、を備えており、
第1の手段は、状況情報を第1の区間に分割して相互に類似する第1の区間を認識し、類似する第1の区間には同一の第1の識別子を付与した第1の識別子列として出力し、
第Kの手段、ここでKは2以上N以下の整数、は、第K−1の識別子列を入力とし、第K−1の識別子列の第K−1の区間を結合した第Kの区間に対して相互に類似する第Kの区間を認識し、類似する第Kの区間には同一の第Kの識別子を付与した第Kの識別子列として出力し、
第Nの手段の出力が、状況情報を識別子列として出力する手段の出力である、
携帯端末。
Means for obtaining sensor data obtained from one or more sensors and / or data relating to the state of one or more mobile terminals, and storing each as status information;
Means for storing each piece of data indicating each operation on the mobile terminal as behavior information;
For each situation information, means for dividing the situation information into time sections and recognizing similar sections, giving the same identifier to similar sections, and outputting the situation information as an identifier string;
Based on the relationship between the identifier of each identifier string and the behavior information at each time, means for obtaining the relationship between the combination of identifiers and the behavior information,
An identifier corresponding to the acquired situation information is obtained, and a means for estimating an operation content performed by the user on the mobile terminal based on the obtained identifier and a relationship between the identifier combination and the behavior information;
I have a,
The means for outputting as an identifier string comprises 1st to Nth means, where N is an integer greater than or equal to 2,
The first means divides the status information into first sections, recognizes first sections that are similar to each other, and first identifiers that are given the same first identifier to similar first sections Output as a column,
K-th means, where K is an integer greater than or equal to 2 and less than or equal to N, is a K-th section obtained by combining the K-1th section of the K-1th identifier string with the K-1th identifier string as an input Recognizing the Kth section similar to each other and outputting the same Kth section to the similar Kth section as the Kth identifier string,
The output of the Nth means is the output of the means for outputting the status information as an identifier string.
Mobile device.
第Kの手段は、第K−1の区間の結合数が異なる、異なる長さの第Kの区間に対して、それぞれ処理を行うことで、1つの第K−1の識別子列から複数の第Kの識別子列を出力する、
請求項に記載の携帯端末。
The K-th means performs a process on each of the K-th sections having different lengths and the number of couplings of the (K-1) -th section being different, thereby making it possible to perform a plurality of operations from one K-1-th identifier string. Output an identifier string of K,
The mobile terminal according to claim 1 .
前記推定する手段は、保存された行動情報に基づき行動間の関係を求め、該行動間の関係と、取得した行動情報を、利用者が携帯端末に対して行う操作内容の推定に使用する、
請求項1からのいずれか1項に記載の携帯端末。
The estimating means obtains a relationship between behaviors based on the stored behavior information, and uses the relationship between the behaviors and the acquired behavior information for estimation of operation contents performed on the mobile terminal by the user.
The portable terminal of any one of Claim 1 to 2 .
操作内容の推定結果に応じてユーザインタフェースを変更する手段を有する請求項1からのいずれか1項に記載の携帯端末。 The mobile terminal according to any one of claims 1 to 3 , further comprising means for changing a user interface in accordance with an operation result estimation result. 携帯端末を、請求項1からのいずれか1項に記載の携帯端末として機能させるプログラム。 The program which functions a portable terminal as a portable terminal given in any 1 paragraph of Claims 1-4 . 請求項1からのいずれか1項に記載の携帯端末とネットワークとを含むシステムにおいて、ネットワークが、携帯端末に表示させる画面を制御する方法であって、
携帯端末が、操作内容の推定結果を、ネットワークに送信するステップと、
ネットワークが、推定結果に基づき携帯端末に表示させる画面を決定するステップと、
ネットワークが、決定した画面を携帯端末に表示させるための情報を携帯端末に送信するステップと、
を備えている方法。
The system including the mobile terminal and the network according to any one of claims 1 to 4 , wherein the network controls a screen displayed on the mobile terminal,
The mobile device sending the operation estimation result to the network;
The network determining a screen to display on the mobile device based on the estimation result;
The network sending information to the mobile device to display the determined screen on the mobile device;
A method comprising:
JP2007037605A 2007-02-19 2007-02-19 Mobile terminal, program, and display screen control method for mobile terminal Expired - Fee Related JP5018120B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007037605A JP5018120B2 (en) 2007-02-19 2007-02-19 Mobile terminal, program, and display screen control method for mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007037605A JP5018120B2 (en) 2007-02-19 2007-02-19 Mobile terminal, program, and display screen control method for mobile terminal

Publications (2)

Publication Number Publication Date
JP2008204040A JP2008204040A (en) 2008-09-04
JP5018120B2 true JP5018120B2 (en) 2012-09-05

Family

ID=39781510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007037605A Expired - Fee Related JP5018120B2 (en) 2007-02-19 2007-02-19 Mobile terminal, program, and display screen control method for mobile terminal

Country Status (1)

Country Link
JP (1) JP5018120B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6177643A (en) * 1984-09-25 1986-04-21 Kyushu Refract Co Ltd Colored borosilicate crystallized glass
JP5382436B2 (en) 2009-08-03 2014-01-08 ソニー株式会社 Data processing apparatus, data processing method, and program
EP2490126B1 (en) 2009-10-15 2020-08-26 Nec Corporation System operation management device, system operation management method, and program storage medium
JP2011118777A (en) 2009-12-04 2011-06-16 Sony Corp Learning device, learning method, prediction device, prediction method, and program
JP2011118776A (en) * 2009-12-04 2011-06-16 Sony Corp Data processing apparatus, data processing method, and program
KR101165537B1 (en) * 2010-10-27 2012-07-16 삼성에스디에스 주식회사 User Equipment and method for cogniting user state thereof
JP2012108748A (en) 2010-11-18 2012-06-07 Sony Corp Data processing device, data processing method, and program
JP6372056B2 (en) * 2013-07-05 2018-08-15 富士ゼロックス株式会社 Information processing apparatus and display control program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006134080A (en) * 2004-11-05 2006-05-25 Ntt Docomo Inc Portable terminal, and individual adaptive context acquiring method

Also Published As

Publication number Publication date
JP2008204040A (en) 2008-09-04

Similar Documents

Publication Publication Date Title
JP5018120B2 (en) Mobile terminal, program, and display screen control method for mobile terminal
CN110890093B (en) Intelligent equipment awakening method and device based on artificial intelligence
CN105190746B (en) Method and apparatus for detecting target keyword
CN110570840B (en) Intelligent device awakening method and device based on artificial intelligence
US20130066815A1 (en) System and method for mobile context determination
CN110544488A (en) Method and device for separating multi-person voice
CN108984731A (en) Sing single recommended method, device and storage medium
WO2019213443A1 (en) Audio analytics for natural language processing
CN110570857B (en) Voice wake-up method and device, electronic equipment and storage medium
CN108334196B (en) File processing method and mobile terminal
CN107316635B (en) Voice recognition method and device, storage medium and electronic equipment
CN104992715A (en) Interface switching method and system of intelligent device
CN109754808B (en) Method, device, computer equipment and storage medium for converting voice into text
CN108549681B (en) Data processing method and device, electronic equipment and computer readable storage medium
CN111522592A (en) Intelligent terminal awakening method and device based on artificial intelligence
CN110097895B (en) Pure music detection method, pure music detection device and storage medium
CN111738100A (en) Mouth shape-based voice recognition method and terminal equipment
CN109240486B (en) Pop-up message processing method, device, equipment and storage medium
CN112488157B (en) Dialogue state tracking method and device, electronic equipment and storage medium
CN112948763B (en) Piece quantity prediction method and device, electronic equipment and storage medium
CN114360510A (en) Voice recognition method and related device
CN110390102B (en) Emotion analysis method and related device
CN109086448B (en) Voice question searching method based on gender characteristic information and family education equipment
CN110430321A (en) To method, storage medium and the mobile terminal of incoming call user's remarks
CN113782014A (en) Voice recognition method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090727

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100823

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120528

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees