JP2004140695A - Information terminal, information processing method, and information processing program - Google Patents

Information terminal, information processing method, and information processing program Download PDF

Info

Publication number
JP2004140695A
JP2004140695A JP2002304888A JP2002304888A JP2004140695A JP 2004140695 A JP2004140695 A JP 2004140695A JP 2002304888 A JP2002304888 A JP 2002304888A JP 2002304888 A JP2002304888 A JP 2002304888A JP 2004140695 A JP2004140695 A JP 2004140695A
Authority
JP
Japan
Prior art keywords
information
data
unit
display
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002304888A
Other languages
Japanese (ja)
Other versions
JP4079316B2 (en
Inventor
Takamoto Tsuda
津田 崇基
Toshio Sato
佐藤 寿雄
Takeshi Matsuzawa
松澤 剛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Ericsson Mobile Communications Japan Inc
Priority to JP2002304888A priority Critical patent/JP4079316B2/en
Publication of JP2004140695A publication Critical patent/JP2004140695A/en
Application granted granted Critical
Publication of JP4079316B2 publication Critical patent/JP4079316B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To achieve an unexpected information display to users without requiring complicated input and setting operation by the users. <P>SOLUTION: A display information database section 16 stores a plurality of pieces of information (an occurrence pattern) for indicating the correspondence between a plurality of data and the display conditions of respective data. A display information management table creation section 12 selects information from the display information database section 16 according to current conditions, and performs weighting for priority decision to the selected information. A display information decision section 13 determines the information corresponding to the weighting from the plurality of pieces of selected information. Then, an image voice output data creation section 14 creates display data to be displayed at a display section corresponding to the determined information. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、少なくとも表示部を備えた携帯電話機等に好適な情報端末、情報処理方法、情報処理プログラムに関する。
【0002】
【従来の技術】
近年の携帯電話機は、カラー画像等を表示可能なディスプレイパネル(以下、単に表示部と表記する)を備えている。そして、当該携帯電話機は、上記表示部に、例えば電話番号やその電話番号に対応した氏名や名称を表示することのみならず、様々な文字や記号、キャラクタ画像、写真画像、カレンダー、日時情報、スケジュール情報などをも表示可能となっている。
【0003】
また、特許文献1には、例えば、ある電話番号に対して複数の基本図形を対応付け、それら複数の基本図形の中から、例えば通信履歴(通信回数や通信時間等)に応じた基本図形を選択して表示する携帯電話機の技術が開示されている。すなわち当該特許文献1に記載の携帯電話機は、ある電話番号に対応した複数の基本図形として、例えば、犬が立っている状態の図形、犬が座っている状態の図形、犬が寝ている状態の図形が在ったとすると、それら各基本図形の中から、通信履歴に応じた図形を選択して表示する。
【0004】
【特許文献1】
特開2002−57758号公報(図1、図4)
【0005】
【発明が解決しようとする課題】
ところで、従来の携帯電話機は、上記表示部に何らかの文字や画像等を表示させる場合、ユーザによるキー操作が必要であり、また、上記表示部上に表示される文字や画像等を決定するために、ユーザによる複雑な入力操作及び設定操作が必要となされている。このように、従来の携帯電話機は、表示部に何らかの情報を表示させる場合に、ユーザが煩雑な操作を行わなければならない。
【0006】
一方、上記特許文献1に記載の携帯電話機は、通信履歴に応じた選択及び表示が自動的に行われるため、上記基本画像を表示させるためにユーザが煩雑な入力操作等を行う必要はない。但し、通信履歴に応じて選択及び表示される各基本画像は、電話番号帳への電話番号や氏名等の登録時に、予めユーザによりそれらと対応付けて登録されるものである。したがって、ユーザは、当該登録の際にある程度の入力操作や設定操作を行わなければならない。また、ユーザは、上記基本画像の登録を自らが行っているため、上記通信履歴に応じて選択されて表示される基本画像がその後どのように変化していくのかを知っており、意外性については少ないと思われる。
【0007】
本発明は、このような課題に鑑みてなされたものであり、ユーザによる複雑な入力操作や設定操作を必要とせず、また、ユーザにとって意外性に飛んだ情報を表示等することが可能な、情報端末、情報処理方法、情報処理プログラムを提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明の情報端末は、少なくとも表示される複数のデータとその表示条件との対応付けを各々表す複数の情報を格納したデータベース部と、現在の条件に応じてデータベース部から情報を選出してその情報に優先順位決定のための重み付けを行う情報選出部と、選出された複数の情報の中から重み付けに応じた情報を決定する情報決定部と、その決定された情報に応じて表示データを作成する表示データ作成部とを有する。
【0009】
また、本発明の情報処理方法は、少なくとも表示される複数のデータとそれら各データを表示する際の表示条件との対応付けを各々表す複数の情報を格納したデータベースから現在の条件に応じた情報を選出し、その選出した情報に優先順位決定のための重み付けを行い、当該選出された複数の情報の中から重み付けに応じた情報を決定し、その決定された情報に応じて表示データを作成する。
【0010】
また、本発明の情報処理プログラムは、少なくとも表示される複数のデータとそれら各データを表示する際の表示条件との対応付けを各々表す複数の情報を格納したデータベースから現在の条件に応じた情報を選出するステップと、その選出した情報に優先順位決定のための重み付けを行うステップと、その選出された複数の情報の中から重み付けに応じた情報を決定するステップと、当該決定された情報に応じて所定の表示部に表示させるための表示データを作成するステップとを、コンピュータに実行させる。
【0011】
すなわち本発明によれば、現在の条件に応じた複数の情報が選出され、さらにそれら情報には重み付けがなされるため、ユーザが意識することなく意外性のある表示がなされる。
【0012】
【発明の実施の形態】
以下、本発明の好ましい実施の形態について、図面を参照しながら説明する。
【0013】
図1には、本発明の情報端末の一実施の形態として、携帯電話機の概略構成を示す。なお、本発明の情報端末は、携帯電話機だけでなく、PHS電話機(PHS:Personal Handyphone System、登録商標)、カーナビゲーション装置等の移動体通信端末や、PDA装置(PDA:Personal Digital Assistants)等であっても良い。PDA装置は、通信機能を備えていることが望ましい。
【0014】
本実施の形態の携帯電話機は、図1に示すように、送受信信号処理部21と、コミュニケーション処理部22と、アプリケーション制御処理部23とを備えている。コミュニケーション処理部22とアプリケーション制御処理部23は、CPUインターフェイス部24(CPUI/F部)を介して接続されている。上記コミュニケーション処理部22は、通話等のコミュニケーションを制御するためのコミュニケーションCPU61を備え、上記アプリケーション制御処理部23は、待ち受け画像の表示処理や着信メロディの音声処理の他、後述する表示情報管理テーブルに基づいた画像表示処理や音声出力処理等を行うアプリケーション(本発明にかかる情報処理プログラム)などの各種のアプリケーションを制御するためのアプリケーションCPU71を備えている。なお、これ以降の説明では、表示情報管理テーブルに基づいた画像表示処理や音声出力処理等を行うアプリケーションを、特に第1のアプリケーションと呼び、それ以外の他の各アプリケーションを、特に第2のアプリケーションと呼ぶことにする。また、本実施の形態では、コミュニケーション処理部22での処理とアプリケーション制御処理部23での処理をそれぞれ別のCPUが担当した例を挙げているが、それら処理を一つのCPUが担当しても良いし、それら処理を3つ以上のCPUに分けて担当させても良い。
【0015】
[信号受信時の動作]
送受信信号処理部21は、図示しない基地局からの無線電波をアンテナ31により受信すると、その受信信号を共用器32を介して受信RF部33に送る。受信RF部33は、当該受信信号を増幅し、次の周波数変換部35へ送る。周波数変換部35は、局発部34からの局部発振信号を用いて、高周波の受信信号をベースバンド信号へダウンコンバートする。当該ベースバンド信号は、受信I/F部36へ送られてA/D(アナログ/ディジタル)変換されて受信データとなされた後、受信レベル検出部37へ送られる。
【0016】
上記受信レベル検出部37は、受信データから受信レベルを検出し、その検出した受信レベル情報をコミュニケーション処理部22へ送る。また、受信レベル検出部37は、上記受信データを受信復調部38へ送る。
【0017】
受信復調部38は、受信データからフェージング成分を除去し、さらに拡散符号の復調を行うと共に、受信データが音声データかその他の通信データ(例えばパケット通信データ)かの種別判別と分離を行い、当該種別判別により分離された音声データを音声復号部39へ、通信データを通信データ復号部42へ送る。
【0018】
音声復号部39は、音声データの伸張処理、デインターリーブ処理、エラー訂正処理等の復号化処理を行った後、さらにD/A(ディジタル/アナログ)変換処理を施す。当該D/A変換後のアナログ音声信号は、アンプ40により増幅されてスピーカ41に供給される。これにより、受信された音声が、スピーカ41を介して出力されることになる。
【0019】
上記通信データ復号部42は、上記通信データの伸張処理、デインターリーブ処理、エラー訂正処理等の復号化処理を行い、得られた通信データをコミュニケーション処理部22へ送る。また、当該通信データは、必要に応じてアプリケーション制御処理部23へも送られる。
【0020】
[信号送信時の動作]
一方、マイクロホン43を介して入力されたアナログ音声信号は、アンプ44にて所定のレベルに調整された後、音声符号化部45に送られる。音声符号化部45は、音声信号をA/D(アナログ/ディジタル)変換処理し、さらに圧縮処理、インターリーブ処理、エラー訂正符号の付加処理等を行い、得られた音声データを送信変調部46に送る。
【0021】
また、コミュニケーション処理部22から入力された通信データは、通信データ符号化部47に送られる。当該通信データ符号化部47は、通信データの圧縮処理、インターリーブ処理、エラー訂正符号の付加処理等を行い、得られた通信データを送信変調部46に送る。
【0022】
送信変調部46は、供給された音声データや通信データに対して拡散符号による変調処理を施し、得られたI,Q成分が送信I/F部48へ送られる。送信I/F部48は、I,Q成分をD/A変換し、それをベースバンドの送信信号として周波数変換部49へ送る。
【0023】
周波数変換部49は、局発部34からの局部発振信号を用いて、上記ベースバンドの送信信号を高周波の送信信号へアップコンバートし、送信RF部50へ送る。送信RF部50は、上記送信信号を増幅した後、その送信信号を共用器32へ送る。この時の共用器32は、上記送信信号をアンテナ31へ送る。これにより、アンテナ31からは、送信信号が無線電波として送信されることになる。
【0024】
[コミュニケーション処理部の構成及び基本動作]
コミュニケーション処理部22のコミュニケーションCPU61は、上記送受信信号処理部21における上述した信号送受信処理を制御する。具体的には、コミュニケーションCPU61が、ROM63(Read Only Memory)に記憶されている通信制御ソフトウェアに従って各種通信制御処理を行う。
【0025】
なお、コミュニケーションCPU61は、バスライン62を介して、ROM63、RAM64(Random Access Memory)、EEPROM65(Electrically Erasable and Programmable Read Only Memory)と接続されている。RAM64は、コミュニケーションCPU61の作業領域として使用され、コミュニケーションCPU61のソフトウェア実行中において必要に応じて計算途中のデータなどを記憶したり、他の各部と送受信するデータを一時的に記憶する。EEPROM65は、不揮発性メモリであって、携帯電話機の電源がオフ操作されても、例えば直前の通信設定条件の情報を記憶しておくことができる。したがって、コミュニケーションCPU61は、次回に電源がオン操作された際に、このEEPROM65に記憶されている情報に基づいて各部を設定制御することで、電源がオフ操作される直前の設定を再現するようになっている。
【0026】
このようなコミュニケーション処理部22は、上記通信制御ソフトウェアによって信号の送受信処理等の各種の通信制御処理を行う。
【0027】
[アプリケーション制御処理部の構成及び基本動作]
アプリケーション制御処理部23は、キー入力等のユーザインターフェース制御や、待ち受け画像の表示処理、着信メロディの音声処理、第1のアプリケーションによる画像表示処理,音声出力処理等や、他の第2のアプリケーションを実行する。具体的には、アプリケーションCPU71が、ROM72に記憶されているアプリケーションソフトウェアを起動し、アプリケーション用バスライン73を介して接続された各部を制御することにより、上記アプリケーション機能を実現する。
【0028】
アプリケーション用バスライン73を介して上記アプリケーションCPU71と接続されている各構成要素のうち、RAM74は、アプリケーションCPU71の作業領域として使用され、EEPROM75はアプリケーションの設定条件等を記憶している。また、ROM72は、当該携帯電話機の初期化のための情報や、表示部82(LCD)に文字を表示するための表示用のフォントデータや、リンガ(着信音用等を出力するためのスピーカ)78による音響出力を得るための音響サンプルデータ、バイブレータ79を動作させるための振動パターンなどを記憶している。内部ストレージ89は、例えばフラッシュメモリ等の記憶保持動作が不要な書き換え可能な記憶媒体であり、例えば上記各種のアプリケーションソフトウェアや、電話番号や電子メールアドレス及びそれに対応した氏名,名称などの情報からなる電話帳データ、スケジュールデータ、発着信の通信履歴データ、メモ帳データ、ユーザのプロフィールデータ、第1のアプリケーションにて使用される表示情報管理テーブル、キャラクタデータ、画像データ、音声データ等の、各種のデータを記憶する。なお、これらデータはEEPROM75に記憶されても良い。また、内部ストレージ89とEEPROM75は、別構成ではなく、同一のメモリ内の記憶領域を分割して実現されていても良い。
【0029】
キー操作部76は、電話番号やアルファベット、仮名文字、記号等の入力に使用されるボタンや、画面上でカーソルを移動させるためのカーソル操作子、電源オン/オフなど、ユーザにより操作される各種のキーやボタン、ダイヤルからなる。
【0030】
当該携帯電話機において、キー操作部76がユーザにより操作されると、キーI/F77はその操作情報をアプリケーションCPU71に送る。この時のアプリケーションCPU71は、そのキー操作に従ったアプリケーション処理を実行する。
【0031】
また、アプリケーションCPU71は、リンガ78やバイブレータ79、LED(Light Emitting Diode)80を駆動させて呼び出しをユーザに通知したり、待ち受け画像や各種メッセージ等をLCDI/F81を介して表示部82に表示させる制御を行う。
【0032】
また、本実施の形態の携帯電話機は、例えばSIM(Subscriber Identity Module Card)カード83を装着可能なカードドライブ84や、外部ストレージ86を接続可能なストレージI/F87をも備えているものとする。当該カードドライブ84に上記SIMカード83が装着されると、カードドライブ84は、そのSIMカード83に記録されているユーザの電話番号等の個人IDなどを読み出し、カードI/F85、CPUI/F部24を介してコミュニケーションCPU61に供給する。このときのコミュニケーションCPU61は、それら情報により、例えばユーザの認証を行う。また、上記外部ストレージ86がストレージI/Fに接続されると、アプリケーションCPU71は、その外部ストレージ86の記録内容をストレージI/F87を介して読み込む。この外部ストレージ86から読み出された情報は、必要に応じてコミュニケーションCPU61にも供給される。なお、上記外部ストレージ86は、例えばスティック状或いはカード状の半導体メモリであっても良い。当該外部ストレージ86は、例えば大容量を有しており、例えば第1のアプリケーションやその他の第2のアプリケーションを含む各種のアプリケーションソフトウェアや、通信機能を改善や拡充を図るためのアプリケーションソフトウェア,待ち受け画面,着信メロディ,フォント等のデータを記憶可能なものである。また、本実施の形態の携帯電話機において、コミュニケーションCPU61及びアプリケーションCPU71は、上記外部ストレージ86に記憶されたソフトウェアを読み出し、既存のソフトウェアを書き換え制御(バージョンアップ,アップデート)することも可能となっている。勿論、本実施の形態の携帯電話機は、受信したり外部I/F88を介してダウンロードされたソフトウェアによるバージョンアップやアップデートも可能となされている。
【0033】
その他、アプリケーションCPU71は、アプリケーション用バスライン73を介して、カメラ部90、GPS(Global Positioning System)部91、時計部92とも接続されている。カメラ部90は、CCD(Charge Coupled Devise)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子と、その撮像素子上に被写体等の光像を結像させる光学系とを備えたものである。当該カメラ部90での撮影指示入力は、前記キー操作部76の所定のキーをレリーズボタンとして使用することで実現できる。このカメラ部90により撮影した画像データは、例えば内部ストレージ89や外部ストレージ86等に記憶される。GPS部91は、測位した位置情報をアプリケーションCPU71に送る。
【0034】
[表示情報管理テーブルに基づく画像表示処理等]
以下、本実施の形態の携帯電話機において、第1のアプリケーションが起動した時の動作について、図2とそれ以降の各図に示す表及びフローチャートを用いて説明する。図2は、例えば前記アプリケーションCPU71が、第2のアプリケーションの実行やユーザの入力等によるデータの取得と、上記第1のアプリケーションに係る処理とを実行する場合の主要な各処理を、機能ブロック的に表している。また、図2は、後述する表示情報データベース部16や画像音声データベース部17、第2のアプリケーションの実行やユーザの入力等により得られたデータを記録するデータ記憶部15も同時に示している。なお図2の例の場合、データ記憶部15,表示情報データベース部16,画像音声データベース部17は、例えば内部ストレージ89に設けられているとする。
【0035】
図2の入力情報取得部2は、第2のアプリケーションを介してユーザにより入力されたり、通信により取り込まれたデータを取得する。そして、第2のアプリケーション制御部3は、それらデータを例えば内部ストレージ89の所定の記憶領域(データ記憶部15)に記憶させる。すなわち、これら入力情報取得部2及び第2のアプリケーション制御部3は、図3のステップS1として、第2のアプリケーションを介したユーザ入力データやその他所望のデータを取得し、次にステップS2として、それらのデータをデータ記憶部15に記憶させる。なお、上記データ記憶部15に記憶されるデータは、例えば、電話帳データ、スケジュールデータ、通信履歴データ、メモ帳データ、プロフィールデータ、カメラ部90により撮影された画像データ、GPS部91により検出された測位データ、時計部92からの時間データなどである。
【0036】
次に、データ処理部1の第2のアプリケーションデータ参照部11は、図4のステップS10の処理として、本実施の形態の携帯電話機が所定の起動要件を満たしたか否か判定しており、所定の起動要件を満たした時には、第2のアプリケーション制御部3に対して、データ記憶部15に記憶されているデータの読み出しを要求する。なお、上記所定の起動要件とは、一例として、本実施の形態の携帯電話機が折り畳み型端末である場合において、ユーザにより当該端末の開操作がなされた時や、携帯電話機の着信や発信があった時、ある日時になった時、ユーザにより既定の操作がなされた時、などを挙げることができる。
【0037】
ここで、図5には、図4のステップS10の詳細な処理を示す。なお、この図5は、上記所定の起動要件が折り畳み型端末の開操作であるとした場合のフローチャートである。
【0038】
図5において、第2のアプリケーションデータ参照部11は、先ず、図5のステップS21として、ユーザにより折り畳み型端末の開操作が行われたか否か判定しており、開操作が行われたことを検出した時、ステップS22の処理に進む。
【0039】
ステップS22の処理に進むと、第2のアプリケーションデータ参照部11は、第1のアプリケーションの実行による画像表示処理や音声出力処理等を行う旨の設定がなされているか否か判定する。当該ステップS22において、上記設定がなされていないと判定した場合、アプリケーションCPU71は、当該設定がなされていない時の一般の動作ルーチンへ処理を進める。なお、一般の動作ルーチンについての説明は省略する。
【0040】
一方、ステップS22において上記設定がなされていると判定したとき、第2のアプリケーションデータ参照部11は、ステップS23の処理として、第2のアプリケーション制御部3に対して、データ記憶部15に記憶されている全てのデータの読み出しを要求し、さらに、当該要求に応じて送られてきた全データを参照して、利用可能なデータのみを抽出して表示情報管理テーブル作成部12へ送る。ここで、当該第2のアプリケーションデータ参照部11が参照するデータは、例えば図6に示すように、現在の日付時刻データ、通信履歴データ、ユーザによる入力データ、ユーザのプロフィールデータ、通話等の積算時間データなどである。なお、当該第2のアプリケーションデータ参照部11が抽出する上記利用可能なデータとは、一例として通信履歴データの場合を説明すると、着信や発信先の電話番号に対応して電話帳に登録されている相手先の氏名や名称などを挙げることができる。
【0041】
上記第2のアプリケーションデータ参照部11にて図4のステップS10(図5のフローチャート)の処理が終了すると、表示情報管理テーブル作成部12は、図4のステップS11の処理として、現在の日時情報や第1のアプリケーション起動回数等の条件に基づいて、上記第2のアプリケーションデータ参照部11から送られてきた各データと表示情報データベース部16に用意されているデータとから、少なくとも表示可能なデータを選出し、さらにそれら選出された各データに対して優先順位を表す重み付けを行って表示情報管理テーブルを作成する。
【0042】
図7には、図4のステップS11の詳細な処理を示す。図7において、表示情報管理テーブル作成部12は、先ず、ステップS31の処理として、第2のアプリケーションデータ参照部11から送られてきたデータを取り込み、次に、ステップS32の処理として、内部ストレージ89の表示情報データベース部16に用意されているデータベースの先頭を参照先に設定する。そして、表示情報管理テーブル作成部12は、ステップS33の処理として、上記表示情報データベース部16のデータと、第2アプリケーションデータ参照部11から送られてきたデータを参照する。
【0043】
ここで、上記表示情報データベース部16に用意されているデータベースは、例えば図8に示すようなものを挙げることができる。なお、この図8は一例である。図8において、表示情報データベース部16内に用意されているデータベースは、例えば「キャット」、「ドック」、「マウス」、「バード」などの様々なキャラクタの何れかを表す情報と、各キャラクタの台詞情報(セリフ)と、それらキャラクタの画像や台詞のテキスト、背景画像などを表示部82上に表示させたり、リンガ78から効果音や音楽など出力させる際の条件(以下、出現条件とする)を表す情報と、第2のアプリケーションデータ参照部11が収集した図6の参照データのうちの何れのデータを利用するのかを示す情報とが、各出現パターン番号(No.1001,1002等)にそれぞれ対応付けられて形成されている。また、当該データベースの項目内には、幾つかのカテゴリの分類を示す情報も用意されている。図8の例では、第1分類として限定カテゴリと一般カテゴリなどが設けられ、さらに、各第1分類を細分化する第2分類として記念日カテゴリと誕生日カテゴリ、イベントカテゴリなどが設けられている。なお、これらカテゴリは一例であり、さらに多くのカテゴリに分けられていても良い。
【0044】
上記第1分類の限定カテゴリは、出現条件が満たされたとしても一日に一回のみしか出現できないことを示すカテゴリであり、一方、一般カテゴリは、出現条件さえ満たせば一日に何度でも出現できることを示すカテゴリである。第2分類の記念日カテゴリは、例えば子供の日やクリスマスなどの記念日を示すカテゴリであり、誕生日カテゴリは、ユーザの誕生日を示すカテゴリであり、イベントカテゴリは、上記記念日や誕生日以外の何らかのイベントに対応したカテゴリである。
【0045】
上記台詞の項目内には、台詞本体のテキストデータとそれら各テキストデータの配列(例えば文書スタイル)を決定するための制御コード、及び、それら台詞と共に出現させるキャラクタ画像,背景画像,効果音や音楽などをそれぞれ指示するための制御コードが配置されている。当該制御コードは、例えば図9に示すように、画像、音声を指定するためのコード(画像xxx,音声yyy)、キャラクタを指定するためのコード(キャラクタcc)、改行の挿入を指定するためのコード(改行)、時間を指定するためのコード(時間nn)、文字を指定するためのコード(文字zzz)、参照データを指定するためのコード(参照aaa)、表示の終了を指定するためのコード(終了)などからなる。特に、上記画像,音声を指定するためのコード、キャラクタを指定するためのコードは、後述の画像音声出力データ作成部14が、画像音声データベース部17から画像,音声データ、キャラクタ画像データを取り出す際に用いられる。すなわち、画像音声データベース部17には、例えば図10に示すように様々な背景画像と画像番号(画像001,002,…)とが対応付けられたデータベースと、例えば図11に示すように様々な効果音や音楽等と音声番号(音声001,002,…)とが対応付けられたデータベースと、例えば図12に示すように様々なキャラクタ画像(顔や姿の画像)とキャラクタ番号(キャラクタ01,02,…)とが対応付けられたデータベースとが用意されており、当該画像音声データベース部17から上記各コードに応じた画像データ、音声データ、キャラクタ画像データが取り出される。なお、図12の例は、「バード」のキャラクタのデータベース部分のみを示している。これらのキャラクタは、例えばダウンロードにより追加あるいは変更したりすることも可能である。
【0046】
図7に戻って、表示情報管理テーブル作成部12は、ステップS34の処理として、現在の日時情報や第1のアプリケーション起動回数等の条件に基づいて、上記第2のアプリケーションデータ参照部11からのデータと表示情報データベース部16のデータとから、表示可能なデータを選出する。ここで、表示情報管理テーブル作成部12は、データが表示可能でないときには処理をステップS37へ進め、表示可能であるときにはステップS35へ処理を進める。
【0047】
ステップS35の処理に進むと、表示情報管理テーブル作成部12は、上記表示可能な各データに対応した出現パターンに対して重み付けを行う。なお、上記重み付けとは、各出現パターンの優先順位付け、つまり出現割合を設定することである。優先順位は、例えば、初登場キャラクタを使用する場合の出現パターンが最も高く、次に、誕生日に対応した出現パターン、その後、各種の記念日に対応した出現パターンというように決定される。上記重み付けは、必ず行っても良いし、所望或いは既定の出現パターンに対してのみ行っても良い。また、重み付けは、表示情報管理テーブル作成部12ではなく、次段の表示情報決定部13にて表示情報決定に先立って行う事にしても良い。上記ステップS35の処理後、表示情報管理テーブル作成部12は、ステップS36へ処理を進める。
【0048】
ステップS36の処理に進むと、表示情報管理テーブル作成部12は、予め用意された第1分類のカテゴリ別に、上記表示可能な各データに対応した出現パターンを表示情報管理テーブルへ追加し、ステップS37へ処理を進める。
【0049】
ステップS37の処理へ進むと、表示情報管理テーブル作成部12は、表示情報データベース部16の最後尾の参照が終了したか否か判定し、最後尾の参照が終了した時には次段の表示情報決定部13へ処理を渡し、一方、最後尾の参照が終了していないときには、ステップS38へ処理を進める。
【0050】
ステップS38の処理へ進むと、表示情報管理テーブル作成部12は、表示情報データベース部16の参照先を1インクリメントした後、ステップS33の処理へ戻る。これ以降は前述同様である。
【0051】
以上の図7のフローチャートのようにして、表示情報管理テーブル作成部12にて、第1分類のカテゴリ別の表示情報管理テーブルが作成されると、データ処理部1は、図4のステップS12へ処理を進める。
【0052】
図4のステップS12の処理に進むと、表示情報決定部13は、上記表示情報管理テーブルから上記重み付けに応じた出現パターンを決定することで、表示部82に表示させるキャラクタ画像や背景画像のデータ、台詞のテキストデータ、及び、リンガ78のスピーカから出力させる効果音等のデータを決定する。
【0053】
図13は、図4のステップS12の詳細な処理を示す。図13において、表示情報決定部13は、先ず、ステップS41の処理として、登場させることができる各キャラクタの中から、一例として積算通話時間に応じたキャラクタを特定する。次に、表示情報決定部13は、ステップS42の処理として、上記特定したキャラクタが、過去に登場したことのない初登場のキャラクタがあるのか否か判定する。当該ステップS42にて初登場キャラクタであると判定した場合、表示情報決定部13は、ステップS47の処理として、そのキャラクタ用のデータ(キャラクタ画像、背景画像、効果音、台詞等)を画像音声データベース部17から取得する。一方、ステップS42において初登場キャラクタが無いと判定した場合、表示情報決定部13はステップS43へ処理を進める。
【0054】
ステップS43の処理に進むと、表示情報決定部13は、上記表示情報管理テーブルから、上記第1分類のカテゴリ別の使用可能な出現パターン数を求め、それら各出現パターン数を用いて、既定のランダム関数に応じた第1のパラメータと、重み付けに応じた第2のパラメータを生成する。なお、一例として、限定カテゴリの使用可能な出現パターン数を「A」、一般カテゴリの使用可能な出現パターン数を「B」とし、ランダム関数を「R」、重み付けの係数(出現割合)を「W」とした場合、上記第1のパラメータはR*(A+B)の計算式により得られる値「C」を用いることができ、また、第2のパラメータは、(A+B)*W/100の計算式により得られる値「D」を用いることができる。そして、表示情報決定部13は、ステップS44の処理として、上記第1,第2のパラメータの比較、すなわち例えばC<Dか否か等により、使用する出現パターンを第1分類の何れのカテゴリにするかを決定する。一例として、表示情報決定部13は、例えばC<Dのとき限定カテゴリの出現パターンとし、C≦Dのとき一般カテゴリの出現パターンとする。
【0055】
その後、表示情報決定部13は、ステップS45の処理として、上記決定されたカテゴリの出現パターンに対応した、キャラクタ画像、背景画像、効果音等のデータ、及び台詞のテキストデータを決定し、図4のステップS13へ処理を進める。
【0056】
図4のステップS13の処理に進むと、画像音声出力データ作成部14は、図13の処理により決定されたキャラクタ画像、背景画像、効果音等のデータを、画像音声データベース部17から取得し、それらデータと台詞のテキストデータから、画像・音声出力用のデータを生成する。
【0057】
そして、画像音声出力データ作成部14は、ステップS14の処理として、キャラクタ画像、背景画像のデータ、台詞のテキストデータからなる表示データを、表示部82へ出力し、また、効果音等の音声データを、音声出力部(リンガ78のスピーカ)へ出力する。
【0058】
例えば、本実施の形態において、表示情報データベース部16内のデータのうち、例えば図8のNo.1255の出現パターンが、図13のステップS44で決定された場合を考えてみると、当該No.1255の出現パターンは、第1分類が限定カテゴリ、第2分類が誕生日カテゴリとなっており、参照データが「月/日」、出現条件が8月8日(ユーザの誕生日)となっている。また、このNo.1225での制御コードは、キャラクタ番号がバード02、画像番号が画像001,002、音声番号が音声001,002になっている。したがって、当該8月8日に第1のアプリケーションが最初に起動されると、キャラクタ画像は図12のキャラクタ番号(バード02)に決定され、背景画像は図10の画像001,002に決定され、効果音は図11の音声001,002に決定される。すなわち、当該8月8日にユーザが携帯電話機を初めて開操作すると、表示部82には、画像001,002の背景画像(晴れた空と輝く太陽からなる背景画像)と、その背景画像の上に表示されたバード02のキャラクタ画像、及びNo.1255の項目の台詞「今日は誕生日。プレゼントは・・・・」とが表示されると共に、リンガ78のスピーカからは音声001,002の効果音等(ハッピバースデーの歌とファンファーレの音楽)が出力されることになる。
【0059】
なお、上述した実施の形態のアプリケーションは、複数用意されているキャラクタの個々のキャラクタを、それぞれ出現条件が整ったときに順番に1キャラクタづつ登場させる設定となっている。これに対し、本発明の別の実施の形態として、上記アプリケーションは、自動的に設定若しくは予めユーザにより設定された数のキャラクタが登場した後、或いは、登場可能な全キャラクタの登場が完了した後に、それら過去に登場した複数のキャラクタを例えば集合写真のように1画面上に同時に表示させる設定であっても良い。この時、上記1画面上に同時に表示させるキャラクタは、例えば、過去に登場した全キャラクタであっても良いし、過去に登場した全キャラクタのうちの任意の数のキャラクタであっても良いし、過去に登場した全キャラクタのうちで同時表示の許可設定がなされている幾つかのキャラクタであっても、また、例えばキャラクタ毎に優先順位が付けられているときには高い優先順位(又は低い優先順位)に応じた幾つかのキャラクタであっても、さらに例えば各キャラクタ毎にユーザの好みを設定できるときにはその好みの順番(又は嫌いな順番)に応じた幾つかのキャラクタであっても、或いは過去に登場した全キャラクタの中からランダムに選ばれた幾つかのキャラクタを表示させても良い。また、上記アプリケーションは、未だ登場していないキャラクタを、過去に登場済みのキャラクタと同時に1画面上に表示する設定であっても良い。その他、表示情報データベース部16に用意されているデータベースは、過去に登場した複数のキャラクタを1画面上に表示させるための出現条件が設定されていても良い。
【0060】
以上説明したように、本実施の形態によれば、携帯電話機の他のアプリケーションから取得したデータと予め用意された表示情報データベースのデータとを選択的に組み合わせることで、ユーザ操作の簡略化を実現しながら複雑な情報の表示等が可能である。すなわち本実施の形態によれば、ユーザは、なにも意識しなくても、以前に入力した項目や履歴などによりカスタマイズされた情報、自動的に選出されて組み合わされた画像が表示され、また音声が出力されるため、限られたデータ量で多彩な表現が可能となっている。
【0061】
なお、上述した実施の形態の説明は、本発明の一例である。このため、本発明は上述した実施の形態に限定されることなく、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることはもちろんである。
【0062】
【発明の効果】
本発明によれば、複数の情報を格納したデータベースから現在の条件に応じた情報が選出され、その選出された情報に重み付けが行われ、そして、選出された複数の情報の中から重み付けに応じて決定された情報により表示データが作成されるため、ユーザによる複雑な入力操作や設定操作を必要とせず、また、ユーザにとって意外性に飛んだ情報の表示が実現可能である。
【図面の簡単な説明】
【図1】本発明実施の形態の携帯電話機の構成を示すブロック図である。
【図2】本実施の形態のアプリケーション処理の概略を示す機能ブロック図である。
【図3】入力データ等の取得と記憶処理のフローチャートである。
【図4】本実施の形態のアプリケーション処理の概略的なフローチャートである。
【図5】起動判定と第2のアプリケーションのデータ参照処理の詳細なフローチャートである。
【図6】参照データの一例を示す図である。
【図7】表示情報管理テーブル作成処理の詳細なフローチャートである。
【図8】表示情報データベース部内のデータの一例を示す図である。
【図9】制御コードの一例を示す図である。
【図10】画像音声データベース部内の画像(背景画像)データの一例を示す図である。
【図11】画像音声データベース部内の音声(効果音等)データの一例を示す図である。
【図12】画像音声データベース部内のキャラクタ画像データの一例を示す図である。
【図13】表示データ決定処理の詳細なフローチャートである。
【符号の説明】
1…データ処理部、2…入力情報取得部、3…第2のアプリケーション制御部、11…第2のアプリケーションデータ参照部、12…表示情報管理テーブル作成部、13…表示情報決定部、14…画像音声出力データ作成部、15…データ記憶部、16…表示情報データベース部、17…画像音声データベース部、71…アプリケーションCPU、89…内部ストレージ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information terminal, an information processing method, and an information processing program suitable for a mobile phone having at least a display unit.
[0002]
[Prior art]
2. Description of the Related Art Recent mobile phones have a display panel (hereinafter simply referred to as a display unit) capable of displaying a color image and the like. Then, the mobile phone not only displays, for example, a telephone number and a name corresponding to the telephone number on the display unit, but also various characters and symbols, a character image, a photograph image, a calendar, date and time information, Schedule information and the like can be displayed.
[0003]
Further, in Patent Document 1, for example, a plurality of basic figures are associated with a certain telephone number, and a basic figure corresponding to, for example, a communication history (the number of times of communication, communication time, etc.) is selected from among the plurality of basic figures. The technology of a mobile phone for selecting and displaying is disclosed. That is, the mobile phone described in Patent Document 1 has a plurality of basic figures corresponding to a certain telephone number, for example, a figure with a dog standing, a figure with a dog sitting, and a state with a dog sleeping. If there is a figure, a figure corresponding to the communication history is selected and displayed from the respective basic figures.
[0004]
[Patent Document 1]
JP-A-2002-57758 (FIGS. 1 and 4)
[0005]
[Problems to be solved by the invention]
By the way, the conventional mobile phone requires a key operation by a user when displaying some characters, images, and the like on the display unit, and also needs to determine the characters, images, and the like to be displayed on the display unit. In addition, complicated input operation and setting operation by a user are required. As described above, in the conventional mobile phone, when displaying any information on the display unit, the user must perform a complicated operation.
[0006]
On the other hand, in the mobile phone described in Patent Literature 1, selection and display are automatically performed according to the communication history, so that the user does not need to perform a complicated input operation or the like to display the basic image. However, each basic image selected and displayed according to the communication history is registered in advance by the user in association with the telephone number and name in the telephone number book. Therefore, the user must perform some input operation and setting operation at the time of the registration. In addition, since the user himself / herself has registered the basic image, he / she knows how the basic image selected and displayed according to the communication history changes thereafter. Seems less.
[0007]
The present invention has been made in view of such a problem, does not require a complicated input operation and setting operation by the user, and can display information that unexpectedly jumped to the user, and the like. It is an object to provide an information terminal, an information processing method, and an information processing program.
[0008]
[Means for Solving the Problems]
The information terminal of the present invention is a database unit that stores at least a plurality of pieces of information each representing the association between a plurality of pieces of data to be displayed and its display conditions, and selects information from the database unit according to current conditions. An information selection unit that weights information for priority determination, an information determination unit that determines information according to the weight from among multiple pieces of selected information, and creates display data according to the determined information And a display data generating unit for performing the operation.
[0009]
Further, the information processing method of the present invention is a method in which at least a plurality of pieces of data to be displayed and a plurality of pieces of information each representing a correspondence between a display condition for displaying the data and a plurality of pieces of information are stored from a database, Is selected, the selected information is weighted for priority determination, information is determined according to the weight from the plurality of selected information, and display data is created in accordance with the determined information. I do.
[0010]
Further, the information processing program according to the present invention stores at least a plurality of data to be displayed and information corresponding to a current condition from a database storing a plurality of information each representing a correspondence between a display condition for displaying each data. Selecting the information, weighting the selected information for priority determination, determining information according to the weight from among the plurality of selected information, Creating display data to be displayed on a predetermined display unit in response to the instruction.
[0011]
That is, according to the present invention, a plurality of pieces of information according to the current condition are selected, and the pieces of information are weighted, so that a surprising display is made without the user's awareness.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[0013]
FIG. 1 shows a schematic configuration of a mobile phone as an embodiment of the information terminal of the present invention. The information terminal of the present invention is not limited to a mobile phone, but may be a PHS phone (PHS: Personal Handyphone System, registered trademark), a mobile communication terminal such as a car navigation device, a PDA (Personal Digital Assistants), or the like. There may be. It is desirable that the PDA device has a communication function.
[0014]
As shown in FIG. 1, the mobile phone according to the present embodiment includes a transmission / reception signal processing unit 21, a communication processing unit 22, and an application control processing unit 23. The communication processing unit 22 and the application control processing unit 23 are connected via a CPU interface unit 24 (CPU I / F unit). The communication processing unit 22 includes a communication CPU 61 for controlling communication such as a call, and the application control processing unit 23 includes a standby image display process, a ringtone melody voice process, and a display information management table described later. An application CPU 71 for controlling various applications such as an application (information processing program according to the present invention) for performing image display processing, audio output processing, and the like based on the image processing is provided. In the following description, an application that performs image display processing, audio output processing, and the like based on the display information management table is particularly referred to as a first application, and each other application is referred to as a second application. I will call it. Further, in the present embodiment, an example is described in which the processing in the communication processing unit 22 and the processing in the application control processing unit 23 are respectively performed by different CPUs. Alternatively, these processes may be divided and assigned to three or more CPUs.
[0015]
[Operation at signal reception]
When the transmission / reception signal processing section 21 receives a radio wave from a base station (not shown) by the antenna 31, the transmission / reception signal processing section 21 sends the reception signal to the reception RF section 33 via the duplexer 32. The reception RF unit 33 amplifies the reception signal and sends the amplified signal to the next frequency conversion unit 35. The frequency conversion unit 35 uses the local oscillation signal from the local oscillation unit 34 to down-convert a high-frequency reception signal into a baseband signal. The baseband signal is sent to a reception I / F section 36, A / D (analog / digital) converted and converted into reception data, and then sent to a reception level detection section 37.
[0016]
The reception level detection unit 37 detects a reception level from the reception data, and sends the detected reception level information to the communication processing unit 22. Further, the reception level detection section 37 sends the reception data to the reception demodulation section 38.
[0017]
The reception demodulation unit 38 removes the fading component from the reception data, further demodulates the spread code, performs type determination of the reception data as voice data or other communication data (for example, packet communication data) and separates the data. The audio data separated by the type determination is sent to the audio decoding unit 39, and the communication data is sent to the communication data decoding unit 42.
[0018]
The audio decoding unit 39 performs a decoding process such as a decompression process, a deinterleave process, and an error correction process on the audio data, and then performs a D / A (digital / analog) conversion process. The analog audio signal after the D / A conversion is amplified by the amplifier 40 and supplied to the speaker 41. Thereby, the received sound is output via the speaker 41.
[0019]
The communication data decoding unit 42 performs decoding processing such as decompression processing, deinterleaving processing, and error correction processing of the communication data, and sends the obtained communication data to the communication processing unit 22. The communication data is also sent to the application control processing unit 23 as needed.
[0020]
[Operation at signal transmission]
On the other hand, the analog audio signal input via the microphone 43 is adjusted to a predetermined level by the amplifier 44 and then sent to the audio encoding unit 45. The audio encoding unit 45 performs an A / D (analog / digital) conversion process on the audio signal, further performs a compression process, an interleave process, an addition process of an error correction code, and the like, and sends the obtained audio data to the transmission modulation unit 46. send.
[0021]
The communication data input from the communication processing unit 22 is sent to the communication data encoding unit 47. The communication data encoding unit 47 performs communication data compression processing, interleave processing, error correction code addition processing, and the like, and sends the obtained communication data to the transmission modulation unit 46.
[0022]
The transmission modulator 46 modulates the supplied voice data and communication data with a spreading code, and sends the obtained I and Q components to the transmission I / F unit 48. The transmission I / F unit 48 performs D / A conversion of the I and Q components, and sends it to the frequency conversion unit 49 as a baseband transmission signal.
[0023]
The frequency conversion unit 49 uses the local oscillation signal from the local oscillation unit 34 to up-convert the baseband transmission signal into a high-frequency transmission signal and sends the signal to the transmission RF unit 50. After amplifying the transmission signal, transmission RF section 50 sends the transmission signal to duplexer 32. At this time, the duplexer 32 sends the transmission signal to the antenna 31. As a result, the transmission signal is transmitted from the antenna 31 as a radio wave.
[0024]
[Configuration and Basic Operation of Communication Processing Unit]
The communication CPU 61 of the communication processing unit 22 controls the above-described signal transmission / reception processing in the transmission / reception signal processing unit 21. Specifically, the communication CPU 61 performs various communication control processes in accordance with communication control software stored in a ROM 63 (Read Only Memory).
[0025]
The communication CPU 61 is connected to a ROM 63, a RAM 64 (Random Access Memory), and an EEPROM 65 (Electrically Erasable and Programmable Read Only Memory) via a bus line 62. The RAM 64 is used as a work area of the communication CPU 61, and stores data during calculation and the like as needed during execution of software of the communication CPU 61, and temporarily stores data to be transmitted / received to / from other units. The EEPROM 65 is a non-volatile memory, and can store, for example, information on the immediately preceding communication setting condition even when the power of the mobile phone is turned off. Therefore, when the power is turned on next time, the communication CPU 61 controls the setting of each unit based on the information stored in the EEPROM 65 so that the setting immediately before the power is turned off is reproduced. Has become.
[0026]
The communication processing unit 22 performs various types of communication control processing such as signal transmission / reception processing using the communication control software.
[0027]
[Configuration and Basic Operation of Application Control Processing Unit]
The application control processing unit 23 executes user interface control such as key input, display processing of a standby image, voice processing of a ringtone melody, image display processing by the first application, voice output processing, and other second applications. Execute. Specifically, the application CPU 71 activates the application software stored in the ROM 72 and controls each unit connected via the application bus line 73 to realize the application function.
[0028]
Of the components connected to the application CPU 71 via the application bus line 73, the RAM 74 is used as a work area of the application CPU 71, and the EEPROM 75 stores application setting conditions and the like. The ROM 72 stores information for initializing the mobile phone, font data for displaying characters on the display unit 82 (LCD), and a ringer (a speaker for outputting a ringtone or the like). The sound sample data for obtaining the sound output by 78, the vibration pattern for operating the vibrator 79, and the like are stored. The internal storage 89 is, for example, a rewritable storage medium such as a flash memory that does not require a storage holding operation, and includes, for example, the above-described various application software, and information such as telephone numbers and e-mail addresses and names and names corresponding thereto. Various types of data such as telephone directory data, schedule data, outgoing / incoming communication history data, memo pad data, user profile data, display information management tables used in the first application, character data, image data, and voice data. Store the data. These data may be stored in the EEPROM 75. Further, the internal storage 89 and the EEPROM 75 are not separately configured, and may be realized by dividing a storage area in the same memory.
[0029]
The key operation unit 76 includes buttons used for inputting telephone numbers, alphabets, kana characters, symbols, and the like, cursor operators for moving a cursor on the screen, power on / off, and various types of operations performed by the user. Keys, buttons and dials.
[0030]
In the mobile phone, when the key operation unit 76 is operated by the user, the key I / F 77 sends the operation information to the application CPU 71. At this time, the application CPU 71 executes an application process according to the key operation.
[0031]
The application CPU 71 drives the ringer 78, vibrator 79, and LED (Light Emitting Diode) 80 to notify the user of the call, and displays a standby image, various messages, and the like on the display unit 82 via the LCD I / F 81. Perform control.
[0032]
The mobile phone according to the present embodiment also includes a card drive 84 to which a SIM (Subscriber Identity Module Card) card 83 can be mounted, and a storage I / F 87 to which an external storage 86 can be connected, for example. When the SIM card 83 is mounted on the card drive 84, the card drive 84 reads out a personal ID such as a user's telephone number recorded on the SIM card 83, and reads out the card I / F 85 and the CPU I / F. 24 to the communication CPU 61. At this time, the communication CPU 61 performs, for example, user authentication based on the information. When the external storage 86 is connected to the storage I / F, the application CPU 71 reads the recorded contents of the external storage 86 via the storage I / F 87. The information read from the external storage 86 is also supplied to the communication CPU 61 as needed. The external storage 86 may be a stick-shaped or card-shaped semiconductor memory, for example. The external storage 86 has a large capacity, for example, and various application software including, for example, a first application and other second applications, application software for improving or expanding communication functions, a standby screen. , Melody, font and other data. Further, in the mobile phone according to the present embodiment, the communication CPU 61 and the application CPU 71 can read out the software stored in the external storage 86 and control rewriting (upgrading and updating) of the existing software. . Of course, the mobile phone of the present embodiment can be upgraded or updated by software received or downloaded via the external I / F 88.
[0033]
In addition, the application CPU 71 is also connected to a camera unit 90, a GPS (Global Positioning System) unit 91, and a clock unit 92 via an application bus line 73. The camera unit 90 includes an imaging device such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and an optical system that forms an optical image of a subject or the like on the imaging device. It is. The photographing instruction input by the camera unit 90 can be realized by using a predetermined key of the key operation unit 76 as a release button. Image data captured by the camera unit 90 is stored in, for example, the internal storage 89 or the external storage 86. The GPS unit 91 sends the measured position information to the application CPU 71.
[0034]
[Image display processing based on display information management table]
Hereinafter, the operation of the mobile phone according to the present embodiment when the first application is activated will be described with reference to the tables and flowcharts shown in FIG. 2 and subsequent drawings. FIG. 2 is a functional block diagram of the main processing when the application CPU 71 executes data acquisition by executing a second application, user input, and the like, and executes processing related to the first application. Is represented in FIG. 2 also shows a display information database unit 16 and an image / sound database unit 17, which will be described later, and a data storage unit 15 that records data obtained by executing the second application or inputting by the user. In the case of the example of FIG. 2, it is assumed that the data storage unit 15, the display information database unit 16, and the video / audio database unit 17 are provided in the internal storage 89, for example.
[0035]
The input information acquisition unit 2 in FIG. 2 acquires data input by a user via the second application or captured by communication. Then, the second application control unit 3 stores the data in, for example, a predetermined storage area (data storage unit 15) of the internal storage 89. That is, the input information acquisition unit 2 and the second application control unit 3 acquire user input data and other desired data via the second application in step S1 of FIG. 3, and then in step S2, The data is stored in the data storage unit 15. The data stored in the data storage unit 15 includes, for example, telephone directory data, schedule data, communication history data, memo pad data, profile data, image data captured by the camera unit 90, and data detected by the GPS unit 91. Positioning data, time data from the clock unit 92, and the like.
[0036]
Next, the second application data reference unit 11 of the data processing unit 1 determines whether or not the mobile phone according to the present embodiment satisfies a predetermined startup requirement as the process of step S10 in FIG. Is satisfied, the second application control unit 3 is requested to read the data stored in the data storage unit 15. The predetermined activation requirement is, for example, when the mobile phone of the present embodiment is a foldable terminal, when the user performs an opening operation on the terminal, or when the mobile phone receives or transmits a call. Time, a certain date and time, a time when a predetermined operation is performed by the user, and the like.
[0037]
Here, FIG. 5 shows a detailed process of step S10 in FIG. FIG. 5 is a flowchart in the case where the predetermined activation requirement is an opening operation of the foldable terminal.
[0038]
In FIG. 5, the second application data reference unit 11 first determines whether or not the user has performed the opening operation of the foldable terminal as step S21 in FIG. 5, and determines that the opening operation has been performed. When it is detected, the process proceeds to step S22.
[0039]
When the process proceeds to step S22, the second application data reference unit 11 determines whether or not settings for performing image display processing, audio output processing, and the like by executing the first application have been made. If it is determined in step S22 that the setting has not been made, the application CPU 71 proceeds to a general operation routine when the setting has not been made. The description of the general operation routine is omitted.
[0040]
On the other hand, when it is determined in step S22 that the above setting has been made, the second application data reference unit 11 instructs the second application control unit 3 to store the data in the data storage unit 15 in step S23. Requesting the reading of all the data, and referring to all the data sent in response to the request, extracting only usable data and sending it to the display information management table creating unit 12. Here, the data referred to by the second application data reference unit 11 is, for example, as shown in FIG. 6, current date and time data, communication history data, input data by a user, profile data of a user, integration of call and the like. For example, time data. The usable data extracted by the second application data reference unit 11 is, for example, communication history data. When describing the case of communication history data, for example, the usable data is registered in the telephone directory corresponding to the telephone number of the incoming or outgoing call. The name and name of the other party can be listed.
[0041]
When the processing of step S10 of FIG. 4 (the flowchart of FIG. 5) is completed in the second application data reference section 11, the display information management table creating section 12 executes the processing of step S11 of FIG. Based on conditions such as the number of times the first application has been started and the like, at least data that can be displayed is selected from the data sent from the second application data reference unit 11 and the data prepared in the display information database unit 16. Are selected, and weights indicating priorities are given to the selected data to create a display information management table.
[0042]
FIG. 7 shows the detailed process of step S11 in FIG. In FIG. 7, the display information management table creator 12 first takes in the data sent from the second application data reference unit 11 as a process of step S31, and then, as a process of step S32, stores the internal storage 89 Of the database prepared in the display information database unit 16 is set as the reference destination. Then, the display information management table creator 12 refers to the data of the display information database 16 and the data transmitted from the second application data reference unit 11 as the process of step S33.
[0043]
Here, the database prepared in the display information database unit 16 can be, for example, the one shown in FIG. FIG. 8 is an example. In FIG. 8, a database prepared in the display information database unit 16 includes information representing any one of various characters such as “cat”, “dock”, “mouse”, “bird”, and the like. Dialogue information (line) and conditions for displaying the image of the character, the text of the dialogue, the background image, and the like on the display unit 82 and outputting sound effects, music, and the like from the ringer 78 (hereinafter referred to as appearance conditions). And the information indicating which of the reference data of FIG. 6 collected by the second application data reference unit 11 is to be used are included in each appearance pattern number (No. 1001, 1002, etc.). They are formed in association with each other. Information indicating the classification of some categories is also prepared in the items of the database. In the example of FIG. 8, a limited category, a general category, and the like are provided as the first category, and further, an anniversary category, a birthday category, an event category, and the like are provided as the second categories that subdivide the first categories. . Note that these categories are merely examples, and may be further divided into more categories.
[0044]
The limited category of the first category is a category indicating that it can appear only once a day even if the appearance condition is satisfied, while the general category is any number of times a day as long as the appearance condition is satisfied. This is a category indicating that it can appear. The second category of the anniversary category is, for example, a category indicating an anniversary such as Children's Day or Christmas, the birthday category is a category indicating the birthday of the user, and the event category is the above anniversary or birthday. This is a category corresponding to any event other than.
[0045]
In the above-mentioned line item, text data of the line itself and a control code for determining the arrangement (for example, document style) of each of the text data, and character images, background images, sound effects and music to appear together with the line And control codes for instructing each of them. For example, as shown in FIG. 9, the control code includes a code (image xxx, voice yyy) for specifying an image and a voice, a code (character cc) for specifying a character, and a code for specifying a line feed insertion. A code (line feed), a code for specifying time (time nn), a code for specifying characters (character zzz), a code for specifying reference data (reference aaa), and a code for specifying end of display Code (end) etc. In particular, the code for designating the image and the sound and the code for designating the character are used when the image / sound output data creating unit 14 described later retrieves the image, sound data, and character image data from the image / sound database unit 17. Used for That is, the image / sound database unit 17 includes, for example, a database in which various background images are associated with image numbers (images 001, 002,...) As shown in FIG. A database in which sound effects (music, sound, etc.) are associated with voice numbers (voices 001, 002,...), And various character images (face and figure images) and character numbers (characters 01, 02,...) Are prepared, and image data, audio data, and character image data corresponding to the respective codes are extracted from the image / audio database unit 17. Note that the example of FIG. 12 shows only the database portion of the character “bird”. These characters can be added or changed by downloading, for example.
[0046]
Returning to FIG. 7, the display information management table creator 12 performs the processing in step S34 based on conditions such as the current date and time information and the number of times the first application has been started. Displayable data is selected from the data and the data in the display information database unit 16. Here, the display information management table creator 12 advances the process to step S37 when the data cannot be displayed, and advances the process to step S35 when the data can be displayed.
[0047]
In step S35, the display information management table creator 12 weights the appearance patterns corresponding to the data that can be displayed. The weighting is to set the priority of each appearance pattern, that is, to set the appearance ratio. The priority is determined such that, for example, the appearance pattern when the first appearance character is used is the highest, the appearance pattern corresponding to the birthday, and then the appearance pattern corresponding to various anniversaries. The weighting may be always performed, or may be performed only on a desired or predetermined appearance pattern. The weighting may be performed by the next-stage display information determination unit 13 prior to the determination of the display information, instead of the display information management table creation unit 12. After the processing in step S35, the display information management table creation unit 12 proceeds to step S36.
[0048]
When the process proceeds to step S36, the display information management table creator 12 adds, to the display information management table, an appearance pattern corresponding to each of the displayable data for each of the first categories prepared in advance, and then proceeds to step S37. Processing proceeds to
[0049]
In step S37, the display information management table creator 12 determines whether or not the last reference of the display information database 16 has been completed. The process is passed to the unit 13, and if the last reference is not completed, the process proceeds to step S38.
[0050]
When the process proceeds to step S38, the display information management table creator 12 increments the reference destination of the display information database 16 by 1, and then returns to step S33. Subsequent steps are the same as described above.
[0051]
When the display information management table creation unit 12 creates the display information management table for each category of the first category as in the flowchart of FIG. 7 described above, the data processing unit 1 proceeds to step S12 of FIG. Proceed with the process.
[0052]
When proceeding to the process of step S12 in FIG. 4, the display information determining unit 13 determines the appearance pattern according to the weighting from the display information management table, thereby displaying the character image and the background image data to be displayed on the display unit 82. , Text data of speech, and data such as sound effects output from the speaker of the ringer 78 are determined.
[0053]
FIG. 13 shows the detailed process of step S12 in FIG. In FIG. 13, the display information determining unit 13 first specifies, as a process of step S41, a character corresponding to the accumulated call time, for example, from among the characters that can appear. Next, the display information determination unit 13 determines whether or not the identified character has a first appearance character that has never appeared in the past, as the process of step S42. If it is determined in step S42 that the character is a first-appearing character, the display information determining unit 13 stores the data for the character (character image, background image, sound effect, dialogue, etc.) in the image / audio database in step S47. Obtained from the unit 17. On the other hand, if it is determined in step S42 that there is no first appearance character, the display information determining unit 13 proceeds to step S43.
[0054]
When the process proceeds to step S43, the display information determining unit 13 obtains the number of available appearance patterns for each category of the first classification from the display information management table, and uses the number of appearance patterns to determine a predetermined number of occurrence patterns. A first parameter corresponding to the random function and a second parameter corresponding to the weight are generated. As an example, the number of available appearance patterns of the limited category is “A”, the number of available appearance patterns of the general category is “B”, the random function is “R”, and the weighting coefficient (appearance ratio) is “ When “W” is set, the first parameter can use a value “C” obtained by a calculation formula of R * (A + B), and the second parameter is a calculation of (A + B) * W / 100. The value "D" obtained by the equation can be used. Then, the display information determining unit 13 assigns the appearance pattern to be used to any one of the first categories by comparing the first and second parameters, that is, for example, by determining whether C <D or not, as the process of step S44. Decide what to do. For example, the display information determination unit 13 sets the appearance pattern of the limited category when C <D, and sets the appearance pattern of the general category when C ≦ D.
[0055]
Thereafter, the display information determining unit 13 determines data of a character image, a background image, a sound effect, and the like, and text data of dialogue corresponding to the appearance pattern of the determined category as the process of step S45, as shown in FIG. The process proceeds to step S13.
[0056]
When proceeding to the processing of step S13 in FIG. 4, the image / audio output data creation unit 14 acquires data such as the character image, the background image, and the sound effect determined by the processing in FIG. From these data and the text data of the dialogue, data for image / audio output is generated.
[0057]
Then, the image / audio output data creating unit 14 outputs display data including character image data, background image data, and speech text data to the display unit 82 as processing in step S14, and outputs audio data such as sound effects. Is output to the audio output unit (the speaker of the ringer 78).
[0058]
For example, in the present embodiment, of the data in the display information database unit 16, for example, Considering the case where the appearance pattern of No. 1255 is determined in step S44 of FIG. The appearance pattern of 1255 is such that the first category is a limited category, the second category is a birthday category, the reference data is “month / day”, and the appearance condition is August 8 (user's birthday). I have. In addition, this No. In the control code in 1225, the character number is bird 02, the image number is image 001, 002, and the audio number is audio 001, 002. Therefore, when the first application is first started on August 8, the character image is determined to be the character number (bird 02) in FIG. 12, and the background image is determined to images 001 and 002 in FIG. The sound effect is determined as the voices 001 and 002 in FIG. That is, when the user opens the mobile phone for the first time on August 8, the display unit 82 displays the background image of the images 001 and 002 (the background image including the clear sky and the shining sun) and the top of the background image. And the character image of the bird 02 displayed on the In addition to the display of the line 1255, "Today is birthday. Present is ...", sound effects such as voices 001 and 002 (Happi birthday song and fanfare music) are displayed from the speaker of the ringer 78. Will be output.
[0059]
Note that the application of the above-described embodiment is set so that each of a plurality of prepared characters appears one by one in order when appearance conditions are satisfied. On the other hand, as another embodiment of the present invention, the application is executed after the number of characters that have been automatically set or set in advance by the user has appeared, or after the appearance of all characters that can appear has been completed. Alternatively, the setting may be such that a plurality of characters appearing in the past are simultaneously displayed on one screen like a group photograph. At this time, the characters to be simultaneously displayed on the one screen may be, for example, all characters that appeared in the past, or any number of characters among all the characters that appeared in the past, Even if some of the characters appearing in the past have been set to allow simultaneous display, for example, when a priority is assigned to each character, a higher priority (or a lower priority) is used. , Or, for example, when the user's preference can be set for each character, it may be several characters according to the preference order (or dislike order), or in the past. Some characters randomly selected from all the characters that have appeared may be displayed. Further, the application may be set to display a character that has not yet appeared on a single screen at the same time as a character that has appeared in the past. In addition, in the database prepared in the display information database unit 16, appearance conditions for displaying a plurality of characters appearing in the past on one screen may be set.
[0060]
As described above, according to the present embodiment, simplification of a user operation is realized by selectively combining data obtained from another application of a mobile phone with data of a display information database prepared in advance. It is possible to display complicated information and the like. In other words, according to the present embodiment, the user can display information customized by previously input items and history, automatically selected and combined images, without being aware of anything, Since voice is output, various expressions are possible with a limited amount of data.
[0061]
The description of the above embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and it is needless to say that various modifications can be made according to the design and the like within a range not departing from the technical idea according to the present invention. .
[0062]
【The invention's effect】
According to the present invention, information according to the current condition is selected from a database storing a plurality of pieces of information, the selected information is weighted, and the weight is selected from the plurality of pieces of information. Since the display data is created based on the determined information, a complicated input operation or setting operation by the user is not required, and display of information surprising to the user can be realized.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a mobile phone according to an embodiment of the present invention.
FIG. 2 is a functional block diagram illustrating an outline of an application process according to the embodiment.
FIG. 3 is a flowchart of a process of acquiring and storing input data and the like.
FIG. 4 is a schematic flowchart of an application process according to the embodiment.
FIG. 5 is a detailed flowchart of start determination and data reference processing of a second application.
FIG. 6 is a diagram illustrating an example of reference data.
FIG. 7 is a detailed flowchart of a display information management table creation process.
FIG. 8 is a diagram showing an example of data in a display information database unit.
FIG. 9 is a diagram showing an example of a control code.
FIG. 10 is a diagram illustrating an example of image (background image) data in an image / sound database unit.
FIG. 11 is a diagram illustrating an example of audio (sound effect and the like) data in an image audio database unit.
FIG. 12 is a diagram illustrating an example of character image data in an image / sound database.
FIG. 13 is a detailed flowchart of a display data determination process.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Data processing part, 2 ... Input information acquisition part, 3 ... Second application control part, 11 ... Second application data reference part, 12 ... Display information management table creation part, 13 ... Display information determination part, 14 ... Image / audio output data creation unit, 15: data storage unit, 16: display information database unit, 17: image / audio database unit, 71: application CPU, 89: internal storage

Claims (10)

少なくとも表示される複数のデータとそれら各データを表示する際の表示条件との対応付けを各々表す複数の情報を格納したデータベース部と、
現在の条件に応じて上記データベース部から情報を選出し、当該選出した情報に優先順位決定のための重み付けを行う情報選出部と、
選出された複数の情報の中から、上記重み付けに応じた情報を決定する情報決定部と、
上記決定された情報に応じて、所定の表示部に表示させるための表示データを作成する表示データ作成部と
を有することを特徴とする情報端末。
A database unit that stores a plurality of pieces of information each representing at least a plurality of data to be displayed and a correspondence between display conditions when displaying each of the data,
An information selection unit that selects information from the database unit according to the current condition and weights the selected information for priority determination;
An information determining unit that determines information according to the weighting from among the plurality of pieces of information selected;
An information terminal, comprising: a display data creation unit that creates display data to be displayed on a predetermined display unit according to the determined information.
請求項1記載の情報端末であって、
他のアプリケーションにより取得された情報を記憶する記憶部を有し、
上記情報選出部は、上記記憶部に記憶されている情報と上記データベース部に格納されている情報を参照して、上記現在の条件に応じた情報を集めた情報管理テーブルを作成する情報管理テーブル作成部を含み、
上記情報決定部は、上記情報管理テーブルの情報の中から、上記重み付けに応じた情報を決定することを特徴とする情報端末。
The information terminal according to claim 1, wherein
Having a storage unit for storing information obtained by another application,
The information selecting unit refers to the information stored in the storage unit and the information stored in the database unit, and creates an information management table that collects information according to the current condition. Including the creation department,
The information terminal, wherein the information determination unit determines information according to the weight from information in the information management table.
請求項2記載の情報端末であって、
上記情報管理テーブルは、少なくとも所定の限定要件により選出される限定カテゴリ用テーブルとそれ以外の一般カテゴリ用テーブルとに分けられ、
上記情報決定部は、所定のランダム関数と上記重み付けとに基づいて、何れか一方のカテゴリ用テーブルから上記情報を選択することを特徴とする情報端末。
The information terminal according to claim 2, wherein
The information management table is divided into at least a limited category table and a general category table that are selected based on predetermined limitation requirements,
The information terminal, wherein the information determination unit selects the information from one of the category tables based on a predetermined random function and the weighting.
請求項1記載の情報端末であって、
上記データベース部に格納されている情報は、複数のキャラクタのうちの何れかを指示するキャラクタ指示情報とそのキャラクタの台詞情報を含み、
上記情報決定部は、上記決定された情報に基づいてキャラクタと台詞を決定し、
上記表示データ生成部は、上記決定されたキャラクタの画像データと上記台詞のテキストデータからなる上記表示データを生成することを特徴とする情報端末。
The information terminal according to claim 1, wherein
The information stored in the database unit includes character instruction information indicating one of a plurality of characters and speech information of the character,
The information determining unit determines a character and a dialog based on the determined information,
The information terminal, wherein the display data generation unit generates the display data including the image data of the determined character and the text data of the dialogue.
請求項4記載の情報端末であって、
上記情報選出部は、初登場のキャラクタを含む情報を、最優先順位に重み付けすることを特徴とする情報端末。
The information terminal according to claim 4, wherein
The information terminal according to claim 1, wherein the information selection unit weights information including the first appearance character in the highest priority order.
請求項5記載の情報端末であって、
上記データベース部に格納されている情報は、使用者の誕生日を示す情報を含み、
上記情報選出部は、上記誕生日を示す情報を、上記初登場キャラクタを含む情報の次の優先順位に重み付けすることを特徴とする情報端末。
The information terminal according to claim 5, wherein
The information stored in the database unit includes information indicating a user's birthday,
The information terminal, wherein the information selection unit weights the information indicating the birthday to a priority next to the information including the first appearance character.
請求項1記載の情報端末であって、
ユーザによる所定の操作を検出する操作検出部と、
上記情報選出部と情報決定部と表示データ作成部は、上記所定の操作が検出された時に動作することを特徴とする情報端末。
The information terminal according to claim 1, wherein
An operation detection unit that detects a predetermined operation by the user,
An information terminal, wherein the information selection unit, the information determination unit, and the display data creation unit operate when the predetermined operation is detected.
請求項7記載の情報端末であって、
開閉可能な筐体を有し、
上記操作検出部は、ユーザによる当該筐体の開操作を上記所定の操作として検出することを特徴とする情報端末。
The information terminal according to claim 7, wherein
It has a housing that can be opened and closed,
The information terminal, wherein the operation detection unit detects an opening operation of the housing by a user as the predetermined operation.
少なくとも表示される複数のデータとそれら各データを表示する際の表示条件との対応付けを各々表す複数の情報を格納したデータベースから、現在の条件に応じた情報を選出し、
当該選出した情報に優先順位決定のための重み付けを行い、
選出された複数の情報の中から上記重み付けに応じた情報を決定し、
上記決定された情報に応じて、所定の表示部に表示させるための表示データを作成する
ことを特徴とする情報処理方法。
At least a plurality of data to be displayed and, from the database storing a plurality of information each representing the correspondence between the display conditions when displaying each of the data, to select information according to the current conditions,
The selected information is weighted for priority determination,
Determine information according to the weighting from among the plurality of selected information,
An information processing method comprising: generating display data to be displayed on a predetermined display unit according to the determined information.
少なくとも表示される複数のデータとそれら各データを表示する際の表示条件との対応付けを各々表す複数の情報を格納したデータベースから、現在の条件に応じた情報を選出するステップと、
当該選出した情報に優先順位決定のための重み付けを行うステップと、
選出された複数の情報の中から上記重み付けに応じた情報を決定するステップと、
上記決定された情報に応じて、所定の表示部に表示させるための表示データを作成するステップとを、
コンピュータに実行させるための情報処理プログラム。
Selecting at least a plurality of data to be displayed and information corresponding to a current condition from a database storing a plurality of information each representing a correspondence between a display condition for displaying each of the data,
Weighting the selected information for priority determination;
Determining information according to the weighting from among the plurality of pieces of selected information,
According to the determined information, the step of creating display data to be displayed on a predetermined display unit,
An information processing program to be executed by a computer.
JP2002304888A 2002-10-18 2002-10-18 Information terminal, information processing method, information processing program Expired - Fee Related JP4079316B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002304888A JP4079316B2 (en) 2002-10-18 2002-10-18 Information terminal, information processing method, information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002304888A JP4079316B2 (en) 2002-10-18 2002-10-18 Information terminal, information processing method, information processing program

Publications (2)

Publication Number Publication Date
JP2004140695A true JP2004140695A (en) 2004-05-13
JP4079316B2 JP4079316B2 (en) 2008-04-23

Family

ID=32452179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002304888A Expired - Fee Related JP4079316B2 (en) 2002-10-18 2002-10-18 Information terminal, information processing method, information processing program

Country Status (1)

Country Link
JP (1) JP4079316B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009147566A (en) * 2007-12-12 2009-07-02 Brother Ind Ltd Image information storage device, and program and system for processing image information
JP2011171969A (en) * 2010-02-18 2011-09-01 Kyocera Corp Portable electronic apparatus, and control method in the same
US8311192B2 (en) 2007-12-18 2012-11-13 Brother Kogyo Kabushiki Kaisha Communication device, communication system and computer readable medium for communication
US8310687B2 (en) 2007-12-27 2012-11-13 Brother Kogyo Kabushiki Kaisha Device, system, and computer-readable record medium storing program for using information associated with images
US8468450B2 (en) 2007-12-14 2013-06-18 Brother Kogyo Kabushiki Kaisha Output control device, computer readable medium for the same, and output control system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009147566A (en) * 2007-12-12 2009-07-02 Brother Ind Ltd Image information storage device, and program and system for processing image information
US8379230B2 (en) 2007-12-12 2013-02-19 Brother Kogyo Kabushiki Kaisha Storage device storing image data in association with registration information representing a communication device
US8468450B2 (en) 2007-12-14 2013-06-18 Brother Kogyo Kabushiki Kaisha Output control device, computer readable medium for the same, and output control system
US8311192B2 (en) 2007-12-18 2012-11-13 Brother Kogyo Kabushiki Kaisha Communication device, communication system and computer readable medium for communication
US8310687B2 (en) 2007-12-27 2012-11-13 Brother Kogyo Kabushiki Kaisha Device, system, and computer-readable record medium storing program for using information associated with images
JP2011171969A (en) * 2010-02-18 2011-09-01 Kyocera Corp Portable electronic apparatus, and control method in the same

Also Published As

Publication number Publication date
JP4079316B2 (en) 2008-04-23

Similar Documents

Publication Publication Date Title
KR100627718B1 (en) Method and mobile communication terminal for providing function of hyperlink telephone number including short message service
US7203521B2 (en) Method of displaying speed dials on a screen of a mobile communication terminal
KR100783553B1 (en) Mobile device, method for generating group picture of phonebook in the same and method of executing communication event using the group picture
US20090187857A1 (en) Mobile terminal device
JP2004080442A (en) Cellular phone
JP5120259B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND INFORMATION RECORDING MEDIUM
JP4776433B2 (en) Image processing apparatus, image processing method, and program
JP4079316B2 (en) Information terminal, information processing method, information processing program
KR100629838B1 (en) Data processing device, control method of data processing device, computer readable recording medium storing control program and manufacturing method of data processing device
US20040014485A1 (en) Foldable and portable telecommunication terminal
JPWO2007072664A1 (en) Mobile communication terminal, function menu display method used therefor, and program thereof
JP2007504519A (en) Semiconductor chip including text-to-speech conversion system and communicable device
JP2005130005A (en) Communication terminal and screen display program
JP4722010B2 (en) Information processing apparatus, information processing method, information processing program, and computer-readable recording medium recording the information processing program
JP2007026394A (en) Processing method of registered character, program for realizing the same, and mobile terminal
JP4947575B2 (en) Portable electronic device, list image display method and program in portable electronic device
JP2004318338A (en) Information terminal, its information processing method, program, and record medium
JP2005191979A (en) Electronic equipment and communication terminal
JP2003188946A (en) Cellular phone terminal and its function setting method
KR200303567Y1 (en) Mobile Phone with the function to display the image during the ringing signal
JP2002118638A (en) Mobile communication terminal
KR20050077534A (en) Method for transmitting event sms using phone book in mobile communication terminal
JP2004199224A (en) Information communication device and method, schedule sharing program, and information communication system
KR100760794B1 (en) Method for registration picture/moving picture title of mobile communication terminal
JP2005252373A (en) Mobile communication terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070910

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080131

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140215

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees