JP2004102719A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2004102719A
JP2004102719A JP2002264508A JP2002264508A JP2004102719A JP 2004102719 A JP2004102719 A JP 2004102719A JP 2002264508 A JP2002264508 A JP 2002264508A JP 2002264508 A JP2002264508 A JP 2002264508A JP 2004102719 A JP2004102719 A JP 2004102719A
Authority
JP
Japan
Prior art keywords
character
display
user
sensor
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002264508A
Other languages
Japanese (ja)
Other versions
JP4211968B2 (en
Inventor
Kaneo Todoroki
轟 兼郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Ericsson Mobile Communications Japan Inc
Priority to JP2002264508A priority Critical patent/JP4211968B2/en
Publication of JP2004102719A publication Critical patent/JP2004102719A/en
Application granted granted Critical
Publication of JP4211968B2 publication Critical patent/JP4211968B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display and control characters by many complicated operation patterns. <P>SOLUTION: A touch pad 20 formed of a transparent member is provided on the display part 12 of a cellphone. A user input operation determination part 24 determines the moving direction and the moving distance of a user's finger based on XY-coordinate data corresponding to the movement of the user's finger on the touch pad 20. A character operation selection part 25 selects a corresponding control pattern from among a plurality of stored control patterns based on the present display position of each portion such as the head or the arm of the character stored in a character data preservation part 27 and a determination result from the user input operation determination part 24. A character data processing part 26 and a character rendering part 11 display and control the character operating corresponding to the selected pattern on the display part 12. Since a complicated input can be detected by the touch pad 20, the characters can be displayed and controlled the many complicated operation patterns. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、例えば携帯電話機,PHS電話機(PHS:Personal Handyphone System),通信機能を有するPDA装置(PDA:Personal Digital Assistants)、或いは通信機能を備えたパーソナルコンピュータ装置等の端末装置に用いて好適な情報処理装置に関し、特にセンサに基づいて現状を判断して端末装置の動作制御を行う情報処理装置に関する。
【0002】
【従来の技術】
今日において、携帯電話機やパーソナルコンピュータ装置等の端末装置の表示画面に所定のキャラクタを表示し、このキャラクタを、ユーザのキー操作に応じてインタラクション表示するアプリケーションプログラム(インタラクションプログラム)が知られている。
【0003】
このインタラクションプログラムは、例えば携帯電話機に設けられているテンキーのうち「1」のキーが押圧操作されると、表示画面内のキャラクタが右手を上げるように該キャラクタの表示制御を行い、「2」のキーが押圧操作されると、表示画面内のキャラクタが右足を上げるように該キャラクタの表示制御を行う。
【0004】
これにより、ユーザは、携帯電話機の待ち受け画面やパーソナルコンピュータ装置のデスクトップに表示されたキャラクタを、所望のキー操作を介してインタラクティブに(対話的に)操作することができる。
【0005】
携帯電話機の待ち受け画面やデスクトップは、単にキャラクタ等の画像を表示するだけの場合が多いのであるが、このように表示されているキャラクタの操作を可能とすることで、面白味や楽しみのある待ち受け画像やデスクトップ画像を提供することができる。
【0006】
【発明が解決しようとする課題】
しかし、従来のインタラクションプログラムは、「操作キー」に対して「キャラクタの動作」が割り付けられている。このため、携帯電話機やパーソナルコンピュータ装置等の端末装置に設ける操作キーの数には限りがあることから、キャラクタの動作パターンが少なくかつ単純化する問題があった。
【0007】
また、上記操作キーの「押圧する」という操作は、実世界では「押す」という動作である。そして、この実世界の「押す」という動作に対してユーザは、該キャラクタが指で押されて後退りする動作等を感覚的に期待するものである。
【0008】
しかし、端末装置に設けられている操作キーは、「押圧」という操作方法しか存在せず、この「押圧」という一つの操作に対してキャラクタが複数パターンの動作を行うようになっていたため、仮想世界のキャラクタのリアクションとして、実世界のアクションに対して懸け離れたリアクションが存在する問題があった。
【0009】
また、従来のインタラクションプログラムは、ユーザのキー操作を待ってキャラクタを表示制御するものであったため、受動的な表示制御しか行うことができない問題があった。
【0010】
本発明は、上述の課題に鑑みてなされたものであり、実世界のアクションに対応するリアクションとなるように、複雑かつ多数の動作パターンでキャラクタを表示制御することができ、さらにキャラクタ等を能動的に動作させることができるような情報処理装置の提供を目的とする。
【0011】
【課題を解決するための手段】
本発明に係る情報処理装置は、少なくともユーザの入力位置及び入力距離を検出する二次元入力手段を設けることで、ユーザからの複雑な入力操作を検出可能とする。そして、この複雑な入力にそれぞれ対応する多数の動作パターンでキャラクタを表示制御する。
【0012】
また、本発明に係る情報処理装置は、複数のセンサからの出力に基づいて、総合的に現在の状況を判断し、この判断結果に基づいて、少なくとも表示手段に表示されている表示物を可変して表示制御することで、該表示物を能動的に動作させる。
【0013】
【発明の実施の形態】
以下、第1の実施の形態として、キャラクタ等を能動的に動作させる端末装置の一例を、第2の実施の形態として実世界のアクションに対応するリアクションとなるように、複雑かつ多数の動作パターンでキャラクタを表示制御する端末装置の一例を説明する。
【0014】
〔第1の実施の形態〕
[第1の実施の形態の構成]
図1は、本発明を適用した第1の実施の形態となる端末装置の、主となる構成を示すブロック図である。なお、この図1に示す端末装置は携帯電話機である。ブロック図が煩雑化するため、通信系等の図示は省略している。
【0015】
この図1において、携帯電話機は、計時を行うタイマ1(=時刻センサ)と、当該携帯電話機が置かれている場所の明るさを検出する光センサ2と、当該携帯電話機が置かれている場所の周囲の音を検出する音センサ3とを有している。
【0016】
また、この携帯電話機は、日付,開始時間,終了時間等の各データからなるユーザのスケジュールが記憶されたスケジュール帳4と、通話日,通話時刻,通話先の電話番号,通話先名等の各データからなる通話履歴が記憶された通話履歴メモリ5と、上記タイマ1〜通話履歴メモリ5の各情報に基づいて当該携帯電話機を動作させるための、複数の制御パターンの情報が記憶された制御パターンテーブルとを有している。
【0017】
また、この携帯電話機は、当該携帯電話機を振動させるバイブレーション機能7と、上記制御パターンに対応する所定の音声をスピーカ部9を介して発音制御する音声制御部8と、キャラクタの複数の音声パターンが記憶されたキャラクタ音声メモリ10と、上記制御パターンに基づいて、表示部12に表示するキャラクタを描画処理するキャラクタ描画部11と、当該携帯電話機全体を制御する制御部13(CPU)とを有している。
【0018】
[第1の実施の形態の動作]
図2のフローチャートに、この携帯電話機がキャラクタ等を能動的に動作させるまでの流れを示す。この図2のフローチャートは、携帯電話機のメイン電源がオンされることでスタートとなる。
【0019】
まず、ステップS1及びステップS2では、CPU13が、タイマ1から時刻情報を取得し、この時刻情報に応じて「1」或いは「0」の1ビットのデータを保持する。
【0020】
具体的には、CPU13は、図3に示すように、例えば午前4:00〜午後16:00までの間を「昼間」と判断し、現在時刻がこの昼間に相当する場合は「1」のデータを保持する。これに対して、CPU13は、午後16:00〜午前4:00までの間を「夜間」と判断し、現在時刻がこの夜間に相当する場合は「0」のデータを保持する。
【0021】
次に、スケジュール帳4には、例えば今後のスケジュールの日付,開始時間,終了時間等の各データが記憶されている。ステップS3及びステップS4では、CPU13が、このスケジュール帳4から、例えば当日等のように所定時間内のスケジュール情報を取得し、このスケジュール情報に応じて上記1ビットのデータを保持する。
【0022】
具体的には、この場合、CPU13は、いわばスケジュールセンサとして動作し、スケジュール帳4に、例えば当日のスケジュールが記憶されている場合は、図4に示すようにスケジュール「有り」と判断し「1」のデータを保持する。これに対して、スケジュール帳4に、当日のスケジュールが記憶されていない場合は、スケジュール「無し」と判断し「0」のデータを保持する。
【0023】
次に、通話履歴メモリ5には、ユーザが電話した際に、通話日,通話時刻,通話先の電話番号,通話先名等の各データが履歴として記憶される。ステップS5及びステップS6では、CPU13が、この通話履歴メモリ5から通話履歴を取得し、この中から現在時刻から例えば3時間以内等の、所定時間内の通話履歴情報を検出する。そして、この所定時間内の通話履歴情報の有無に応じて、上記1ビットのデータを保持する。
【0024】
具体的には、この場合、CPU13は、いわば通話履歴センサとして動作し、通話履歴メモリ5に、上記所定時間内の通話履歴が存在する場合、図5に示すように通話履歴「有り」と判断し「1」のデータを保持する。これに対して、通話履歴メモリ5に上記所定時間内の通話履歴が存在しない場合、CPU13は、通話履歴「無し」と判断し「0」のデータを保持する。
【0025】
なお、この例では、ユーザが電話した際に記憶される、通話日,通話時刻,通話先の電話番号,通話先名等の通話履歴を用いることとしたが、これは、ユーザが電話を受けた際に記憶される、着信日,着信時刻,送信先の電話番号,送信者名等の着信履歴を用いてもよい。或いは、上記通話履歴及び着信履歴を併用するようにしてもよい。
【0026】
次に、光センサ2は、当該携帯電話機が置かれている場所の照度(明るさ)を検出している。ステップS7及びステップS8では、CPU13が、この光センサ2により検出された照度情報を取得し、この照度情報に応じた上記1ビットのデータを保持する。
【0027】
具体的には、CPU13は、図6に示すように、照度が例えば0.0〜0.4までの間を「暗い」と判断し、現在の照度がこの範囲に相当する場合は「1」のデータを保持する。これに対して、CPU13は、照度が例えば0.4〜1.0までの間を「明るい」と判断し、現在の照度がこの範囲に相当する場合は「0」のデータを保持する。
【0028】
なお、この例では、「暗い」或いは「明るい」との2通りの判断を行うようにしているが、これは、「暗い」,「薄暗い」,「やや明るい」,「明るい」等の複数の段階に分けた判断を行うようにしてもよい。これは、CPU13が、この明るさの判断で保持するビット数を2ビットにし、「暗い」=「00」,「薄暗い」=「01」,「やや明るい」=「10」,「明るい」=「11」とすれば実現可能である。
【0029】
次に、音センサ3は、当該携帯電話機が置かれている場所の周囲の音の大きさ(音圧レベル)を検出している。ステップS9では、CPU13が、この音センサ3により検出された音圧レベルを示す情報(音圧情報)を取得し、この音圧情報に対応する1ビットのデータを保持する。
【0030】
具体的には、CPU13は、図7に示すように、音圧レベルが例えば40dB未満の場合、周囲は「静か」であると判断し、現在の音圧レベルがこの40dB未満の場合に「1」のデータを保持する。これに対して、CPU13は、音圧レベルが例えば40dB以上の場合、周囲は「騒がしい」と判断し、現在の音圧レベルがこの40dB以上の場合に「0」のデータを保持する。
【0031】
なお、この例では「静か」或いは「騒がしい」との2通りの判断を行うようにしているが、これは、「静か」,「普通」,「やや騒がしい」,「騒がしい」等の複数の段階に分けた判断を行うようにしてもよい。これは、上記照度の場合と同様に、CPU13が、この音圧情報に基づいて保持するデータのビット数を2ビットにすれば実現可能である。
【0032】
次に、ステップS10において、CPU13は、上記ステップS2,ステップS4,ステップS6,ステップS8及びステップS9で保持した上記各1ビットのデータの組み合わせである「現在データパターン」と、上記制御パターンテーブル6に記憶されている各制御パターンの「データパターン」とを比較する。そして、ステップS11において、動作パターンテーブル6に記憶されている各「データパターン」の中から、上記「現在データパターン」と一致する「データパターン」を検出することで、「現在データパターン」に対応する「制御パターン」を検出する。
【0033】
次に、CPU13は、ステップS12において、上記検出した制御パターンに基づいて、当該携帯電話機の各部を制御する。これにより、この図2のフローチャートに示す一通りの制御行程が終了する。
【0034】
なお、この図2のフローチャートに示す制御行程は、携帯電話機のメイン電源がオンされている間は繰り返し実行される。
【0035】
[制御の具体例]
一例として、図8に、各制御パターンと各部の制御例の関係を示す。
【0036】
[第1の制御パターン]
この図8において、上記「現在データパターン」が「11011」となった場合、CPU13により、制御パターンテーブル6から第1の制御パターンが選択される。
【0037】
この第1の制御パターンは、現在、昼間(1)であり、当日のスケジュールが存在し(1)、3時間内の通話履歴が無く(0)、携帯電話機の周囲は暗く(1)、携帯電話機の周囲は静か(1)な場合である。
【0038】
このような場合は、朝であり、ユーザは、スケジュールが入っているにも関わらず就寝中であり、また、毎朝かけている電話も未だ使用していない状態である。換言すれば、ユーザが朝寝坊をしている状態である。
【0039】
このため、CPU13は、「着信音→オン」、「音量→最大レベル」に音声制御部8を設定制御すると共に、キャラクタ音声メモリ10から例えば「起きろー」との起床用のキャラクタ音声情報を読み出し制御する。このキャラクタ音声情報は、音声制御部8に供給される。
【0040】
また、CPU13は、叫ぶ動作を行うキャラクタを描画処理するように、キャラクタ描画部11を制御すると共に、バイブレーション機能を駆動制御する。
【0041】
これにより、携帯電話機の表示部12には、叫ぶ動作を行うキャラクタが表示され、また、スピーカ部9を介して、キャラクタの声で「起きろー」との音声が発声制御され、さらに携帯電話機が振動駆動する。
【0042】
なお、この場合CPU13は、ユーザにより停止操作がなされるまで、上記音声の発声制御及びバイブレーション機能の駆動制御を継続して実行する。
【0043】
これにより、この場合、携帯電話機が目覚まし時計として機能することとなる。ユーザは、表示部12に表示される「起きろー」と叫ぶキャラクタを見ることで、自分がキャラクタにより起こされたことを認識するであろう。また、当日のスケジュールを思い出し、予定通りスケジュールを履行するであろう。これにより、このように起床させてくれたキャラクタに対して親密感等の感情を憶えることであろう。
【0044】
[第2の制御パターン]
次に、上記「現在データパターン」が「10011」となった場合、CPU13により、制御パターンテーブル6から第2の制御パターンが選択される。
【0045】
この第2の制御パターンは、現在、昼間(1)であり、当日のスケジュールが無く(0)、3時間内の通話履歴が無く(0)、携帯電話機の周囲は暗く(1)、携帯電話機の周囲は静か(1)な場合である。
【0046】
このような場合は、朝であり、ユーザは、未だ就寝中であり、また、毎朝かけている電話も未だ使用していない状態である。換言すれば、ユーザは、スケジュールが無いため、のんびりと寝ている状態である。
【0047】
このため、CPU13は、普段設定されている音量を変更することなく着信音をオンするように音声制御部8を設定制御すると共に、キャラクタ音声メモリ10から例えば「そろそろ起きたら?」との起床用のキャラクタ音声情報を読み出し制御する。
【0048】
また、CPU13は、やさしく訪ねる動作を行うキャラクタを描画処理するように、キャラクタ描画部11を制御すると共に、バイブレーション機能をオフ制御する。
【0049】
これにより、携帯電話機の表示部12には、やさしく訪ねる動作を行うキャラクタが表示され、また、スピーカ部9を介して、キャラクタの声で「そろそろ起きたら?」との音声が発声制御される。
【0050】
なお、この場合CPU13は、ユーザにより停止操作がなされるまで、上記音声の発声制御を継続して実行する。
【0051】
これにより、この場合、第1の制御パターンと同様に、携帯電話機が目覚まし時計として機能することとなるが、いわば携帯電話機が目覚まし時計代わりとなってユーザを優しく起こすこととなる。
【0052】
このように、スケジュールの有無により、上記第1の制御パターンと第2の制御パターンとで、ユーザの起こし方に違いが出る。複数のセンサ出力に基づいて各部の動作制御を行うことで、このように状況に応じた制御を行うことが可能となる。
【0053】
[第3の制御パターン]
次に、上記「現在データパターン」が「10101」となった場合、CPU13により、制御パターンテーブル6から第3の制御パターンが選択される。
【0054】
この第3の制御パターンは、現在、昼間(1)であり、当日のスケジュールが無く(0)、3時間内の通話履歴が有り(1)、携帯電話機の周囲は明るく(0)、携帯電話機の周囲は静か(1)な場合である。
【0055】
このような場合は、朝であり、通話履歴があることからユーザは起床しており、また、周囲は静かな状態である。換言すれば、ユーザは、起きてはいるが何をしているがわからない状態である。
【0056】
このため、CPU13は、「着信音→オン」、「音量→最小レベル」に音声制御部8を設定制御すると共に、ユーザの気を引くために、例えば2秒間だけ着信音を鳴らすように音声制御部8を制御する。
【0057】
また、CPU13は、キャラクタ音声メモリ10から例えば「ねえねえ、何しているの?」とのキャラクタ音声情報を読み出し制御する。
【0058】
また、CPU13は、このような訪ねる動作を行うキャラクタを描画処理するように、キャラクタ描画部11を制御すると共に、バイブレーション機能をオフ制御する。
【0059】
これにより、携帯電話機の着信音が2秒だけ鳴った後、表示部12には、訪ねる動作を行うキャラクタが表示され、また、スピーカ部9を介して、キャラクタの声で「ねえねえ、何しているの?」との音声が発声制御される。
【0060】
これにより、ユーザは、携帯電話機の着信音が鳴ったため、携帯電話機を見てみると、表示部12に表示されているキャラクタから「ねえねえ、何しているの?」と訪ねられることとなる。このため、このようなキャラクタに対してユーザは、より親密感を抱くことであろう。
【0061】
[第4の制御パターン]
次に、上記「現在データパターン」が「10100」となった場合、CPU13により、制御パターンテーブル6から第4の制御パターンが選択される。
【0062】
この第4の制御パターンは、現在、昼間(1)であり、当日のスケジュールが無く(0)、3時間内の通話履歴が有り(1)、携帯電話機の周囲は明るく(0)、携帯電話機の周囲が騒がしい(0)場合である。
【0063】
このような場合は、朝であり、通話履歴があることからユーザは起床しており、また、周囲が騒がしい状態であるため、ユーザは、街中や電車の中等の騒がしい場所におり、或いはテレビジョン放送の視聴、音楽の聴取を行っている状態である。この場合、いずれにしても、ユーザは、現在、キャラクタに構うことができない状態である。
【0064】
このため、CPU13は、着信音をオフするように音声制御部8を設定制御すると共に、このような状況用の所定の動作を行うキャラクタを描画処理するように、キャラクタ描画部11を制御する。また、バイブレーション機能もオフ制御する。
【0065】
これは、いわゆる「マナーモード」と同じ状態である。このため、不意な着信音により、街中や電車内の人々に迷惑を掛ける不都合を防止することができる。或いは、テレビジョン放送や音楽に集中しているユーザの邪魔をしてしまう不都合を防止することができる。
【0066】
なお、説明が長くなるため、制御パターンの説明は以上の4パターンの説明に止めるが、この他の制御パターンにおいても、各センサ出力に応じて判断される現状に即した制御がなされるものと理解されたい。
【0067】
[第1の実施の形態の効果]
以上の説明から明かなように、この第1の実施の形態の携帯電話機は、タイマ1,光センサ2,音センサ3からの各センサ出力、スケジュール帳4に登録されたスケジュール、及び通話履歴メモリ5に記憶された通話履歴に基づいて携帯電話機が置かれている現状を判断し、この判断結果に即した動作を行うように該携帯電話機の各部を制御する。
【0068】
これにより、ユーザの入力を待って各部を制御するような受動的な制御ではなく、自発的に現状を判断して携帯電話機(キャラクタ等を含む)を動作させるような能動的な制御を行うことができる。
【0069】
〔第2の実施の形態〕
[第2の実施の形態の構成]
次に、図9に、本発明を適用した第2の実施の形態となる端末装置のブロック図を示す。なお、この図9に示す端末装置も、上述の第1の実施の形態と同様に携帯電話機であり、主となる構成のみ図示してある。
【0070】
この図9において、携帯電話機は、圧力センサ及び位置センサが内蔵されたタッチパッド20と、CPU13と、表示部12と、表示部12に表示されたキャラクタの各部位の位置情報を記憶するキャラクタデータ保持部27と、例えば通信系等の携帯電話機の他の構成要素28とを有している。
【0071】
上記タッチパッド20は、透明電極がマトリクス状に配された透明の板状部材で形成されており、表示部12の表面全体(或いは表面の一部でもよい)を覆うかたちで設けられている。このため、ユーザがこのタッチパッド20を操作する場合は、表示部12の表面を指(或いは入力ペン)で走査するかたちで操作することとなる。
【0072】
CPU13は、上述の第1の実施の形態のCPU13に相当する。この第2の実施の形態の携帯電話機の場合、CPU13は、上記タッチパッド20の位置センサからの位置情報を、表示部12の表示画面のXY座標データに変換する入力情報変換部21と、タッチパッド20の圧力センサからの検出出力に基づいて、ユーザの押圧力の有無を検出する圧力検出部22とを有している。
【0073】
また、CPU13は、上記入力情報変換部21からのXY座標データに基づいて、ユーザの指の動く方向(タッチパッド20の操作方向)を解析する入力情報解析部23と、該入力情報解析部23からの解析出力に基づいてユーザの指の動きを判定するユーザ入力動作判定部24とを有している。
【0074】
また、CPU13は、上記ユーザ入力動作判定部24からの判定出力と上記圧力検出部22からの圧力検出出力に基づいて、表示部12に表示するキャラクタの動作パターンを選択するキャラクタ動作選択部25と、上記キャラクタデータ保存部27に保存されているキャラクタの各部位の位置情報を参照して、上記キャラクタ動作選択部25で選択された動作を示すキャラクタ画像をキャラクタ描画部11で描画処理するための、描画処理データを形成するキャラクタデータ処理部26とを有している。
【0075】
[第2の実施の形態の動作]
[圧力が検出されない場合]
まず、上記CPU13の圧力検出部22は、所定の閾値以上の押圧力を示す圧力検出出力がタッチパッド20の圧力センサから供給された場合に、ユーザがタッチパッド20を押圧したものと検出するようになっている。このため、上記圧力検出出力が、上記所定の閾値以下の押圧力を示す場合、CPU13は、ユーザがタッチパッド20を押圧していないものとして、以下に説明するユーザの指の動きのみでキャラクタの表示制御を行う。
【0076】
まず、ユーザがタッチパッド20上を指で走査すると、位置センサがこの走査に対応する指の位置情報をそれぞれ形成し、これらを入力情報変換部21に供給する。入力情報変換部21は、各位置情報を所定間隔でサンプリングすることで取り込み、この取り込んだ各位置情報を、表示部12の表示画面上のXY座標データに変換する。
【0077】
図10に、タッチパッド20を指で走査した際の軌跡と、この軌跡に対応する位置情報をサンプリングしてXY座標変換処理することで形成されたXY座標データと、入力情報変換部21から入力情報解析部23に供給されるXY座標データを示す。
【0078】
この図10は、タッチパッド20の上下方向に略ジグザグ状に指を動かした場合の例である。そして、このような走査に対して、(X,Y)=(30,50)→(X,Y)=(30,40)→(X,Y)=(30,30)→(X,Y)=(30,20)・・・・のXY座標データが順次形成され、このXY座標データの前後を一組とした状態で、「(30,50),(30,40)」→「(30,40),(30,30)」→「(30,30),(30,20)」・・・・等のように入力情報解析部23に供給されることを示している。
【0079】
なお、上記(X,Y)=(30,50)等の表記は、X座標が表示部12の横方向30ドットの位置、Y座標が表示部12の縦方向50ドットの位置であることを意味している。
【0080】
次に、入力情報解析部23は、上記前後を一組とした状態で供給されるXY座標データに基づいて、ユーザが指を動かした方向と距離を解析する。具体的には、入力情報解析部23は、上記一組のXY座標データを「(X1,Y1),(X2,Y2)」とした場合に、「X2−X1」及び「Y2−Y1」の演算を行い、この演算により得られたX座標の数値、及びY座標の数値に基づいてユーザが指を動かした方向と距離を解析する。
【0081】
図11に、この解析動作の一例を示す。この図11において、例えば上記前後を一組とした状態で供給されたXY座標データが「(50,40),(50,60)」であったとすると、入力情報解析部23は、「50−50」及び「60−40」の演算を行うこととなる。なお、上記「50−50」の演算は上記「X2−X1」の演算に相当し、「60−40」の演算は上記「Y2−Y1」の演算に相当する。この例の場合、「X2−X1」の演算値は「0」となり、「Y2−Y1」の演算値は「+20」となる。
【0082】
次に、ユーザ入力動作判定部24は、上記入力情報解析部23からの解析結果(=上記演算値)に基づいて、ユーザが指を移動させた方向と距離を検出する。
【0083】
具体的には、ユーザ入力動作判定部24は、上記「X2−X1」の演算値の符号が「+」の場合は表示部12の右方向への移動、該演算値の符号が「−」の場合は表示部12の左方向への移動として検出するようになっており、また、「Y2−Y1」の演算値の符号が「+」の場合は表示部12の上方向への移動、該演算値の符号が「−」の場合は表示部12の下方向への移動として検出するようになっている。
【0084】
前述の演算値の場合、上記「X2−X1」の演算値が「0」、「Y2−Y1」の演算値が「+20」である。これは、X方向である表示部12の横方向に対する移動は無いが、Y方向である表示部12の縦方向に対しては+20ドット分の移動が発生したことを示す。このため、この場合、ユーザ入力動作判定部24は、ユーザは表示部12の上方向に20ドット分、指が移動されたものとしてユーザの入力動作を判定する。このような判定出力は、キャラクタ動作選択部25に供給される。
【0085】
さらに、他の例で説明すると、例えば上記前後を一組とした状態で供給されたXY座標データが「(30,30),(40,50)」であったとすると、「X2−X1」の演算値は「+10」となり、「Y2−Y1」の演算値は「+20」となる。これは、表示部12の横方向に対して+10ドット分、該表示部12の縦方向に対して+20ドット分の移動があったことを示す。このため、この場合、ユーザ入力動作判定部24は、ユーザは表示部12の右斜め上方向に略20ドット分、指を動かしたものと判定する。
【0086】
次に、キャラクタ動作選択部25は、キャラクタデータ保存部27に記憶されている移動表示前のキャラクタデータ、及び上記ユーザ入力動作判定部24からの判定出力に基づいてキャラクタの動作を選択(決定)する。
【0087】
図12に、表示部12に表示された人型のキャラクタの模式図を示す。この場合、表示部12は、縦(Y方向)×横(X方向)のドット数が100ドット×80ドットと仮定している。
【0088】
キャラクタデータ保存部27には、移動表示前のキャラクタの頭部,胴体,右手,左手等の各部位毎のXY座標データがキャラクタデータとして記憶されている。
【0089】
具体的には、この例の場合、図13に示すようにキャラクタデータとして、キャラクタの頭部の幅に相当する線分の両端のXY座標データ「(30,80),(50,80)」、胴体の長さに相当する線分の両端のXY座標データ「(40,60),(40,40)」、右手の長さに相当する線分のXY座標データ「(40,60),(20,80)」、左手の長さに相当する線分のXY座標データ「(40,60),(60,40)」等がキャラクタデータ保存部27に記憶されている。
【0090】
ここで、図11を用いて説明した「(50,40),(60,40)」のユーザの指の動きをキャラクタの画像と重ねると、図12に示すようにキャラクタの左手に相当する線分に対して、ユーザの指の動きに相当する線分が交差していることがわかる。
【0091】
また、この「(50,40),(60,40)」というXY座標データは、前述のように隣接するサンプルである。すなわち、(50,40)というサンプルが得られた直後に(60,40)というサンプルが得られたことを意味する。このサンプルは、例えば数kHzのサンプリング周波数を用いて得られるのであるが、このような高周波であるにも関わらず、(50,40)→(60,40)という各XY座標データが短時間に連続して得られたということは、ユーザの指が表示画面の上方向に弾く(はじく)ように動かされたことを意味する。
【0092】
このようなユーザの指の動き及び位置を、図12に示すキャラクタ画像と重ねて考えると、キャラクタの左手が、ユーザの指により上方向に弾かれたことがわかる。
【0093】
キャラクタ動作選択部25は、動作パターンを示す情報が複数記憶された動作パターンテーブルを有している。キャラクタ動作選択部25は、このように移動表示前のキャラクタ画像と、ユーザの指の動き及び位置に基づいて、上記動作パターンテーブルの中から、対応する動作パターンを選択し、この選択した動作パターン示す情報をキャラクタデータ処理部26に供給する。
【0094】
前述の例の場合、キャラクタの左手がユーザの指により上方向に弾かれたため、キャラクタ動作選択部25は、キャラクタの左手を上に上げる動作パターンを選択し、この動作パターン示す情報をキャラクタデータ処理部26に供給する。
【0095】
次に、キャラクタデータ処理部26は、キャラクタ動作選択部25からの動作パターンを示す情報に対応する動作を行うキャラクタを描画処理するための描画処理データを形成し、これをキャラクタ描画部11を制御する。
【0096】
キャラクタ描画部11は、この描画処理データに基づいて、表示部12に表示されるキャラクタを描画処理する。
【0097】
前述の例の場合、キャラクタデータ処理部26は、左手を上に上げる動作を行うキャラクタを描画するための描画処理データを形成し、これをキャラクタ描画部11に供給する。これにより、キャラクタ描画部11は、図12に点線で示すように、左手を上に上げる動作を行うキャラクタを表示制御することとなる。
【0098】
[圧力が検出された場合]
次に、CPU13の圧力検出部22で圧力が検出された場合の描画処理動作を説明する。
【0099】
前述のように、圧力検出部22は、所定の閾値以上の押圧レベルを示す圧力検出出力がタッチパッド20の圧力センサから供給された場合に、ユーザがタッチパッド20を押圧したものと検出するようになっている。そして、キャラクタ動作選択部25は、圧力検出部22で押圧力が検出された場合は、この圧力レベル及び圧力が掛けられた表示部12上の位置と、上記ユーザ入力動作判定部24からの判定出力に基づいて、上記動作パターンの選択を行う。
【0100】
具体的には、ユーザが、例えばキャラクタの口を押さえようとして、該キャラクタの口を指で押圧した場合、図12に円で囲んで示すキャラクタの口の辺りの位置からそれぞれ「圧力有り」と検出されることとなる。圧力検出部22は、この検出された範囲に対応する各圧力検出出力のうち、該範囲の中心座標「(40,72)」の圧力検出出力を取り込み、これをキャラクタ動作選択部25に供給する。
【0101】
この例の場合、ユーザは、キャラクタの口を指で押圧しているため、上記入力情報解析部23には、(40,72)のXY座標データが連続して供給されることとなる。このため、ユーザ入力動作判定部24は、ユーザの指は表示部12上の(40,72)のXY座標位置で停止しているものと判定し、この判定出力をキャラクタ動作選択部25に供給する。
【0102】
キャラクタ動作選択部25は、キャラクタデータ保存部27に保存されているキャラクタの各部位のXY座標データに基づいて、ユーザの指が停止している位置を検出する。
【0103】
この場合、ユーザの指が停止しているXY座標は(40,72)であるため、キャラクタ動作選択部25は、キャラクタの口の位置でユーザの指が停止しているものと判断する。
【0104】
また、この場合、キャラクタ動作選択部25には、キャラクタの口の位置から押圧が検出されたことを示す圧力検出出力が供給される。
【0105】
キャラクタ動作選択部25は、キャラクタの口の位置にユーザの指が停止しており、しかも、キャラクタの口がユーザの指で押圧されているため、例えばキャラクタが口を閉じる動作パターンを選択し、この動作パターン示す情報をキャラクタデータ処理部26に供給する。
【0106】
キャラクタデータ処理部26は、キャラクタ動作選択部25からの動作パターンを示す情報に対応する動作を行うキャラクタを描画処理するための描画処理データを形成し、これをキャラクタ描画部11を制御する。
【0107】
これにより、キャラクタ描画部11により、口を閉じる動作を行うキャラクタが描画処理され、これが表示部12に表示される。
【0108】
[第2の実施の形態の効果]
以上の説明から明かなように、この第2の実施の形態の携帯電話機は、位置センサ及び圧力センサが設けられたタッチパッド20により、表示部12上におけるユーザの指の動きを検出し、このユーザの指の動きと、現在表示されているキャラクタの表示位置に基づいて、該キャラクタの動きを決定してキャラクタの表示制御を行う。
【0109】
また、上記圧力センサにより、表示部12上でユーザが指で圧力を掛けた位置を検出し、この圧力が掛けられた位置と、現在表示されているキャラクタの表示位置に基づいて、該キャラクタの動きを決定してキャラクタの表示制御を行う。
【0110】
このように、タッチパッド20を設けることで、ユーザの指の走査に対応する複雑かつ多数の入力を可能とすることができるため、表示制御するキャラクタも、これに対応して複雑かつ多数の動作を行うように表示制御することができる。
【0111】
また、仮想世界のキャラクタのリアクションを、実世界のアクションに即したリアクションとすることができる。
【0112】
また、タッチパッド20は、表示部12の表面に設けられており、該表示部12に表示されるキャラクタを該タッチパッド20越しに見ながら操作することができる。そして、このタッチパッド20上の指の走査は、表示部12に表示されているキャラクタの動作に反映される。
【0113】
このため、ユーザは、表示部12に表示されるキャラクタを、直接的に指で触って操作する感覚を提供することができる。このため、ユーザは、表示部12に表示されているキャラクタの頭を撫でたり、くすぐる等のように、あたかもペットのように取り扱うことができる。従って、表示部12に表示されているキャラクタを、より親密感の増すキャラクタとすることができる。
【0114】
なお、この例では、タッチパッド20を設けることで複雑な入力を可能としたが、このタッチパッド20の代わりに、トラックボールやジョイスティック等の入力手段を設けてもよい。
【0115】
このトラックボールやジョイスティックは、その性格上、表示部12以外の箇所に設けられるが、上記タッチパッド20と同様に、複雑な入力を可能とすることができるため、該タッチパッド20を設けた場合と同様に上述と同様の効果を得ることができる。
【0116】
また、タッチパッド20の圧力センサにより押圧の有無を検出することとしたが、これは押圧の圧力レベルを検出し、この圧力レベルに応じてキャラクタの動作パターンを決定するようにしてもよい。この場合、圧力レベルに応じてキャラクタの動作パターンを決定することができるため、押圧の有無に応じてキャラクタの動作パターンを決定するよりも、ユーザの指の動作を詳細に解析してキャラクタの動作パターンを決定することができる。
【0117】
〔第1の実施の形態及び第2の実施の形態の複合動作〕
以上、理解容易とするために、本発明を適用した携帯電話機を第1の実施の形態及び第2の実施の形態に分けて説明したが、各実施の形態の携帯電話機を複合化してもよい。この場合の動作を、上述の第1の実施の形態における第1の制御パターン(現在データパターン=11011)を例にとって、当該携帯電話機の利用形態に即したかたちで説明する。
【0118】
まず、携帯電話機のCPU13は、タイマ1から時刻情報を取得する。例えば、この時刻情報が平日の午前8時15分を示していたとする。
【0119】
次にCPU13は、スケジュール帳4から当日のスケジュールを参照して、この午前8時15分近辺の時刻にスケジュールが入っているか否かを判別する。このスケジュールとして、例えば午前9時に友人Aと駅前の喫茶店で待ち合わせるスケジュールが入っていたとする。
【0120】
次にCPU13は、通話履歴メモリ5を参照して、この午前8時15分近辺の時間帯で、日常的に通話を行う相手がいるか否かを確認する。例えば、ユーザが、午前8時00分〜午前8時10分の時間帯に5分程度、友人Bに日常的に電話を掛けることが検出されたとする。
【0121】
次にCPU13は、光センサ2からの検出出力に基づいて、携帯電話機周辺の明るさを検出する。この検出において、朝であるにも関わらず、携帯電話機周辺が暗いことが検出されたとする。
【0122】
次にCPU13は、音センサ3からの検出出力に基づいて、携帯電話機周辺の雑音レベルを検出する。この検出において、携帯電話機周辺に殆ど音がしないことが検出されたとする。
【0123】
次にCPU13は、上記各検出結果に基づいて、携帯電話機が置かれている現状を判断する。
【0124】
すなわち、この例の場合、現在、平日の朝8時過ぎである。また、本日は友人Aとの待ち合わせがあり、この待ち合わせ時刻まで1時間足らずとなっている。これにも関わらず、携帯電話機の周囲は暗くて静かである。ユーザは、日常的に行っている友人Bへの電話も掛けていない。これは、ユーザが朝寝坊をしている可能性が高いことを示す。そして、このままでは、友人Aとの待ち合わせ遅刻してしまう。
【0125】
このため、CPU13は、携帯電話機の着信音を鳴らし、同時にバイブレーションを駆動する。また、CPU13は、表示部12に、「起きろー」と叫んでいるキャラクタの画像を表示制御する。
【0126】
これにより、ユーザは、携帯電話機のキャラクタに起こされて、予定どおりスケジュールを履行することが可能となる。
【0127】
これに対して、ユーザは既に起床しており、自宅で静かに本日の行動の整理をしている最中であったとすると、このような携帯電話機の動作は、ユーザにとって迷惑である。
【0128】
このため、ユーザは、携帯電話機のこのような動作を停止させるために、携帯電話機を手にとり、「起きろー」と叫んでいるキャラクタの口を指で塞ぐ。
【0129】
このようなユーザの行動は、上記タッチパッド20の圧力センサにより検出され、CPUは、着信音及びバイブレーション機能7をオフ制御すると共に、前述のようにキャラクタが口を閉じる画像を表示部12に表示制御する。
【0130】
なお、この場合、キャラクタがお辞儀をして誤っている画像や、キャラクタが「起きてた?」と訪ねる画像、或いはキャラクタが「おはよー。もうすぐAさんとの待ち合わせ時刻だよ」と教示する画像を表示してもよい。
【0131】
この例からわかるように、表示部12に表示されているキャラクタは、いわばマネージャーとなってユーザを見守ってくれている。そして、このようなマネージャー的及びフレンドリーなキャラクタを提供する当該各実施の形態の携帯電話機は、非常に利便性の高い機器であるといえよう。
【0132】
以上、本発明を実施の形態に即したかたちで説明したが、これら各実施の形態は本発明の一例であることを理解されたい。このため、上述の実施の形態の説明では、本発明を携帯電話機に適用することとしたが、これは、PHS電話機(PHS:Personal Handyphone System),通信機能を有するPDA装置(PDA:Personal Digital Assistants)、或いは通信機能を備えたパーソナルコンピュータ装置等の他の端末装置に適用してもよい。この場合でも、上述と同様の効果を得ることができる。
【0133】
また、上述の各センサ2,3等の他、温度センサ等の他のセンサを用いるようにしてもよい。
【0134】
そして、これら以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論であることを付け加えておく。
【0135】
【発明の効果】
本発明は、実世界のアクションに対応するリアクションとなるように、複雑かつ多数の動作パターンで表示手段に表示されるキャラクタを表示制御することができる。
【0136】
また、本発明は、表示手段に表示される表示物を能動的に動作させることができる。
【図面の簡単な説明】
【図1】本発明を適用した第1の実施の形態の携帯電話機の主要構成を示すブロック図である。
【図2】上記第1の実施の形態の携帯電話機の制御の流れを示すフローチャートである。
【図3】上記第1の実施の形態の携帯電話機に設けられたタイマからの時刻情報に基づいて行われる昼夜の判断動作を説明するための図である。
【図4】上記第1の実施の形態の携帯電話機に設けられたスケジュール帳に登録されているスケジュールの有無の判断動作を説明するための図である。
【図5】上記第1の実施の形態の携帯電話機に設けられた通話履歴メモリに記憶された通話履歴の有無の判断動作を説明するための図である。
【図6】上記第1の実施の形態の携帯電話機に設けられた光センサからの検出出力に基づいて行われる、該携帯電話機の周囲の明るさの判断動作を説明するための図である。
【図7】上記第1の実施の形態の携帯電話機に設けられた音センサからの検出出力に基づいて行われる、該携帯電話機の周囲の音の判断動作を説明するための図である。
【図8】上記第1の実施の形態の携帯電話機における、上記各検出結果に基づいて行われる制御の制御パターンを説明するための図である。
【図9】本発明を適用した第2の実施の形態の携帯電話機の主要構成を示すブロック図である。
【図10】上記第2の実施の形態の携帯電話機に設けられているタッチパッドに対する入力例と、この入力に基づいて検出されるXY座標データの例を示す図である。
【図11】上記検出されたXY座標データに基づいて行われる、上記第2の実施の形態の携帯電話機のユーザの指の移動方向及び移動距離の検出動作を説明するための図である。
【図12】上記第2の実施の形態の携帯電話機の表示部に表示されたキャラクタの表示制御動作を説明するための図である。
【図13】上記第2の実施の形態の携帯電話機の表示部に表示されたキャラクタの各部位のXY座標データの一例を示す図である。
【符号の説明】
1…タイマ、2…光センサ、3…音センサ、4…スケジュール帳、5…通話履歴メモリ、6…制御パターンテーブル、7…バイブレーション機能、8…音声制御部、9…スピーカ部、10…キャラクタ音声メモリ、11…キャラクタ描画部、12…表示部、13…制御部(CPU)、20…タッチパッド(位置センサ,圧力センサ)、21…入力情報変換部、22…圧力検出部、23…入力情報解析部、24…ユーザ入力動作判定部、25…キャラクタ動作選択部、26…キャラクタデータ処理部、27…キャラクタデータ保存部、28…その他の携帯電話機の構成要素
[0001]
TECHNICAL FIELD OF THE INVENTION
INDUSTRIAL APPLICABILITY The present invention is suitable for use in a terminal device such as a mobile phone, a PHS phone (PHS: Personal Handyphone System), a PDA device having a communication function (PDA: Personal Digital Assistants), or a personal computer device having a communication function. The present invention relates to an information processing apparatus, and more particularly to an information processing apparatus that determines the current state based on a sensor and controls operation of a terminal device.
[0002]
[Prior art]
At present, an application program (interaction program) for displaying a predetermined character on a display screen of a terminal device such as a mobile phone or a personal computer device and displaying the character in response to a key operation by a user is known.
[0003]
This interaction program controls the display of a character on the display screen so that the character on the display screen raises the right hand, for example, when a key “1” is pressed among ten keys provided on the mobile phone. Is pressed, the display control of the character is performed such that the character in the display screen raises the right foot.
[0004]
This allows the user to interactively (interactively) operate the character displayed on the standby screen of the mobile phone or the desktop of the personal computer device through a desired key operation.
[0005]
In many cases, the standby screen or the desktop of a mobile phone simply displays an image of a character or the like. And provide desktop images.
[0006]
[Problems to be solved by the invention]
However, in the conventional interaction program, “character action” is assigned to “operation key”. For this reason, the number of operation keys provided on a terminal device such as a mobile phone or a personal computer device is limited, so that there is a problem that the motion pattern of the character is small and simplified.
[0007]
The operation of “pressing” the operation key is an operation of “pressing” in the real world. In response to the “push” action in the real world, the user intuitively expects the action of the character being pushed by a finger and retreating.
[0008]
However, the operation key provided in the terminal device has only an operation method of “pressing”, and the character performs a plurality of patterns of operations for one operation of “pressing”. As a reaction of a character in the world, there is a problem that a reaction far from the action in the real world exists.
[0009]
Further, the conventional interaction program controls the display of a character after a key operation by a user, so that there is a problem that only a passive display control can be performed.
[0010]
The present invention has been made in view of the above-described problems, and can control display of a character in a complex and numerous motion patterns so as to be a reaction corresponding to an action in the real world. It is an object of the present invention to provide an information processing apparatus which can be operated in a dynamic manner.
[0011]
[Means for Solving the Problems]
The information processing apparatus according to the present invention can detect a complicated input operation from a user by providing at least a two-dimensional input unit that detects an input position and an input distance of the user. Then, the display of the character is controlled in a number of motion patterns respectively corresponding to the complicated input.
[0012]
Further, the information processing apparatus according to the present invention comprehensively determines the current situation based on outputs from a plurality of sensors, and at least changes a display object displayed on the display means based on the determination result. The display object is actively operated by controlling the display.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, as a first embodiment, an example of a terminal device for actively operating a character or the like will be described. As a second embodiment, a complex and a large number of motion patterns will be set so as to be reactions corresponding to actions in the real world. An example of a terminal device that controls display of a character will be described.
[0014]
[First Embodiment]
[Configuration of First Embodiment]
FIG. 1 is a block diagram showing a main configuration of a terminal device according to a first embodiment to which the present invention is applied. The terminal device shown in FIG. 1 is a mobile phone. In order to make the block diagram complicated, illustration of a communication system and the like is omitted.
[0015]
In FIG. 1, a mobile phone includes a timer 1 (= time sensor) for measuring time, an optical sensor 2 for detecting the brightness of a place where the mobile phone is placed, and a place where the mobile phone is placed. And a sound sensor 3 for detecting a sound around.
[0016]
The mobile phone has a schedule book 4 storing a user's schedule including data such as a date, a start time, an end time, and the like, and a call book, a call time, a telephone number of a call destination, a call destination name, and the like. A call history memory 5 in which a call history made up of data is stored, and a control pattern in which information of a plurality of control patterns for operating the mobile phone based on each information of the timer 1 to the call history memory 5 is stored. And a table.
[0017]
The mobile phone includes a vibration function 7 for vibrating the mobile phone, a voice control unit 8 for controlling a predetermined voice corresponding to the control pattern through a speaker unit 9, and a plurality of voice patterns of the character. It has a stored character voice memory 10, a character drawing unit 11 for drawing a character to be displayed on the display unit 12 based on the control pattern, and a control unit 13 (CPU) for controlling the entire mobile phone. ing.
[0018]
[Operation of First Embodiment]
FIG. 2 is a flowchart showing a flow until the mobile phone actively operates a character or the like. The flowchart in FIG. 2 starts when the main power supply of the mobile phone is turned on.
[0019]
First, in steps S1 and S2, the CPU 13 acquires time information from the timer 1 and holds 1-bit data of “1” or “0” according to the time information.
[0020]
Specifically, as shown in FIG. 3, the CPU 13 determines, for example, a period from 4:00 am to 16:00 pm as “daytime”, and sets “1” when the current time corresponds to this daytime. Retain data. On the other hand, the CPU 13 determines that the period from 16:00 pm to 4:00 am is “nighttime”, and holds the data “0” when the current time corresponds to this nighttime.
[0021]
Next, the schedule book 4 stores data such as a future schedule date, a start time, and an end time. In steps S3 and S4, the CPU 13 acquires schedule information within a predetermined time, such as the current day, from the schedule book 4, and holds the 1-bit data according to the schedule information.
[0022]
Specifically, in this case, the CPU 13 operates as a so-called schedule sensor, and when, for example, the schedule of the day is stored in the schedule book 4, as shown in FIG. Is retained. On the other hand, when the schedule of the day is not stored in the schedule book 4, the schedule is determined to be “none” and the data of “0” is held.
[0023]
Next, in the call history memory 5, when the user makes a call, data such as a call date, a call time, a telephone number of a call destination, a call destination name, and the like are stored as histories. In step S5 and step S6, the CPU 13 acquires the call history from the call history memory 5, and detects the call history information within a predetermined time, for example, within 3 hours from the current time, from among the call history. Then, the 1-bit data is held according to the presence or absence of the call history information within the predetermined time.
[0024]
More specifically, in this case, the CPU 13 operates as a so-called call history sensor, and determines that the call history is “present” as shown in FIG. Then, the data of "1" is held. On the other hand, if there is no call history within the predetermined time in the call history memory 5, the CPU 13 determines that the call history is "none" and holds the data of "0".
[0025]
In this example, the call history such as the call date, the call time, the telephone number of the callee, and the callee name, which is stored when the user makes a call, is used. The incoming call history, such as the incoming date, the incoming time, the telephone number of the transmission destination, and the name of the sender, which are stored at that time may be used. Alternatively, the call history and the incoming call history may be used together.
[0026]
Next, the optical sensor 2 detects the illuminance (brightness) of the place where the mobile phone is placed. In steps S7 and S8, the CPU 13 acquires the illuminance information detected by the optical sensor 2, and holds the one-bit data corresponding to the illuminance information.
[0027]
Specifically, as shown in FIG. 6, the CPU 13 determines that the illuminance is “dark” when the illuminance is, for example, from 0.0 to 0.4, and “1” when the current illuminance corresponds to this range. Holds the data. On the other hand, the CPU 13 determines that the illuminance is “bright” when the illuminance is, for example, from 0.4 to 1.0, and holds “0” data when the current illuminance falls within this range.
[0028]
In this example, two kinds of judgments, “dark” or “bright”, are made. However, this is done by a plurality of judgments such as “dark”, “dim”, “slightly bright”, and “bright”. The determination may be made in stages. This means that the number of bits held by the CPU 13 in the determination of the brightness is 2 bits, and “dark” = “00”, “dim” = “01”, “slightly bright” = “10”, and “bright” = This can be realized by setting “11”.
[0029]
Next, the sound sensor 3 detects the loudness (sound pressure level) of the sound around the place where the mobile phone is placed. In step S9, the CPU 13 acquires information (sound pressure information) indicating the sound pressure level detected by the sound sensor 3, and holds 1-bit data corresponding to the sound pressure information.
[0030]
Specifically, as shown in FIG. 7, when the sound pressure level is less than 40 dB, for example, the CPU 13 determines that the surroundings are “quiet”, and when the current sound pressure level is less than this 40 dB, “1” is set. Is retained. On the other hand, when the sound pressure level is, for example, 40 dB or more, the surroundings are determined to be “noisy”, and when the current sound pressure level is 40 dB or more, the data of “0” is held.
[0031]
In this example, two kinds of judgments, such as "quiet" or "noisy", are performed. However, this is performed in a plurality of stages such as "quiet", "normal", "slightly noisy", "noisy", and the like. Alternatively, the determination may be made separately. This can be realized when the CPU 13 sets the number of bits of data held based on the sound pressure information to 2 bits, as in the case of the illuminance.
[0032]
Next, in step S10, the CPU 13 sets the “current data pattern”, which is a combination of the one-bit data held in steps S2, S4, S6, S8, and S9, and the control pattern table 6 Is compared with the "data pattern" of each control pattern stored in the control pattern. Then, in step S11, from among the "data patterns" stored in the operation pattern table 6, a "data pattern" that matches the "current data pattern" is detected, thereby corresponding to the "current data pattern". The “control pattern” to be performed is detected.
[0033]
Next, in step S12, the CPU 13 controls each section of the mobile phone based on the detected control pattern. Thus, one control process shown in the flowchart of FIG. 2 ends.
[0034]
The control process shown in the flowchart of FIG. 2 is repeatedly executed while the main power of the mobile phone is turned on.
[0035]
[Specific example of control]
As an example, FIG. 8 shows a relationship between each control pattern and a control example of each unit.
[0036]
[First control pattern]
In FIG. 8, when the “current data pattern” becomes “11011”, the CPU 13 selects the first control pattern from the control pattern table 6.
[0037]
This first control pattern is currently daytime (1), a schedule of the day exists (1), there is no call history within 3 hours (0), the periphery of the mobile phone is dark (1), and The case around the telephone is quiet (1).
[0038]
In such a case, it is morning, and the user is sleeping while the schedule is on, and the telephone that he calls every morning has not been used yet. In other words, the user is sleeping in the morning.
[0039]
For this reason, the CPU 13 sets and controls the voice control unit 8 to “ring tone → on” and “volume → maximum level”, and reads character voice information for getting up, such as “wake up”, from the character voice memory 10. Control. This character voice information is supplied to the voice control unit 8.
[0040]
Further, the CPU 13 controls the character drawing unit 11 so as to perform a drawing process on a character performing a shouting operation, and controls driving of a vibration function.
[0041]
As a result, the character performing a shouting operation is displayed on the display unit 12 of the mobile phone, and the voice of “Wake up” is controlled by the voice of the character via the speaker unit 9. Vibration drive.
[0042]
Note that, in this case, the CPU 13 continuously executes the voice utterance control and the drive control of the vibration function until the user performs a stop operation.
[0043]
Thereby, in this case, the mobile phone functions as an alarm clock. The user will recognize that he or she has been woken up by looking at the character shouting “Get up” displayed on the display unit 12. They will also remember the schedule of the day and implement the schedule as scheduled. In this way, the character who wakes up in this way will remember feelings such as intimacy.
[0044]
[Second control pattern]
Next, when the “current data pattern” becomes “10011”, the CPU 13 selects a second control pattern from the control pattern table 6.
[0045]
This second control pattern is currently daytime (1), there is no schedule for the day (0), there is no call history within 3 hours (0), the periphery of the mobile phone is dark (1), and the mobile phone is dark. Is a quiet (1) case.
[0046]
In such a case, it is morning, and the user is still sleeping and the telephone that he calls every morning is not yet used. In other words, the user is sleeping slowly because there is no schedule.
[0047]
For this reason, the CPU 13 sets and controls the voice control unit 8 so that the ring tone is turned on without changing the normally set volume, and also wakes up from the character voice memory 10 such as "What if it is about to happen?" The character voice information is read and controlled.
[0048]
Further, the CPU 13 controls the character drawing unit 11 so as to perform a drawing process on a character performing an easy visiting operation, and also turns off the vibration function.
[0049]
As a result, a character making a gently visiting operation is displayed on the display unit 12 of the mobile phone, and the voice of the character is controlled via the loudspeaker unit 9 to say "If it is time to get up?"
[0050]
Note that, in this case, the CPU 13 continuously executes the voice utterance control until a stop operation is performed by the user.
[0051]
Thus, in this case, as in the first control pattern, the mobile phone functions as an alarm clock, but the mobile phone gently wakes up the user as a so-called alarm clock.
[0052]
As described above, the first control pattern and the second control pattern differ in how the user wakes up depending on the presence or absence of the schedule. By performing the operation control of each unit based on the plurality of sensor outputs, it is possible to perform the control according to the situation as described above.
[0053]
[Third control pattern]
Next, when the “current data pattern” becomes “10101”, the CPU 13 selects a third control pattern from the control pattern table 6.
[0054]
This third control pattern is currently daytime (1), there is no schedule for the day (0), there is a call history within 3 hours (1), the surroundings of the mobile phone are bright (0), and the mobile phone is Is a quiet (1) case.
[0055]
In such a case, it is morning, and the user is awake because of the call history, and the surroundings are in a quiet state. In other words, the user is awake but not aware of what he is doing.
[0056]
For this reason, the CPU 13 sets and controls the voice control unit 8 to “ringtone → on” and “volume → minimum level”, and controls the voice so that the ringtone sounds only for 2 seconds, for example, to attract the user's attention. The unit 8 is controlled.
[0057]
Further, the CPU 13 reads out character voice information such as “Hey, what are you doing?” From the character voice memory 10 and controls it.
[0058]
In addition, the CPU 13 controls the character drawing unit 11 so as to perform a drawing process on a character performing such a visiting operation, and also controls off the vibration function.
[0059]
As a result, after the ringing tone of the mobile phone sounds for two seconds, the character performing the visiting operation is displayed on the display unit 12, and the character's voice is displayed via the speaker unit 9 as “Hey, what? Is it voiced? "
[0060]
As a result, the user hears the ring tone of the mobile phone, and when the user looks at the mobile phone, the character displayed on the display unit 12 visits, "Hey, what are you doing?" . Therefore, the user will feel more intimate with such a character.
[0061]
[Fourth control pattern]
Next, when the “current data pattern” becomes “10100”, the CPU 13 selects the fourth control pattern from the control pattern table 6.
[0062]
This fourth control pattern is currently daytime (1), there is no schedule for the day (0), there is a call history within 3 hours (1), the surroundings of the mobile phone are bright (0), and the mobile phone is Is noisy (0).
[0063]
In such a case, it is the morning, and the user has woken up because of the call history, and the user is in a noisy place such as in a city or on a train because the surroundings are noisy. It is in a state of viewing broadcasts and listening to music. In this case, in any case, the user is currently in a state where he / she cannot take hold of the character.
[0064]
For this reason, the CPU 13 sets and controls the voice control unit 8 so as to turn off the ringtone and controls the character drawing unit 11 so as to draw a character performing a predetermined operation for such a situation. In addition, the vibration function is turned off.
[0065]
This is the same state as the so-called "manner mode". For this reason, it is possible to prevent the inconvenience of injuring people in the street or on the train due to an unexpected ringtone. Alternatively, it is possible to prevent inconvenience of disturbing a user who concentrates on television broadcasting and music.
[0066]
Note that the description of the control pattern will be limited to the description of the above four patterns because the description will be long. However, in the other control patterns, it is assumed that the control based on the current state determined according to each sensor output is performed. I want to be understood.
[0067]
[Effects of the First Embodiment]
As is apparent from the above description, the mobile phone according to the first embodiment has a timer 1, an optical sensor 2, sensor outputs from the sound sensor 3, a schedule registered in the schedule book 4, and a call history memory. Based on the call history stored in 5, the current status of the mobile phone is determined, and each unit of the mobile phone is controlled so as to perform an operation according to the determination result.
[0068]
Thus, instead of passive control such as controlling each unit after waiting for a user's input, active control such as operating a mobile phone (including a character or the like) voluntarily by judging the current situation is performed. Can be.
[0069]
[Second embodiment]
[Configuration of Second Embodiment]
Next, FIG. 9 shows a block diagram of a terminal device according to a second embodiment to which the present invention is applied. The terminal device shown in FIG. 9 is also a mobile phone as in the first embodiment described above, and only the main configuration is shown.
[0070]
In FIG. 9, the mobile phone includes a touchpad 20 having a built-in pressure sensor and a position sensor, a CPU 13, a display unit 12, and character data for storing position information of each part of the character displayed on the display unit 12. It has a holding unit 27 and other components 28 of a mobile phone such as a communication system.
[0071]
The touch pad 20 is formed of a transparent plate-like member in which transparent electrodes are arranged in a matrix, and is provided so as to cover the entire surface of the display unit 12 (or a part of the surface). Therefore, when the user operates the touch pad 20, the user operates the touch pad 20 by scanning the surface of the display unit 12 with a finger (or an input pen).
[0072]
The CPU 13 corresponds to the CPU 13 of the above-described first embodiment. In the case of the mobile phone according to the second embodiment, the CPU 13 includes: an input information conversion unit 21 that converts the position information from the position sensor of the touch pad 20 into XY coordinate data of a display screen of the display unit 12; A pressure detector 22 for detecting the presence or absence of the pressing force of the user based on the detection output from the pressure sensor of the pad 20.
[0073]
Further, the CPU 13 analyzes an input information analyzing unit 23 for analyzing a moving direction of the user's finger (an operation direction of the touch pad 20) based on the XY coordinate data from the input information converting unit 21. And a user input operation determining unit 24 that determines the movement of the user's finger based on the analysis output from the user.
[0074]
The CPU 13 further includes a character motion selection unit 25 for selecting a motion pattern of a character to be displayed on the display unit 12 based on the determination output from the user input motion determination unit 24 and the pressure detection output from the pressure detection unit 22. Referring to the position information of each part of the character stored in the character data storage unit 27, the character drawing unit 11 draws a character image indicating the motion selected by the character motion selection unit 25. And a character data processing unit 26 for forming drawing processing data.
[0075]
[Operation of Second Embodiment]
[When pressure is not detected]
First, the pressure detection unit 22 of the CPU 13 detects that the user has pressed the touch pad 20 when a pressure detection output indicating a pressing force equal to or greater than a predetermined threshold is supplied from the pressure sensor of the touch pad 20. It has become. For this reason, when the pressure detection output indicates a pressing force equal to or less than the predetermined threshold, the CPU 13 determines that the user has not pressed the touch pad 20 and determines that the character has only been moved by the user's finger described below. Perform display control.
[0076]
First, when the user scans the touch pad 20 with a finger, the position sensor forms position information of the finger corresponding to the scan, and supplies the position information to the input information conversion unit 21. The input information conversion unit 21 captures each position information by sampling it at predetermined intervals, and converts each of the captured position information into XY coordinate data on the display screen of the display unit 12.
[0077]
FIG. 10 shows a trajectory obtained by scanning the touch pad 20 with a finger, XY coordinate data formed by sampling position information corresponding to the trajectory and performing XY coordinate conversion processing, and an input from the input information conversion unit 21. 4 shows XY coordinate data supplied to the information analysis unit 23.
[0078]
FIG. 10 shows an example in which a finger is moved substantially zigzag in the vertical direction of the touch pad 20. Then, for such scanning, (X, Y) = (30, 50) → (X, Y) = (30, 40) → (X, Y) = (30, 30) → (X, Y ) = (30, 20)... XY coordinate data are sequentially formed, and in a state where the XY coordinate data is set as a set before and after the XY coordinate data, “(30, 50), (30, 40)” → “( 30, 40), (30, 30) "→" (30, 30), (30, 20) "...
[0079]
The notation such as (X, Y) = (30, 50) indicates that the X coordinate is the position of 30 dots in the horizontal direction of the display unit 12, and the Y coordinate is the position of 50 dots in the vertical direction of the display unit 12. Means.
[0080]
Next, the input information analysis unit 23 analyzes the direction and distance in which the user has moved his / her finger based on the XY coordinate data supplied in a state where the front and rear are paired. Specifically, when the set of XY coordinate data is “(X1, Y1), (X2, Y2)”, the input information analysis unit 23 calculates “X2-X1” and “Y2-Y1”. The calculation is performed, and the direction and distance in which the user has moved the finger are analyzed based on the numerical value of the X coordinate and the numerical value of the Y coordinate obtained by the calculation.
[0081]
FIG. 11 shows an example of this analysis operation. In FIG. 11, for example, if the XY coordinate data supplied in a state where the front and rear are paired is “(50, 40), (50, 60)”, the input information analysis unit 23 determines that “50- 50 "and" 60-40 ". The operation of “50-50” corresponds to the operation of “X2-X1”, and the operation of “60-40” corresponds to the operation of “Y2-Y1”. In this example, the calculated value of “X2-X1” is “0”, and the calculated value of “Y2-Y1” is “+20”.
[0082]
Next, the user input operation determination unit 24 detects the direction and distance in which the user has moved his / her finger based on the analysis result (= the calculated value) from the input information analysis unit 23.
[0083]
Specifically, when the sign of the calculated value of “X2-X1” is “+”, the user input operation determining unit 24 moves the display unit 12 rightward, and the sign of the calculated value is “−”. Is detected as a movement of the display unit 12 to the left, and if the sign of the operation value of “Y2-Y1” is “+”, the movement of the display unit 12 in the upward direction is detected. If the sign of the operation value is "-", it is detected as a downward movement of the display unit 12.
[0084]
In the case of the above-described calculated value, the calculated value of “X2-X1” is “0”, and the calculated value of “Y2-Y1” is “+20”. This indicates that there is no movement in the horizontal direction of the display unit 12 in the X direction, but a movement of +20 dots has occurred in the vertical direction of the display unit 12 in the Y direction. Therefore, in this case, the user input operation determination unit 24 determines the user's input operation as if the user has moved the finger by 20 dots upward in the display unit 12. Such a determination output is supplied to the character action selection unit 25.
[0085]
Further, in another example, for example, if the XY coordinate data supplied in a state where the front and rear are paired are “(30, 30), (40, 50)”, “X2−X1” The calculated value is "+10", and the calculated value of "Y2-Y1" is "+20". This indicates that the display unit 12 has moved by +10 dots in the horizontal direction and has moved by +20 dots in the vertical direction. For this reason, in this case, the user input operation determination unit 24 determines that the user has moved his or her finger in the diagonally upper right direction of the display unit 12 by approximately 20 dots.
[0086]
Next, the character action selection unit 25 selects (determines) a character action based on the character data before movement display stored in the character data storage unit 27 and the determination output from the user input action determination unit 24. I do.
[0087]
FIG. 12 is a schematic diagram of a humanoid character displayed on the display unit 12. In this case, the display unit 12 assumes that the number of dots in the vertical (Y direction) × horizontal (X direction) is 100 dots × 80 dots.
[0088]
The XY coordinate data of each part such as the head, the body, the right hand, and the left hand of the character before the movement display is stored in the character data storage unit 27 as character data.
[0089]
Specifically, in the case of this example, as shown in FIG. 13, XY coordinate data “(30, 80), (50, 80)” at both ends of a line segment corresponding to the width of the head of the character as character data. , XY coordinate data "(40, 60), (40, 40)" at both ends of a line corresponding to the length of the body, and XY coordinate data "(40, 60)," corresponding to the length of the right hand (20, 80) ”and XY coordinate data“ (40, 60), (60, 40) ”of a line segment corresponding to the length of the left hand are stored in the character data storage unit 27.
[0090]
Here, when the movement of the user's finger of “(50, 40), (60, 40)” described with reference to FIG. 11 is superimposed on the image of the character, a line corresponding to the left hand of the character is obtained as shown in FIG. It can be seen that a line segment corresponding to the movement of the user's finger intersects the minute.
[0091]
The XY coordinate data of “(50, 40), (60, 40)” is an adjacent sample as described above. That is, it means that the sample (60, 40) was obtained immediately after the sample (50, 40) was obtained. This sample is obtained using, for example, a sampling frequency of several kHz. Despite such a high frequency, each XY coordinate data of (50, 40) → (60, 40) can be obtained in a short time. Successive acquisition means that the user's finger has been moved to flip (flick) upward in the display screen.
[0092]
When such movement and position of the user's finger are superimposed on the character image shown in FIG. 12, it can be understood that the left hand of the character has been flipped upward by the user's finger.
[0093]
The character motion selection unit 25 has a motion pattern table in which a plurality of pieces of information indicating motion patterns are stored. The character motion selection unit 25 selects a corresponding motion pattern from the motion pattern table based on the character image before the movement display and the movement and the position of the user's finger, and selects the selected motion pattern. The indicated information is supplied to the character data processing unit 26.
[0094]
In the case of the above-described example, since the left hand of the character is flipped upward by the user's finger, the character motion selection unit 25 selects a motion pattern of raising the left hand of the character, and processes the information indicating the motion pattern into character data processing. To the unit 26.
[0095]
Next, the character data processing section 26 forms drawing processing data for drawing a character performing an operation corresponding to the information indicating the movement pattern from the character movement selection section 25, and controls the character drawing section 11 to generate the drawing processing data. I do.
[0096]
The character drawing unit 11 draws a character displayed on the display unit 12 based on the drawing processing data.
[0097]
In the case of the above-described example, the character data processing unit 26 forms drawing processing data for drawing a character performing an operation of raising the left hand upward, and supplies this to the character drawing unit 11. As a result, the character drawing unit 11 controls the display of the character performing the operation of raising the left hand as shown by the dotted line in FIG.
[0098]
[When pressure is detected]
Next, the drawing processing operation when the pressure is detected by the pressure detection unit 22 of the CPU 13 will be described.
[0099]
As described above, when a pressure detection output indicating a pressure level equal to or higher than a predetermined threshold is supplied from the pressure sensor of the touchpad 20, the pressure detection unit 22 detects that the user has pressed the touchpad 20. It has become. When the pressure detection unit 22 detects the pressing force, the character motion selection unit 25 determines the pressure level and the position on the display unit 12 where the pressure is applied, and determines the position from the user input motion determination unit 24. The above operation pattern is selected based on the output.
[0100]
Specifically, when the user presses the character's mouth with his / her finger, for example, in order to press the character's mouth, each of the characters is indicated as "pressed" from the position of the character's mouth indicated by a circle in FIG. Will be detected. The pressure detection unit 22 takes in the pressure detection output of the center coordinates “(40, 72)” of the range among the pressure detection outputs corresponding to the detected range, and supplies it to the character action selection unit 25. .
[0101]
In the case of this example, since the user is pressing the mouth of the character with the finger, the XY coordinate data of (40, 72) is continuously supplied to the input information analysis unit 23. For this reason, the user input motion determining unit 24 determines that the user's finger has stopped at the (40, 72) XY coordinate position on the display unit 12, and supplies the determination output to the character motion selecting unit 25. I do.
[0102]
The character action selection unit 25 detects the position where the user's finger has stopped based on the XY coordinate data of each part of the character stored in the character data storage unit 27.
[0103]
In this case, since the XY coordinates at which the user's finger is stopped are (40, 72), the character motion selection unit 25 determines that the user's finger is stopped at the position of the character's mouth.
[0104]
Further, in this case, a pressure detection output indicating that the pressing is detected from the position of the mouth of the character is supplied to the character motion selection unit 25.
[0105]
Since the user's finger is stopped at the position of the mouth of the character and the mouth of the character is pressed with the finger of the user, the character action selection unit 25 selects, for example, an action pattern in which the character closes the mouth, The information indicating the operation pattern is supplied to the character data processing unit 26.
[0106]
The character data processing unit 26 forms drawing processing data for drawing a character performing an operation corresponding to the information indicating the movement pattern from the character movement selection unit 25, and controls the character drawing unit 11.
[0107]
As a result, the character drawing unit 11 performs a drawing process for the character performing the mouth closing operation, and this is displayed on the display unit 12.
[0108]
[Effect of Second Embodiment]
As is clear from the above description, the mobile phone according to the second embodiment detects the movement of the user's finger on the display unit 12 by using the touch pad 20 provided with the position sensor and the pressure sensor. Based on the movement of the user's finger and the display position of the currently displayed character, the movement of the character is determined and display control of the character is performed.
[0109]
The pressure sensor detects a position on the display unit 12 where the user applies pressure with a finger, and based on the position where the pressure is applied and the display position of the currently displayed character, detects the position of the character. The display of the character is controlled by determining the movement.
[0110]
By providing the touch pad 20 in this manner, a complicated and large number of inputs corresponding to the scanning of the user's finger can be made possible. The display can be controlled so as to perform
[0111]
Further, the reaction of the character in the virtual world can be a reaction in accordance with the action in the real world.
[0112]
Further, the touch pad 20 is provided on the surface of the display unit 12, and can be operated while looking at a character displayed on the display unit 12 through the touch pad 20. The scanning of the finger on the touch pad 20 is reflected on the action of the character displayed on the display unit 12.
[0113]
For this reason, the user can provide a feeling of directly touching and operating the character displayed on the display unit 12 with the finger. For this reason, the user can treat the character displayed on the display unit 12 as if it were a pet, such as stroking or tickling the head. Therefore, the character displayed on the display unit 12 can be a character that increases the sense of intimacy.
[0114]
In this example, the input is complicated by providing the touch pad 20, but input means such as a trackball or a joystick may be provided instead of the touch pad 20.
[0115]
The trackball and the joystick are provided in places other than the display unit 12 due to their characteristics. However, as in the case of the touchpad 20, complicated input can be performed. The same effects as described above can be obtained as in the case of
[0116]
Although the presence or absence of a press is detected by the pressure sensor of the touch pad 20, the pressure level of the press may be detected, and the motion pattern of the character may be determined according to the pressure level. In this case, since the motion pattern of the character can be determined in accordance with the pressure level, the motion of the user's finger is analyzed in more detail than in determining the motion pattern of the character in accordance with the presence or absence of pressing. The pattern can be determined.
[0117]
[Composite operation of the first embodiment and the second embodiment]
As described above, the mobile phone to which the present invention is applied has been described as being divided into the first embodiment and the second embodiment for ease of understanding. However, the mobile phones according to the respective embodiments may be combined. . The operation in this case will be described by taking the first control pattern (current data pattern = 111011) in the above-described first embodiment as an example and in conformity with the use form of the mobile phone.
[0118]
First, the CPU 13 of the mobile phone acquires time information from the timer 1. For example, assume that this time information indicates 8:15 am on weekdays.
[0119]
Next, the CPU 13 refers to the schedule of the day from the schedule book 4 and determines whether or not a schedule is included at a time around 8:15 am. For example, it is assumed that a schedule to wait for a friend A at a coffee shop in front of the station at 9:00 am is included as this schedule.
[0120]
Next, the CPU 13 refers to the call history memory 5 and confirms whether or not there is a partner to make a call on a daily basis in the time zone around 8:15 am. For example, it is assumed that it is detected that the user calls the friend B on a daily basis for about 5 minutes from 8:00 am to 8:10 am
[0121]
Next, the CPU 13 detects the brightness around the mobile phone based on the detection output from the optical sensor 2. In this detection, it is assumed that it is detected that the surroundings of the mobile phone are dark even in the morning.
[0122]
Next, the CPU 13 detects a noise level around the mobile phone based on the detection output from the sound sensor 3. In this detection, it is assumed that almost no sound is detected around the mobile phone.
[0123]
Next, the CPU 13 determines the current state where the mobile phone is placed based on the detection results.
[0124]
That is, in the case of this example, it is currently 8 o'clock in the morning on weekdays. In addition, there is a meeting with a friend A today, and it is less than one hour before the meeting time. Despite this, the area around the mobile phone is dark and quiet. The user does not call the friend B on a daily basis. This indicates that the user is likely to be sleeping in the morning. Then, if this is the case, the meeting with the friend A will be late.
[0125]
For this reason, the CPU 13 sounds a ring tone of the mobile phone and simultaneously drives the vibration. Further, the CPU 13 controls the display unit 12 to display an image of the character shouting “Get up”.
[0126]
As a result, the user can be woken up by the character of the mobile phone and fulfill the schedule as scheduled.
[0127]
On the other hand, if the user has already woken up and is quietly organizing his / her behavior at home, the operation of such a mobile phone is annoying to the user.
[0128]
Therefore, in order to stop such an operation of the mobile phone, the user picks up the mobile phone and closes the mouth of the character shouting "Get up" with the finger.
[0129]
Such a user's action is detected by the pressure sensor of the touchpad 20, and the CPU controls the ringing tone and the vibration function 7 to be turned off, and displays the image in which the character closes the mouth on the display unit 12 as described above. Control.
[0130]
In this case, the image in which the character bows and makes an error, the image in which the character visits "Are you up?", Or the character teaches "Oh, goodbye. It's almost time to meet Mr. A". An image may be displayed.
[0131]
As can be seen from this example, the character displayed on the display unit 12 acts as a manager and watches over the user. The mobile phones according to the embodiments, which provide such a manager-like and friendly character, can be said to be very convenient devices.
[0132]
As described above, the present invention has been described in accordance with the embodiments. However, it is to be understood that each of the embodiments is an example of the present invention. For this reason, in the description of the above-described embodiment, the present invention is applied to a mobile phone. However, the present invention is applied to a PHS phone (PHS: Personal Handyphone System), a PDA device having a communication function (PDA: Personal Digital Assistants). Alternatively, the present invention may be applied to another terminal device such as a personal computer device having a communication function. Even in this case, the same effect as described above can be obtained.
[0133]
Further, other sensors such as a temperature sensor may be used in addition to the sensors 2 and 3 described above.
[0134]
It should be added that, other than these, various changes can be made according to the design and the like as long as the technical idea according to the present invention is not deviated.
[0135]
【The invention's effect】
According to the present invention, it is possible to control the display of a character displayed on the display means in a complicated and numerous motion pattern so as to be a reaction corresponding to an action in the real world.
[0136]
Further, according to the present invention, the display object displayed on the display means can be actively operated.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a main configuration of a mobile phone according to a first embodiment of the present invention.
FIG. 2 is a flowchart showing a flow of control of the mobile phone according to the first embodiment.
FIG. 3 is a diagram for explaining a day / night determination operation performed based on time information from a timer provided in the mobile phone according to the first embodiment.
FIG. 4 is a diagram for explaining an operation of determining whether there is a schedule registered in a schedule book provided in the mobile phone according to the first embodiment.
FIG. 5 is a diagram illustrating an operation of determining whether there is a call history stored in a call history memory provided in the mobile phone according to the first embodiment.
FIG. 6 is a diagram for explaining an operation of determining the brightness around the mobile phone, which is performed based on a detection output from an optical sensor provided in the mobile phone according to the first embodiment.
FIG. 7 is a diagram illustrating an operation of determining sound around the mobile phone, which is performed based on a detection output from a sound sensor provided in the mobile phone according to the first embodiment.
FIG. 8 is a diagram for explaining a control pattern of control performed based on each detection result in the mobile phone according to the first embodiment.
FIG. 9 is a block diagram illustrating a main configuration of a mobile phone according to a second embodiment of the present invention.
FIG. 10 is a diagram illustrating an example of input to a touch pad provided in the mobile phone according to the second embodiment and an example of XY coordinate data detected based on the input.
FIG. 11 is a diagram for explaining a detection operation of a moving direction and a moving distance of a user's finger of the mobile phone according to the second embodiment, which is performed based on the detected XY coordinate data.
FIG. 12 is a diagram for explaining a display control operation of a character displayed on a display unit of the mobile phone according to the second embodiment.
FIG. 13 is a diagram illustrating an example of XY coordinate data of each part of the character displayed on the display unit of the mobile phone according to the second embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Timer, 2 ... Optical sensor, 3 ... Sound sensor, 4 ... Schedule book, 5 ... Call history memory, 6 ... Control pattern table, 7 ... Vibration function, 8 ... Voice control unit, 9 ... Speaker unit, 10 ... Character Voice memory, 11 ... Character drawing unit, 12 ... Display unit, 13 ... Control unit (CPU), 20 ... Touch pad (position sensor, pressure sensor), 21 ... Input information conversion unit, 22 ... Pressure detection unit, 23 ... Input Information analysis unit, 24: User input operation determination unit, 25: Character operation selection unit, 26: Character data processing unit, 27: Character data storage unit, 28: Other components of mobile phone

Claims (6)

表示手段に表示される表示物を目視可能なように設けられ、ユーザの入力位置及び入力距離を検出する二次元入力手段と、
上記表示手段に表示されている表示物の現在の表示位置を記憶する表示位置記憶手段と、
上記表示位置記憶手段に記憶されている上記表示物の現在位置と、上記二次元入力手段により検出された入力位置及び入力距離に基づいて決定した表示手段上の表示位置に、該表示物を表示制御する制御手段と
を有する情報処理装置。
Two-dimensional input means provided so that a display object displayed on the display means can be viewed, and detects an input position and an input distance of the user,
Display position storage means for storing a current display position of a display object displayed on the display means,
The display object is displayed at the current position of the display object stored in the display position storage unit and the display position on the display unit determined based on the input position and the input distance detected by the two-dimensional input unit. An information processing apparatus having control means for controlling.
上記二次元入力手段は、位置センサ、或いは位置センサ及び圧力センサが設けられ、上記表示手段に表示される表示物を目視可能なように、該表示手段の表面に設けられたタッチパッドであること
を特徴とする請求項1記載の情報処理装置。
The two-dimensional input means is a touch pad provided with a position sensor or a position sensor and a pressure sensor, and provided on a surface of the display means so that a display object displayed on the display means can be viewed. The information processing apparatus according to claim 1, wherein:
複数のセンサと、
上記各センサからの出力に基づいて、総合的に現在の状況を判断する現状判断手段と、
上記現状判断手段からの判断結果に基づいて、少なくとも表示手段に表示されている表示物を可変して表示制御する制御手段と
を有する情報処理装置。
Multiple sensors,
Current status determination means for comprehensively determining the current status based on the output from each of the sensors,
An information processing apparatus having at least a control means for performing variable display control of a display object displayed on the display means based on a determination result from the current state determination means.
上記センサとして、時刻を計時するタイマ、光を感知する光センサ、音を感知する音センサ、ユーザの予定が記憶されたスケジュール帳から所定時間以内のスケジュールを検出するスケジュールセンサ、ユーザの通話履歴が記憶された通話履歴メモリから所定時間以内の通話履歴を検出する通話履歴センサ、位置センサ、或いは位置センサ及び圧力センサが設けられた二次元入力手段が設けられており、或いは該各センサのうち2つ以上のセンサが設けられていること
を特徴とする請求項3記載の情報処理装置。
As the sensor, a timer for measuring time, an optical sensor for sensing light, a sound sensor for sensing sound, a schedule sensor for detecting a schedule within a predetermined time from a schedule book in which a user's schedule is stored, and a call history of the user are included. A call history sensor for detecting a call history within a predetermined time from the stored call history memory, a position sensor, or a two-dimensional input means provided with a position sensor and a pressure sensor is provided, or two of these sensors are provided. The information processing apparatus according to claim 3, wherein at least one sensor is provided.
所定の音声を発声する音声発声手段と有し、
上記制御手段は、上記表示制御と共に、所定の音声を発声するように上記音声発声手段を制御すること
を特徴とする請求項1から請求項4のうち、いずれか一項記載の情報処理装置。
A voice generating means for generating a predetermined voice;
The information processing apparatus according to any one of claims 1 to 4, wherein the control means controls the voice utterance means so as to utter a predetermined voice together with the display control.
振動機能を有し、
上記制御手段は、上記表示制御と共に、上記振動機能を駆動制御すること
を特徴とする請求項1から請求項5のうち、いずれか一項記載の情報処理装置。
Has a vibration function,
The information processing apparatus according to claim 1, wherein the control unit drives and controls the vibration function together with the display control.
JP2002264508A 2002-09-10 2002-09-10 Information processing device Expired - Fee Related JP4211968B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002264508A JP4211968B2 (en) 2002-09-10 2002-09-10 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002264508A JP4211968B2 (en) 2002-09-10 2002-09-10 Information processing device

Publications (2)

Publication Number Publication Date
JP2004102719A true JP2004102719A (en) 2004-04-02
JP4211968B2 JP4211968B2 (en) 2009-01-21

Family

ID=32263929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002264508A Expired - Fee Related JP4211968B2 (en) 2002-09-10 2002-09-10 Information processing device

Country Status (1)

Country Link
JP (1) JP4211968B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007109069A (en) * 2005-10-14 2007-04-26 Kyushu Institute Of Technology Image drawing controller
JP2008515008A (en) * 2004-10-01 2008-05-08 オーディオブラックス インドゥストリア エ コメルシオ デ プロドゥトス エレトロニコス ソシエダッド アノニマ Rhythm device for sound generation, performance, accompaniment and evaluation
JP2008515009A (en) * 2004-10-01 2008-05-08 オーディオブラックス インドゥストリア エ コメルシオ デ プロドゥトス エレトロニコス ソシエダッド アノニマ Portable electronic devices for musical instrument accompaniment and sound evaluation
JP2014130467A (en) * 2012-12-28 2014-07-10 Sony Corp Information processing device, information processing method, and computer program
US9069404B2 (en) 2006-03-30 2015-06-30 Apple Inc. Force imaging input device and system
KR20170134033A (en) * 2016-05-27 2017-12-06 주식회사 하이딥 Method for controlling behavior of character in touch input device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10295932A (en) * 1997-04-28 1998-11-10 Kyushu Hitachi Maxell Ltd Portable game machine
JPH11259271A (en) * 1998-03-13 1999-09-24 Aqueous Reserch:Kk Agent device
JP2000029661A (en) * 1998-07-16 2000-01-28 Sharp Corp Information terminal provided with character and voice input/output function
JP2000056889A (en) * 1998-08-04 2000-02-25 Matsushita Electric Ind Co Ltd Portable terminal device and window control method
JP2001217903A (en) * 2000-01-31 2001-08-10 Hitachi Ltd Telephone set, information terminal and incoming call notice method therefor
JP2001339469A (en) * 2000-05-26 2001-12-07 Fujitsu Ltd Communication device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10295932A (en) * 1997-04-28 1998-11-10 Kyushu Hitachi Maxell Ltd Portable game machine
JPH11259271A (en) * 1998-03-13 1999-09-24 Aqueous Reserch:Kk Agent device
JP2000029661A (en) * 1998-07-16 2000-01-28 Sharp Corp Information terminal provided with character and voice input/output function
JP2000056889A (en) * 1998-08-04 2000-02-25 Matsushita Electric Ind Co Ltd Portable terminal device and window control method
JP2001217903A (en) * 2000-01-31 2001-08-10 Hitachi Ltd Telephone set, information terminal and incoming call notice method therefor
JP2001339469A (en) * 2000-05-26 2001-12-07 Fujitsu Ltd Communication device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
""「ポストペット」を楽しもう"", ゼロから始めるパソコン, vol. 第2巻, JPN6008052596, 3 March 2000 (2000-03-03), JP, pages 30 - 35, ISSN: 0001161100 *
五十君克己, 外1名: ""PocketPostPet"", NTT DOCOMOテクニカル・ジャーナル, vol. 第8巻, 第3号, JPN6008052595, 1 October 2000 (2000-10-01), pages 46 - 47, ISSN: 0001161099 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008515008A (en) * 2004-10-01 2008-05-08 オーディオブラックス インドゥストリア エ コメルシオ デ プロドゥトス エレトロニコス ソシエダッド アノニマ Rhythm device for sound generation, performance, accompaniment and evaluation
JP2008515009A (en) * 2004-10-01 2008-05-08 オーディオブラックス インドゥストリア エ コメルシオ デ プロドゥトス エレトロニコス ソシエダッド アノニマ Portable electronic devices for musical instrument accompaniment and sound evaluation
JP4741596B2 (en) * 2004-10-01 2011-08-03 オーディオブラックス インドゥストリア エ コメルシオ デ プロドゥトス エレトロニコス ソシエダッド アノニマ Portable electronic devices for musical instrument accompaniment and sound evaluation
JP2007109069A (en) * 2005-10-14 2007-04-26 Kyushu Institute Of Technology Image drawing controller
JP4701395B2 (en) * 2005-10-14 2011-06-15 国立大学法人九州工業大学 Drawing control device
US9069404B2 (en) 2006-03-30 2015-06-30 Apple Inc. Force imaging input device and system
JP2014130467A (en) * 2012-12-28 2014-07-10 Sony Corp Information processing device, information processing method, and computer program
KR20170134033A (en) * 2016-05-27 2017-12-06 주식회사 하이딥 Method for controlling behavior of character in touch input device
KR101865300B1 (en) * 2016-05-27 2018-06-07 주식회사 하이딥 Method for controlling behavior of character in touch input device

Also Published As

Publication number Publication date
JP4211968B2 (en) 2009-01-21

Similar Documents

Publication Publication Date Title
AU2016202626B2 (en) Method and apparatus for user interaction data storage
CA2989356C (en) Method and apparatus for action indication selection
JP2021179951A (en) Systems, methods and user interfaces for supporting scheduled mode changes on electronic devices
US11995483B2 (en) Devices, methods, and user interfaces for providing audio notifications
US6850150B1 (en) Portable device
CN103092458B (en) The device and method that application program is run in mobile terminal
US20160205244A1 (en) Updating device behavior based on user behavior
JP2017531850A (en) A semantic framework for variable haptic output
WO2018223535A1 (en) Vibration notification method for mobile terminal, and mobile terminal
CN107864298A (en) A kind of intelligent prompt method and device
CN107222391A (en) Group&#39;s based reminding method, device and equipment
JPWO2015141328A1 (en) Information processing apparatus, control method, and program
WO2021068627A1 (en) Interaction method for electronic device and electronic device
JP2004302734A (en) Information terminal and program for making computer execute its operation changeover
JP4211968B2 (en) Information processing device
WO2020103091A9 (en) Touch operation locking method and electronic device
JP2002296376A (en) Portable radio terminal device
CN110456935A (en) For adjusting the device and method of the offer of notice
EP4270163A1 (en) User interfaces for facilitating operations
US20240062640A1 (en) User interfaces for facilitating operations
JP7514895B2 (en) User interface for ease of operation
CN113110791B (en) To-do task creation method and electronic equipment
JP2011114569A (en) Portable terminal and incoming call response method
WO2023211790A1 (en) User interfaces for facilitating operations
JP2004287886A (en) Display selection device, and cellular phone and electronic device using it

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20031113

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20031212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050811

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081022

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081023

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131107

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees