JP2011015204A - Terminal device, and program - Google Patents

Terminal device, and program Download PDF

Info

Publication number
JP2011015204A
JP2011015204A JP2009157812A JP2009157812A JP2011015204A JP 2011015204 A JP2011015204 A JP 2011015204A JP 2009157812 A JP2009157812 A JP 2009157812A JP 2009157812 A JP2009157812 A JP 2009157812A JP 2011015204 A JP2011015204 A JP 2011015204A
Authority
JP
Japan
Prior art keywords
display
information
image
character
display information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009157812A
Other languages
Japanese (ja)
Other versions
JP5224391B2 (en
Inventor
Yuichi Sago
祐一 佐合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2009157812A priority Critical patent/JP5224391B2/en
Publication of JP2011015204A publication Critical patent/JP2011015204A/en
Application granted granted Critical
Publication of JP5224391B2 publication Critical patent/JP5224391B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To properly control a display mode of display information.SOLUTION: The terminal device (1) which controls a display section (17) capable of displaying arbitrary display information is provided with: an instruction means (11) for instructing to display first arbitrary display information on the display section as one of the pieces of display information; a determination means (11) for determining a display mode of second display information to be displayed on the display section with the first display information based on at least one of the content of the first display information and additional information associated with the first display information; and a control means (11) for performing control so as to display the first display information on the display section and to display the second display information on the display section in the display mode determined by the determination section.

Description

本発明は、任意の表示情報を表示できる表示部を制御する端末装置及びプログラムに関する。   The present invention relates to a terminal device and a program for controlling a display unit that can display arbitrary display information.

従来より、携帯電話機などの端末装置においては、ユーザインターフェースのための表示部(数インチ程度の液晶表示パネルからなるもの)を備えており、この表示部を用いて、電話の発着信操作など、様々なユーザ支援を行っている。   Conventionally, a terminal device such as a cellular phone has a display unit for a user interface (consisting of a liquid crystal display panel of several inches), and this display unit can be used to make and receive calls. We provide various user support.

一般的に上記の表示部は、端末の電源が入っている間、その表示はシンプルなものであった。たとえば、所要の文字表示、あるいは、電池の残容量や電波の強さといった、いわゆるピクトなどの表示情報の表示を行っていたが、現在においては、ほとんどの端末において、任意の背景画像などの表示情報も表示できるようになっており、ユーザ個々の好みの応じた画面デザインを設定できるようになっている。   In general, the display of the display unit is simple while the terminal is turned on. For example, display of required characters, or display information such as so-called pictograms such as the remaining battery capacity and the strength of radio waves has been displayed. Information can also be displayed, and the screen design can be set according to each user's preference.

このように、任意の背景画像を表示できるようにすることによって、ユーザ個々の好みの応じた画面デザインを設定できるという利点が得られるものの、ユーザ自らが背景画像を意図的に変更しない限り、一度設定した画面デザインはまったく変わることがないので、すぐに飽きてしまうという問題点がある。   As described above, by allowing an arbitrary background image to be displayed, an advantage is obtained in that a screen design can be set according to each user's preference. However, unless the user himself intentionally changes the background image, The screen design that you set never changes, so you get bored quickly.

この点(画面デザインの変化)に関し、たとえば、下記の特許文献1には、端末の現在位置に応じて背景画像を変更(差し替え)できるようにし、さらに、その画像上のピクト表示の姿態(表示態様)も変更できるようにした技術が開示されている。   Regarding this point (change in screen design), for example, in Patent Document 1 below, the background image can be changed (replaced) according to the current position of the terminal, and the pictogram appearance (display) on the image is displayed. A technique in which the aspect) can also be changed is disclosed.

特開2003−087857号公報Japanese Patent Laid-Open No. 2003-087857

しかしながら、特許文献1記載の技術にあっては、端末の現在位置が変わらない場合、たとえば、自宅等で継続的に端末を使用している場合は、背景画像やピクト表示(表示情報の表示態様)の変更がまったく行われないから、依然として、飽きやすいという問題点がある。   However, in the technique described in Patent Document 1, when the current position of the terminal does not change, for example, when the terminal is continuously used at home or the like, a background image or a pictographic display (display mode of display information) ) Is not changed at all, there is still a problem that it is easy to get bored.

そこで、本発明の目的は、表示情報の表示態様を適宜に制御することにある。   Accordingly, an object of the present invention is to appropriately control the display mode of display information.

請求項1記載の発明は、任意の表示情報を表示できる表示部を制御する端末装置において、前記表示情報の一つとして任意の第1表示情報を前記表示部に表示させるように指示する指示手段と、前記第1表示情報の内容及び該第1表示情報に関連づけられた付加情報の少なくともいずれか一方に基づいて、前記第1表示情報と一緒に前記表示部に表示させる第2表示情報の表示態様の決定を行う決定手段と、前記第1表示情報を前記表示部に表示させるとともに前記決定手段によって決定された表示態様で前記第2表示情報を前記表示部に表示させるように制御する制御手段とを備えたことを特徴とする。   According to the first aspect of the present invention, in the terminal device for controlling the display unit capable of displaying arbitrary display information, the instruction means for instructing the display unit to display arbitrary first display information as one of the display information. And display of second display information to be displayed on the display unit together with the first display information based on at least one of the content of the first display information and the additional information associated with the first display information Determining means for determining a mode; and control means for controlling the display unit to display the first display information on the display unit and to display the second display information on the display unit in a display mode determined by the determining unit. It is characterized by comprising.

さらに、コンピュータに対して、上述した請求項1記載の発明に示した主要機能を実現させるためのプログラムを提供する(請求項10記載の発明)。   Further, a program for realizing the main functions shown in the invention described in claim 1 is provided to the computer (the invention described in claim 10).

なお、上述した請求項1記載の発明は次のようなものであってもよい。
前記決定手段は、前記第1表示情報の内容及び該第1表示情報に関連づけられた付加情報の少なくともいずれか一方に基づいて、前記第2表示情報の表示態様の決定とともに、該第2表示情報の選択を行う(請求項2記載の発明)。
The invention described in claim 1 described above may be as follows.
The determining means determines the display mode of the second display information based on at least one of the content of the first display information and the additional information associated with the first display information, and the second display information. Is selected (invention of claim 2).

前記決定手段は、前記第1表示情報に含まれるオブジェクトの種別、オブジェクトの輪郭線、オブジェクトが人物である場合の人物属性、配色、文字数、文字配置のいずれかを解析し、その解析結果に従って、前記第1表示情報と一緒に前記表示部に表示させる第2表示情報の表示態様の決定を行う(請求項3記載の発明)。  The determination means analyzes any of the type of object, the outline of the object, the person attribute when the object is a person, the color scheme, the number of characters, the character arrangement included in the first display information, and according to the analysis result, The display mode of the 2nd display information displayed on the said display part with the said 1st display information is determined (invention of Claim 3).

前記決定手段は、前記第1表示情報が画像である場合に、その画像の撮影日時、画像の撮影場所、画像のタイトルに基づいて、あるいは、前記第1表示情報がテレビ放送である場合に、そのテレビ放送のチャンネル、テレビ放送の番組情報に基づいて、前記第1表示情報と一緒に前記表示部に表示させる第2表示情報の表示態様の決定を行う(請求項4記載の発明)。   When the first display information is an image, the determining means is based on the shooting date and time of the image, the shooting location of the image, the title of the image, or when the first display information is a television broadcast. The display mode of the second display information to be displayed on the display unit together with the first display information is determined based on the TV broadcast channel and the TV broadcast program information (the invention according to claim 4).

前記表示態様は、前記第2表示情報の表示数、大きさ、色、形、表情、動作、種別のうち、少なくともいずれか1つである(請求項5記載の発明)。   The display mode is at least one of the display number, size, color, shape, facial expression, action, and type of the second display information (the invention according to claim 5).

前記制御手段は、前記第1表示情報の表示が途中で中断された場合に、その中断時点における前記第2表示情報の表示態様を記憶しておき、前記第1表示情報の表示が再開されたときに、記憶されていた表示態様を読み出し、その表示態様に基づいて前記第2表示情報を表示させる(請求項6記載の発明)。   When the display of the first display information is interrupted in the middle, the control means stores the display mode of the second display information at the time of the interruption, and the display of the first display information is resumed. Sometimes, the stored display mode is read out, and the second display information is displayed based on the display mode (the invention according to claim 6).

前記指示手段は、端末待受状態において任意の待受画像を前記第1表示情報として前記表示部に表示させるように指示し、前記制御手段は、待受画像として指定された第1表示情報が表示部に表示される際に、その第1表示情報とともに、前記決定手段によって決定された表示態様で前記第2表示情報を表示させるように制御する(請求項7記載の発明)。   The instruction means instructs the display unit to display an arbitrary standby image as the first display information in the terminal standby state, and the control means receives the first display information specified as the standby image. When displayed on the display unit, control is performed so that the second display information is displayed together with the first display information in the display mode determined by the determining means (the invention according to claim 7).

通信手段を更に備え、前記指示手段は、該通信手段によって通信を行う場合に着信及び発信の少なくともいずれか一方を報知するための任意の通信報知画像を前記第1表示情報として表示部に表示させるように指示し、前記制御手段は、通信報知画像として指定された第1表示情報が表示部に表示される際に、その第1表示情報とともに、前記決定手段によって決定された表示態様で前記第2表示情報を表示させるように制御する(請求項8記載の発明)。   The communication device further includes a communication unit, and the instruction unit displays an arbitrary communication notification image for informing at least one of incoming and outgoing calls on the display unit as the first display information when communication is performed by the communication unit. When the first display information designated as the communication notification image is displayed on the display unit, the control means displays the first display information together with the first display information in the display mode determined by the determination means. (2) Control to display the display information (the invention according to claim 8).

前記指定手段は、メニュー画面あるいは文字表示画面を前記第1表示情報として表示部に表示させるように指示し、前記制御手段は、メニュー画面あるいは文字表示画面として指定された第1表示情報が表示部に表示される際に、その第1表示情報とともに、前記決定手段によって決定された表示態様で前記第2表示情報を表示させるように制御する(請求項9記載の発明)。   The designation unit instructs the display unit to display a menu screen or a character display screen as the first display information, and the control unit displays the first display information designated as the menu screen or the character display screen. When the first display information is displayed, the second display information is controlled to be displayed together with the first display information in the display mode determined by the determining means (the invention according to claim 9).

本発明によれば、表示情報の表示態様を適宜に制御することができる。   According to the present invention, the display mode of display information can be appropriately controlled.

携帯電話機が利用可能な通信ネットワークシステムを示したブロック図である。It is the block diagram which showed the communication network system which can utilize a mobile telephone. 携帯電話機1の基本的な構成要素を示したブロック図である。3 is a block diagram showing basic components of the mobile phone 1. FIG. 携帯電話機1の外観図である。1 is an external view of a mobile phone 1. FIG. 表示部17の表示例を示す図である。6 is a diagram illustrating a display example of the display unit 17. FIG. 背景画像記憶部M3を説明するための図である。It is a figure for demonstrating the background image memory | storage part M3. 背景画像記憶部M3に記憶されている画像を示す図である。It is a figure which shows the image memorize | stored in the background image memory | storage part M3. キャラクタ画像記憶部M4を説明するための図である。It is a figure for demonstrating the character image memory | storage part M4. キャラクタ画像記憶部M4に記憶されているキャラクタを示す図である。It is a figure which shows the character memorize | stored in the character image memory | storage part M4. キャラクタ決定条件記憶部M5を説明するための図である。It is a figure for demonstrating the character determination condition memory | storage part M5. キャラクタ決定条件の「設定フラグ」を変更するために用いられるユーザインターフェース画面の一例を示す図である。It is a figure which shows an example of the user interface screen used in order to change the "setting flag" of character determination conditions. キャラクタ内容記憶部M6を説明するための図である。It is a figure for demonstrating the character content storage part M6. 動作決定条件記憶部M7を説明するための図である。It is a figure for demonstrating operation | movement determination condition memory | storage part M7. 動作決定条件の「設定フラグ」を変更するために用いられるユーザインターフェース画面の一例を示す図である。It is a figure which shows an example of the user interface screen used in order to change the "setting flag" of operation determination conditions. 動作内容記憶部M8を説明するための図である。It is a figure for demonstrating the operation | movement content storage part M8. 登録画像情報記憶部M9を説明するための図である。It is a figure for demonstrating the registration image information storage part M9. 電源投入に伴って実行開始される携帯電話機1側の全体動作の概要を示したフローチャートである。4 is a flowchart showing an outline of the overall operation on the mobile phone 1 side that is started when power is turned on. 待受表示処理のフローチャートである。It is a flowchart of a standby display process. 画像登録処理のフローチャートである。It is a flowchart of an image registration process. 画像登録処理のフローチャートである。It is a flowchart of an image registration process. 着信画像表示処理のフローチャートである。It is a flowchart of an incoming image display process. 背景画像とキャラクタの表示例を示すである。It is a display example of a background image and a character. 背景画像とキャラクタの表示例を示すである。It is a display example of a background image and a character. 背景画像選択時の概念図である。It is a conceptual diagram at the time of background image selection.

以下、本発明の実施形態を、携帯電話機に適用した場合を例にして、図面を参照しながら説明する。
図1は、携帯電話機が利用可能な通信ネットワークシステムを示したブロック図である。この図において、携帯電話機1には、通話機能、電子メール機能、インターネット接続機能(Webアクセス機能)のほか、カメラ撮影機能及び撮影済み画像の再生機能、ならびに、デジタルテレビ放送(たとえば、ワンセグ地上デジタルテレビ放送)の受信機能などが備えられている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings, taking as an example the case of application to a mobile phone.
FIG. 1 is a block diagram showing a communication network system in which a mobile phone can be used. In this figure, the mobile phone 1 includes a call function, an e-mail function, an Internet connection function (Web access function), a camera shooting function, a playback function of a shot image, and a digital TV broadcast (for example, one-segment terrestrial digital). TV broadcast) reception function.

携帯電話機1は、最寄りの基地局2Aを経由して交換機2Bから有線・無線通信網(一般公衆電話通信網と移動体通信網)2に接続されると、この有線・無線通信網2を介して他の携帯電話機や一般加入電話機(図示省略)との間で通話可能な状態となる。また、携帯電話機1は、有線・無線通信網2を介してインターネット3に接続されると、Webサイトをアクセスして、このWebサイト内のコンテンツを閲覧可能となり、また、適宜に情報配信装置4からの情報(動画、静止画、音楽、ニュースなどの情報)をインターネット3と有線・無線通信網2を介してダウンロード可能となる。また、携帯電話機1は、テレビ局5から送信アンテナ6を介して発信された地上波デジタル放送を受信するようにしているが、インターネットラジオのように有線・無線通信網2やインターネット3を介して情報配信装置4からデジタル放送をダウンロード受信することもできる。   When the mobile phone 1 is connected to the wired / wireless communication network (general public telephone communication network and mobile communication network) 2 from the exchange 2B via the nearest base station 2A, the mobile phone 1 passes through the wired / wireless communication network 2. Thus, it becomes possible to make a call with another mobile phone or a general subscriber phone (not shown). In addition, when the mobile phone 1 is connected to the Internet 3 via the wired / wireless communication network 2, the mobile phone 1 can access the Web site and browse content in the Web site, and the information distribution device 4 as appropriate. Information (information such as moving images, still images, music, news, etc.) can be downloaded via the Internet 3 and the wired / wireless communication network 2. The mobile phone 1 receives digital terrestrial broadcasts transmitted from the TV station 5 via the transmission antenna 6, but information is transmitted via the wired / wireless communication network 2 and the Internet 3 like Internet radio. A digital broadcast can be downloaded and received from the distribution device 4.

図2は、携帯電話機1の基本的な構成要素を示したブロック図である。
この図において、中央制御部11は、二次電池(図示省略)を備えた電池部12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこの携帯電話機1の全体動作を制御する、不図示の中央演算処理装置(コンピュータ)やメモリ(図示省略)などを有している。記憶部13には、プログラム記憶部M1、各種情報一時記憶部M2、背景画像記憶部M3、キャラクタ画像記憶部M4、キャラクタ決定条件記憶部M5、キャラクタ内容記憶部M6、動作決定条件記憶部M7、動作内容記憶部M8、登録画像情報記憶部M9などが設けられている。
FIG. 2 is a block diagram showing basic components of the mobile phone 1.
In this figure, a central control unit 11 operates by supplying power from a battery unit 12 having a secondary battery (not shown), and performs the overall operation of the cellular phone 1 according to various programs in the storage unit 13. A central processing unit (computer) (not shown), a memory (not shown), and the like are controlled. The storage unit 13 includes a program storage unit M1, various information temporary storage units M2, a background image storage unit M3, a character image storage unit M4, a character determination condition storage unit M5, a character content storage unit M6, an action determination condition storage unit M7, An operation content storage unit M8, a registered image information storage unit M9, and the like are provided.

プログラム記憶部M1は、図16〜図20に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているほか、それらのプログラムや各種のアプリケーションなどの動作に必要とする情報などが記憶されている。また、各種情報一時記憶部M2は、フラグ情報、タイマ情報、画面情報など、携帯電話機1が動作するために必要な各種の情報を一時的に記憶するワーク領域である。なお、背景画像記憶部M3、キャラクタ画像記憶部M4、キャラクタ決定条件記憶部M5、キャラクタ内容記憶部M6、動作決定条件記憶部M7、動作内容記憶部M8、登録画像情報記憶部M9については後で詳述するものとする。   The program storage unit M1 stores programs and various applications for realizing the present embodiment in accordance with the operation procedures shown in FIGS. 16 to 20, and also operates such programs and various applications. Information necessary for the storage is stored. The various information temporary storage unit M2 is a work area that temporarily stores various information necessary for the operation of the mobile phone 1, such as flag information, timer information, and screen information. The background image storage unit M3, the character image storage unit M4, the character determination condition storage unit M5, the character content storage unit M6, the motion determination condition storage unit M7, the motion content storage unit M8, and the registered image information storage unit M9 will be described later. It shall be described in detail.

無線通信部14は、図示しない無線部やベースバンド部、多重分離部などを備え、たとえば、通話機能、電子メール機能、インターネット接続機能などの動作時に、最寄りの基地局2Aとの間でデータの送受信を行うもので、通話機能の動作時にはベースバンド部の受信側から信号を取り込んで受信ベースバンド信号に復調したのち、音声信号処理部15を介して通話用スピーカSPから音声出力させ、また、通話用マイクMCからの入力音声データを音声信号処理部15から取り込み、送信ベースバンド信号に符号化したのち、ベースバンド部の送信側に与えてアンテナから発信出力させる。   The wireless communication unit 14 includes a wireless unit, a baseband unit, a demultiplexing unit, and the like (not shown). For example, during operation of a call function, an e-mail function, an Internet connection function, etc., data communication with the nearest base station 2A is possible. When transmitting / receiving the call function, a signal is received from the receiving side of the baseband unit and demodulated into a received baseband signal, and then the audio is output from the speaker SP for calling through the audio signal processing unit 15, Input voice data from the call microphone MC is taken in from the voice signal processing unit 15 and encoded into a transmission baseband signal, which is then given to the transmission side of the baseband unit and transmitted from the antenna.

テレビ放送受信部16は、端末装置向けのワンセグ地上波デジタルテレビ放送のほか、電子番組表(EPG)などの番組情報も含めて受信可能となっている。このテレビ放送受信部16は、放送信号を抽出する受信部(アナログ回路部)と、受信した放送信号をOFDM(直交周波数分割多重)復調したり、多重化されている放送信号から映像、音声、データ(文字データ)に分離して復号化したり、圧縮データの解凍などを行うデジタル回路部を有している。表示部17は、高精細液晶を使用し、たとえば、文字情報、待受画像、テレビ映像などの表示情報を表示させるもので、この表示部17の表示画面(表示領域)は、矩形(長方形)を成している。   The TV broadcast receiver 16 can receive program information such as an electronic program guide (EPG) in addition to the one-segment terrestrial digital TV broadcast for terminal devices. The television broadcast receiver 16 includes a receiver (analog circuit) that extracts a broadcast signal, and OFDM (Orthogonal Frequency Division Multiplexing) demodulation of the received broadcast signal, or video, audio, It has a digital circuit unit that separates data (character data) and decodes it, or decompresses compressed data. The display unit 17 uses a high-definition liquid crystal to display display information such as character information, a standby image, a television image, and the display screen (display area) of the display unit 17 is rectangular (rectangular). Is made.

操作部18は、ダイヤル入力、文字入力、コマンド入力などを入力するもので、中央制御部11は、この操作部18からの入力操作信号に応じた処理を実行する。RTC(リアルタイムクロックモジュール)19は、時計部を構成するもので、中央制御部11は、このRTC19から現在日時を取得する。報知部20は、サウンドスピーカ20a、LED(発光ダイオード)20b、振動モータ20cを備え、着信時に駆動されて音や光または振動で着信報知を行うほか、アラーム報知時などでも駆動される。   The operation unit 18 inputs dial input, character input, command input, and the like. The central control unit 11 executes processing according to an input operation signal from the operation unit 18. The RTC (real-time clock module) 19 constitutes a clock unit, and the central control unit 11 acquires the current date and time from the RTC 19. The notification unit 20 includes a sound speaker 20a, an LED (light emitting diode) 20b, and a vibration motor 20c. The notification unit 20 is driven at the time of an incoming call to notify the incoming call by sound, light, or vibration, and is also driven at the time of alarm notification.

撮像部21は、CCDやCMOS等の二次元撮像デバイスを含み、この携帯電話機1がカメラの撮影モードで動作しているときには、撮影構図の確認及び修正用の動画像(スルー画像またはライブビュー画像)を中央制御部11経由で表示部17に出力し、さらに、操作部18の特定キー(シャッタキー)が押下げ操作されたときには、中央制御部11からの指令に応答して高精細の画像を撮像して、その画像信号を中央制御部11に出力し、この中央制御部11の制御の下、当該画像信号を圧縮符号化して記憶部13の所要領域、たとえば、背景画像記憶部M3に記憶保存する。なお、記憶部13に、撮影済み画像の専用記憶領域を設けておいてもよい。   The imaging unit 21 includes a two-dimensional imaging device such as a CCD or a CMOS. When the mobile phone 1 is operating in the camera shooting mode, a moving image (through image or live view image) for checking and correcting the shooting composition. ) Is output to the display unit 17 via the central control unit 11, and when a specific key (shutter key) of the operation unit 18 is pressed down, a high-definition image is responded to a command from the central control unit 11. The image signal is output to the central control unit 11, and under the control of the central control unit 11, the image signal is compression-encoded to be stored in a required area of the storage unit 13, for example, the background image storage unit M3. Save and save. The storage unit 13 may be provided with a dedicated storage area for captured images.

図3は、携帯電話機1の外観図である。この図において、携帯電話機1は、特にそれに限定されないが、たとえば、その機器本体(装置本体)を構成する複数の筐体の連結状態に応じて複数のスタイルに変更可能な2軸ヒンジタイプであり、操作部筐体1Aと表示部筐体1Bとは、折り畳み開閉自在及び回動自在にヒンジ部1Cを介して連結されている。ヒンジ部1Cには操作部筐体1Aと表示部筐体1Bとを折り畳み開閉するための開閉用ヒンジ軸が設けられているほか、この開閉用ヒンジ軸と略直交して、一方の筐体を他方の筐体に対して回動するための回動用ヒンジ軸とが設けられている。   FIG. 3 is an external view of the mobile phone 1. In this figure, the mobile phone 1 is not particularly limited, but is, for example, a biaxial hinge type that can be changed into a plurality of styles according to the connection state of a plurality of casings constituting the device main body (device main body). The operation unit casing 1A and the display unit casing 1B are connected to each other via a hinge unit 1C so that the operation unit casing 1A and the display unit casing 1B can be folded and opened and rotated. The hinge portion 1C is provided with an opening / closing hinge shaft for folding and closing the operation portion housing 1A and the display portion housing 1B, and one housing is mounted substantially orthogonally to the opening / closing hinge shaft. A rotating hinge shaft for rotating with respect to the other housing is provided.

このような2軸ヒンジタイプの携帯電話機1は、操作部筐体1Aと表示部筐体1Bとが、どのように連結されているかに応じて携帯電話機1の形態を複数のスタイル(クローズスタイル、オープンスタイル、ビュースタイルなど)に変更可能なもので、図3(a)は、操作部筐体1Aと表示部筐体1Bとの折り畳みを開いた状態のオープンスタイルを示している。なお、操作部筐体1Aの内面には、操作部18が配置され、また、表示部筐体1Bの内面には、表示部17が配置されているほか、操作部筐体1Aの内面側には、通話用マイクMCが配置され、表示部筐体1Bの内面には、通話用スピーカSPが配置されている。図3(b)は、オープンスタイルにおいて表示部筐体1Bを180度反転させてから折り畳んだ状態のビュースタイルを示している。このように、オープンスタイルで内側となっていた表示部17は、ビュースタイルでは外側に向くようになる。   Such a two-axis hinge type mobile phone 1 has a plurality of styles (closed style, closed style) depending on how the operation unit housing 1A and the display unit housing 1B are connected. 3 (a) shows an open style in a state in which the fold between the operation unit housing 1A and the display unit housing 1B is opened. The operation unit 18 is disposed on the inner surface of the operation unit housing 1A, and the display unit 17 is disposed on the inner surface of the display unit housing 1B. A call microphone MC is arranged, and a call speaker SP is arranged on the inner surface of the display unit housing 1B. FIG. 3B shows a view style in a state where the display unit housing 1B is folded 180 degrees after being folded in the open style. In this way, the display unit 17 that is on the inside in the open style is directed outward on the view style.

図4は、表示部17の表示例を示す図である。この図において、表示部17の表示画面は、その上端部分を、電波の強さを示す電波アイコン22、電池残量を示す電池アイコン23、メール着信を示すメールアイコン24及び現在時刻を示す時刻アイコン25などの表示情報を表示するピクト表示領域26とすると共に、それ以外を画像やメニュー画面などの表示情報を表示する画像表示領域27としているが、これは一例である。たとえば、画像表示領域27を表示部17のほぼ全域とし、電波アイコン22や電池アイコン23、メールアイコン24及び時刻アイコン25などのピクト画像を、その画像表示領域27の上に重畳表示させるようにしてもよい。   FIG. 4 is a diagram illustrating a display example of the display unit 17. In this drawing, the display screen of the display unit 17 has a radio wave icon 22 indicating the strength of radio waves, a battery icon 23 indicating the remaining battery level, a mail icon 24 indicating incoming mail, and a time icon indicating the current time. The pictographic display area 26 for displaying display information such as 25 is displayed, and the image display area 27 for displaying other display information such as images and menu screens is used as an example. For example, the image display area 27 is almost the entire area of the display unit 17, and pictographic images such as the radio wave icon 22, the battery icon 23, the mail icon 24, and the time icon 25 are superimposed on the image display area 27. Also good.

図5は、背景画像記憶部M3を説明するための図である。
背景画像記憶部M3は、表示部17の背景画像(待受画像や着信画像等)として使用できる様々な画像の実データを、そのタイトルや撮影日時及び撮影位置などの付加情報と共にレコード単位に記憶するものであり、各レコードには、それらの画像を一意に識別するための情報(以下、背景ID)が設定されている。たとえば、図示の例では、背景ID=A01にタイトル名が“電車”の画像に関する実データが記憶されており、また、背景ID=A02にタイトル名が“ケーキ”の画像に関する実データが記憶されている。さらに、背景ID=A03にタイトル名が“田中さん”の画像に関する実データが記憶されており、背景ID=A04にタイトル名が“北海道富良野”の画像に関する実データが記憶されており、背景ID=A05にタイトル名が“イタリアフィレンツェ”の画像に関する実データが記憶されている。
これらの画像は、あらかじめ工場出荷時に既定のデータとして記憶されたものであってもよいし、あるいは、この携帯電話機1をカメラモードにして任意に撮影されたものであってもよい。または、インターネット3を経由して情報配信装置4からダウンロードしたものであってもよい。さらに、付加情報に当該画像の記憶日時を含んでいてもよい。
FIG. 5 is a diagram for explaining the background image storage unit M3.
The background image storage unit M3 stores actual data of various images that can be used as the background image (standby image, incoming image, etc.) of the display unit 17 along with additional information such as the title, shooting date and time, and shooting position in units of records. In each record, information (hereinafter referred to as background ID) for uniquely identifying these images is set. For example, in the illustrated example, actual data relating to an image with the title “train” is stored in the background ID = A01, and actual data relating to an image having the title “cake” is stored in the background ID = A02. ing. Further, actual data related to the image with the title name “Mr. Tanaka” is stored in the background ID = A03, and actual data related to the image with the title name “Hokkaido Furano” is stored in the background ID = A04. = Actual data related to an image with the title name “Italy Florence” is stored in A05.
These images may be stored in advance as default data at the time of shipment from the factory, or may be captured arbitrarily by setting the mobile phone 1 in the camera mode. Alternatively, it may be downloaded from the information distribution device 4 via the Internet 3. Further, the storage date and time of the image may be included in the additional information.

図6は、背景画像記憶部M3に記憶されている画像を示す図である。この図において、(a)は背景ID=A01に対応する“電車”の画像28であり、(b)は背景ID=A02に対応する“ケーキ”の画像29であり、(c)は背景ID=A03に対応する“田中さん”の画像30であり、(d)は背景ID=A04に対応する“北海道富良野”の画像31であり、(e)は背景ID=A05に対応する“イタリアフィレンツェ”の画像32である。   FIG. 6 is a diagram illustrating an image stored in the background image storage unit M3. In this figure, (a) is an image 28 of “train” corresponding to background ID = A01, (b) is an image 29 of “cake” corresponding to background ID = A02, and (c) is a background ID. = Image 30 of “Mr. Tanaka” corresponding to A03, (d) is an image 31 of “Hokkaido Furano” corresponding to background ID = A04, and (e) is “Italy Florence” corresponding to background ID = A05 Is an image 32 of "."

図7は、キャラクタ画像記憶部M4を説明するための図である。
キャラクタ画像記憶部M4は、表示部17の背景画像に重畳表示するための様々なキャラクタ画像の実データを、そのタイトルや動作名及び基本動作制御情報などの付加情報と共にレコード単位に記憶するものであり、各レコードには、それらの画像を一意に識別するための情報(以下、キャラID)が設定されている。たとえば、図示の例では、キャラID=B01にタイトル名が“犬”のキャラクタに関する実データが記憶されており、また、背景ID=B02にタイトル名が“鳥”のキャラクタに関する実データが記憶されている。さらに、背景ID=B03にタイトル名が“ねずみ”のキャラクタに関する実データが記憶されており、背景ID=B04にタイトル名が“ミジンコ”のキャラクタに関する実データが記憶されており、背景ID=B05にタイトル名が“蟻”のキャラクタに関する実データが記憶されている。
なお、キャラクタの実データは、それぞれのキャラクタの動きを表現するのに必要な構成を有するものであり、たとえば、時系列的に動きを分解した複数のコマ画像(ポリゴンからなるもの等)である。また、付加情報の「動作名」は、それぞれのキャラクタに特有の動作を表す名称であり、たとえば、犬の場合は“歩く”、鳥の場合は“飛ぶ”、ねずみの場合は“跳ねる”、蟻の場合は“群がる”などである。さらに、付加情報の「基本動作制御情報」はそれぞれのキャラクタが動作するのに必要な制御情報であり、たとえば、犬の場合は歩き方や歩く速度、鳥の場合は飛び方や飛ぶ速度、ねずみの場合は走り方や走る速度、ミジンコの場合は跳ね方や跳ねる高さ、蟻の場合は歩き方や群れの密度などである。
FIG. 7 is a diagram for explaining the character image storage unit M4.
The character image storage unit M4 stores actual data of various character images to be superimposed and displayed on the background image of the display unit 17 together with additional information such as the title, motion name, and basic motion control information in record units. Yes, information (hereinafter referred to as character ID) for uniquely identifying these images is set in each record. For example, in the illustrated example, actual data relating to the character with the title “dog” is stored in the character ID = B01, and actual data relating to the character having the title “bird” is stored in the background ID = B02. ing. Furthermore, actual data related to the character whose title is “mouse” is stored in the background ID = B03, actual data related to the character whose title is “daph” is stored in the background ID = B04, and background ID = B05. The actual data relating to the character whose title is “ant” is stored.
Note that the actual character data has a structure necessary for expressing the movement of each character, and is, for example, a plurality of frame images (such as polygons) obtained by decomposing the movement in time series. . In addition, the “motion name” of the additional information is a name representing a motion specific to each character. For example, “walk” for a dog, “fly” for a bird, “jump” for a mouse, In the case of ants, it means “crowd”. In addition, “basic motion control information” as additional information is control information necessary for each character to move. For example, in the case of a dog, how to walk and walk, in the case of a bird, how to fly and fly, the mouse In case of, it is how to run and speed, in case of Daphnia, how to jump and jump, and in case of ant, how to walk and flock density.

図8は、キャラクタ画像記憶部M4に記憶されているキャラクタを示す図である。この図において、(a)はキャラID=B01に対応する“犬”のキャラクタ33であり、(b)はキャラID=B02に対応する“鳥”のキャラクタ34であり、(c)はキャラID=B03に対応する“ねずみ”のキャラクタ35であり、(d)はキャラID=B04に対応する“ミジンコ”のキャラクタ36であり、(e)はキャラID=B05に対応する“蟻”のキャラクタ37である。   FIG. 8 is a diagram showing characters stored in the character image storage unit M4. In this figure, (a) is a “dog” character 33 corresponding to character ID = B01, (b) is a “bird” character 34 corresponding to character ID = B02, and (c) is a character ID. = "Mouse" character 35 corresponding to B03, (d) is a "daphnia" character 36 corresponding to character ID = B04, and (e) is an "ant" character corresponding to character ID = B05. 37.

ここで、図7に示すキャラクタ画像記憶部M4の例では、一つのキャラクタが一つの動作を行う(たとえば、犬→歩く)ようになっているが、これに限定されない。一つのキャラクタが複数の動作を行うようになっていてもよい。たとえば、犬の場合に「歩く」と「走る」の二つの動作を設定し、いずれの動作を選択するかを背景画像の内容に応じて決める(例:背景画像に自動車が含まれている→走る、背景画像に人物が含まれている→歩く)ようにしてもよい。   Here, in the example of the character image storage unit M4 shown in FIG. 7, one character performs one action (for example, dog → walks), but is not limited to this. One character may perform a plurality of actions. For example, in the case of a dog, set two actions, “walk” and “run”, and decide which action to select according to the content of the background image (eg, the background image contains a car → You may be allowed to run, or a person in the background image → walk).

図9は、キャラクタ決定条件記憶部M5を説明するための図である。
キャラクタ決定条件記憶部M5は、表示部17の背景画像に重畳表示するためのキャラクタの決定条件を記憶するものである。キャラクタの決定条件とは、背景画像の“何”に基づいてキャラクタを決定するかを示す条件であり、この例では、決定条件を示す項目として「オブジェクト種別(人物属性含む)」、「撮影時刻」、「撮影位置」が設定されている。また、それらの項目の“オン”、“オフ”に対応付けられている「設定フラグ」は、現在、項目のいずれが有効であるかを示し、“1”は有効、“0”は無効を示している。なお、その「設定フラグ」の内容は、ユーザ操作によって任意に設定されたものである。
FIG. 9 is a diagram for explaining the character determination condition storage unit M5.
The character determination condition storage unit M5 stores character determination conditions to be superimposed and displayed on the background image of the display unit 17. The character determination condition is a condition indicating the character to be determined based on “what” of the background image. In this example, items indicating the determination condition include “object type (including person attribute)”, “shooting time” ”And“ Shooting position ”are set. The “setting flag” associated with “on” and “off” of these items indicates which of the items is currently valid, “1” is valid, and “0” is invalid. Show. The contents of the “setting flag” are arbitrarily set by a user operation.

図10は、キャラクタ決定条件の「設定フラグ」を変更するために用いられるユーザインターフェース画面の一例を示す図である。この図において、表示部17の画像表示領域27に、所要の設定タイトル(“キャラクタ決定条件の設定”)27aとともに、「オブジェクト種別(人物属性含む)」、「撮影時刻」、「撮影位置」、・・・・などの選択項目を含むリストボックス27bと、そのリストボックス27bを上下にスライドして隠れている項目を表示するスライドバー27cと、OKボタン27d及びキャンセルボタン27eとが表示されている。これらの表示は、操作部18の所定キー(メニューキー)を操作してシステム設定を選択することによって行うことができるようになっている。
リストボックス27b内の白抜き反転項目は、現在設定中のキャラクタ決定条件を示している。キャラクタ決定条件の変更を所望するユーザは、所望の項目を選択して反転表示させた後、OKボタン27dを押し、あるいは、変更を中止する場合はキャンセルボタン27eを押す。
FIG. 10 is a diagram illustrating an example of a user interface screen used for changing the “setting flag” of the character determination condition. In this figure, in the image display area 27 of the display unit 17, together with a required setting title (“character determination condition setting”) 27a, “object type (including person attribute)”, “shooting time”, “shooting position”, A list box 27b including selection items such as..., A slide bar 27c that displays items hidden by sliding the list box 27b up and down, an OK button 27d, and a cancel button 27e are displayed. . These displays can be performed by operating a predetermined key (menu key) of the operation unit 18 to select a system setting.
The white inverted item in the list box 27b indicates the character determination condition currently set. A user who desires to change the character determination condition selects and highlights a desired item and then presses the OK button 27d, or presses the cancel button 27e to cancel the change.

ここで、オブジェクト(Object)とは、その画像を構成する要素のうち独立して抽出可能な要素のことをいう。たとえば、画像中の人物や植物、自動車や建造物等の物体、その他の形を持つ物のことをいう。したがって、オブジェクト種別は、それらの要素の種別を意味し、上記の例示に従えば、人物、植物、自動車、建造物、その他の物体等が、それぞれオブジェクト種別に相当する。なお、本実施形態におけるオブジェクト種別は、説明の便宜上、「食べ物」、「乗り物」、「人物」、「その他」の4種類(図11(a)参照)とする。   Here, an object refers to an element that can be extracted independently from the elements constituting the image. For example, it refers to a person or plant in an image, an object such as an automobile or a building, or another object having a shape. Therefore, the object type means the type of those elements, and according to the above example, a person, a plant, a car, a building, another object, and the like correspond to the object type. Note that the object types in this embodiment are assumed to be four types (refer to FIG. 11A) for convenience of explanation: “food”, “vehicle”, “person”, and “others”.

図11は、キャラクタ内容記憶部M6を説明するための図である。
この図において、(a)はキャラクタ決定条件記憶部M5の「オブジェクト種別(人物属性含む)」が有効の場合に参照されるものであり、(b)はキャラクタ決定条件記憶部M5の「撮影時刻」が有効の場合に参照されるものであり、(c)はキャラクタ決定条件記憶部M5の「撮影位置」が有効の場合に参照されるものである。
FIG. 11 is a diagram for explaining the character content storage unit M6.
In this figure, (a) is referred to when “object type (including person attributes)” in the character determination condition storage unit M5 is valid, and (b) is “shooting time” in the character determination condition storage unit M5. "Is referred to when the" shooting position "of the character determination condition storage unit M5 is valid.

図11(a)において、キャラクタ内容記憶部M6は「食べ物」、「乗り物」、「人物」、「その他」の各項目と、それらの項目に関連付けられたキャラクタ画像記憶部M4のキャラIDとからなり、たとえば、オブジェクト種別の「食べ物」が選択された場合は、キャラクタ画像記憶部M4のキャラID“B05”のキャラクタ、すなわち、「蟻」が指定されるようになっている。これは背景画像にオブジェクト種別の「食べ物」(たとえば、ケーキなど)が含まれている場合に、その食べ物に関連するキャラクタとして「蟻」が相応しい(または面白い)と思われるからである。同様の考え方で、オブジェクト種別の「乗り物」が選択された場合は、キャラクタ画像記憶部M4のキャラID“B01”のキャラクタ、すなわち、「犬」が指定されるようになっている。これは背景画像にオブジェクト種別の「乗り物」(たとえば、電車など)が含まれている場合に、その乗り物に関連するキャラクタとして、動くものを追いかける習性がある「犬」が相応しい(または面白い)と思われるからである。なお、オブジェクト種別の「人物」は、さらに、「30歳未満の女性」、「30歳以上の女性」、「30歳未満の男性」、「30歳以上の男性」といった人物属性(ここでは年齢)を含んでおり、それらの人物属性ごとのキャラIDが設定されている。たとえば、「30歳未満の女性」のキャラIDとして“B02”、「30歳以上の女性」のキャラIDとして“B01”、「30歳未満の男性」のキャラIDとして“B01”、「30歳以上の男性」のキャラIDとして“B02”が設定されている。キャラID“B01”は「犬」、キャラID“B02”は「鳥」である。   In FIG. 11A, the character content storage unit M6 includes items “food”, “vehicle”, “person”, “others”, and the character ID of the character image storage unit M4 associated with these items. For example, when “food” of the object type is selected, the character with the character ID “B05” in the character image storage unit M4, that is, “ant” is designated. This is because, if the background image includes “food” of the object type (for example, cake), “ant” seems to be appropriate (or interesting) as a character related to the food. In the same way, when “vehicle” of the object type is selected, the character with the character ID “B01” in the character image storage unit M4, that is, “dog” is designated. This means that if the background image includes a “vehicle” of the object type (for example, a train), a “dog” with the habit of chasing moving objects is suitable (or interesting) as a character related to the vehicle. Because it seems. Note that the “person” of the object type further includes personal attributes such as “female under 30”, “female over 30”, “male under 30”, and “male over 30” (here, age). ), And a character ID for each person attribute is set. For example, “B02” as the character ID of “female under 30”, “B01” as the character ID of “female over 30”, “B01” as the character ID of “male under 30”, “30 years old” “B02” is set as the character ID of “male”. The character ID “B01” is “dog”, and the character ID “B02” is “bird”.

図11(b)において、キャラクタ内容記憶部M6は撮影時刻としての「07:00〜19:00」、「19:00〜07:00」の各項目と、それらの項目に関連付けられたキャラクタ画像記憶部M4のキャラIDとからなり、たとえば、「07:00〜19:00」が選択された場合は、キャラクタ画像記憶部M4のキャラID“B02”のキャラクタ、すなわち、「鳥」が指定されるようになっている。これは背景画像の撮影時刻が「07:00〜19:00」の場合、つまり日中に撮影されたものであるの場合に、その画像に関連するキャラクタとして、日中に活動する「鳥」が相応しい(または面白い)と思われるからである。同様の考え方で、「19:00〜07:00」が選択された場合は、キャラクタ画像記憶部M4のキャラID“B01”のキャラクタ、すなわち、「犬」が指定されるようになっている。これは背景画像の撮影時刻が「19:00〜07:00」の場合、つまり夜間に撮影されたものであるの場合に、その画像に関連するキャラクタとして、夜間にも活動する「犬」が相応しい(または面白い)と思われるからである。なお、ここでは、撮影時刻としているが、これに限らず、たとえば、撮影日から割り出した季節(春夏秋冬など)を示すものであってもよい。   In FIG. 11B, the character content storage unit M6 stores items “07: 0 to 19:00” and “19:00 to 07:00” as shooting times, and character images associated with these items. For example, when “07: 0 to 19:00” is selected, the character with character ID “B02” in the character image storage unit M4, that is, “bird” is designated. It has become so. This is a "bird" that is active during the day as a character related to the image when the shooting time of the background image is "07: 0 to 19:00", that is, when it was taken during the day. This seems to be appropriate (or interesting). In the same way, when “19:00 to 07:00” is selected, the character with the character ID “B01” in the character image storage unit M4, that is, “dog” is designated. This is because, when the shooting time of the background image is “19:00 to 07:00”, that is, when it is taken at night, a “dog” that is active at night is also a character related to the image. This seems to be appropriate (or interesting). In addition, although it is set as imaging | photography time here, it is not restricted to this, For example, you may show the seasons (spring / summer / autumn / winter etc.) calculated from the imaging | photography date.

図11(c)において、キャラクタ内容記憶部M6は撮影位置としての「日本国外」、「日本国内」の各項目と、それらの項目に関連付けられたキャラクタ画像記憶部M4のキャラIDとからなり、たとえば、「日本国外」が選択された場合は、キャラクタ画像記憶部M4のキャラID“B04”のキャラクタ、すなわち、「ミジンコ」が指定されるようになっている。また、「日本国内」が選択された場合は、キャラクタ画像記憶部M4のキャラID“B05”のキャラクタ、すなわち、「蟻」が指定されるようになっている。なお、撮影位置の国内外は、交信対象の基地局2Aの情報から区別することができる。また、この基地局2Aの情報からより詳細な位置情報(たとえば、都道府県、市区町村、または、○○駅周辺等)を取得することができるので、その詳細な位置情報を撮影位置の情報として用いてもよい。あるいは、携帯電話機1にGPS機能が搭載されている場合には、そのGPS情報から取得した位置情報を撮影位置の情報として用いてもよい。   In FIG. 11C, the character content storage unit M6 includes items “outside Japan” and “inside Japan” as shooting positions, and the character ID of the character image storage unit M4 associated with these items. For example, when “outside Japan” is selected, the character with the character ID “B04” in the character image storage unit M4, that is, “daphnia” is designated. When “Japan” is selected, the character with the character ID “B05” in the character image storage unit M4, that is, “ant” is designated. It should be noted that the shooting position inside and outside the country can be distinguished from the information of the base station 2A to be communicated. Further, since more detailed position information (for example, a prefecture, a municipality, or the vicinity of a station) can be acquired from the information of the base station 2A, the detailed position information is used as information on the shooting position. It may be used as Alternatively, when the mobile phone 1 is equipped with a GPS function, position information acquired from the GPS information may be used as shooting position information.

図12は、動作決定条件記憶部M7を説明するための図である。
動作決定条件記憶部M7は、表示部17の背景画像に重畳表示するためのキャラクタの動作決定条件を記憶するものである。キャラクタの動作決定条件とは、背景画像の“何”に基づいてキャラクタの動作を決定するかを示す条件であり、この例では、動作決定条件を示す項目として「オブジェクト種別(人物属性含む)」、「輪郭線」、「色」、「撮影時刻」、「撮影位置」が設定されているが、これ以外の項目(たとえば、オブジェクトの位置、オブジェクトが文字である場合にその文字数または文字配列など、あるいは、画像の撮影日時、画像の撮影場所、画像のタイトル、テレビ放送のチャンネル、テレビ放送の番組情報等の付加情報)を含んでいてもよい。また、それらの項目の“オン”、“オフ”に対応付けられている「設定フラグ」は、現在、項目のいずれが有効であるかを示し、“1”は有効、“0”は無効を示している。なお、その「設定フラグ」の内容は、ユーザ操作によって任意に設定されたものである。
FIG. 12 is a diagram for explaining the operation determination condition storage unit M7.
The action determination condition storage unit M7 stores the action determination condition of the character to be superimposed and displayed on the background image of the display unit 17. The character motion determination condition is a condition indicating what character motion is determined based on “what” of the background image. In this example, “object type (including person attribute)” is an item indicating the motion determination condition. , “Outline”, “Color”, “Shooting time” and “Shooting position” are set, but other items (for example, the position of the object, the number of characters or the character arrangement when the object is a character, etc.) Or additional information such as image shooting date and time, image shooting location, image title, TV broadcast channel, TV broadcast program information, and the like. The “setting flag” associated with “on” and “off” of these items indicates which of the items is currently valid, “1” is valid, and “0” is invalid. Show. The contents of the “setting flag” are arbitrarily set by a user operation.

図13は、動作決定条件の「設定フラグ」を変更するために用いられるユーザインターフェース画面の一例を示す図である。この図において、表示部17の画像表示領域27に、所要の設定タイトル(“動作決定条件の設定”)27fとともに、「オブジェクト種別(人物属性含む)」、「輪郭線」、「色」、「撮影時刻」、「撮影位置」、・・・・などの選択項目を含むリストボックス27gと、そのリストボックス27gを上下にスライドして隠れている項目を表示するスライドバー27hと、OKボタン27i及びキャンセルボタン27jとが表示されている。これらの表示は、操作部18の所定キー(メニューキー)を操作してシステム設定を選択することによって行うことができるようになっている。
リストボックス27g内の白抜き反転項目は、現在設定中の動作決定条件を示している。動作決定条件の変更を所望するユーザは、所望の項目を選択して反転表示させた後、OKボタン27iを押し、あるいは、変更を中止する場合はキャンセルボタン27jを押す。
FIG. 13 is a diagram illustrating an example of a user interface screen used for changing the “setting flag” of the operation determination condition. In this figure, in the image display area 27 of the display unit 17, “object type (including person attribute)”, “contour line”, “color”, “ A list box 27g including selection items such as “shooting time”, “shooting position”,..., A slide bar 27h that slides up and down the list box 27g to display hidden items, an OK button 27i, and A cancel button 27j is displayed. These displays can be performed by operating a predetermined key (menu key) of the operation unit 18 to select a system setting.
The white inverted item in the list box 27g indicates the operation determination condition currently set. A user who desires to change the operation determination condition selects a desired item and highlights it, and then presses an OK button 27i, or presses a cancel button 27j to cancel the change.

ここで、「輪郭線」とは、背景画像に含まれる様々な“オブジェクト”の輪郭、つまり、画像の濃度値が急激に変化する部分を繋ぎ合わせた線のことをいう。輪郭線の抽出アルゴリズムとしては、たとえば、Sobel,Roberts,Prewittなど様々なものが知られている。輪郭線の抽出をエッジ検出ということもある。また、「色」とは、背景画像に含まれる色のことをいい、とりわけ、その画像を代表する色、たとえば、大きな面積で且つ目立つ色のことをいう。   Here, the “contour line” refers to the outline of various “objects” included in the background image, that is, a line connecting portions where the density value of the image changes rapidly. Various algorithms such as Sobel, Roberts, and Prewitt are known as contour line extraction algorithms. The extraction of the contour line is sometimes referred to as edge detection. The “color” refers to a color included in the background image, and in particular, a color that represents the image, for example, a large area and a conspicuous color.

図14は、動作内容記憶部M8を説明するための図である。
この図において、(a)は動作決定条件記憶部の「オブジェクト種別(人物属性含む)」が有効の場合に参照されるものであり、(b)は動作決定条件記憶部の「輪郭線」が有効の場合に参照されるものであり、(c)は動作決定条件記憶部の「色」が有効の場合に参照されるものであり、(d)は動作決定条件記憶部の「撮影時刻」が有効の場合に参照されるものであり、(e)は動作決定条件記憶部の「撮影位置」が有効の場合に参照されるものである。
FIG. 14 is a diagram for explaining the operation content storage unit M8.
In this figure, (a) is referred to when the “object type (including person attribute)” in the motion determination condition storage unit is valid, and (b) is the “contour line” in the motion determination condition storage unit. Reference is made when it is valid, (c) is referenced when the “color” of the motion determination condition storage unit is valid, and (d) is the “shooting time” of the motion determination condition storage unit. (E) is referred to when the “shooting position” of the motion determination condition storage unit is valid.

図14(a)において、動作内容記憶部M8は「食べ物」、「乗り物」、「人物」、「その他」の各項目と、それらの項目に関連付けられた動作内容とからなり、たとえば、オブジェクト種別の「食べ物」が選択された場合は、動作内容として「大きく動作する」が指定されるようになっている。また、オブジェクト種別の「乗り物」が選択された場合は、動作内容として「乗り物の進行方向にあわせて移動する」が指定されるようになっている。なお、オブジェクト種別の「人物」は、さらに、「30歳未満の女性」、「30歳以上の女性」、「30歳未満の男性」、「30歳以上の男性」といった人物属性を含んでおり、それらの人物属性ごとの動作内容として「顔の周りを小さな動作で移動する」や「顔の周りを大きな動作で移動する」が設定されている。   In FIG. 14A, the action content storage unit M8 includes items of “food”, “vehicle”, “person”, “others”, and action contents associated with these items. When “Food” is selected, “activate greatly” is designated as the operation content. When the “vehicle” of the object type is selected, “move according to the traveling direction of the vehicle” is designated as the operation content. The “person” of the object type further includes personal attributes such as “female under 30 years old”, “female over 30 years old”, “male under 30 years old”, and “male over 30 years old”. In addition, “move around the face with a small motion” and “move around the face with a large motion” are set as the operation content for each person attribute.

図14(b)において、動作内容記憶部M8は「輪郭線」に関する動作内容として「輪郭線に沿って移動する」が設定されている。
図14(c)において、動作内容記憶部M8は「色」に関する動作内容として「色数の少ない(色密度の小さい)位置を中心に動作する」が設定されている。
図14(d)において、動作内容記憶部M8は撮影時刻としての「07:00〜19:00」、「19:00〜07:00」の各項目と、それらの項目に関連付けられた動作内容とからなり、たとえば、「07:00〜19:00」の動作内容として「大きく動作する」、「19:00〜07:00」の動作内容として「小さく動作する」が設定されている。
図14(e)において、動作内容記憶部M8は撮影位置としての「日本国外」、「日本国内」の各項目と、それらの項目に関連付けられた動作内容とからなり、たとえば、「日本国外」が選択された場合の動作内容として「大きく動作する」、「日本国内」の動作内容として「小さく動作する」が設定されている。
In FIG. 14B, “move along the contour line” is set in the motion content storage unit M8 as the motion content related to “the contour line”.
In FIG. 14C, the operation content storage unit M8 is set to “operate around a position where the number of colors is small (color density is small)” as the operation content related to “color”.
In FIG. 14D, the operation content storage unit M8 stores items “07: 0 to 19:00” and “19:00 to 07:00” as shooting times, and operation details associated with these items. For example, “largely operate” is set as the operation content of “07: 0 to 19:00”, and “smallly operate” is set as the operation content of “19:00 to 07:00”.
In FIG. 14E, the operation content storage unit M8 includes items “outside Japan” and “inside Japan” as shooting positions and operation content associated with these items. For example, “outside Japan” “Largely operates” is set as the operation content when “is selected”, and “Operates smallly” is set as the operation content of “Japan”.

図15は、登録画像情報記憶部M9を説明するための図である。
この図において、登録画像情報記憶部M9は「待受画像」や「着信画像」などの項目と、各々の項目に関連付けられた背景ID、キャラID、動作パラメータ、中断情報、キャラ表示色、ピクト表示色などを含んで構成されている。ここで、背景IDは、図5に示した背景画像記憶部M3の参照情報、キャラIDは、図7に示したキャラクタ画像記憶部M4の参照情報であり、動作パラメータは背景画像によって生成されるキャラクタの動きを示すパラメータである。キャラクタの実際の動きはこの動作パラメータと、図7のキャラクタ画像記憶部M4の付加情報に含まれる基本動作制御情報とに基づいて制御される。中断情報は、着信等によって画像の表示が中断したときに、キャラクタの動作がどこまで行われていたかを示す情報であり、画像表示を再開する際にキャラクタの動作起点を決めるために用いられる。
FIG. 15 is a diagram for explaining the registered image information storage unit M9.
In this figure, the registered image information storage unit M9 includes items such as “standby image” and “incoming image”, and background ID, character ID, operation parameter, interruption information, character display color, pictograph associated with each item. It is configured to include display colors. Here, the background ID is reference information of the background image storage unit M3 shown in FIG. 5, the character ID is reference information of the character image storage unit M4 shown in FIG. 7, and the motion parameter is generated by the background image. This is a parameter indicating the movement of the character. The actual movement of the character is controlled based on this motion parameter and basic motion control information included in the additional information of the character image storage unit M4 in FIG. The interruption information is information indicating how far the character's movement has been performed when the image display is interrupted due to an incoming call or the like, and is used to determine the character's movement starting point when the image display is resumed.

次に、本実施形態における携帯電話機1の動作概念を図16〜図20に示すフローチャートを参照して説明する。これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードに従った動作が中央制御部11において逐次実行される。また、伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体のほかに、ネットワークなどの伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。   Next, the operation concept of the mobile phone 1 in the present embodiment will be described with reference to the flowcharts shown in FIGS. Each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed in the central control unit 11. In addition, the operation according to the above-described program code transmitted via the transmission medium can be sequentially executed. In other words, in addition to the recording medium, the operation unique to the present embodiment can be executed using a program / data supplied externally via a transmission medium such as a network.

図16は、電源投入に伴って実行開始される携帯電話機1側の全体動作の概要を示したフローチャート(以下、メインフローともいう。)である。先ず、携帯電話機1においてその中央制御部11は、電源を投入する電源オン操作が行われると(ステップS1でYES)、電源供給を開始させて所定のメモリなどを初期化する電源オン処理を実行したのち、基地局2Aとの間で通信を行って位置登録をしたりする待受処理を行い(ステップS2)、次に、表示部17に待受画像等を表示するための待受画像表示処理を行う(ステップS3)。   FIG. 16 is a flowchart (hereinafter, also referred to as a main flow) showing an outline of the overall operation on the mobile phone 1 side that is started when the power is turned on. First, in the cellular phone 1, when the power-on operation for turning on the power is performed (YES in step S1), the central control unit 11 starts the power supply and executes a power-on process for initializing a predetermined memory and the like. After that, standby processing for performing location registration through communication with the base station 2A is performed (step S2), and then standby image display for displaying a standby image or the like on the display unit 17 is performed. Processing is performed (step S3).

図17は、待受表示処理のフローチャートである。この待受表示処理では、まず、図15の登録画像情報記憶部M9を参照して待受画像に使用する登録画像情報を読み出し(ステップS3a)、読み出した画像を待受画像として表示部17に表示(ステップS3b)する。具体的には、図15の登録画像情報記憶部M9の項目“待受画像”の背景IDには「A02」が設定されているので、図5の背景画像記憶部M3の背景ID=A02から実データを読み出し、その実データを背景画像として表示部17の画像表示領域27に表示する。   FIG. 17 is a flowchart of the standby display process. In this standby display process, first, the registered image information used for the standby image is read with reference to the registered image information storage unit M9 of FIG. 15 (step S3a), and the read image is displayed on the display unit 17 as a standby image. Display (step S3b). Specifically, since “A02” is set in the background ID of the item “standby image” in the registered image information storage unit M9 in FIG. 15, the background ID = A02 in the background image storage unit M3 in FIG. The actual data is read, and the actual data is displayed in the image display area 27 of the display unit 17 as a background image.

これにより、携帯電話機1の表示部17に、背景ID=A02の画像、つまり、図6に示すケーキの画像29が待受画像として表示される。   Thereby, the image of background ID = A02, that is, the cake image 29 shown in FIG. 6 is displayed on the display unit 17 of the mobile phone 1 as a standby image.

待受画像を表示すると、次に、所要のピクト表示を行う(ステップS3c)。具体的には、図4に示す電波アイコン22や電池アイコン23、メールアイコン24及び時刻アイコン25などのピクト表示を行う。なお、このときのピクト表示の色は、図15の登録画像情報記憶部M9の項目“待受画像”に設定されているピクト表示色(ここでは“黄”)に従う。   Once the standby image is displayed, the required pictograph is then displayed (step S3c). Specifically, pictogram displays such as the radio wave icon 22, the battery icon 23, the mail icon 24, and the time icon 25 shown in FIG. Note that the color of the pictographic display at this time follows the pictographic display color (here, “yellow”) set in the item “standby image” of the registered image information storage unit M9 in FIG.

ピクト表示を完了すると、次に、キャラクタの表示を行う。具体的には、図15の登録画像情報記憶部M9の項目“待受画像”に設定されているキャラIDや、動作パラメータ、キャラ表示色及び中断情報に基づいて所要のキャラクタ表示を行う。つまり、図7のキャラクタ画像記憶部M4から同一キャラID(B05)の実データ(図8に示す蟻のキャラクタ37)と基本動作制御情報を読み出し、その基本動作制御情報と上記の動作パラメータとに従ってキャラクタの動作(この場合、“蟻”が群がる)を設定し、且つ、そのキャラクタの色を上記のキャラクタ表示色(ここでは“赤”)に従って設定したうえで、当該キャラクタを背景画像の上に重畳表示する。   When the pictogram display is completed, the character is displayed next. Specifically, a required character display is performed based on the character ID, the operation parameter, the character display color, and the interruption information set in the item “standby image” of the registered image information storage unit M9 in FIG. That is, the actual data (ant character 37 shown in FIG. 8) and basic motion control information of the same character ID (B05) and basic motion control information are read from the character image storage unit M4 of FIG. 7, and according to the basic motion control information and the motion parameters described above. Set the character's action (in this case, "ants" swarm) and set the character's color according to the character display color ("red" in this case), then place the character on the background image Superimposed display.

これにより、図6に示すケーキの画像29が用いられている待受画像の上に、赤色で且つ群がる動作が設定されたキャラクタ(“蟻”)が表示される。   As a result, a character ("ant") that is set in red and swarming action is displayed on the standby image in which the cake image 29 shown in FIG. 6 is used.

なお、このときに、上記の中断情報の有無を判定し(ステップS3d)、中断情報ありの場合、すなわち、先に、キャラクタの動作途中で中断されていた場合は、その中断点からキャラクタの動作を再開し(ステップS3d)、一方、中断情報なしの場合は、キャラクタの動作を最初から開始する(ステップS3e)。   At this time, the presence / absence of the above interruption information is determined (step S3d). If there is interruption information, that is, if the character was previously interrupted in the middle of the character motion, Is resumed (step S3d). On the other hand, if there is no interruption information, the character motion is started from the beginning (step S3e).

待受表示処理を完了すると、再び、図16のメインフローに戻り、設定操作の有無判定(ステップS4)や、画像登録操作の有無判定(ステップS5)、着信検出の有無判定(ステップS6)、電源オフ操作の有無判定(ステップS7)及びその他の操作の有無判定(ステップS8)を順次に行い、いずれの判定結果もNOであれば、ステップS3の待受画像表示処理に戻る。   When the standby display process is completed, the process returns to the main flow of FIG. 16 again to determine the presence / absence of setting operation (step S4), the presence / absence determination of image registration operation (step S5), the presence / absence determination of incoming call detection (step S6), The power-off operation presence / absence determination (step S7) and the other operation presence / absence determination (step S8) are sequentially performed. If any determination result is NO, the process returns to the standby image display process of step S3.

ステップS4において、設定操作ありが判定された場合は、その時点におけるキャラクタ表示の中断情報(キャラクタの動きがどこまで行われていたかの情報、つまり動作の再開点を示す情報)を、図15の登録画像情報記憶部M9の項目“待受画像”の中断情報に書き込んで保存し(ステップS9)、所要の設定処理を実行(ステップS10)した後、ステップS3の待受画像表示処理に戻る。なお、“所要の設定処理”とは、背景画像やキャラクタに関する様々な設定処理のことであり、たとえば、背景画像の登録処理(カメラ撮影やダウンロード等)、ならびに、キャラクタの登録処理、キャラクタ決定条件や動作決定条件及び動作内容などである。   If it is determined in step S4 that there is a setting operation, the character display interruption information (information indicating how far the character has been moved, that is, information indicating the resumption point of the movement) is stored in the registered image of FIG. The interruption information of the item “standby image” in the information storage unit M9 is written and saved (step S9), the necessary setting process is executed (step S10), and the process returns to the standby image display process of step S3. The “required setting process” refers to various setting processes related to the background image and the character. For example, the background image registration process (camera shooting, download, etc.), the character registration process, and the character determination condition And operation determination conditions and operation contents.

ステップS5において、画像登録操作ありが判定された場合は、その時点におけるキャラクタ表示の中断情報(キャラクタの動きがどこまで行われていたかの情報、つまり動作の再開点を示す情報)を、図15の登録画像情報記憶部M9の項目“待受画像”の中断情報に書き込んで保存し(ステップS11)、所要の画像登録処理を実行(ステップS12)した後、ステップS3の待受画像表示処理に戻る。   If it is determined in step S5 that there is an image registration operation, the character display interruption information (information indicating how far the character has been moved, that is, information indicating the resumption point of the movement) is registered in FIG. Write and save the interruption information of the item “standby image” in the image information storage unit M9 (step S11), execute the required image registration process (step S12), and then return to the standby image display process of step S3.

図18及び図19は、画像登録処理のフローチャートである。
この画像登録処理では、まず、待受画像/着信画像選択操作(ステップS121)を行い、ついで、図5の背景画像記憶部M3に記憶されている様々な背景画像(図6の画像28〜画像32参照)の中から所望の背景画像を選択(ステップS122)した後、選択した背景画像の背景IDを図15の登録画像情報記憶部M9に記憶(ステップS123)する。ここで、待受画像/着信画像選択操作とは、待受画像を登録するのか、着信画像を登録するのかの選択操作のことをいい、前者の場合は、ステップS122で選択した背景画像の背景IDを図15の登録画像情報記憶部M9の項目“待受画像”の背景IDに登録する一方、後者の場合は同記憶部M9の項目“着信画像”の背景IDに登録する。
18 and 19 are flowcharts of the image registration process.
In this image registration process, first, a standby image / incoming image selection operation (step S121) is performed, and then various background images (image 28 to image in FIG. 6) stored in the background image storage unit M3 in FIG. 32) (step S122), the background ID of the selected background image is stored in the registered image information storage unit M9 in FIG. 15 (step S123). Here, the standby image / incoming image selection operation refers to a selection operation for registering a standby image or an incoming image, and in the former case, the background of the background image selected in step S122. The ID is registered in the background ID of the item “standby image” in the registered image information storage unit M9 in FIG. 15, while in the latter case, the ID is registered in the background ID of the item “incoming image” in the storage unit M9.

次に、図9のキャラクタ決定条件記憶部M5を参照して設定フラグ=1のキャラクタ決定条件を読み出す(ステップS124)。たとえば、図9のキャラクタ決定条件記憶部M5は、現在、オブジェクト種別の設定フラグが1になっているので、この場合、キャラクタ決定条件として「オブジェクト種別」を読み出す。   Next, the character determination condition of setting flag = 1 is read with reference to the character determination condition storage unit M5 of FIG. 9 (step S124). For example, the character determination condition storage unit M5 in FIG. 9 currently reads the “object type” as the character determination condition since the object type setting flag is “1”.

次に、読み出したキャラクタ決定条件が「オブジェクト種別」であるか否かを判定する(ステップS125)。ここで、図9のキャラクタ決定条件記憶部M5でオブジェクト種別の設定フラグが1になっているため、ステップS124で読み出されたキャラクタ決定条件が「オブジェクト種別」になるから、この場合、ステップS125の判定結果がYESとなって、オブジェクト種別に対応したキャラクタの選択を実行する(ステップS126〜ステップS129)。   Next, it is determined whether or not the read character determination condition is “object type” (step S125). Here, since the setting flag of the object type is 1 in the character determination condition storage unit M5 of FIG. 9, the character determination condition read in step S124 is “object type”. In this case, step S125 The determination result is YES, and the character corresponding to the object type is selected (steps S126 to S129).

具体的には、まず、図15の登録画像情報記憶部M11の背景ID(待受画像の場合は“A02”、着信画像の場合は“A01”)を用いて図5の背景画像記憶部M3から該当する背景画像(待受画像の場合は“ケーキ”の画像29、着信画像の場合は“電車”の画像28)の実データを読み出し(ステップS126)、ついで、その背景画像の実データに含まれるオブジェクト種別(“電車”の場合は「乗り物」、“ケーキ”の場合は「食べ物」)を解析し(ステップS127)、解析したオブジェクト種別に対応するキャラID(「乗り物」の場合は“B01”、“食べ物”の場合は「B05」)を読み出し(ステップS128)、そのキャラIDを記憶する(ステップS129)という流れになる。   Specifically, first, using the background ID (“A02” for the standby image and “A01” for the incoming image) of the registered image information storage unit M11 of FIG. 15, the background image storage unit M3 of FIG. To read the actual data of the corresponding background image (“cake” image 29 in the case of a standby image and “train” image 28 in the case of an incoming image) (step S126), and then to the actual data of the background image. The included object type (“vehicle” for “train”, “food” for “cake”) is analyzed (step S127), and the character ID corresponding to the analyzed object type (“vehicle” is “ In the case of “B01” and “food”, “B05”) is read (step S128), and the character ID is stored (step S129).

また、ステップS125の判定結果がNOの場合、すなわち、読み出したキャラクタ決定条件が「オブジェクト種別」でなかった場合は、同キャラクタ決定条件が「撮影時刻」であるか否かを判定する(ステップS130)。そして、同キャラクタ決定条件が「撮影時刻」であった場合は、ステップS130の判定結果がYESとなって、撮影時刻に対応したキャラクタの選択を実行する(ステップS131、ステップS132、ステップS129)。   If the determination result in step S125 is NO, that is, if the read character determination condition is not “object type”, it is determined whether or not the character determination condition is “shooting time” (step S130). ). If the character determination condition is “shooting time”, the determination result in step S130 is YES, and the character corresponding to the shooting time is selected (step S131, step S132, step S129).

具体的には、まず、図15の登録画像情報記憶部M11の背景ID(待受画像の場合は“A02”、着信画像の場合は“A01”)を用いて図5の背景画像記憶部M3から該当する背景画像の撮影日時を読み出し(ステップS131)、ついで、その撮影日時に含まれる時刻情報に対応するキャラID(時刻情報が「07:00〜19:00」の範囲であれば“B02”、「19:00〜07:00」の範囲であれば「B01」)を読み出し(ステップS132)、そのキャラIDを記憶する(ステップS129)という流れになる。   Specifically, first, using the background ID (“A02” for the standby image and “A01” for the incoming image) of the registered image information storage unit M11 of FIG. 15, the background image storage unit M3 of FIG. The shooting date and time of the corresponding background image is read out (step S131), and then the character ID corresponding to the time information included in the shooting date and time (if the time information is in the range of “07: 0 to 19:00”, “B02 "," B01 "in the range of" 19: 00 to 07:00 ") is read (step S132), and the character ID is stored (step S129).

また、ステップS130の判定結果がNOの場合、すなわち、読み出したキャラクタ決定条件が「撮影時刻」でなかった場合は、同キャラクタ決定条件が残りの「撮影位置」であるとみなし、撮影位置に対応したキャラクタの選択を実行する(ステップS133、ステップS134、ステップS129)。   If the determination result in step S130 is NO, that is, if the read character determination condition is not “shooting time”, the character determination condition is regarded as the remaining “shooting position” and corresponds to the shooting position. The selected character is selected (step S133, step S134, step S129).

具体的には、まず、図15の登録画像情報記憶部M11の背景ID(待受画像の場合は“A02”、着信画像の場合は“A01”)を用いて図5の背景画像記憶部M3から該当する背景画像の撮影位置を読み出し(ステップS133)、ついで、その撮影位置に対応するキャラID(撮影位置が「日本国外」の場合は“B04”、「日本国内」の場合は“B05”)を読み出し(ステップS134)、そのキャラIDを記憶する(ステップS129)という流れになる。   Specifically, first, using the background ID (“A02” for the standby image and “A01” for the incoming image) of the registered image information storage unit M11 of FIG. 15, the background image storage unit M3 of FIG. Is read out from the shooting position of the corresponding background image (step S133), and then the character ID corresponding to the shooting position ("B04" if the shooting position is "outside Japan", "B05" if it is "Japan"). ) Is read (step S134), and the character ID is stored (step S129).

これらのステップS125〜ステップS128及びステップ130〜ステップS134(一点鎖線で囲んだ範囲)では、要するに、ユーザによって指定されたキャラクタ決定条件に対応したキャラクタを自動的に選択する処理を実行する。   In these step S125 to step S128 and step 130 to step S134 (range surrounded by a one-dot chain line), in short, processing for automatically selecting a character corresponding to the character determination condition designated by the user is executed.

以上のようにして、キャラIDの記憶を完了すると、次に、図12の動作決定条件記憶部M7を参照して設定フラグ=1の動作決定条件を読み出し(ステップS135)、読み出した動作決定条件が「オブジェクト種別」であるか否かを判定する(ステップS136)。ここで、現在の動作決定条件記憶部M7では「輪郭線」の設定フラグが1になっているので、この場合、動作決定条件として「輪郭線」が読み出されるから、ステップS136の判定結果がNOとなるが、仮に、動作決定条件記憶部M7で「オブジェクト種別」の設定フラグが1になっている場合には、ステップS136の判定結果がYESとなって、オブジェクト種別に対応した、キャラクタの動作内容を決定する(ステップS137〜ステップS139)。   When the storage of the character ID is completed as described above, the operation determination condition with the setting flag = 1 is read with reference to the operation determination condition storage unit M7 in FIG. 12 (step S135), and the read operation determination condition Is “object type” (step S136). Here, since the setting flag of “contour line” is 1 in the current motion determination condition storage unit M7, “contour line” is read as the motion determination condition in this case, so the determination result in step S136 is NO. However, if the “object type” setting flag is 1 in the motion determination condition storage unit M7, the determination result in step S136 is YES, and the character motion corresponding to the object type is determined. The contents are determined (steps S137 to S139).

具体的には、まず、図15の登録画像情報記憶部M11の背景ID(待受画像の場合は“A02”、着信画像の場合は“A01”)を用いて図5の背景画像記憶部M3から該当する背景画像(待受画像の場合は“ケーキ”の画像29、着信画像の場合は“電車”の画像28)の実データを読み出し(ステップS137)、ついで、その背景画像の実データに含まれるオブジェクト種別(“電車”の場合は「乗り物」、“ケーキ”の場合は「食べ物」)を解析し(ステップS138)、解析したオブジェクト種別に対応する、キャラクタの動作内容(「乗り物」の場合は“乗り物の進行方向に合わせて移動する”、“食べ物”の場合は“大きく動作する”)を読み出す(ステップS139)という流れになる。   Specifically, first, using the background ID (“A02” for the standby image and “A01” for the incoming image) of the registered image information storage unit M11 of FIG. 15, the background image storage unit M3 of FIG. To read the actual data of the corresponding background image (“cake” image 29 in the case of a standby image and “train” image 28 in the case of an incoming image) (step S137), and then to the actual data of the background image. The included object type ("vehicle" for "train", "food" for "cake") is analyzed (step S138), and the action content of the character ("vehicle") corresponding to the analyzed object type is analyzed. In this case, “move in accordance with the traveling direction of the vehicle”, and in the case of “food”, “move greatly”) is read (step S139).

また、ステップS136の判定結果がNOの場合、すなわち、読み出した動作決定条件が「オブジェクト種別」でなかった場合は、同動作決定条件が「輪郭線」であるか否かを判定する(ステップS140)。そして、同動作決定条件が「輪郭線」であった場合は、ステップS140の判定結果がYESとなって、輪郭線に対応した、キャラクタの動作内容を決定する(ステップS141〜ステップS143)。   If the determination result in step S136 is NO, that is, if the read motion determination condition is not “object type”, it is determined whether or not the motion determination condition is “contour line” (step S140). ). If the motion determination condition is “contour line”, the determination result in step S140 is YES, and the motion content of the character corresponding to the contour line is determined (steps S141 to S143).

具体的には、まず、図15の登録画像情報記憶部M11の背景ID(待受画像の場合は“A02”、着信画像の場合は“A01”)を用いて図5の背景画像記憶部M3から該当する背景画像の実データを読み出し(ステップS141)、ついで、その実データに含まれる輪郭線を解析し(ステップS142)、解析された輪郭線に対応する、キャラクタの動作内容(“輪郭線に沿って移動する”)を読み出す(ステップS143)という流れになる。   Specifically, first, using the background ID (“A02” for the standby image and “A01” for the incoming image) of the registered image information storage unit M11 of FIG. 15, the background image storage unit M3 of FIG. The actual data of the corresponding background image is read from (step S141), the contour line included in the actual data is analyzed (step S142), and the action content of the character corresponding to the analyzed contour line ("contour line" It moves along "") and reads (step S143).

また、ステップS140の判定結果がNOの場合、すなわち、読み出した動作決定条件が「輪郭線」でなかった場合は、同動作決定条件が「色」であるか否かを判定する(ステップS144)。そして、同動作決定条件が「色」であった場合は、ステップS144の判定結果がYESとなって、色に対応した、キャラクタの動作内容を決定する(ステップS145〜ステップS147)。   If the determination result in step S140 is NO, that is, if the read operation determination condition is not “contour line”, it is determined whether or not the operation determination condition is “color” (step S144). . If the action determination condition is “color”, the determination result in step S144 is YES, and the action content of the character corresponding to the color is determined (step S145 to step S147).

具体的には、まず、図15の登録画像情報記憶部M11の背景ID(待受画像の場合は“A02”、着信画像の場合は“A01”)を用いて図5の背景画像記憶部M3から該当する背景画像の実データを読み出し(ステップS145)、ついで、その実データに含まれる色を解析し(ステップS146)、解析された色に対応する、キャラクタの動作内容(“色数の少ない(色密度の小さい)位置を中心に動作する”)を読み出す(ステップS147)という流れになる。   Specifically, first, using the background ID (“A02” for the standby image and “A01” for the incoming image) of the registered image information storage unit M11 of FIG. 15, the background image storage unit M3 of FIG. The actual data of the corresponding background image is read out from (step S145), then the colors included in the actual data are analyzed (step S146), and the action content of the character corresponding to the analyzed color (“the number of colors is small ( The operation is performed centering on the position where the color density is small))) is read (step S147).

また、ステップS144の判定結果がNOの場合、すなわち、読み出した動作決定条件が「色」でなかった場合は、同動作決定条件が「撮影時刻」であるか否かを判定する(ステップS148)。そして、同動作決定条件が「撮影時刻」であった場合は、ステップS148の判定結果がYESとなって、撮影時刻に対応した、キャラクタの動作内容を決定する(ステップS149、ステップS150)。   If the determination result in step S144 is NO, that is, if the read operation determination condition is not “color”, it is determined whether the operation determination condition is “shooting time” (step S148). . If the action determination condition is “shooting time”, the determination result in step S148 is YES, and the action content of the character corresponding to the shooting time is determined (steps S149 and S150).

具体的には、まず、図15の登録画像情報記憶部M11の背景ID(待受画像の場合は“A02”、着信画像の場合は“A01”)を用いて図5の背景画像記憶部M3から該当する背景画像の撮影日時を読み出し(ステップS149)、ついで、その撮影日時に含まれる時刻情報に対応する、キャラクタの動作内容を読み出す(ステップS150)という流れになる。   Specifically, first, using the background ID (“A02” for the standby image and “A01” for the incoming image) of the registered image information storage unit M11 of FIG. 15, the background image storage unit M3 of FIG. From this, the shooting date and time of the corresponding background image is read (step S149), and then the action content of the character corresponding to the time information included in the shooting date and time is read (step S150).

また、ステップS148の判定結果がNOの場合、すなわち、読み出した動作決定条件が「撮影時刻」でなかった場合は、同動作決定条件が残りの「撮影位置」であるとみなし、撮影位置に対応した、キャラクタの動作内容を決定する(ステップS151、ステップS152)。   If the determination result in step S148 is NO, that is, if the read operation determination condition is not “shooting time”, the operation determination condition is regarded as the remaining “shooting position” and corresponds to the shooting position. The action content of the character is determined (step S151, step S152).

具体的には、まず、図15の登録画像情報記憶部M11の背景ID(待受画像の場合は“A02”、着信画像の場合は“A01”)を用いて図5の背景画像記憶部M3から該当する背景画像の撮影位置を読み出し(ステップS151)、ついで、その撮影位置に対応する、キャラクタの動作内容(撮影位置が「日本国外」の場合は“大きく動作する”、「日本国内」の場合は“小さく動作する”)を読み出す(ステップS152)という流れになる。   Specifically, first, using the background ID (“A02” for the standby image and “A01” for the incoming image) of the registered image information storage unit M11 of FIG. 15, the background image storage unit M3 of FIG. Then, the shooting position of the corresponding background image is read out (step S151), and the action content of the character corresponding to the shooting position (if the shooting position is "outside Japan", "acts greatly", "in Japan" In this case, “acts small”) is read (step S152).

これらのステップS136〜ステップS152(一点鎖線で囲んだ範囲)では、要するに、ユーザによって指定された動作決定条件に対応した動作内容を自動的に選択する処理を実行する。   In these step S136 to step S152 (range surrounded by the alternate long and short dash line), in short, processing for automatically selecting the operation content corresponding to the operation determination condition specified by the user is executed.

以上のようにして、キャラクタの動作内容を決定すると、次に、動作内容を動作パラメータに変換し(ステップS153)、その動作パラメータを一時的に記憶する(ステップS154)。ついで、図15の登録画像情報記憶部M11の背景ID(待受画像の場合は“A02”、着信画像の場合は“A01”)を用いて図5の背景画像記憶部M3から該当する背景画像の実データを読み出し(ステップS155)、その実データの色を解析する(ステップS156)。なお、図5の背景画像記憶部M3の付加情報に配色情報がある場合は、その付加情報から背景画像の色を識別するようにしてもよい。   When the action content of the character is determined as described above, the action content is then converted into a motion parameter (step S153), and the motion parameter is temporarily stored (step S154). Next, using the background ID (“A02” for the standby image and “A01” for the incoming image) of the registered image information storage unit M11 in FIG. 15, the corresponding background image from the background image storage unit M3 in FIG. The actual data is read (step S155), and the color of the actual data is analyzed (step S156). In addition, when there is color arrangement information in the additional information of the background image storage unit M3 in FIG. 5, the color of the background image may be identified from the additional information.

次に、解析した色に対応するキャラ表示色を決定(ステップS157)するが、背景画像で多く使用されている色に類似した色または反対色もしくは特定の関係にある色に決定してもよい。ついで、キャラ表示色を記憶し(ステップS158)、その色に対応するピクト表示色を決定(ステップS159)した後、ピクト表示色を記憶し(ステップS160)、図16のメインフローに戻る。   Next, the character display color corresponding to the analyzed color is determined (step S157), but it may be determined to be a color similar to the color frequently used in the background image, the opposite color or a color having a specific relationship. . Next, the character display color is stored (step S158), the pict display color corresponding to the color is determined (step S159), the pict display color is stored (step S160), and the process returns to the main flow of FIG.

次に、図16のメインフローのステップS6がYESとなった場合、つまり、着信検出ありが判定された場合は、その時点におけるキャラクタ表示の中断情報(キャラクタの動きがどこまで行われていたかの情報、つまり動作の再開点を示す情報)を、図15の登録画像情報記憶部M9の項目“待受画像”の中断情報に書き込んで保存し(ステップS13)、所要の着信画像表示処理を実行(ステップS15)した後、通話処理(ステップS16)を経て、ステップS3の待受画像表示処理に戻る。   Next, when step S6 of the main flow in FIG. 16 is YES, that is, when it is determined that there is incoming call detection, the interruption information of the character display at that time (information on how far the character has been moved, That is, the information indicating the resumption point of the operation) is written and stored in the interruption information of the item “standby image” in the registered image information storage unit M9 in FIG. 15 (step S13), and the required incoming image display process is executed (step S13). After S15), the call processing (step S16) is performed, and the process returns to the standby image display processing of step S3.

図20は、着信画像表示処理のフローチャートである。この着信画像表示処理では、まず、図15の登録画像情報記憶部M9を参照して着信画像に使用する登録画像情報を読み出し(ステップS14a)、読み出した画像を着信画像として表示部17に表示(ステップS14b)する。具体的には、図15の登録画像情報記憶部M9の項目“着信画像”の背景IDには「A01」が設定されているので、図5の背景画像記憶部M3の背景ID=A01から実データを読み出し、その実データを背景画像として表示部17の画像表示領域27に表示する。   FIG. 20 is a flowchart of incoming image display processing. In this incoming image display process, first, the registered image information used for the incoming image is read with reference to the registered image information storage unit M9 in FIG. 15 (step S14a), and the read image is displayed on the display unit 17 as the incoming image ( Step S14b). Specifically, since “A01” is set as the background ID of the item “incoming image” in the registered image information storage unit M9 in FIG. 15, the background ID = A01 in the background image storage unit M3 in FIG. The data is read and the actual data is displayed in the image display area 27 of the display unit 17 as a background image.

背景画像を表示すると、次に、所要のピクト表示を行う(ステップS14c)。具体的には、図4に示す電波アイコン22や電池アイコン23、メールアイコン24及び時刻アイコン25などのピクト表示を行う。なお、このときのピクト表示の色は、図15の登録画像情報記憶部M9の項目“待受画像”に設定されているピクト表示色に従う。   Once the background image is displayed, the required pictograph is then displayed (step S14c). Specifically, pictogram displays such as the radio wave icon 22, the battery icon 23, the mail icon 24, and the time icon 25 shown in FIG. Note that the color of the pictogram display at this time follows the pictogram display color set in the item “standby image” of the registered image information storage unit M9 in FIG.

ピクト表示を完了すると、次に、キャラクタの表示を行う。具体的には、図15の登録画像情報記憶部M9の項目“着信画像”に設定されているキャラIDや、動作パラメータ、キャラ表示色及び中断情報に基づいて所要のキャラクタ表示を行う。つまり、図7のキャラクタ画像記憶部M4から同一キャラIDの実データと基本動作制御情報を読み出し、その基本動作制御情報と上記の動作パラメータとに従ってキャラクタの動作を設定し、且つ、そのキャラクタの色を上記のキャラクタ表示色に従って設定したうえで、当該キャラクタを背景画像の上に重畳表示する。なお、このときに、上記の中断情報の有無を判定し(ステップS14d)、中断情報ありの場合は、その中断点からキャラクタの動作を再開し(ステップS14e)、一方、中断情報なしの場合は、キャラクタの動作を最初から開始(ステップS14f)した後、再び、ステップS3の待受画像表示処理に戻る。   When the pictogram display is completed, the character is displayed next. Specifically, a required character display is performed based on the character ID, the operation parameter, the character display color, and the interruption information set in the item “incoming image” of the registered image information storage unit M9 in FIG. That is, the actual data of the same character ID and the basic motion control information are read from the character image storage unit M4 of FIG. 7, the character motion is set according to the basic motion control information and the motion parameters, and the color of the character Is set in accordance with the character display color, and the character is superimposed and displayed on the background image. At this time, the presence / absence of the interruption information is determined (step S14d). If there is interruption information, the character's action is resumed from the interruption point (step S14e). After starting the character action from the beginning (step S14f), the process returns to the standby image display process in step S3 again.

次に、図16のメインフローのステップS7がYESとなった場合、つまり、電源オフ操作ありが判定された場合は、その時点におけるキャラクタ表示の中断情報(キャラクタの動きがどこまで行われていたかの情報、つまり動作の再開点を示す情報)を、図15の登録画像情報記憶部M9の項目“待受画像”の中断情報に書き込んで保存し(ステップS17)、所要の電源オフ処理を実行(ステップS18)した後、メインフローを終了する。   Next, when step S7 of the main flow in FIG. 16 is YES, that is, when it is determined that there is a power-off operation, the character display interruption information at that time (information on how far the character has been moved) That is, the information indicating the resumption point of the operation) is written and saved in the interruption information of the item “standby image” in the registered image information storage unit M9 in FIG. 15 (step S17), and the necessary power-off process is executed (step After S18), the main flow is terminated.

次に、図16のメインフローのステップS8がYESとなった場合、つまり、その他の操作ありが判定された場合は、その時点におけるキャラクタ表示の中断情報(キャラクタの動きがどこまで行われていたかの情報、つまり動作の再開点を示す情報)を、図15の登録画像情報記憶部M9の項目“待受画像”の中断情報に書き込んで保存し(ステップS19)、所要の処理(その他の操作に関連した処理)を実行(ステップS18)した後、再び、ステップS3の待受画像表示処理に戻る。   Next, when step S8 of the main flow of FIG. 16 is YES, that is, when it is determined that there is another operation, the character display interruption information at that time (information on how far the character has been moved) In other words, the information indicating the resumption point of the operation) is written and stored in the interruption information of the item “standby image” in the registered image information storage unit M9 in FIG. 15 (step S19), and necessary processing (related to other operations) ) (Step S18), the process returns to the standby image display process in step S3.

本実施形態における携帯電話機1の動作概念は、以上のとおりであるが、ここで、本実施形態の特徴的事項について説明する。まず、この発明の目的は、前記のとおり、「表示情報の表示態様を適宜に制御する」ことにある。
表示情報の一例としての背景画像とは、着信待受時や着信時に表示部17に表示される任意の画像(待受画像や着信画像)のことである。待受画像は、図16のメインフローのステップS3(待受画像表示処理)で、また、着信画像は、図16のメインフローのステップS14(着信画像表示処理)で、それぞれ該当する画像(待受画像または着信画像)が読み出され、表示部17に表示されるようになっている。
The operation concept of the mobile phone 1 in the present embodiment is as described above. Here, the characteristic items of the present embodiment will be described. First, an object of the present invention is to “control the display mode of display information appropriately” as described above.
The background image as an example of the display information is an arbitrary image (standby image or incoming image) displayed on the display unit 17 at the time of incoming standby or incoming. The standby image is the corresponding image (standby image display process) in step S3 (standby image display process) of the main flow in FIG. 16, and the incoming image is the corresponding image (standby image display process) in step S14 (incoming image display process) of the main flow in FIG. (Received image or incoming image) is read out and displayed on the display unit 17.

具体的には、これらの背景画像表示処理(待受画像表示処理や着信画像表示処理)の詳細フローは、図17(待受画像表示処理)と図20(着信画像表示処理)であるが、各々の詳細フローにおいて、登録画像情報記憶部M9から該当する画像(待受画像または着信画像)が読み出され、それらの待受画像や着信画像に対応した表示情報の一例としてのピクト表示とキャラクタ表示が行われるようになっている。   Specifically, the detailed flow of these background image display processing (standby image display processing and incoming image display processing) is shown in FIG. 17 (standby image display processing) and FIG. 20 (incoming image display processing). In each detailed flow, a corresponding image (standby image or incoming image) is read from the registered image information storage unit M9, and pictogram display and characters as an example of display information corresponding to the standby image and incoming image are displayed. Display is done.

登録画像情報記憶部M9には、表示情報の表示態様の一例としてのキャラクタの動き情報を示す動作パラメータが記憶されており、表示部17上のキャラクタは、この動作パラメータに従って所要の動作を行うようになっている。さらに、表示態様の一例としてのキャラ色情報(キャラクタの色に関する情報)やピクト表示色(ピクト表示の色に関する情報)も登録画像情報記憶部M9に記憶されており、表示部17上のキャラクタやピクト表示の色は、これらの色情報に従って制御されるようになっている。   The registered image information storage unit M9 stores a motion parameter indicating character motion information as an example of a display mode of display information, and the character on the display unit 17 performs a required motion according to the motion parameter. It has become. Further, character color information (information relating to the color of the character) and pictographic display color (information relating to the color of the pictographic display) as examples of display modes are also stored in the registered image information storage unit M9. The color of the pictogram display is controlled according to the color information.

このように、本実施形態においては、ユーザによって選択された表示情報(背景画像など)に対応した表示態様の表示情報(動きを持つキャラクタなど)を表示することができ、また、別の表示態様(そのキャラクタやピクト表示の色など)を表示情報(背景画像など)に応じて制御できるので、これにより、「表示情報の表示態様を適宜に制御する」という目的を達成することができる。   As described above, in the present embodiment, display information (such as a character having movement) corresponding to display information (background image or the like) selected by the user can be displayed. Since (such as the color of the character and pictogram display) can be controlled according to display information (background image, etc.), the purpose of “controlling the display mode of display information appropriately” can be achieved.

図21及び図22は、背景画像とキャラクタの表示例を示す図である。たとえば、図21(a)においては、表示部17の画像表示領域27に、待受画像(または着信画像)としての“ケーキ”の画像29が表示されているが、この“ケーキ”の画像29に対応したキャラクタとして“蟻”のキャラクタ37が設定されている場合には、図21(b)に示すように、“ケーキ”の画像29の上に“蟻”のキャラクタ37が表示されるようになっている。あるいは、図22(a)においては、表示部17の画像表示領域27に、待受画像(または着信画像)としての“電車”の画像28が表示されているが、この“電車”の画像28に対応したキャラクタとして“ねずみ”のキャラクタ35が設定されている場合には、図22(b)に示すように、“電車”の画像28の上に“ねずみ”のキャラクタ35が表示されるようになっている。   21 and 22 are diagrams showing display examples of the background image and the character. For example, in FIG. 21A, an image 29 of “cake” as a standby image (or incoming image) is displayed in the image display area 27 of the display unit 17. When the “ant” character 37 is set as the character corresponding to the “ant” character 37, the “ant” character 37 is displayed on the “cake” image 29 as shown in FIG. It has become. Alternatively, in FIG. 22A, an “train” image 28 as a standby image (or incoming image) is displayed in the image display area 27 of the display unit 17. When the “mouse” character 35 is set as the character corresponding to the character, the “mouse” character 35 is displayed on the “train” image 28 as shown in FIG. It has become.

加えて、本実施形態においては、背景画像を選択する際に、その背景画像に応じたキャラクタの設定や、キャラクタの動き、及び、キャラクタの色などの付加情報を設定することができる。   In addition, in this embodiment, when a background image is selected, it is possible to set additional information such as character settings corresponding to the background image, character movement, and character color.

図23は、背景画像選択時の概念図である。この図において、M3は背景画像記憶部、M5はキャラクタ決定条件記憶部、M6はキャラクタ内容記憶部、M7は動作決定条件記憶部、M8は動作内容記憶部であり、M9は登録画像情報記憶部である。背景画像(待受画像や着信画像)を表示部17に表示する際には最後のM9を参照する。すなわち、待受画像を表示する際は、このM9から待受画像の背景IDとキャラIDを読み出し、この背景IDに対応した背景画像の実データを図5の背景画像記憶部M3から読み出して表示部17に出力すると共に、キャラIDに対応したキャラクタの実データを図7のキャラクタ画像記憶部M4から読み出して表示部17に出力する。また、同時に、M9からキャラクタの動作パラメータやキャラ表示色及びピクト表示色を読み出して表示部17に表示されているキャラクタの動作ならびにキャラクタとピクト表示の色を制御する。   FIG. 23 is a conceptual diagram when a background image is selected. In this figure, M3 is a background image storage unit, M5 is a character determination condition storage unit, M6 is a character content storage unit, M7 is an action determination condition storage unit, M8 is an operation content storage unit, and M9 is a registered image information storage unit. It is. When the background image (standby image or incoming image) is displayed on the display unit 17, the last M9 is referred to. That is, when displaying a standby image, the background ID and character ID of the standby image are read from M9, and the actual data of the background image corresponding to the background ID is read from the background image storage unit M3 in FIG. 5 and displayed. In addition to outputting to the unit 17, the actual character data corresponding to the character ID is read from the character image storage unit M 4 of FIG. 7 and output to the display unit 17. At the same time, the character operation parameters, character display color and pictographic display color are read out from M9, and the character operation displayed on the display unit 17 and the character and pictographic display colors are controlled.

同様に、着信画像を表示する際は、このM9から着信画像の背景IDとキャラIDを読み出し、この背景IDに対応した背景画像の実データを図5の背景画像記憶部M3から読み出して表示部17に出力すると共に、キャラIDに対応したキャラクタの実データを図7のキャラクタ画像記憶部M4から読み出して表示部17に出力する。また、同時に、M9からキャラクタの動作パラメータやキャラ表示色及びピクト表示色を読み出して表示部17に表示されているキャラクタの動作ならびにキャラクタとピクト表示の色を制御する。   Similarly, when displaying an incoming image, the background ID and character ID of the incoming image are read from M9, and the actual data of the background image corresponding to the background ID is read from the background image storage unit M3 of FIG. 17, and the actual data of the character corresponding to the character ID is read from the character image storage unit M 4 in FIG. 7 and output to the display unit 17. At the same time, the character operation parameters, character display color and pictographic display color are read out from M9, and the character operation displayed on the display unit 17 and the character and pictographic display colors are controlled.

背景画像選択時、すなわち、図18及び図19に示す画像登録処理の実行時においては、要するに、このM9の記憶内容を更新する。以下、この更新の流れを概説する。   When the background image is selected, that is, when the image registration process shown in FIGS. 18 and 19 is executed, the stored contents of M9 are updated. The flow of this update is outlined below.

(01)まず、最初にM3を参照して、そのM3に登録されている画像の中から背景画像(待受画像または着信画像)として使用する画像を選択する(図18のステップS121、ステップS122)。
(02)次に、選択した背景画像の識別情報(背景ID)をM9に登録する(図18のステップS123)。このとき、待受画像であれば、M9の項目“待受画像”のレコードに背景IDを登録し、また、着信画像であれば、M9の項目“着信画像”のレコードに背景IDを登録する。
(01) First, referring to M3, an image to be used as a background image (standby image or incoming image) is selected from images registered in M3 (steps S121 and S122 in FIG. 18). ).
(02) Next, the identification information (background ID) of the selected background image is registered in M9 (step S123 in FIG. 18). At this time, if it is a standby image, a background ID is registered in the record of the item “standby image” of M9, and if it is an incoming image, a background ID is registered in the record of the item “incoming image” of M9. .

(03、04)次に、M5のフラグ=1のキャラクタ決定条件を読み出す(図18のステップS124)。読み出されるキャラクタ決定条件は「オブジェクト種別」、「撮影時刻」、「撮影位置」のいずれかである。
(05)次に、M5から読み出したキャラクタ決定条件を用いてM6を参照し、そのキャラクタ決定条件に対応したキャラIDをM6から取り出す(図18のステップS125〜ステップ128、ステップS130〜ステップ134)と共に、そのキャラIDをM9に登録する(図18のステップS129)。M6から取り出されるキャラIDは、「オブジェクト種別」、「撮影時刻」または「撮影位置」のいずれかのキャラクタ決定条件に対応したものであり、具体的には、キャラクタ決定条件が「オブジェクト種別」の場合は、対象となる背景画像(M9に記憶されている背景IDに対応した待受画像または着信画像)に写しこまれているオブジェクト(「食べ物」、「乗り物」、「人物」、「その他」)に関連づけられたキャラID、キャラクタ決定条件が「撮影時刻」の場合は、同背景画像の撮影時刻(「07:00〜19:00」、「19:00〜07:00」)に関連づけられたキャラID、キャラクタ決定条件が「撮影位置」の場合は、同背景画像の撮影位置(「日本国外」、「日本国内」)に関連づけられたキャラIDである。
(03, 04) Next, the character determination condition of M5 flag = 1 is read (step S124 in FIG. 18). The character determination condition to be read out is any one of “object type”, “shooting time”, and “shooting position”.
(05) Next, M6 is referenced using the character determination conditions read from M5, and the character ID corresponding to the character determination conditions is extracted from M6 (steps S125 to 128 and steps S130 to 134 in FIG. 18). At the same time, the character ID is registered in M9 (step S129 in FIG. 18). The character ID extracted from M6 corresponds to the character determination condition of “object type”, “shooting time”, or “shooting position”. Specifically, the character determination condition is “object type”. In this case, the object (“food”, “vehicle”, “person”, “other”) reflected in the target background image (standby image or incoming image corresponding to the background ID stored in M9) is displayed. ) Associated with the character ID and character determination condition is “shooting time”, it is associated with the shooting time of the background image (“07: 0 to 19:00”, “19: 0 to 07:00”). When the character ID and character determination condition are “shooting position”, the character ID is associated with the shooting position of the background image (“outside Japan”, “in Japan”).

(06、07)次に、M7のフラグ=1の動作決定条件を読み出す(図19のステップS135)。読み出される動作決定条件は「オブジェクト種別」、「輪郭線」、「色」、「撮影時刻」、「撮影位置」のいずれかである。
(08)次に、M7から読み出した動作決定条件を用いてM8を参照し、その動作決定条件に対応した動作内容をM8から取り出す(図19のステップS136〜ステップ152)。M8から取り出される動作内容動作内容は、「オブジェクト種別」、「輪郭線」、「色」、「撮影時刻」または「撮影位置」のいずれかの動作決定条件に対応したものであり、具体的には、動作決定条件が「オブジェクト種別」の場合は、対象となる背景画像(M9に記憶されている背景IDに対応した待受画像または着信画像)に写しこまれているオブジェクト(「食べ物」、「乗り物」、「人物」、「その他」)に関連づけられた動作内容(例:食べ物→大きく動作する)、動作決定条件が「輪郭線」の場合は、同背景画像の輪郭線に関連づけられた動作内容(輪郭線に沿って移動する)、動作決定条件が「色」の場合は、同背景画像の色に関連づけられた動作内容(色数の少ない位置を中心に動作する)、動作決定条件が「撮影時刻」の場合は、同背景画像の撮影時刻(「07:00〜19:00」、「19:00〜07:00」)に関連づけられた動作内容(例:07:00〜19:00→大きく動作する)、動作決定条件が「撮影位置」の場合は、同背景画像の撮影位置(「日本国外」、「日本国内」)に関連づけられた動作内容(例:日本国外→大きく動作する)である。
(06, 07) Next, the operation determination condition of M7 flag = 1 is read (step S135 in FIG. 19). The operation determination condition to be read out is any one of “object type”, “contour line”, “color”, “imaging time”, and “imaging position”.
(08) Next, M8 is referred to using the operation determination condition read from M7, and the operation content corresponding to the operation determination condition is extracted from M8 (steps S136 to 152 in FIG. 19). Action contents taken out from M8 The action contents correspond to the action determining conditions of “object type”, “contour line”, “color”, “shooting time” or “shooting position”, and specifically When the action determination condition is “object type”, an object (“food”, “received image” or “incoming image corresponding to the background ID stored in M9”) is copied to the target background image. If the action content related to “vehicle”, “person”, “other”) (eg food → moves greatly) and the action determination condition is “contour line”, it is related to the contour line of the same background image If the action content (moves along the contour line) and the action determination condition is “color”, the action contents associated with the color of the background image (acts around a position with a small number of colors), the action determination condition Is `` Shooting time '' In this case, the operation content (for example, 07:00 to 19:00) → the operation is greatly performed associated with the shooting time of the background image (“07: 0 to 19:00”, “19:00 to 07:00”). ), When the operation determination condition is “shooting position”, the operation content (eg, outside of Japan → largely operates) associated with the shooting position of the background image (“outside of Japan”, “inside of Japan”).

(09)次に、M8から読み出した動作内容を動作パラメータに変換する(図19のステップS153)。
(10)次に、動作パラメータをM9に記憶する(図19のステップS154)。
(11、12)次に、対象となる背景画像(M9に記憶されている背景IDに対応した待受画像または着信画像)の色を解析し、その色に対応したキャラクタとピクト表示の色を決定し、それらのキャラ表示色とピクト表示色をM9に記憶する(図19のステップS155〜ステップS160)。
(09) Next, the operation content read from M8 is converted into an operation parameter (step S153 in FIG. 19).
(10) Next, the operation parameter is stored in M9 (step S154 in FIG. 19).
(11, 12) Next, the color of the target background image (the standby image or the incoming image corresponding to the background ID stored in M9) is analyzed, and the character corresponding to the color and the color of the pictographic display are determined. These character display colors and pictographic display colors are stored in M9 (steps S155 to S160 in FIG. 19).

このように、背景画像を変更する際には、図23の(01)〜(12)の手順に従い、背景画像の識別情報(背景ID)をM9に登録すると共に、その背景画像に対応したキャラクタを自動選択して当該キャラクタの識別情報(キャラID)をM9に登録し、且つ、そのキャラクタの動作パラメータやキャラクタの色ならびにピクト表示色などの情報もM9に同時登録する。   As described above, when the background image is changed, the background image identification information (background ID) is registered in M9 in accordance with the steps (01) to (12) in FIG. 23, and the character corresponding to the background image is registered. Is automatically selected and the identification information (character ID) of the character is registered in M9, and information such as the operation parameter of the character, the color of the character, and the pictographic display color are also registered in M9 at the same time.

したがって、待受画像や着信画像の自由な入れ替えにより、飽きの来ない画面デザインを自在に設定できるというメリットが得られるほか、本実施形態にあっては、さらに、それらの待受画像や着信画像に対応したキャラクタを自動的に選択することができ、加えて、そのキャラクタの動きや色及びピクト表示色についても、それらの待受画像や着信画像に対応して自動設定できるから、より、飽きの来ない画面デザインを実現することができる、という特有の効果を得られる。   Accordingly, by freely replacing the standby image and the incoming image, there is an advantage that a screen design that does not get tired can be freely set. In the present embodiment, the standby image and the incoming image are further provided. In addition, the character's movement, color, and pictogram display color can be automatically set according to the standby image and the incoming image. It is possible to achieve a unique effect that it is possible to realize a screen design that does not come from.

具体的には、待受画像や着信画像などの画像上で、キャラクタが情景に合わせて動作を行ったりすることができ、また、そのキャラクタの動きを、画像内容の解析結果に応じて変更することができる。たとえば、画像の輪郭線に沿ってキャラクタを移動させたり、あるいは、画像に写っている人の顔を認識して、その人物に応じてキャラクタのアクションを変えたり、さらには、画像の色味を認識して、キャラクタの色味を変えたり、色数密度の少ないところにキャラクタを登場させたり、画像のオブジェクトを認識して、そのオブジェクトの種類に応じて、キャラクタのアクションを変えたり、撮影時間や撮影場所などに応じて、キャラクタのアクションを変えたり、等々、いろいろと趣向を凝らすことができ、より一層、飽きの来ない画面デザインとすることができる。   Specifically, a character can perform an action according to a scene on an image such as a standby image or an incoming image, and the movement of the character is changed according to the analysis result of the image content. be able to. For example, move the character along the outline of the image, or recognize the face of the person in the image and change the character's action according to the person. Recognize and change the character's color, make the character appear in places with low color density, recognize the object in the image, change the character's action according to the type of the object, Depending on the shooting location, the action of the character can be changed, and so on.

なお、上述した実施形態は、実施可能な態様の一例を示すものであって、それに限定されない。たとえば、以下のようなものであってもよい。
端末装置は携帯電話機1に限らない。パーソナルコンピュータ、PDA、デジタルカメラ、音楽プレイヤーなど、任意の端末装置であってもよい。また、折り畳みタイプの端末装置(携帯電話機1)としたが、ストレートタイプ、スライドタイプ、スピントップタイプなど任意の筐体構造を持つものであってもよい。
また、記憶部13は端末装置に備えられている記憶部としたが、メモリカードや外付けハードディスクなど、任意の外部記憶装置であってもよい。また、表示部17は端末装置に備えられている表示部としたが、外部モニタなど、任意の外部表示装置であってもよい。
また、背景画像は、写真などの静止画や動画であってもよいが、テレビ放送番組、メニュー画面、メール表示画面あるいは文字表示画面など、任意の表示情報であってもよい。また、背景画像に重畳する表示情報をキャラクタやピクトとしたが、任意の表示情報であってもよい。
また、解析や識別する背景画像の内容を、オブジェクト種別、オブジェクト輪郭線、人物属性、配色、時刻情報、位置情報としたが、たとえば、オブジェクトの位置、文字数、文字配列、タイトル、テレビ放送のチャンネル、テレビ放送の番組情報など、任意の内容であってもよい。
また、背景画像に基づいて決定されるキャラクタやピクトの表示態様を、種別、動作、表示色、表示位置としたが、たとえば、表示する数、大きさ、形、表情など、任意の表示態様であってもよい。
また、キャラクタやピクトを表示するタイミングを待受画像表示中や着信画像表示中としたが、発信画像表示中、テレビ放送番組出力中、メニュー画面表示中など、任意の表示情報表示中としてもよい。たとえば、テレビ放送番組表示中に所定の間隔で映像の色解析を行い、その解析結果に基づいて所定の間隔でピクトの表示を変更したり、あるいは、メール表示中やメニュー表示中に、表示されている文字数や文字の配列を解析して、それに応じてキャラクタの動作を変更させるといった制御を行うようにしてもよい。
In addition, embodiment mentioned above shows an example of the aspect which can be implemented, and is not limited to it. For example, the following may be used.
The terminal device is not limited to the mobile phone 1. Any terminal device such as a personal computer, a PDA, a digital camera, or a music player may be used. In addition, although the folding type terminal device (mobile phone 1) is used, it may have any housing structure such as a straight type, a slide type, and a spin top type.
Moreover, although the memory | storage part 13 was used as the memory | storage part with which the terminal device was equipped, arbitrary external storage devices, such as a memory card and an external hard disk, may be sufficient. The display unit 17 is a display unit provided in the terminal device, but may be an arbitrary external display device such as an external monitor.
The background image may be a still image such as a photograph or a moving image, but may be arbitrary display information such as a television broadcast program, a menu screen, a mail display screen, or a character display screen. Moreover, although the display information superimposed on the background image is a character or a pictograph, any display information may be used.
The background image content to be analyzed and identified is the object type, object outline, person attribute, color scheme, time information, and position information. For example, the object position, the number of characters, the character arrangement, the title, and the TV broadcast channel Any content such as TV broadcast program information may be used.
In addition, the display mode of characters and pictograms determined based on the background image is the type, motion, display color, and display position. For example, in any display mode such as the number, size, shape, and facial expression to be displayed There may be.
Also, the timing for displaying characters and pictograms is displayed during standby image display or incoming image display. However, any display information may be displayed during outgoing image display, TV broadcast program output, menu screen display, etc. . For example, video color analysis is performed at a predetermined interval while a TV broadcast program is displayed, and the pictograph display is changed at a predetermined interval based on the analysis result, or is displayed during mail display or menu display. It may be possible to perform control such as analyzing the number of characters and the arrangement of characters and changing the action of the character accordingly.

1 携帯電話機(端末装置)
11 中央制御部(指示手段、決定手段、制御手段)
14 無線通信部(通信手段)
17 表示部
1 Mobile phone (terminal equipment)
11 Central control unit (instruction means, determination means, control means)
14 Wireless communication unit (communication means)
17 Display

Claims (10)

任意の表示情報を表示できる表示部を制御する端末装置において、
前記表示情報の一つとして任意の第1表示情報を前記表示部に表示させるように指示する指示手段と、
前記第1表示情報の内容及び該第1表示情報に関連づけられた付加情報の少なくともいずれか一方に基づいて、前記第1表示情報と一緒に前記表示部に表示させる第2表示情報の表示態様の決定を行う決定手段と、
前記第1表示情報を前記表示部に表示させるとともに前記決定手段によって決定された表示態様で前記第2表示情報を前記表示部に表示させるように制御する制御手段と
を備えたことを特徴とする端末装置。
In a terminal device that controls a display unit that can display arbitrary display information,
Instruction means for instructing to display arbitrary first display information on the display unit as one of the display information;
A display mode of second display information to be displayed on the display unit together with the first display information based on at least one of the content of the first display information and the additional information associated with the first display information. A decision means for making a decision;
Control means for controlling the display unit to display the first display information on the display unit and to display the second display information on the display unit in a display mode determined by the determination unit. Terminal device.
前記決定手段は、前記第1表示情報の内容及び該第1表示情報に関連づけられた付加情報の少なくともいずれか一方に基づいて、前記第2表示情報の表示態様の決定とともに、該第2表示情報の選択を行うことを特徴とする請求項1に記載の端末装置。   The determining means determines the display mode of the second display information based on at least one of the content of the first display information and the additional information associated with the first display information, and the second display information. The terminal device according to claim 1, wherein the terminal device is selected. 前記決定手段は、前記第1表示情報に含まれるオブジェクトの種別、オブジェクトの輪郭線、オブジェクトが人物である場合の人物属性、配色、文字数、文字配置のいずれかを解析し、その解析結果に従って、前記第1表示情報と一緒に前記表示部に表示させる第2表示情報の表示態様の決定を行うことを特徴とする請求項1に記載の端末装置。   The determination means analyzes any of the type of object, the outline of the object, the person attribute when the object is a person, the color scheme, the number of characters, the character arrangement included in the first display information, and according to the analysis result, The terminal device according to claim 1, wherein a display mode of second display information to be displayed on the display unit together with the first display information is determined. 前記決定手段は、前記第1表示情報が画像である場合に、その画像の撮影日時、画像の撮影場所、画像のタイトルに基づいて、あるいは、前記第1表示情報がテレビ放送である場合に、そのテレビ放送のチャンネル、テレビ放送の番組情報に基づいて、前記第1表示情報と一緒に前記表示部に表示させる第2表示情報の表示態様の決定を行うことを特徴とする請求項1に記載の端末装置。   When the first display information is an image, the determining means is based on the shooting date and time of the image, the shooting location of the image, the title of the image, or when the first display information is a television broadcast. The display mode of the second display information to be displayed on the display unit together with the first display information is determined based on the TV broadcast channel and TV broadcast program information. Terminal equipment. 前記表示態様は、前記第2表示情報の表示数、大きさ、色、形、表情、動作、種別のうち、少なくともいずれか1つであることを特徴とする請求項1に記載の端末装置。   2. The terminal device according to claim 1, wherein the display mode is at least one of a display number, a size, a color, a shape, a facial expression, an action, and a type of the second display information. 前記制御手段は、前記第1表示情報の表示が途中で中断された場合に、その中断時点における前記第2表示情報の表示態様を記憶しておき、前記第1表示情報の表示が再開されたときに、記憶されていた表示態様を読み出し、その表示態様に基づいて前記第2表示情報を表示させることを特徴とする請求項1に記載の端末装置。   When the display of the first display information is interrupted in the middle, the control means stores the display mode of the second display information at the time of the interruption, and the display of the first display information is resumed. 2. The terminal device according to claim 1, wherein the stored display mode is read and the second display information is displayed based on the display mode. 前記指示手段は、端末待受状態において任意の待受画像を前記第1表示情報として前記表示部に表示させるように指示し、前記制御手段は、待受画像として指定された第1表示情報が表示部に表示される際に、その第1表示情報とともに、前記決定手段によって決定された表示態様で前記第2表示情報を表示させるように制御することを特徴とする請求項1に記載の端末装置。   The instruction means instructs the display unit to display an arbitrary standby image as the first display information in the terminal standby state, and the control means receives the first display information specified as the standby image. 2. The terminal according to claim 1, wherein the second display information is controlled to be displayed in the display mode determined by the determination unit together with the first display information when displayed on the display unit. apparatus. 通信手段を更に備え、前記指示手段は、該通信手段によって通信を行う場合に着信及び発信の少なくともいずれか一方を報知するための任意の通信報知画像を前記第1表示情報として表示部に表示させるように指示し、前記制御手段は、通信報知画像として指定された第1表示情報が表示部に表示される際に、その第1表示情報とともに、前記決定手段によって決定された表示態様で前記第2表示情報を表示させるように制御することを特徴とする請求項1に記載の端末装置。   The communication device further includes a communication unit, and the instruction unit displays an arbitrary communication notification image for informing at least one of incoming and outgoing calls on the display unit as the first display information when communication is performed by the communication unit. When the first display information designated as the communication notification image is displayed on the display unit, the control means displays the first display information together with the first display information in the display mode determined by the determination means. 2. The terminal device according to claim 1, wherein the terminal device is controlled to display two display information. 前記指定手段は、メニュー画面あるいは文字表示画面を前記第1表示情報として表示部に表示させるように指示し、前記制御手段は、メニュー画面あるいは文字表示画面として指定された第1表示情報が表示部に表示される際に、その第1表示情報とともに、前記決定手段によって決定された表示態様で前記第2表示情報を表示させるように制御することを特徴とする請求項1に記載の端末装置。   The designation unit instructs the display unit to display a menu screen or a character display screen as the first display information, and the control unit displays the first display information designated as the menu screen or the character display screen. 2. The terminal device according to claim 1, wherein when the first display information is displayed, the second display information is controlled to be displayed together with the first display information in a display mode determined by the determination unit. 任意の表示情報を表示できる表示部を制御する端末装置のコンピュータに、
前記表示情報の一つとして任意の第1表示情報を前記表示部に表示させるように指示する指示手段、
前記第1表示情報の内容及び該第1表示情報に関連づけられた付加情報の少なくともいずれか一方に基づいて、前記第1表示情報と一緒に前記表示部に表示させる第2表示情報の表示態様の決定を行う決定手段、
及び、前記第1表示情報を前記表示部に表示させるとともに前記決定手段によって決定された表示態様で前記第2表示情報を前記表示部に表示させるように制御する制御手段
の各機能を実現させるためのプログラム。
To a computer of a terminal device that controls a display unit that can display arbitrary display information,
Instructing means for instructing the display unit to display arbitrary first display information as one of the display information,
A display mode of second display information to be displayed on the display unit together with the first display information based on at least one of the content of the first display information and the additional information associated with the first display information. Decision means for making decisions,
And realizing each function of control means for controlling the display unit to display the first display information on the display unit and to display the second display information on the display unit in the display mode determined by the determination unit. Program.
JP2009157812A 2009-07-02 2009-07-02 Terminal device and program Expired - Fee Related JP5224391B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009157812A JP5224391B2 (en) 2009-07-02 2009-07-02 Terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009157812A JP5224391B2 (en) 2009-07-02 2009-07-02 Terminal device and program

Publications (2)

Publication Number Publication Date
JP2011015204A true JP2011015204A (en) 2011-01-20
JP5224391B2 JP5224391B2 (en) 2013-07-03

Family

ID=43593639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009157812A Expired - Fee Related JP5224391B2 (en) 2009-07-02 2009-07-02 Terminal device and program

Country Status (1)

Country Link
JP (1) JP5224391B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087857A (en) * 2001-09-07 2003-03-20 Omron Corp Character display device for mobile terminal
JP2008193515A (en) * 2007-02-06 2008-08-21 Ntt Docomo Inc Portable terminal and display control method
JP2008250902A (en) * 2007-03-30 2008-10-16 Matsushita Electric Ind Co Ltd Electronic equipment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087857A (en) * 2001-09-07 2003-03-20 Omron Corp Character display device for mobile terminal
JP2008193515A (en) * 2007-02-06 2008-08-21 Ntt Docomo Inc Portable terminal and display control method
JP2008250902A (en) * 2007-03-30 2008-10-16 Matsushita Electric Ind Co Ltd Electronic equipment

Also Published As

Publication number Publication date
JP5224391B2 (en) 2013-07-03

Similar Documents

Publication Publication Date Title
US11115524B1 (en) Communication device
US20100053432A1 (en) Digital photo frame with television tuning function and method thereof
CN110795179B (en) Display method and electronic equipment
KR20060059043A (en) Methods and apparatus' of composition image signal with edition for mobile phone
JP2001118081A (en) Device and method for processing information, and program storing medium
CN110798622A (en) Shared shooting method and electronic equipment
US20070094686A1 (en) Apparatus for setting mood mode and transforming images and method of setting mood mode and transforming images
JP2011223573A (en) Display device, television receiver, display device control method, control program, and computer-readable recording medium with control program recorded thereon
US20050229224A1 (en) Information processing device and information processing system
JP2011166314A (en) Display device and method of controlling the same, program, and recording medium
JP2000183836A (en) Information transmission system for digital satellite broadcast
JP5224391B2 (en) Terminal device and program
KR101825862B1 (en) Method, device, program and recording medium for adjusting operation data
JP2007318208A (en) Image processing apparatus, image processing method, and program
JP2005198259A (en) Mobile information terminal device
CN106303701A (en) Intelligent television content recommendation method and device
CN114363454B (en) Historical page opening method, related equipment and computer storage medium
CN112073768B (en) Bluetooth communication method and display device
JP4578161B2 (en) Portable electronic device
CN108062238A (en) The method, apparatus and terminal device of the motor-driven picture of playback switch
CN107295372A (en) Programme information update method, television set and computer-readable recording medium
CN115633250A (en) Image processing method and electronic equipment
JP5073374B2 (en) Information processing apparatus, information processing apparatus control method, control program, and recording medium
KR101034086B1 (en) A method and a apparatus of operating live screen for mobile phone
JP2011166430A (en) Terminal apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130306

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees