JP2006140773A - Mobile communications system and mobile communication terminal - Google Patents

Mobile communications system and mobile communication terminal Download PDF

Info

Publication number
JP2006140773A
JP2006140773A JP2004328638A JP2004328638A JP2006140773A JP 2006140773 A JP2006140773 A JP 2006140773A JP 2004328638 A JP2004328638 A JP 2004328638A JP 2004328638 A JP2004328638 A JP 2004328638A JP 2006140773 A JP2006140773 A JP 2006140773A
Authority
JP
Japan
Prior art keywords
data
mobile communication
call
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004328638A
Other languages
Japanese (ja)
Inventor
Michitaka Toshimoto
道隆 利元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004328638A priority Critical patent/JP2006140773A/en
Publication of JP2006140773A publication Critical patent/JP2006140773A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile communications system by which voice data and video data for allowing to specify a caller can be transmitted to a transmission destination when calling. <P>SOLUTION: A header is imparted respectively to the voice data of uttered voice and image data of an imaged face in live information of a user on the calling side. Then, both data are packetized; and when calling, the packetized data are inserted to information bits of an access control channel used by the communications system at calling. The header is shown as S1-S4 in the case of the voice data and as H1-H4 in the case of the image date in Figure. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は移動通信システムに係り、特に、移動通信方式を導入した移動通信端末(例えば、携帯電話装置)と基地局とで構成され、前記移動通信端末において発信者を特定できる着信通知機能を備えた移動通信システムに関する。   The present invention relates to a mobile communication system, and in particular, includes a mobile communication terminal (for example, a mobile phone device) that introduces a mobile communication system and a base station, and has an incoming call notification function that can specify a caller in the mobile communication terminal. The present invention relates to a mobile communication system.

最近の携帯電話装置では、発信者番号通知機能が普及している。この機能は、発信者が使用する電話の電話番号を送信相手に通知するものであり、受信者は、電話に出る前に、誰から掛かってきた電話かを確認することができる。   In recent mobile phone devices, a caller ID notification function is widespread. This function notifies the transmission partner of the telephone number of the telephone used by the caller, and the receiver can confirm who the telephone is from before calling.

また、予め携帯電話装置に固有の着信音や着信メロディを記憶させておき、この発信者番号通知機能と組合せることで、着信時に、この固有の着信音や着信メロディを鳴動させる機能を備えたものも開発されており、受信者は、この固有の着信音や着信メロディを聴くことにより、即座に誰から掛かってきた電話かを知ることができる。   In addition, the mobile phone device has a function for storing a unique ring tone or ring melody in advance and ringing the unique ring tone or ring melody at the time of an incoming call in combination with the caller ID notification function. A receiver has also been developed, and the recipient can immediately know who the call came from by listening to this unique ringtone or ringtone.

さらに、前述の着信音や着信メロディの代わりに、予め画像やキャラクタを送信側の携帯電話装置に記憶させておき、この携帯電話装置から発信すると、受信側の電話装置において、着信時に、この画像やキャラクタを表示させる機能を備えたものも開発されている。   Further, instead of the above-mentioned ringing tone or ringing melody, an image or a character is stored in advance in the mobile phone device on the transmission side, and when the call is transmitted from the mobile phone device, the image is received at the reception side telephone device at the time of the incoming call. Some have been developed with the ability to display characters and characters.

このような方式の携帯電話装置として、例えば、特許文献1(特開2002−78025号公報)では、発信者の携帯電話装置に、外部装置からの映像データを入力して記憶させ、発呼時の呼び出し信号に前記映像データを付加することで、受信者の電話装置において、受信者がその映像データを視認して送信者を確認できるようにする携帯電話装置が開示されている。   As a mobile phone device of this type, for example, in Patent Document 1 (Japanese Patent Laid-Open No. 2002-78025), video data from an external device is input and stored in a caller's mobile phone device, and a call is made. A mobile phone device is disclosed in which the video data is added to the call signal of the receiver so that the receiver can confirm the sender by visually recognizing the video data.

上記背景技術で述べた従来の移動通信システムにあっては、例えば、前述の特許文献1に開示された携帯電話装置では、送信者が予め設定した映像データを送信者の携帯電話装置の発呼時の呼び出し信号に付加し、受信者の携帯電話装置において、着信時に、この映像データが表示されるので、受信者は、この表示を視認して誰からの送話かを確認することができる。
特開2002−78025号公報
In the conventional mobile communication system described in the above background art, for example, in the mobile phone device disclosed in Patent Document 1, the video data set in advance by the sender is transmitted to the mobile phone device of the sender. This video data is displayed at the time of an incoming call in the receiver's mobile phone device, so that the receiver can confirm who the person is talking by viewing this display. .
JP 2002-78025 A

しかしながら、発呼時の呼び出し信号に付加される前記映像データは、予め外部機器から送信者の携帯電話装置に記憶させておく必要があり、発信の際に、送信者の携帯電話装置だけを用いて、好みの映像を随時に送信することは不可能であるという問題点があった。   However, the video data added to the calling signal at the time of calling needs to be stored in advance in the sender's mobile phone device from an external device, and only the sender's mobile phone device is used for outgoing calls. Therefore, there is a problem that it is impossible to transmit a favorite video at any time.

また、呼び出し信号に予め送信者が設定した映像を付加するための具体的な方法については一切述べられておらず、勿論、その具体的な実現方法についてのアイデアの進展も見られないので、これだけでは、前述の特許文献1に開示された携帯電話装置の技術を、現在の携帯電話装置を含む移動通信システムや、PHSシステム等に採用することは困難であると思われる。   Also, there is no mention of a specific method for adding a video set by the sender in advance to the call signal, and of course, no progress has been made in the idea of the specific implementation method. Then, it seems that it is difficult to employ | adopt the technique of the mobile telephone apparatus disclosed by the above-mentioned patent document 1 to the mobile communication system containing the present mobile telephone apparatus, a PHS system, etc.

本発明は、上記従来の問題点に鑑みてなされたものであって、発呼時に、送信者の特定を可能にする音声データや映像データを送信先に送信することができる移動通信システムを提供することを目的としている。   The present invention has been made in view of the above-described conventional problems, and provides a mobile communication system capable of transmitting audio data and video data that enable identification of a sender to a transmission destination when a call is made. The purpose is to do.

本発明の他の目的は、発呼時に、送信者の特定を可能にする音声データや映像データを送信先に送信することができる移動通信端末を提供することにある。   Another object of the present invention is to provide a mobile communication terminal capable of transmitting audio data and video data that enable identification of a sender to a transmission destination when a call is made.

本発明に係る移動通信システム及び移動通信端末は、前記目的を達成するため、以下の特徴を備えている。   In order to achieve the above object, a mobile communication system and a mobile communication terminal according to the present invention have the following features.

本発明に係る移動通信システム及び移動通信端末は、音声データ及び画像データの送受信が可能な複数の移動通信端末を備えて構成される移動通信システムにおいて、前記複数の移動通信端末の各々は、音声を入力して音声データを得る音声入力手段と、被写体を撮像して画像データを得る撮像手段と、前記音声入力手段により入力された音声データまたは受信した音声データを出力する音声出力手段と、前記撮像手段により撮像された画像データまたは受信した画像データを表示する表示手段と、発呼要求により、前記記撮像手段により撮像された画像データ及び/または前記音声入力手段により入力された音声データを、所定のデータフォーマットに変換した後、特定の通信チャネルの情報ビットフィールドに挿入する発呼準備手段と、前記発呼準備手段により準備された前記特定の通信チャネルを使用して発呼する発呼手段とを備えたことを特徴とする。   The mobile communication system and mobile communication terminal according to the present invention comprise a plurality of mobile communication terminals capable of transmitting and receiving voice data and image data, wherein each of the plurality of mobile communication terminals is a voice Sound input means for obtaining sound data by inputting a sound, image pickup means for picking up an image of a subject and obtaining image data, sound output means for outputting sound data input by the sound input means or received sound data, Display means for displaying image data captured by the imaging means or received image data, and image data captured by the recording means and / or voice data input by the voice input means in response to a call request, Call preparation means for converting into a predetermined data format and then inserting it into an information bit field of a specific communication channel; Using said specific communication channels that are prepared by Kihatsuko preparation means, characterized in that a calling means for calling.

このように構成することにより、発呼側ユーザは、発呼時に、発呼者の現在の音声データや映像データ(いずれもライブ情報)を、送信先に送信することができる。   With this configuration, the calling user can transmit the caller's current audio data and video data (both live information) to the transmission destination when making a call.

ここで、前記移動通信システムにおいて、前記発呼時に使用される特定の通信チャネルは、所定のアクセス制御チャネルとすることができる。   Here, in the mobile communication system, the specific communication channel used at the time of the call can be a predetermined access control channel.

このように構成することにより、発呼時に送信先に送信する音声データや撮像された映像データを、既成の通信方式によるアクセス制御チャネルを使用して、送信することができるので、システム負担が軽減する。   By configuring in this way, audio data to be transmitted to a transmission destination at the time of outgoing call or captured video data can be transmitted using an access control channel based on an existing communication method, thereby reducing the system burden. To do.

また、前記移動通信システムにおいて、前記画像データ及び/または前記音声データは、記憶部に一旦記憶されると共に、発呼時に、前記発呼準備手段により、前記記憶部から取り出されて、前記特定の通信チャネルの情報ビットフィールドに挿入されることを特徴とする。   Further, in the mobile communication system, the image data and / or the audio data is temporarily stored in a storage unit, and is extracted from the storage unit by the call preparation unit when a call is made, and the specific data It is inserted into the information bit field of the communication channel.

このように構成することにより、記憶部を送信バッファとして機能させることが可能となり、より円滑な通信が可能となる。   With this configuration, the storage unit can function as a transmission buffer, and smoother communication is possible.

また、前記移動通信システムにおいて、前記画像データは、動画像データまたは静止画像データのいずれか1つであることを特徴とする。   In the mobile communication system, the image data is any one of moving image data and still image data.

このように構成することにより、発呼側ユーザが送信できる画像データの選択肢が豊富となる。また、情報量の大きい動画像データを制御チャネルで送信することができる将来の通信方式に対応することができる。   By configuring in this way, there are many choices of image data that can be transmitted by the calling user. Further, it is possible to cope with a future communication method capable of transmitting moving image data having a large amount of information through a control channel.

また、前記移動通信システムにおいて、前記移動通信端末の任意の1つは、前記移動通信端末の他の任意の1つから、前記アクセス制御チャネルを使用した発呼を受けて着信した時に、当該着信を報知すると共に、前記アクセス制御チャネルに音声データが挿入されている場合は、当該音声データを前記音声出力手段により出力することを特徴とする。   In the mobile communication system, any one of the mobile communication terminals receives an incoming call when receiving an incoming call using the access control channel from any other one of the mobile communication terminals. And when the voice data is inserted in the access control channel, the voice output means outputs the voice data.

このように構成することにより、受信側ユーザは、本格的な通信時ではない着信時に、既に小規模な音声データを受信して、音声出力させることができるので、受信すべきか否かの決定に役立たせることができる。また、親密な関係にある発呼側ユーザと受信側ユーザの場合は、その親密度を一層高めることができると共に、受信側ユーザの迅速な応答が可能となる。   By configuring in this way, the receiving user can already receive small-scale audio data and output the audio when receiving an incoming call that is not during full-fledged communication. Can be useful. In addition, in the case of a calling user and a receiving user who are intimately related, the closeness can be further increased and a quick response of the receiving user can be made.

また、前記移動通信システムにおいて、前記移動通信端末の1つは、前記移動通信端末の他の1つから、前記アクセス制御チャネルを使用した発呼を受けて着信した時に、当該着信を報知すると共に、前記アクセス制御チャネルに画像データが挿入されている場合は、当該画像データを前記表示手段により表示することを特徴とする。   In the mobile communication system, when one of the mobile communication terminals receives a call using the access control channel from the other one of the mobile communication terminals, the mobile communication terminal notifies the incoming call. When image data is inserted into the access control channel, the image data is displayed by the display means.

このように構成することにより、受信側ユーザは、本格的な通信時ではない着信時に、既に小規模な画像データを受信して、画像表示させることができるので、受信すべきか否かの決定に役立たせることができる。また、親密な関係にある発呼側ユーザと受信側ユーザの場合は、その親密度を一層高めることができると共に、受信側ユーザの迅速な応答が可能となる。   With this configuration, the receiving user can already receive small-scale image data and display an image when an incoming call is not made during full-scale communication. Can be useful. In addition, in the case of a calling user and a receiving user who are intimately related, the closeness can be further increased and a quick response of the receiving user can be made.

また、前記移動通信システムにおいて、前記移動通信端末の任意の1つが、前記移動通信端末の他の任意の1つに発呼した場合に、基地局から、前記発呼を確認して呼び出し中である旨の通知が、前記発呼側の移動通信端末の任意の1つに送信されることを特徴とする。   Further, in the mobile communication system, when any one of the mobile communication terminals makes a call to any other one of the mobile communication terminals, the base station confirms the call and is calling A notification to the effect is transmitted to any one of the mobile communication terminals on the calling side.

このように構成することにより、発呼側ユーザは、自局からの発呼に対する確実な応答が得られるので、発呼の際の基本的な操作誤りの有無を迅速に確認することができる。   By configuring in this way, the calling user can obtain a reliable response to the call from the own station, and thus can quickly confirm the presence or absence of a basic operation error at the time of calling.

また、前記移動通信システムにおいて、前記特定の通信チャネルの情報ビットフィールドに挿入される音声データは、発呼者の声を入力して成る音声データであることを特徴とする。   In the mobile communication system, the voice data inserted in the information bit field of the specific communication channel is voice data formed by inputting a voice of a caller.

このように構成することにより、発呼側ユーザは、受信側端末での着信時に、受信側ユーザに対して、自己の特徴を有する声を聞かせることができるので、自己が誰であるかを特定させることに役立つ。   By configuring in this way, the calling user can make the receiving user hear a voice having his / her own characteristics when receiving a call at the receiving terminal. Helps to identify.

また、前記移動通信システムにおいて、前記特定の通信チャネルの情報ビットフィールドに挿入される画像データは、発呼者の顔を撮像して成る画像データであることを特徴とする。   In the mobile communication system, the image data inserted in the information bit field of the specific communication channel is image data obtained by capturing an image of a caller's face.

このように構成することにより、発呼側ユーザは、受信側端末での着信時に、受信側ユーザに対して、自己の特徴を有する顔を見せるることができるので、自己が誰であるかを特定させることに役立つ。   By configuring in this way, the calling user can show his / her own face to the receiving user when receiving a call at the receiving terminal. Helps to identify.

また、前記移動通信システムは、前記発呼者の顔を撮像して成る画像データを、アニメーション画像に変換する手段を備えると共に、前記アニメーション画像を前記特定の通信チャネルの情報ビットフィールドに挿入することを特徴とする。   The mobile communication system includes means for converting image data obtained by capturing the caller's face into an animation image, and inserting the animation image into an information bit field of the specific communication channel. It is characterized by.

このように構成することにより、発呼時の送信データの情報量を節減することができる。また、発呼側ユーザとしては、例えば、自分のリアルライブの顔画像が日によって異なり、自分でどうしても嫌な場合や、多少恥ずかしいと感じる場合などに、自己の特徴を有するアニメ化した画像を利用することができる。   With this configuration, it is possible to reduce the amount of information of transmission data at the time of calling. As the calling user, for example, if your real live face image varies from day to day, and you feel uncomfortable by yourself or feel somewhat embarrassed, use an animated image with your own characteristics. can do.

また、前記移動通信システムは、前記通信チャネルの情報ビットフィールドに挿入されるアニメーション画像を、事前に3次元表現に変換する手段を備えることを特徴とする。   The mobile communication system further includes means for converting an animation image inserted into an information bit field of the communication channel into a three-dimensional representation in advance.

このように構成することにより、着信時に、受信側ユーザが日常に接する発呼側ユーザの現在の顔の特徴を忠実に再現させることが可能となり、発呼側ユーザ(発呼者)の特定を一層迅速かつ確実に行うことができる。   By configuring in this way, it becomes possible to faithfully reproduce the current facial features of the calling user that the receiving user is in daily contact with when receiving the call, and the calling user (caller) can be specified. This can be done more quickly and reliably.

さらに、前記移動通信システムは、前記通信チャネルの情報ビットフィールドに挿入される前記画像データの画像及び前記アニメーション画像を、サムネイル画像に変換する手段を備えることを特徴とする。   The mobile communication system further comprises means for converting an image of the image data and the animation image inserted into an information bit field of the communication channel into a thumbnail image.

このように構成することにより、発呼側ユーザは、過去に使用した画像データを、サムネイル画像で表示部に一覧表示させることが可能となり、以後の呼出情報に画像データを利用する際には、送信すべき画像データの選択に便利である。   With this configuration, the calling user can display a list of image data used in the past on the display unit as thumbnail images, and when using the image data for subsequent call information, This is convenient for selecting image data to be transmitted.

また、本発明は、上記した従来の移動通信端末の課題に鑑みてなされたものであり、前記移動通信システムの移動通信端末として構成される移動通信端末を提供するものである。   In addition, the present invention has been made in view of the problems of the above-described conventional mobile communication terminals, and provides a mobile communication terminal configured as a mobile communication terminal of the mobile communication system.

ここで、前記移動通信端末は、携帯電話装置であってもよい。
また、前記移動通信システムにおける移動通信端末の処理を実行するコンピュータを制御するためのコンピュータプログラムが提供される。
Here, the mobile communication terminal may be a mobile phone device.
Also provided is a computer program for controlling a computer that executes processing of a mobile communication terminal in the mobile communication system.

以上説明したように、本発明の移動通信システムによれば、現行の制御チャネルだけを使用した呼出機能において、送信者を特定させることができる発呼側ユーザの画像データ、音声データを含むライブ情報を利用できるので、受信側ユーザは、着信時に、呼出相手が誰かを確実に特定することができる効果がある。   As described above, according to the mobile communication system of the present invention, in the call function using only the current control channel, live information including image data and audio data of the calling user who can specify the sender. Thus, there is an effect that the receiving-side user can surely specify who the call partner is when receiving a call.

また、発呼側ユーザと受信側ユーザの使い勝手の向上や、受信側ユーザの応答速度の向上だけではなく、受信側ユーザは、発呼側ユーザの表情などを視認することができるので、より一層親密なコミュニケーションが可能となり、娯楽性も高まるので、発呼側ユーザと受信側ユーザの満足度を一層向上させることができる効果がある。   Further, not only the usability of the calling user and the receiving user is improved and the response speed of the receiving user is improved, but also the receiving user can visually recognize the facial expression of the calling user, and so on. Since intimate communication is possible and entertainment is enhanced, the satisfaction of the calling user and the receiving user can be further improved.

以下、本発明の移動通信システムの最良の実施形態について、図面を参照して詳細に説明する。   Hereinafter, the best embodiment of the mobile communication system of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係る移動通信システムの端末の構成を示す構成図である。   FIG. 1 is a configuration diagram illustrating a configuration of a terminal of a mobile communication system according to an embodiment of the present invention.

同図において、本実施形態の移動通信システムの端末10(カメラ付き携帯電話装置)は、信号の変調波を送受信するアンテナ部101と、変調波の受信部102と、変調波の送信部103と、受信した変調波を復調する復調部104と、信号を変調する変調部105と、音声データや画像データを加工して出力信号に変換するデータ処理部106と、マイク入力またはスピーカ出力の音声信号をデジタル信号に変換する音声データ処理部107と、カメラの撮像信号を内部データに変換する画像データ処理部108とを備える。また、画像データからアニメーション画像を生成するアニメーション画像生成部109と、アニメーション画像を3次元画像に加工する三次元対応部110と、画像データをサムネイル画像に加工するサムネイル処理部111と、外部機器からの音声データを録音する音声録音部112と、外部機器からの音声信号を入力する外部I/F部113と、外部機器からの音声信号を音声データに変換するデータフォーマット変換部114と、を備える。また、音声信号を音声出力するスピーカ部121(音声出力手段)と、通話者の声を入力するマイク部122(音声入力手段)と、被写体を撮像するカメラ部123(撮像手段)と、シャッター部124とを備える。   In the figure, a terminal 10 (a mobile phone device with a camera) of the mobile communication system of the present embodiment includes an antenna unit 101 that transmits and receives a modulated wave of a signal, a receiving unit 102 for a modulated wave, and a transmitting unit 103 for a modulated wave. A demodulating unit 104 that demodulates the received modulated wave, a modulating unit 105 that modulates a signal, a data processing unit 106 that processes audio data and image data and converts them into an output signal, and an audio signal that is output from a microphone or a speaker Is converted into a digital signal, and an image data processing unit 108 that converts a camera image signal into internal data is provided. Also, an animation image generation unit 109 that generates an animation image from image data, a three-dimensional correspondence unit 110 that processes the animation image into a three-dimensional image, a thumbnail processing unit 111 that processes the image data into a thumbnail image, and an external device A sound recording unit 112 that records the sound data of the external device, an external I / F unit 113 that inputs a sound signal from the external device, and a data format conversion unit 114 that converts the sound signal from the external device into sound data. . In addition, a speaker unit 121 (speech output unit) that outputs a voice signal, a microphone unit 122 (speech input unit) that inputs a voice of a caller, a camera unit 123 (imaging unit) that images a subject, and a shutter unit 124.

さらに、全体を制御するCPU部131と、制御プログラムやデータを記憶する記憶部132と、操作者の指令やデータを入力するための操作部133と、メッセージやデータを表示する表示部134(表示手段)と、着信を報知する報知部135と、駆動用の電力を送電する電源部136と、駆動用の電力を供給する電源部136とを備えて構成される。   Furthermore, a CPU 131 for controlling the whole, a storage 132 for storing control programs and data, an operation 133 for inputting operator commands and data, and a display 134 (display) for displaying messages and data Means), a notification unit 135 that notifies an incoming call, a power source unit 136 that transmits driving power, and a power source unit 136 that supplies driving power.

また、オプショナルな外部機器として、CD/MDプレーヤ等の音声再生装置20を備えることができる。   Further, as an optional external device, an audio playback device 20 such as a CD / MD player can be provided.

以下、本実施形態に係る移動通信システム(カメラ付き携帯電話装置10)について、各実施態様毎に詳細に説明する。   Hereinafter, the mobile communication system (camera-equipped mobile phone device 10) according to the present embodiment will be described in detail for each embodiment.

まず、音声データを送信する場合、ユーザの音声は、端末10(図1)のマイク部122に入力され、さらに、音声データ処理部107でデジタル信号に変換される。その後、データ処理部106に入力される。データ処理部106では、通信規格に合致した各種のデータ処理(例えば、エラー対応処理、暗号処理、及び各データフレームへの並べ替え処理等)を行う。その後、データ処理部106の出力データは、変調部105に送られて電波に乗せて送るための変調処理がなされ、送信部103において増幅される。送信部103で増幅された変調波は、アンテナ部101から、空中へ伝送される。   First, when transmitting audio data, the user's audio is input to the microphone unit 122 of the terminal 10 (FIG. 1), and further converted into a digital signal by the audio data processing unit 107. Thereafter, the data is input to the data processing unit 106. The data processing unit 106 performs various types of data processing (for example, error handling processing, encryption processing, rearrangement processing to each data frame, etc.) that matches the communication standard. Thereafter, the output data of the data processing unit 106 is sent to the modulation unit 105, subjected to modulation processing for transmission on radio waves, and amplified by the transmission unit 103. The modulated wave amplified by the transmission unit 103 is transmitted from the antenna unit 101 to the air.

次に、画像データを送信する場合、カメラ部123(撮像手段)で撮影された画像データは、画像データ処理部108において、画像データから通信規格に合致した専用のデータフォーマットに変換され、さらに、データ処理部106に送出される。データ処理部106では、通信規格に合致した各種のデータ処理(例えば、エラー対応処理、暗号処理、及び各データフレームへの並べ替え処理等)を行う。その後、前記データフレームに画像データを載せ、送信部103において増幅された後、アンテナ部101から、空中へ伝送される。   Next, when transmitting image data, the image data captured by the camera unit 123 (imaging means) is converted by the image data processing unit 108 from the image data into a dedicated data format that matches the communication standard. The data is sent to the data processing unit 106. The data processing unit 106 performs various types of data processing (for example, error handling processing, encryption processing, rearrangement processing to each data frame, etc.) that matches the communication standard. Thereafter, image data is placed on the data frame, amplified by the transmission unit 103, and then transmitted from the antenna unit 101 to the air.

次に、音声データ/画像データを受信する場合、アンテナ部101に給電された電波は受信部102で受信され、復調部104で搬送波から音声データ及び画像データが取り出され、データ処理部106でデジタルデータとして処理される。その後、音声データは音声データ処理部107でデジタルからアナログ信号に変換され、スピーカ部121から音声として出力される。一方、画像データは画像データ処理部108で所定の画像フォーマットを備えた内部データに変換され、CPU部131の制御により表示部134に表示される。   Next, when receiving audio data / image data, the radio wave fed to the antenna unit 101 is received by the receiving unit 102, the audio data and image data are extracted from the carrier wave by the demodulating unit 104, and digitally processed by the data processing unit 106. Processed as data. Thereafter, the audio data is converted from digital to analog signal by the audio data processing unit 107 and output from the speaker unit 121 as audio. On the other hand, the image data is converted into internal data having a predetermined image format by the image data processing unit 108 and displayed on the display unit 134 under the control of the CPU unit 131.

なお、従来の移動通信端末(携帯電話装置等)は、近年、音声通話とは別に、メールや画像データを送信することも可能であるが、特に画像データの場合は送信データの情報量が多い。そこで、本実施形態の移動通信システムでは、端末10(図1)のカメラ部123で撮られた画像の画像データは、画像データ処理部108にて、静止画像データの場合は、JPEG、GIF、またはPNGといったデータ圧縮されたデータフォーマットに変換し、動画像データの場合は、MPEG4やCIFといったフォーマットに変換する。なお、これら変換後のデータは、音声データと共に、データフレームに構成してから送信している。   In addition, a conventional mobile communication terminal (such as a mobile phone device) can send mail and image data in addition to voice calls in recent years. However, particularly in the case of image data, the amount of information of transmission data is large. . Therefore, in the mobile communication system of the present embodiment, the image data of the image taken by the camera unit 123 of the terminal 10 (FIG. 1) is received by the image data processing unit 108, and in the case of still image data, JPEG, GIF, Alternatively, it is converted into a data compressed data format such as PNG, and in the case of moving image data, it is converted into a format such as MPEG4 or CIF. These converted data are transmitted together with audio data after being formed into a data frame.

また、従来の携帯電話システムの方式は、現在のところ、TDMA(Time Division Multiple Access)またはCDMA(Code Division Multiple Access)が主流であり、デジタルデータを間欠受信または間欠送信することで、一人のユーザが限られたスペクトラムを独占することなく時間分割するものであり、これにより、複数のユーザが効率よく利用できるシステムとなっている。   In addition, as for the conventional mobile phone system, at present, time division multiple access (TDMA) or code division multiple access (CDMA) is mainly used, and digital data is intermittently received or transmitted by one user. Is a system that can be used by a plurality of users efficiently.

図2は、本発明の実施形態に係る移動通信システムにおける送受信データのフォーマットの1例を示すものであり、図2(a)はTDMAフレームを示し、図2(b)は制御CHのデータフォーマットを示す。   2 shows an example of a format of transmission / reception data in the mobile communication system according to the embodiment of the present invention. FIG. 2 (a) shows a TDMA frame, and FIG. 2 (b) shows a data format of a control CH. Indicates.

同図に示す送受信データのフォーマットは、従来の移動通信システムにおける送受信データのフォーマットと同じである。   The format of transmission / reception data shown in the figure is the same as the format of transmission / reception data in a conventional mobile communication system.

同図において、符号Rで示すフィールド(領域)は、ガード時間/4ビット、符号Pで示すフィールドはプリアンブル/2ビット、符号CACで示すフィールドは制御信号/112ビット(または116ビット)、符号SWで示すフィールドは同期ワード/20ビット、符号CCで示すフィールドはカラーコード/8ビット、符号Gで示すフィールドはガード時間/18ビットを、それぞれ示す。   In the figure, a field (region) indicated by a symbol R is a guard time / 4 bits, a field indicated by a symbol P is a preamble / 2 bits, a field indicated by a symbol CAC is a control signal / 112 bits (or 116 bits), and a symbol SW The field indicated by symbol indicates synchronization word / 20 bits, the field indicated by symbol CC indicates color code / 8 bits, and the field indicated by symbol G indicates guard time / 18 bits.

図2(a)はTDMA方式による通信システムにおけるTDMAフレームの1例を示すものであるが、同図に示すように、複数のフレームが規則正しく配置されている。このようなフォーマットを用いることにより、複数のユーザの各々は、自分専用のフレームを時間分割して利用することが可能となり、その結果、同時に複数のユーザが、この通信システム利用できることになる。   FIG. 2 (a) shows an example of a TDMA frame in a communication system using the TDMA system. As shown in FIG. 2, a plurality of frames are regularly arranged. By using such a format, each of a plurality of users can use a dedicated frame in a time-sharing manner. As a result, a plurality of users can use the communication system at the same time.

例えば、日本のデジタル携帯電話システムの伝送方式であるPDCでは、スーパーフレームという36個の時間分割されたTDMAフレームの繰り返しフォーマットが使用されており、フルレートでは3多重(3人が同時に利用)、ハーフレートでは6多重される。即ち、図2(a)に示すフレーム(番号:0、1、または2)のうち、同じ番号のフレームを一人のユーザが使用するシステムとなっている。   For example, PDC, which is a transmission method of a Japanese digital cellular phone system, uses a repetitive format of 36 time-divided TDMA frames called superframes, and the full rate is 3 multiplexed (3 people use simultaneously), half The rate is 6 multiplexed. That is, in the frame (number: 0, 1, or 2) shown in FIG. 2 (a), one user uses the same numbered frame.

この場合、それぞれの時間フレームは一定のビット数からなるデータフォーマットを備え、CHと呼ばれる複数のデータフォーマットを持つ。このデータフォーマットは、それぞれ目的別に構成されており、それぞれビット構成が異なる。   In this case, each time frame has a data format composed of a fixed number of bits, and has a plurality of data formats called CH. This data format is configured for each purpose and has a different bit configuration.

図2(b)は、一般的な制御チャネル(以下、「チャネル」を「CH」と記載する)のデータフォーマットであり、1フレームは280ビットから成る。そのビット構成はデータフォーマットによって異なるが、符号CACで示される領域(112ビットと116ビット)に情報ビットが挿入される。その他のビットは基地局(図示は省略)と端末10との間の通信を円滑に行うための制御用ビットである。   FIG. 2B shows a data format of a general control channel (hereinafter, “channel” is described as “CH”), and one frame is composed of 280 bits. The bit configuration differs depending on the data format, but information bits are inserted in the area (112 bits and 116 bits) indicated by the code CAC. The other bits are control bits for smoothly performing communication between the base station (not shown) and the terminal 10.

上記のビット数は、現状のPDC(Personal Digital Cellular)での具体例であるが、今後、3G(第3世代)と呼ばれる高速通信システムの方式では、これらビット数は格段に増えることになっている。この場合には、動画像といった情報量の多いデータでも短時間で送ることが可能となる。   The number of bits is a specific example of the current PDC (Personal Digital Cellular), but in the future, in the method of a high-speed communication system called 3G (third generation), the number of bits will increase dramatically. Yes. In this case, even a large amount of data such as a moving image can be sent in a short time.

また、データはパケット化されてパケット専用CHで送信されることになる。ちなみに、現在のPDCのデータ速度は64〔Kbps〕〜128〔Kbps〕程度であるが、前述の3Gと呼ばれる近い将来の高速通信システムでは、帯域が拡大するので、例えば、最大2〔Mbps〕と、短時間で大量のデータを通信できるようになり、制御CHで送信できる情報量も格段に増えることになる。   Further, the data is packetized and transmitted on the packet dedicated CH. By the way, the data rate of the current PDC is about 64 [Kbps] to 128 [Kbps]. However, in the near future high-speed communication system called 3G, the bandwidth is expanded, so that the maximum data rate is 2 [Mbps], for example. As a result, a large amount of data can be communicated in a short time, and the amount of information that can be transmitted on the control CH is greatly increased.

また、現在の携帯電話システムでは、情報は全てデジタル信号に変換されて送受信されるため、基地局から端末10に送られる情報や、端末10から基地局に送られる情報は全てデジタルデータである。   In the current mobile phone system, all information is converted into digital signals and transmitted / received. Therefore, information sent from the base station to the terminal 10 and information sent from the terminal 10 to the base station are all digital data.

図3は、本発明の実施形態に係る移動通信システムの端末において送受信されるデータの分解・組み立て方法を示す説明図である。   FIG. 3 is an explanatory diagram showing a method of disassembling / assembling data transmitted / received in the terminal of the mobile communication system according to the embodiment of the present invention.

同図に示す送受信データの分解・組み立て方法は、従来の移動通信システムにおける送受信データの分解・組み立て方法と同じである。   The transmission / reception data disassembly / assembly method shown in the figure is the same as the transmission / reception data disassembly / assembly method in the conventional mobile communication system.

同図に示すように、端末10に送信されて来たデータは間欠受信された後、1つの受信データに組み立てられ、その後、アナログデータに変換される。   As shown in the figure, the data transmitted to the terminal 10 is intermittently received, assembled into one received data, and then converted into analog data.

また、端末10で作成されたデータは、デジタルデータに変換され、その後、間欠送信するために分解されて送信される。   The data created by the terminal 10 is converted into digital data, and then decomposed and transmitted for intermittent transmission.

また、同図に示すように、それぞれのTDMAフレームは、正確に2スロット分の時間間隔を保って処理される。例えば、スロット0のユーザは、最初の0フレームを基地局から受信する場合、受信開始から2スロット分の時間経過後、端末10から基地局にデータを送信し、この送信終了と同時に次の0フレーム分のデータを受信開始する。   As shown in the figure, each TDMA frame is processed with a time interval of exactly two slots. For example, when receiving the first 0 frame from the base station, the user in slot 0 transmits data from the terminal 10 to the base station after the elapse of two slots from the start of reception. Start receiving frame data.

即ち、本実施形態に係る移動通信システム(デジタル式携帯電話システム)では、端末10から基地局を介して相手端末とデータ通信する場合、送信データはデジタルデータに変換された後、専用のTDMAフレームに分解されて送信され、受信データは、間欠受信されたデータから連続したデジタルデータに組み立てられる。その後、アナログデータに変換されて、音声データの場合はスピーカ部121(図1)から音声として出力され、画像データの場合は、表示部134(図1)に表示される。なお、このような方式は、従来の移動通信システムの方式と同様である。   That is, in the mobile communication system (digital mobile phone system) according to the present embodiment, when data communication is performed from the terminal 10 to the other terminal via the base station, the transmission data is converted into digital data and then a dedicated TDMA frame. The received data is assembled into continuous digital data from the intermittently received data. Thereafter, it is converted into analog data, and in the case of audio data, it is output as audio from the speaker unit 121 (FIG. 1), and in the case of image data, it is displayed on the display unit 134 (FIG. 1). Such a system is the same as the system of the conventional mobile communication system.

図4は、本発明の実施形態に係る移動通信システムにおいて端末から呼び出したい相手端末を呼び出す場合のコールプロセスのシーケンスチャートである。   FIG. 4 is a sequence chart of a call process when calling a counterpart terminal to be called from a terminal in the mobile communication system according to the embodiment of the present invention.

端末10のユーザは、呼び出す相手端末の電話番号を端末10の操作部133のキー入力で入力し、その後、操作部133の送信キーを押すことで基地局に対し発呼要求を行う(発呼手段)。この時使用するCHには、通常はアクセス制御CHが使用される。このアクセス制御CHのデータフォーマットも、図2(b)に示す通りであり、アクセス要求コマンドと相手先電話番号がデジタルデータとしてアクセス制御CHデータのフィールドCACに挿入されて基地局に送信される。   The user of the terminal 10 inputs the telephone number of the partner terminal to be called by the key input of the operation unit 133 of the terminal 10, and then makes a call request to the base station by pressing the transmission key of the operation unit 133 (calling). means). The access control CH is normally used as the CH used at this time. The data format of the access control CH is also as shown in FIG. 2B, and the access request command and the other party telephone number are inserted as digital data in the field CAC of the access control CH data and transmitted to the base station.

一方、基地局は、この情報(アクセス要求コマンドと相手先電話番号)を受信すると、端末10からのアクセス要求を受理し、端末10に要求確認コマンドを返送する。   On the other hand, upon receiving this information (access request command and destination telephone number), the base station accepts the access request from the terminal 10 and returns a request confirmation command to the terminal 10.

次に基地局は、この電話番号の端末10が通信エリア内に存在することを確認し、ページングCHで呼び出しを行う。これにより、相手側端末は、着信音を鳴らして着信があることをユーザに通知する。また、これと同時に、基地局は、端末10に対して、相手側端末を呼び出し中である旨を通知し、端末10でも、呼び出し音を鳴らして相手側端末を呼び出し中であることをユーザに通知する。   Next, the base station confirms that the terminal 10 having this telephone number exists in the communication area, and makes a call using the paging CH. Thereby, the counterpart terminal notifies the user that there is an incoming call by ringing a ringtone. At the same time, the base station notifies the terminal 10 that the counterpart terminal is being called, and the terminal 10 also rings the ringing tone and informs the user that the counterpart terminal is being called. Notice.

この後、相手側端末が着信通知に応答する(即ち、相手側端末は呼設定を基地局に要求する)と、基地局は、予め用意されている通話CHに移行するように端末10と相手側端末に指示し、この予め用意されている通話CHに移行した後、通話が開始される。ここで基地局が端末10への返信に用いるCHは、基地局用制御CHが使われる。この基地局用制御CHのデータフォーマットも、図2(b)に示すデータフォーマットと同様である。   Thereafter, when the counterpart terminal responds to the incoming call notification (that is, the counterpart terminal requests the base station to set up a call), the base station and the terminal 10 communicate with the counterpart 10 so as to shift to a call CH prepared in advance. After instructing the terminal and shifting to the call CH prepared in advance, the call is started. Here, the base station control CH is used as the CH used by the base station for the reply to the terminal 10. The data format of this base station control CH is also the same as the data format shown in FIG.

以上の説明は、一般的なコールプロセスを簡易化した説明であり、実際には、この他に、使用CHの無線品質チェックや、認証チェック等の必要なタスクが有るが、本発明に係る無線通信システムには関係しないため、説明は割愛する。   The above description is a simplified description of a general call process. Actually, there are other necessary tasks such as a radio quality check of an used CH and an authentication check. The description is omitted because it is not related to the communication system.

以下、前記の一般的なコールプロセスの説明を踏まえて、端末10(携帯電話装置)から相手側端末を呼び出す場合において、端末10のカメラで撮像した画像を、相手側端末での着信呼出し中に、相手側端末の表示部に表示させる場合の動作例について詳細に説明する。   In the following, based on the description of the general call process, when calling the partner terminal from the terminal 10 (mobile phone device), an image captured by the camera of the terminal 10 is being called during the incoming call at the partner terminal. An example of operation when displaying on the display unit of the counterpart terminal will be described in detail.

図5は、本発明の実施形態に係る移動通信システムの端末における設定画面の選択項目を示す説明図であり、図5(a)は機能設定画面、図5(b)は呼出関連機能の設定画面、図5(c)は過去の呼出データの設定画面、図5(d)は呼出音声の設定画面、図5(e)は呼出関連機能の各選択項目に対応する詳細機能を、それぞれ示す。   FIG. 5 is an explanatory diagram showing selection items on the setting screen in the terminal of the mobile communication system according to the embodiment of the present invention, FIG. 5 (a) is a function setting screen, and FIG. 5 (b) is a call related function setting. FIG. 5C shows a past call data setting screen, FIG. 5D shows a call voice setting screen, and FIG. 5E shows a detailed function corresponding to each selection item of the call related function. .

送信側の端末10では、まず、相手側での着信に画像伝送を利用する旨の設定を行う。ここでは、端末10のユーザであるAさんは、端末10の図5(a)に示す設定画面により、5番目の項目である“呼出関連機能”を選択し、図5(b)に示す設定画面により、1番目の項目である“呼出情報に画像を利用”を選択する(なお、呼出情報に他の項目を選択した場合についての動作例も、以下の説明に準じるものとする)。   In the terminal 10 on the transmission side, first, a setting is made to use image transmission for an incoming call on the other side. Here, Mr. A who is the user of the terminal 10 selects the “call-related function” that is the fifth item on the setting screen shown in FIG. 5A of the terminal 10, and the setting shown in FIG. 5B. On the screen, the first item “use image for call information” is selected (an operation example when another item is selected for call information also conforms to the following description).

この設定により、以後の呼出時には、この設定モードで、アクセス制御CHによる呼出が行われる。   With this setting, at the time of a subsequent call, a call using the access control CH is performed in this setting mode.

即ち、前記設定の場合、端末10は、呼び出しモードであること(即ち、呼び出したい相手を呼び出している場合であること)を検知すると、自動的に、カメラ部123を動作させることが可能となる。ここで、撮像画像としては動画像と静止画像との区別が有るが、Aさんがシャッター部124を操作して静止画像を選択した場合には、動画像データは自動的に排除され、その静止画像のみが呼出情報として有効になる。   In other words, in the case of the above setting, when the terminal 10 detects that it is in the calling mode (that is, when it is calling the other party to be called), the camera unit 123 can be automatically operated. . Here, although there is a distinction between a moving image and a still image as a captured image, when Mr. A operates the shutter unit 124 to select a still image, the moving image data is automatically excluded and the still image is displayed. Only images are valid as call information.

また、Aさんが最初に動画像を撮像して、その後静止画像を撮像した場合、呼出情報としては最初の動画像が使われ、その後、静止画像となった時点で、相手が呼び出しに応答するまで、ずっと静止画像が相手の端末(携帯電話装置)の表示部に表示されることになる。   In addition, when Mr. A first captures a moving image and then captures a still image, the first moving image is used as call information, and then the other party answers the call when the still image is obtained. Until then, the still image is displayed on the display unit of the other party's terminal (mobile phone device).

Aさんの端末10からBさんの端末を呼び出す場合(発呼する場合)、AさんはBさんの端末の電話番号を操作部133から入力する。この電話番号は、アクセス制御CHにより基地局に送信される(発呼要求)。   When calling Mr. B's terminal from Mr. A's terminal 10 (calling), Mr. A inputs the telephone number of Mr. B's terminal from the operation unit 133. This telephone number is transmitted to the base station by the access control CH (call request).

これにより、図4のシーケンスチャートで説明したとおり、基地局より、Aさんの端末10に対して前記発呼要求確認の応答がなされ、基地局がアクセス制御CHに対応するページングCHを使用してBさんの端末の呼び出しを開始し、同時に、基地局より、Aさんの端末10に対してBさんを呼び出し中である旨の報知がなされる。この報知と同時に、カメラ部123が動作可能となり、Aさんはカメラ部123により、自分の顔を撮像開始する。これと同時に、表示部134に自分の顔が表示され、Bさんを呼び出し中であることも表示される。   Thereby, as explained in the sequence chart of FIG. 4, the base station makes a response to the call request confirmation to the terminal 10 of Mr. A, and the base station uses the paging CH corresponding to the access control CH. Mr. B's terminal is started to be called, and at the same time, the base station notifies Mr. A's terminal 10 that Mr. B is being called. Simultaneously with this notification, the camera unit 123 becomes operable, and Mr. A starts imaging his / her face with the camera unit 123. At the same time, his / her face is displayed on the display unit 134 and the fact that Mr. B is being called is also displayed.

Aさんの撮像した顔データは、画像データ処理部108でデジタルデータに変換され、さらに、後述の図6に示すようなデータフォーマットを備えた連続したデジタルデータに変換され、記憶部132に一旦記憶される。なお、カメラ部123による撮像画像は、前記の顔以外に、勿論周囲の風景であってもよい。   The face data captured by Mr. A is converted into digital data by the image data processing unit 108, further converted into continuous digital data having a data format as shown in FIG. 6 to be described later, and temporarily stored in the storage unit 132. Is done. Note that the image captured by the camera unit 123 may of course be a surrounding landscape other than the face described above.

引き続き、基地局は、ページングCHによりBさんの端末の呼び出しを開始する。この呼び出し時に、記憶部132に一旦記憶されていたAさんが撮像した顔データは、基地局を介して、前記電話番号の端末(即ちBさんの端末)に送信される。ここで、Aさんが撮像した前記顔データは、例えば、後述の図6,7に示すデータフォーマットを備えた画像データとすることが可能であるが、情報量が少ない場合には、必ずしもパケット化する必要はないものとする。また、パケット化が可能か否かは、本システムが採用する通信方式(規格)によって決定される。   Subsequently, the base station starts calling Mr. B's terminal by paging CH. At the time of this call, the face data captured by Mr. A once stored in the storage unit 132 is transmitted to the terminal having the telephone number (that is, Mr. B's terminal) via the base station. Here, the face data captured by Mr. A can be, for example, image data having a data format shown in FIGS. 6 and 7 to be described later. However, when the amount of information is small, it is not always packetized. There is no need to do. Whether or not packetization is possible is determined by the communication method (standard) adopted by the present system.

Aさんの撮像した顔データを視認したBさんが、この呼び出しに応答すると、図4のシーケンスチャートで説明したとおり、Bさんの端末からの基地局への呼設定の要求により、制御CHから通話CHに移行する。この時、Aさんの端末10にも、基地局より、CH変更が指示される。端末10のCPU部131は、通話CHへの移行を検知すると、表示部134への撮像画像表示を停止し、“通話中”の表示を表示部134に表示する。これにより、Bさんが電話に出ていることがAさんに報知される。   When Mr. B who views the face data captured by Mr. A responds to this call, as explained in the sequence chart of FIG. 4, a call is made from the control CH in response to a request for call setting from the terminal of Mr. B to the base station. Move to CH. At this time, CH change is also instructed to the terminal 10 of Mr. A from the base station. When detecting the transition to the call CH, the CPU unit 131 of the terminal 10 stops displaying the captured image on the display unit 134 and displays “busy” on the display unit 134. This notifies Mr. A that Mr. B is answering the phone.

図6は、基地局に送信するためのアクセス制御CHを用いて送信データをパケット化する場合のデータフォーマットの1例を示すものであり、図6(a)はユーザーパケット用データスペースをCACフィールド(図2(b)参照)に含むアクセス制御CH、図6(b)はCACフィールドに挿入される画像データ、図6(c)はCACフィールドに挿入される画像データをパケット化(発呼準備手段)した場合、図6(d)はCACフィールドに挿入される音声データ、図6(e)はCACフィールドの音声データをパケット化した場合の、それぞれデータフォーマットを示す。   FIG. 6 shows an example of a data format when packetizing transmission data using an access control CH for transmission to the base station. FIG. 6A shows a user packet data space as a CAC field. (See FIG. 2B.) Access control CH included in FIG. 2, FIG. 6B is image data inserted into the CAC field, and FIG. 6C is packetized image data inserted into the CAC field (call preparation) 6 (d) shows the audio data inserted into the CAC field, and FIG. 6 (e) shows the data format when the audio data in the CAC field is packetized.

同図において、符号S1〜S4のフィールドは音声データを示し、符号V1〜V4で示すフィールドは画像データを示す。なお、符号R,P,Gで示す各フィールドについては、図2(b)で説明したとおりである。また、以下では、便宜上、符号S1〜S4で示されるフィールドの音声データを符号S1〜S4で示し、符号V1〜V4で示されるフィールドの画像データを符号V1〜V4で示し、それぞれ特にフィールドとは区別しない。   In the figure, fields S1 to S4 indicate audio data, and fields indicated by codes V1 to V4 indicate image data. The fields indicated by the symbols R, P, and G are as described with reference to FIG. In the following, for the sake of convenience, the audio data of the field indicated by reference signs S1 to S4 are indicated by reference signs S1 to S4, and the image data of the field indicated by reference signs V1 to V4 are indicated by reference signs V1 to V4. I do not distinguish.

図6(a)に示すデータフォーマットは、情報量の多いデータの高速通信に適したユーザーパケットCHのデータフォーマットを利用してアクセス制御CHを構成する場合のアクセス制御CHのデータフォーマットである。   The data format shown in FIG. 6A is the data format of the access control CH when the access control CH is configured using the data format of the user packet CH suitable for high-speed communication of data with a large amount of information.

図6(b)に示すデータフォーマットでは、画像データV1〜V4は、データ処理部106によりパケット化され、それぞれのパケットは、図6(c)に示すデータフォーマットのように符号H1〜H4で示すヘッダービットを付けて管理される。   In the data format shown in FIG. 6B, the image data V1 to V4 are packetized by the data processing unit 106, and each packet is denoted by reference numerals H1 to H4 as in the data format shown in FIG. 6C. Managed with header bits.

この場合、画像データV1〜V4にはタグが付けられる。このタグは、動画像であればmpegあるいはcif等であり、静止画像であればjpeg,gif,pngといったタグを付けられる。このタグにより画像種別を区別することができる。   In this case, tags are attached to the image data V1 to V4. This tag is mpeg or cif if it is a moving image, and tags such as jpeg, gif, png if it is a still image. The image type can be distinguished by this tag.

図7は、ユーザーパケットCHと同様のデータフォーマットにより画像/音声データを組み立てる場合の1例を示す説明図であり、図7(a)は呼出データが画像だけの場合のデータフォーマット、図7(b)は呼出データが画像データと音声データの両方である場合のデータフォーマットを示す。   FIG. 7 is an explanatory diagram showing an example of assembling image / audio data in the same data format as that of the user packet CH. FIG. 7A shows a data format when the call data is only an image, and FIG. b) shows a data format when the call data is both image data and audio data.

図7(a)に示すデータフォーマットは、AさんがBさんを呼び出す場合に、Aさんの顔を撮像し、その撮像データをユーザーパケットCHを使って送信し、相手先を呼び出す時の、前記ユーザーパケットCHのデータフォーマットの1例であり、パケット化されたAさんの画像データは、呼出コマンドデータの後にヘッダーH1が付けられた画像データV1から成り、基地局には、このユーザーパケットCHと同様のデータフォーマットで構成された呼出コマンドデータをアクセス制御CHにより送信する。   The data format shown in FIG. 7A is that when Mr. A calls Mr. B, the face of Mr. A is imaged, the imaged data is transmitted using the user packet CH, and the other party is called. This is an example of the data format of the user packet CH, and the packetized image data of Mr. A consists of image data V1 with a header H1 after the call command data. Call command data configured in the same data format is transmitted by the access control CH.

この呼出コマンドデータにはBさんを呼び出すための発呼要求と、Bさんの電話番号とが入っているため、前述のコールプロセス(図4に示すシーケンスチャート)に従って基地局からBさんを呼び出す際のページングCHのデータフォーマットにも、同様のユーザーパケットCHが割り当てられる。即ち、基地局からは、図7に示すデータフォーマットのページングCHがBさんに送信される。   Since this call command data includes a call request for calling Mr. B and Mr. B's telephone number, when calling Mr. B from the base station according to the above-described call process (sequence chart shown in FIG. 4). The same user packet CH is also assigned to the data format of the paging CH. That is, the paging CH having the data format shown in FIG.

Bさんの端末(以下、Aさんの端末10と同じ構成の端末とする)は、このページングCHを受信部102(図1)で受信し、復調部104でアナログデータに復調する。その後、データ処理部106においてアナログデータからデジタルデータに変換され、このデジタルデータに含まれる呼出コマンドをCPU部131が検出すると、CPU部131は、画像あるいは音声での呼出があったことをBさんに知らせるために、このデジタルデータのヘッダービットをチェックする。このヘッダービットの示す情報がヘッダーH1〜H4である場合は、CPU部131は、このパケットデータは画像データであるものと判断し、画像データ処理部108においてアナログデータに変換された後、表示部134に表示させる。   Mr. B's terminal (hereinafter referred to as a terminal having the same configuration as Mr. A's terminal 10) receives this paging CH by the receiving unit 102 (FIG. 1) and demodulates it into analog data by the demodulating unit 104. Thereafter, the data processing unit 106 converts the analog data into digital data, and when the CPU unit 131 detects a call command included in the digital data, the CPU unit 131 indicates that there is a call by image or voice. Check the header bits of this digital data to inform. When the information indicated by the header bits is the headers H1 to H4, the CPU 131 determines that the packet data is image data, and after the image data processing unit 108 converts the data into analog data, the display unit 134 is displayed.

また、CPU部131は、このパケットデータが単なる呼出データであることを呼出コマンドデータにより検出すると、報知部135により、事前に呼出設定された着信音や照明、若しくはバイブレータ等の出力パターンにより、Bさんに呼出情報による着信を報知する。   Further, when the CPU 131 detects from the call command data that the packet data is just call data, the notification section 135 uses the ringing tone, lighting, or output pattern of the vibrator or the like set in advance by B Is notified of incoming calls by calling information.

これにより、BさんはAさんの動画像を表示部134で確認できるので、誰からの電話であるかを確実に確認出来ると共に、この動画像中の顔の表情などから緊急用件であるのか、それとも通常用件であるのかを判断して、この呼び出しに応答することが可能となる。   As a result, Mr. B can confirm Mr. A's moving image on the display unit 134. Therefore, Mr. B can surely confirm who is calling and whether it is an emergency request from the facial expression in the moving image. It is possible to answer this call by judging whether it is a normal business or not.

さらに、Aさんが自分の顔を撮像して呼出に使用すると共に、音声も呼出に使用したい場合には、呼出関連の項目3(図5(b)参照)を選択すると、Bさんを呼び出し中であることが、基地局からAさんに報知され、同時に、カメラ部123とマイク部122が作動する。これにより、Aさんが、マイク部122に音声を入力すると、音声データ処理部107は、アナログの音声データを、図6(d)のフィールドS1からS4で示す連続したデジタル音声データに変換する。その後、データ処理部106で、図7(b)に示すとおりにパケット化される。なお、それぞれのパケットには図6(e)に示すようにJ1からJ4のヘッダーが付けられて管理される。   Furthermore, when Mr. A picks up his face and uses it for calling and also uses voice for calling, selecting item 3 related to calling (see FIG. 5B), calling Mr. B. It is informed from the base station to Mr. A, and at the same time, the camera unit 123 and the microphone unit 122 operate. Accordingly, when Mr. A inputs sound into the microphone unit 122, the sound data processing unit 107 converts the analog sound data into continuous digital sound data indicated by fields S1 to S4 in FIG. 6D. Thereafter, the data processing unit 106 packetizes as shown in FIG. Each packet is managed with a header from J1 to J4 as shown in FIG. 6 (e).

さらに、画像データと音声データの両方を呼出データにしたい場合は、図7(b)に示すとおりにユーザ−パケット用データスペースに画像データと音声データとが、それぞれヘッダー付きで挿入され、画像データだけの場合と同様に送信される。勿論Aさんが音声だけを呼び出し情報に利用したい場合は、上記説明にある通り、Bさん呼出と同時にマイク部122のみが作動可能となり音声データのみが送出されることになる点以外は画像と全く同じであるが、呼出情報時のCHが制御CHであり、通話時は通話CHであるため、BさんはAさんの音声をCHを変えて連続で聞く事になり、周波数が異なった場合はハンドオフのように若干のタイムラグが生じる場合もある。   Further, when it is desired to use both image data and audio data as call data, as shown in FIG. 7B, the image data and audio data are inserted into the user-packet data space with headers, respectively. Just as in the case of Of course, when Mr. A wants to use only the voice for the call information, as described above, only the microphone unit 122 can be activated at the same time as Mr. B's call and only the voice data is sent out. Same as above, but the CH at the call information is the control CH and the call CH at the time of the call. Therefore, Mr. B will listen to Mr. A's voice continuously by changing the CH. There may be a slight time lag such as handoff.

また、図5(b)に示す呼出関連の設定画面で、6番目の項目である「音声を別データに変える」を選択することも可能である。但し、この項目を選択する場合は、まず事前にマイク部122より入力されたAさん以外の別の人の声を登録しておく必要がある。以下、この事前登録時の処理について説明する。   It is also possible to select the sixth item “change voice to different data” on the call-related setting screen shown in FIG. However, when selecting this item, it is necessary to first register the voice of another person other than Mr. A input from the microphone unit 122 in advance. Hereinafter, the process at the time of this pre-registration will be described.

マイク部122より入力されたAさん以外の別の人の声は、音声データ処理部107にてデジタルデータに変換された後、データ処理部106の制御により、音声録音部112に記憶(録音)される。この音声録音時には名前を付けられ、以後はこの名前で管理される。また、事前に、CDプレーヤーやMDプレーヤーといった音声再生装置20のデジタル出力を、外部I/F部113を介して入力し、データフォーマット変換部114にて、この通信システムの音声規格に変換した後、音声録音部112に記憶(録音)させて利用することも可能である。   The voice of another person other than Mr. A input from the microphone unit 122 is converted into digital data by the voice data processing unit 107 and then stored (recorded) in the voice recording unit 112 under the control of the data processing unit 106. Is done. A name is assigned at the time of recording the voice, and thereafter the name is managed. In addition, after the digital output of the audio playback device 20 such as a CD player or MD player is input via the external I / F unit 113 in advance and converted to the audio standard of this communication system by the data format conversion unit 114. It is also possible to store (record) the voice recording unit 112 for use.

図8は、本発明の実施形態に係る移動通信システムの端末が備える記憶部のメモリーマップの1例を示すものである。   FIG. 8 shows an example of a memory map of the storage unit provided in the terminal of the mobile communication system according to the embodiment of the present invention.

前述の撮像された画像は全て記憶部132に記憶されるが、この記憶の前に、この画像がサムネイル処理部111にてサムネイル画像に処理され、さらに、この画像は、前記処理されたサムネイル画像と併せて記憶部132に記憶される。   All of the above-described captured images are stored in the storage unit 132, but before this storage, this image is processed into a thumbnail image by the thumbnail processing unit 111, and this image is further processed into the processed thumbnail image. And stored in the storage unit 132.

即ち、前述の撮像された画像には、そのフォーマットを示すタグが付けられ、サムネイル画像と併せて記憶部132に記憶される。これによりAさんは、過去に使用した画像データを、サムネイル画像で表示部132に一覧表示させることが可能となり、以後の呼出情報として利用可能となる。   That is, a tag indicating the format is attached to the captured image, and is stored in the storage unit 132 together with the thumbnail image. Accordingly, Mr. A can display a list of image data used in the past on the display unit 132 as thumbnail images, and can be used as subsequent call information.

Bさんの端末10は、図7(b)に示すデータフォーマットのパケットデータを受信すると、データ処理部106にて、このパケットデータを、図7(a)に示す画像データだけの場合と同様に、デジタルデータに変換する。その後、呼出コマンドデータが最初に検出されると、CPU部131は、報知部135に着信を報知し、次にヘッダービットを検出する。ここでは、ヘッダービットH1の検出により、画像データV1は、画像データとして記憶部132に記憶され、ヘッダービットJ1,J2を検出することで音声データS1,S2が音声データとして記憶部132に記憶される。次に、ヘッダービットH2を検出し、画像データV2を画像データとして記憶部132に記憶する。最後にヘッダービットH3を検出し、画像データV3を画像データとして記憶部132に記憶する。   When Mr. B's terminal 10 receives the packet data having the data format shown in FIG. 7B, the data processing unit 106 converts the packet data into only the image data shown in FIG. 7A. , Convert to digital data. Thereafter, when the call command data is first detected, the CPU unit 131 notifies the notification unit 135 of the incoming call, and then detects the header bit. Here, by detecting the header bit H1, the image data V1 is stored as image data in the storage unit 132, and by detecting the header bits J1 and J2, the audio data S1 and S2 are stored as audio data in the storage unit 132. The Next, the header bit H2 is detected, and the image data V2 is stored in the storage unit 132 as image data. Finally, the header bit H3 is detected, and the image data V3 is stored in the storage unit 132 as image data.

CPU部131は、これ以上のヘッダーが無いことを確認してから、記憶部132に記憶されていた画像データを、一括して画像データ部108に送出し、アナログ画像への変換を指示する。同時に記憶部132に記憶されていた音声データも、一括して音声データ処理部107に送出し、アナログ音声への変換を指示する。   After confirming that there are no more headers, the CPU unit 131 sends the image data stored in the storage unit 132 to the image data unit 108 in a batch and instructs conversion to an analog image. At the same time, the audio data stored in the storage unit 132 is also sent to the audio data processing unit 107 at a time to instruct conversion to analog audio.

これにより、画像データ処理部108は、表示部134に、Aさんの動画像を表示し、音声データ処理部107は、スピーカ部121から、Aさんの音声を出力する。その結果、Bさんは、Aさんの顔画像及びAさんが発声する音声を伴う呼出を受けることが可能となる。   Accordingly, the image data processing unit 108 displays the moving image of Mr. A on the display unit 134, and the audio data processing unit 107 outputs the sound of Mr. A from the speaker unit 121. As a result, Mr. B can receive a call with Mr. A's face image and voice uttered by Mr. A.

また、ユーザは、呼出情報として、静止画像の1例であるアニメーション画像を利用することができる。例えば、自分のリアルライブの顔画像が日によって異なり、自分でどうしても嫌な場合や、多少恥ずかしいと感じる場合などにアニメ化した画像を利用できる。なお、従来からこのようなアニメ化のアイデアは多く、最近では、アバタ−と呼ばれるアニメーション画像を、ユーザの変身として使用するアイデアが実用化されている。   In addition, the user can use an animation image that is an example of a still image as call information. For example, an animated image can be used when the face image of his / her real live varies from day to day and he / she feels a little embarrassed by himself / herself. Conventionally, there are many such ideas for animation, and recently, an idea of using an animation image called an avatar as a user's transformation has been put into practical use.

しかし、従来の静止画像の1例であるアニメーション画像は、送信側のユーザの自画像をベースにして作られたものではなく、送信されるのは送信側のユーザとは全く似ていないアニメーション画像であるため、送信先のユーザは、送信者が誰かを推定することができなかった。   However, an animation image that is an example of a conventional still image is not created based on the self-portrait of the user on the transmission side, and is transmitted as an animation image that is not similar to the user on the transmission side. For this reason, the user of the transmission destination cannot estimate who the transmission is.

本実施形態に係る移動通信システムの端末10では、送信側のユーザの顔を撮像し、アニメーション画像生成部109が、その撮像画像から最適なアニメーション画像を生成し、さらに、三次元対応部110にて3次元のアニメーション画像に変換して呼出情報に利用するものである。   In the terminal 10 of the mobile communication system according to the present embodiment, the transmission-side user's face is imaged, and the animation image generation unit 109 generates an optimal animation image from the captured image. It is converted into a three-dimensional animation image and used for call information.

従って、このアニメーション画像は、静止画像として撮像された人間の顔であることが必要条件となる。また、携帯電話装置という限られた情報処理能力でアニメ化するために、特徴点の位置合わせを行ってテクスチャを貼り込むことで、それらしい3次元の顔データを作ることに重点が置かれる。   Therefore, it is a necessary condition that this animation image is a human face imaged as a still image. Also, in order to animate with the limited information processing capability of a mobile phone device, emphasis is placed on creating such three-dimensional face data by aligning feature points and pasting textures.

送信側のユーザの顔を特徴抽出する際の特徴点を、目(両方)、鼻、口、あご、ほほ(両方)の7点、及び髪型を3点とし、以上10点の位置関係から顔の向きを推定し、正面向きのテクスチャを作成する。このテクスチャを3次元モデルでマッピングすることにより、3次元のアニメーション画像が生成される。   The feature points when extracting the face of the user on the sending side are 7 points for eyes (both), nose, mouth, chin, cheek (both), and 3 hairstyles. Estimate the direction of the, and create a front-facing texture. By mapping this texture with a three-dimensional model, a three-dimensional animation image is generated.

勿論、送信側のユーザの強調できる部分の情報を事前にアニメーション画像生成部109に登録しておくことで、送信側のユーザの3Dアニメーション画像の目や口といった部分の表情を、例えば、“泣きたい”、“怒ってる”といった表情の表現に合成することも可能である。   Of course, by registering in advance the information that can be emphasized by the user on the transmission side in the animation image generation unit 109, the facial expression of the transmission user on the 3D animation image of the user on the transmission side, for example, “crying” It can also be combined with facial expressions such as “I want” and “I'm angry”.

図9は、ユーザの顔の撮像画像からアニメーション画像を生成する方法の1例を示すものであり、図9(a)はユーザの顔の撮像画像の表示画面を示し、図9(b)は撮像画像から生成されるアニメーション画像の加工画面を示す。   FIG. 9 shows an example of a method for generating an animation image from a captured image of the user's face. FIG. 9A shows a display screen of the captured image of the user's face, and FIG. The processing screen of the animation image produced | generated from a captured image is shown.

ユーザの顔の撮像画像は、登録時に、表示部137に表示される。また、操作部133の操作により、この撮像画像から生成されるアニメーション画像を表示させることができる。さらに、このアニメーション画像の表示画面には、このアニメーション画像を加工(表現合成)するために選択可能な項目が表示される。   The captured image of the user's face is displayed on the display unit 137 at the time of registration. Further, an animation image generated from the captured image can be displayed by operating the operation unit 133. Further, items that can be selected for processing (representing and synthesizing) the animation image are displayed on the display screen of the animation image.

図9(b)に示すアニメーション画像の加工画面で、例えば、ユーザが、口の番号に相応する操作部133の数字キー2を押下することで、アニメーション画像の口をパクパクさせるとか、同様に、数字キー3を押下することで、アニメーション画像の目から涙を流させるといった表現合成が可能となる。   In the animation image processing screen shown in FIG. 9B, for example, the user presses the numeric key 2 of the operation unit 133 corresponding to the number of the mouth, and the mouth of the animation image is packed. By depressing the numeric key 3, it is possible to perform expression composition such as tears flowing from the eyes of the animation image.

例えば、上記数字キー2を押して表現合成しておいた場合、発呼時に、送信側のユーザが、音声で、例えば、“私お腹が空いてるの、食事に行かない”と、端末10(のマイク部122)に向かって喋ると、相手側端末には、送信側のユーザの口がパクパクする3Dアニメの表示と同時に、呼出音として、“私お腹が空いてるの、食事に行かない”と、発声する音声が出力される。   For example, when the number key 2 is pressed and the expression is synthesized, the user on the transmission side, for example, voices, for example, “I am hungry, do not go to meals” when the call is made. Speaking toward the microphone unit 122), the other party's terminal displays a 3D animation in which the mouth of the user on the transmitting side is packed, and at the same time, as a ringing tone, “I am hungry, do not go to meals” , Voice to be uttered is output.

なお、3Dアニメを表示させるためには、送信側のユーザは、事前に、図5(b)に示す呼出関連の設定画面で、4番目の項目である“3Dアニメを利用”を選択決定しておくことが必要である。   In order to display the 3D animation, the user on the transmission side selects and determines “use 3D animation” as the fourth item in advance on the call-related setting screen shown in FIG. 5B. It is necessary to keep it.

発呼時には、呼び出したい相手先に対して発呼要求を行うと共に、カメラ部123による自画像をシャッター部124の操作で撮像すると、表示部134に自分の3Dアニメ画像が表示されると同時に相手にも同じ3Dアニメ画像が着信情報として送信され、また音声をマイク部122に入力することで動画像データと同様に音声データも送信される。   When a call is made, a call request is made to the other party to be called, and a self-portrait by the camera unit 123 is captured by operating the shutter unit 124, and at the same time the own 3D animation image is displayed on the display unit 134. The same 3D animation image is transmitted as incoming information, and voice data is also transmitted in the same manner as moving image data by inputting voice into the microphone unit 122.

ちなみに、現在の通信システムでは、制御CHによる端末10と基地局とのやり取り(通信)には課金されない。   Incidentally, in the current communication system, there is no charge for the exchange (communication) between the terminal 10 and the base station using the control CH.

本発明の実施形態に係る移動通信システムの端末の構成を示す構成図である。It is a block diagram which shows the structure of the terminal of the mobile communication system which concerns on embodiment of this invention. 本発明の実施形態に係る移動通信システムにおける送受信データのフォーマットの1例を示すものであり、(a)はTDMAフレームを示し、(b)は制御チャネルのデータフォーマットを示す。1 shows an example of a format of transmission / reception data in a mobile communication system according to an embodiment of the present invention, where (a) shows a TDMA frame and (b) shows a data format of a control channel. 本発明の実施形態に係る移動通信システムの端末において送受信されるデータの分解・組み立て方法を示す説明図である。It is explanatory drawing which shows the decomposition | disassembly / assembly method of the data transmitted / received in the terminal of the mobile communication system which concerns on embodiment of this invention. 本発明の実施形態に係る移動通信システムにおいて端末から呼び出したい相手端末を呼び出す場合のコールプロセスのシーケンスチャートである。It is a sequence chart of a call process in the case of calling the other party terminal which wants to call from a terminal in the mobile communication system concerning the embodiment of the present invention. 本発明の実施形態に係る移動通信システムの端末における設定画面の選択項目を示す説明図であり、(a)は機能設定画面、(b)は呼出関連機能の設定画面、(c)は過去の呼出データの設定画面、(d)は呼出音声の設定画面、(e)は呼出関連機能の各選択項目に対応する詳細機能を、それぞれ示す。It is explanatory drawing which shows the selection item of the setting screen in the terminal of the mobile communication system which concerns on embodiment of this invention, (a) is a function setting screen, (b) is a setting screen of a call related function, (c) is the past. A call data setting screen, (d) shows a call voice setting screen, and (e) shows detailed functions corresponding to each selection item of the call-related functions. 基地局に送信するためのアクセス制御CHを用いて送信データをパケット化する場合のデータフォーマットの1例を示すものであり、(a)はユーザーパケット用データスペースをCACフィールドに含むアクセス制御CH、(b)はCACフィールドの画像データ、(c)はCACフィールドの画像データをパケット化した場合、(d)はCACフィールドの音声データ、(e)はCACフィールドの音声データをパケット化した場合の、それぞれデータフォーマットを示す。FIG. 6 shows an example of a data format when packetizing transmission data using an access control CH for transmission to a base station, (a) is an access control CH including a user packet data space in a CAC field; (B) is the CAC field image data, (c) is the CAC field image data packetized, (d) is the CAC field audio data, (e) is the CAC field audio data packetized The data format is shown respectively. ユーザーパケットCHと同様のデータフォーマットにより画像/音声データを組み立てる場合の1例を示す説明図であり、(a)は呼出データが画像だけの場合のデータフォーマット、(b)は呼出データが画像データと音声データの両方である場合のデータフォーマットを示す。It is explanatory drawing which shows an example in the case of assembling image / audio data by the data format similar to the user packet CH, (a) is a data format in case call data is only an image, (b) is call data is image data. The data format in the case of both audio data and audio data is shown. 本発明の実施形態に係る移動通信システムの端末が備える記憶部のメモリーマップの1例を示すものである。1 shows an example of a memory map of a storage unit provided in a terminal of a mobile communication system according to an embodiment of the present invention. ユーザの顔の撮像画像からアニメーション画像を生成する方法の1例を示すものであり、(a)はユーザの顔の撮像画像の表示画面を示し、(b)は撮像画像から生成されるアニメーション画像の加工画面を示す。1 shows an example of a method for generating an animation image from a captured image of a user's face, (a) shows a display screen of the captured image of the user's face, and (b) shows an animation image generated from the captured image. The processing screen is shown.

符号の説明Explanation of symbols

10 端末(本実施形態の移動通信システムの端末)
20 音声再生装置
101 アンテナ部
102 受信部
103 送信部
104 復調部
105 変調部
106 データ処理部
107 音声データ処理部
108 画像データ処理部
109 アニメーション画像生成部
110 三次元対応部
111 サムネイル処理部
112 音声録音部
113 外部I/F部
114 データフォーマット変換部
121 スピーカ部
122 マイク部
123 カメラ部
124 シャッター部
131 CPU部
132 記憶部
133 操作部
134 表示部
135 報知部
136 電源部
137 電池
10 terminal (terminal of mobile communication system of this embodiment)
20 audio playback device 101 antenna unit 102 receiving unit 103 transmitting unit 104 demodulating unit 105 modulating unit 106 data processing unit 107 audio data processing unit 108 image data processing unit 109 animation image generating unit 110 three-dimensional correspondence unit 111 thumbnail processing unit 112 audio recording Unit 113 external I / F unit 114 data format conversion unit 121 speaker unit 122 microphone unit 123 camera unit 124 shutter unit 131 CPU unit 132 storage unit 133 operation unit 134 display unit 135 notification unit 136 power supply unit 137 battery

Claims (15)

音声データ及び画像データの送受信が可能な複数の移動通信端末を備えて構成される移動通信システムにおいて、
前記複数の移動通信端末の各々は、
音声を入力して音声データを得る音声入力手段と、
被写体を撮像して画像データを得る撮像手段と、
前記音声入力手段により入力された音声データまたは受信した音声データを出力する音声出力手段と、
前記撮像手段により撮像された画像データまたは受信した画像データを表示する表示手段と、
発呼要求により、前記記撮像手段により撮像された画像データ及び/または前記音声入力手段により入力された音声データを、所定のデータフォーマットに変換した後、特定の通信チャネルの情報ビットフィールドに挿入する発呼準備手段と、
前記発呼準備手段により準備された前記特定の通信チャネルを使用して発呼する発呼手段と、
を備えたことを特徴とする移動通信システム。
In a mobile communication system comprising a plurality of mobile communication terminals capable of transmitting and receiving audio data and image data,
Each of the plurality of mobile communication terminals is
Voice input means for inputting voice and obtaining voice data;
Imaging means for capturing an image of a subject and obtaining image data;
Voice output means for outputting voice data input by the voice input means or received voice data;
Display means for displaying image data captured by the imaging means or received image data;
In response to a call request, the image data picked up by the image pickup means and / or the sound data input by the sound input means are converted into a predetermined data format and then inserted into an information bit field of a specific communication channel. Call preparation means;
Calling means for calling using the specific communication channel prepared by the call preparation means;
A mobile communication system comprising:
前記発呼時に使用される特定の通信チャネルは、所定のアクセス制御チャネルであることを特徴とする請求項1に記載の移動通信システム。   The mobile communication system according to claim 1, wherein the specific communication channel used at the time of calling is a predetermined access control channel. 前記画像データ及び/または前記音声データは、記憶部に一旦記憶されると共に、発呼時に、前記発呼準備手段により、前記記憶部から取り出されて、前記特定の通信チャネルの情報ビットフィールドに挿入されることを特徴とする請求項1または請求項2に記載の移動通信システム。   The image data and / or the audio data is temporarily stored in a storage unit, and when a call is made, the image data and / or the audio data is extracted from the storage unit by the call preparation unit and inserted into the information bit field of the specific communication channel The mobile communication system according to claim 1 or 2, characterized in that: 前記画像データは、動画像データまたは静止画像データのいずれか1つであることを特徴とする請求項1乃至3のいずれか1項に記載の移動通信システム。   The mobile communication system according to any one of claims 1 to 3, wherein the image data is any one of moving image data and still image data. 前記移動通信端末の任意の1つは、前記移動通信端末の他の任意の1つから、前記アクセス制御チャネルを使用した発呼を受けて着信した時に、当該着信を報知すると共に、前記アクセス制御チャネルに音声データが挿入されている場合は、当該音声データを前記音声出力手段により出力することを特徴とする請求項1乃至4のいずれか1項に記載の移動通信システム。   When any one of the mobile communication terminals receives a call using the access control channel from any other one of the mobile communication terminals, the mobile communication terminal notifies the incoming call and the access control The mobile communication system according to any one of claims 1 to 4, wherein when voice data is inserted in a channel, the voice data is output by the voice output means. 前記移動通信端末の1つは、前記移動通信端末の他の1つから、前記アクセス制御チャネルを使用した発呼を受けて着信した時に、当該着信を報知すると共に、前記アクセス制御チャネルに画像データが挿入されている場合は、当該画像データを前記表示手段により表示することを特徴とする請求項1乃至5のいずれか1項に記載の移動通信システム。   When one of the mobile communication terminals receives an incoming call using the access control channel from the other one of the mobile communication terminals, the mobile communication terminal notifies the incoming call and transmits image data to the access control channel. The mobile communication system according to any one of claims 1 to 5, wherein the image data is displayed by the display means when the is inserted. 前記移動通信端末の任意の1つが、前記移動通信端末の他の任意の1つに発呼した場合に、基地局から、前記発呼を確認して呼び出し中である旨の通知が、前記発呼側の移動通信端末の任意の1つに送信されることを特徴とする請求項1乃至6のいずれか1項に記載の移動通信システム。   When any one of the mobile communication terminals makes a call to any other one of the mobile communication terminals, the base station confirms the call and notifies that the call is being made. The mobile communication system according to any one of claims 1 to 6, wherein the mobile communication system is transmitted to any one of call side mobile communication terminals. 前記特定の通信チャネルの情報ビットフィールドに挿入される音声データは、発呼者の声を入力して成る音声データであることを特徴とする請求項1乃至7のいずれか1項に記載の移動通信システム。   The movement according to any one of claims 1 to 7, wherein the voice data inserted into the information bit field of the specific communication channel is voice data formed by inputting a voice of a caller. Communications system. 前記特定の通信チャネルの情報ビットフィールドに挿入される画像データは、発呼者の顔を撮像して成る画像データであることを特徴とする請求項1乃至8のいずれか1項に記載の移動通信システム。   The movement according to any one of claims 1 to 8, wherein the image data inserted into the information bit field of the specific communication channel is image data obtained by capturing an image of a caller's face. Communications system. 前記発呼者の顔を撮像して成る画像データを、アニメーション画像データに変換する手段を備えると共に、前記アニメーション画像データを前記特定の通信チャネルの情報ビットフィールドに挿入することを特徴とする請求項9に記載の移動通信システム。   The image data obtained by imaging the caller's face is converted to animation image data, and the animation image data is inserted into an information bit field of the specific communication channel. 10. The mobile communication system according to 9. 前記通信チャネルの情報ビットフィールドに挿入されるアニメーション画像データを、事前に3次元画像表現のデータに変換する手段を備えることを特徴とする請求項10に記載の移動通信システム。   The mobile communication system according to claim 10, further comprising means for converting animation image data inserted into the information bit field of the communication channel into data of a three-dimensional image representation in advance. 前記通信チャネルの情報ビットフィールドに挿入される前記画像データの画像及び前記アニメーション画像を、サムネイル画像に変換する手段を備えることを特徴とする請求項1乃至11のいずれか1項に記載の移動通信システム。   The mobile communication according to any one of claims 1 to 11, further comprising means for converting the image of the image data and the animation image inserted into the information bit field of the communication channel into a thumbnail image. system. 請求項1乃至12に記載の移動通信システムの移動通信端末として構成される移動通信端末。   A mobile communication terminal configured as a mobile communication terminal of the mobile communication system according to claim 1. 請求項1乃至12に記載の移動通信システムの移動通信端末として構成される携帯電話装置。   A cellular phone device configured as a mobile communication terminal of the mobile communication system according to claim 1. 請求項1乃至12に記載の移動通信システムにおける移動通信端末の処理を実行するコンピュータを制御するためのコンピュータプログラム。   The computer program for controlling the computer which performs the process of the mobile communication terminal in the mobile communication system of Claim 1 thru | or 12.
JP2004328638A 2004-11-12 2004-11-12 Mobile communications system and mobile communication terminal Pending JP2006140773A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004328638A JP2006140773A (en) 2004-11-12 2004-11-12 Mobile communications system and mobile communication terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004328638A JP2006140773A (en) 2004-11-12 2004-11-12 Mobile communications system and mobile communication terminal

Publications (1)

Publication Number Publication Date
JP2006140773A true JP2006140773A (en) 2006-06-01

Family

ID=36621259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004328638A Pending JP2006140773A (en) 2004-11-12 2004-11-12 Mobile communications system and mobile communication terminal

Country Status (1)

Country Link
JP (1) JP2006140773A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011530841A (en) * 2008-05-27 2011-12-22 クゥアルコム・インコーポレイテッド Setting up a communication session within a wireless communication system
JP2015513711A (en) * 2012-01-10 2015-05-14 サムスン エレクトロニクス カンパニー リミテッド Apparatus and method for controlling rotation of display image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011530841A (en) * 2008-05-27 2011-12-22 クゥアルコム・インコーポレイテッド Setting up a communication session within a wireless communication system
JP2013258742A (en) * 2008-05-27 2013-12-26 Qualcomm Inc Setting up communication session within wireless communications system
US9020111B2 (en) 2008-05-27 2015-04-28 Qualcomm Incorporated Setting up a communication session within a wireless communications system
JP2015513711A (en) * 2012-01-10 2015-05-14 サムスン エレクトロニクス カンパニー リミテッド Apparatus and method for controlling rotation of display image

Similar Documents

Publication Publication Date Title
JP4016388B2 (en) Mobile phone terminal with videophone function
JP4351898B2 (en) Character image remote control apparatus and method using mobile communication terminal
EP2175647B1 (en) Apparatus and method for providing emotion expression service in mobile communication terminal
CN101202568B (en) Terminal and method for supporting combination playing
US20080151786A1 (en) Method and apparatus for hybrid audio-visual communication
JP2003143256A (en) Terminal and communication control method
JP2002354436A (en) Video telephone apparatus
JP2005303365A (en) Transmitting/receiving method of portable tv telephone and portable tv telephone terminal
JPH0870366A (en) Method for recording and reproducing voice message and communication equipment
US20050059433A1 (en) Portable telephone including an animation function and a method of controlling the same
JP4532537B2 (en) Mobile terminal device, mobile communication system, and communication program
JP5396789B2 (en) Telephone system
JP2006140773A (en) Mobile communications system and mobile communication terminal
JP2002118689A (en) Function of automatically reproducing voice in response to calling party at other end in transmission through cellular phone
KR100438540B1 (en) Image transmitting/receiving method and system for mobile communication terminal equipment
JP4593079B2 (en) Mobile terminal device, mobile communication system, fixed terminal device, and communication program
JP2002044285A (en) Mobile communication terminal device and portable display terminal device
JP4296976B2 (en) Communication terminal device
KR100945162B1 (en) System and method for providing ringback tone
JP3851020B2 (en) Data communication system
JP2007096486A (en) Mobile communication system selection method and mobile communication terminal used for the same
JP2007129365A (en) Communication apparatus, communication system, control program for communication apparatus, and recording medium for recording control program of communication apparatus
JP2002171497A (en) Image synthesis system and phone
JP2001273238A (en) Mail transmitter and mail receiver
KR200318747Y1 (en) Mobile Fixed Phone Capable of Camcoder