JP2002366179A - Information terminal device and program - Google Patents

Information terminal device and program

Info

Publication number
JP2002366179A
JP2002366179A JP2001168435A JP2001168435A JP2002366179A JP 2002366179 A JP2002366179 A JP 2002366179A JP 2001168435 A JP2001168435 A JP 2001168435A JP 2001168435 A JP2001168435 A JP 2001168435A JP 2002366179 A JP2002366179 A JP 2002366179A
Authority
JP
Japan
Prior art keywords
processing
image data
data
audio data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001168435A
Other languages
Japanese (ja)
Other versions
JP4158356B2 (en
Inventor
Takumi Yamada
匠 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2001168435A priority Critical patent/JP4158356B2/en
Publication of JP2002366179A publication Critical patent/JP2002366179A/en
Application granted granted Critical
Publication of JP4158356B2 publication Critical patent/JP4158356B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enable a user to easily process audio data and easily know the processing contents of the audio data by generating and displaying image data corresponding to the kind and degree of processing of the audio data. SOLUTION: In an information terminal device 1, a CPU 11 makes 1st image data correspond to the audio data, processes the audio data according to the selected kind and degree of processing, puts together variation of image data made to correspond to the kind and degree of the processing or variation of the 2nd image data and the 1st image data together, and records the processed audio data while making them correspond to the composite image data. Further, the CPU 11 makes the 1st image data correspond to the audio data, analyzes the audio data, puts together the variation of the 1st image data corresponding to the analysis data or the 2nd image data and 1st image data, and records the audio data while making them correspond to the composite image data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声データを画像
データと対応付けて記録する情報端末装置、及びプログ
ラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information terminal device and a program for recording audio data in association with image data.

【0002】[0002]

【従来の技術】近年、音楽のデジタルデータ化が進み、
インターネット経由での音楽のダウンロードをはじめと
して、ユーザがパソコン上で音声データを取り扱うこと
が増えてきた。従来、音声データを管理する機能とし
て、音声データに音符やスピーカ等が表示された画像デ
ータを対応付けることによってパソコンの画面上で音声
データであることを視覚的に区別できるようにし、当該
画像データをマウスでクリックする等の簡単な操作で音
声データが再生できる音声スタンプが利用されている。
2. Description of the Related Art In recent years, digitalization of music has progressed,
More and more users handle audio data on personal computers, including downloading music via the Internet. Conventionally, as a function of managing audio data, by associating the audio data with image data in which a note, a speaker, or the like is displayed, it is possible to visually distinguish the audio data on the screen of a personal computer, and Audio stamps that can reproduce audio data by simple operations such as clicking with a mouse are used.

【0003】通常、音声スタンプは録音、受信メールか
らの音声登録時に自動的にデフォルトの画像データが対
応づけられており、ユーザがこの画像データを別の画像
データに変更する機能を有している。画像データの変更
は、ユーザが入力部を介して任意の画像データを選択す
ることにより行い、選択された画像データには音声スタ
ンプであることを示す音符が合成されている。
[0003] Normally, a voice stamp is automatically associated with default image data at the time of recording and voice registration from a received mail, and the user has a function of changing this image data to another image data. . The image data is changed by the user selecting arbitrary image data via the input unit, and a musical note indicating that the selected image data is a voice stamp is synthesized.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
音声スタンプでは、画像データの変更はできるものの、
既存の音声データの音質を変化させる等の加工をした
り、加工の種類と度合いに応じて画像データを変化させ
る機能がなかった。このため、ユーザが思い通りに音声
データの加工を行って、加工の種類と度合いを視覚的に
識別可能な音声スタンプを作成することはできなかっ
た。
However, with the conventional voice stamp, although image data can be changed,
There is no function of performing processing such as changing the sound quality of existing audio data or changing image data according to the type and degree of processing. For this reason, it was not possible for the user to process the audio data as desired and to create an audio stamp capable of visually identifying the type and degree of the processing.

【0005】本発明の課題は、音声データの加工の種類
と加工度に対応した画像データを作成、表示することに
より、ユーザが簡単に音声データを加工できるようにす
るとともに、音声データの加工内容を容易に知ることが
できるようにすることである。
An object of the present invention is to create and display image data corresponding to the type and degree of processing of audio data, thereby enabling a user to easily process audio data and processing contents of the audio data. Is to be easily known.

【0006】[0006]

【課題を解決するための手段】本発明は、上記課題を解
決するため、以下の様な特徴を備えている。以下に示す
手段の説明において、実施の形態に対応する構成を括弧
内に例示する。なお、符号は後記の図面参照符号に対応
する。
The present invention has the following features to solve the above-mentioned problems. In the following description of the means, a configuration corresponding to the embodiment is exemplified in parentheses. The reference numerals correspond to the reference numerals in the drawings described later.

【0007】請求項1記載の発明は、音声データを画像
データと対応付けて記録する情報端末装置(例えば、図
1の情報端末装置1)において、録音した音声データ又
は録音されていた音声データに対応させる第1の画像デ
ータを選択する画像選択手段(例えば、図7のステップ
S10を実行するための入力部12)と、前記音声デー
タを加工する為の加工の種類に対応した第2の画像デー
タを選択することにより、加工の種類を選択する加工種
類選択手段(例えば、図7のステップS13を実行する
ための入力部12)と、前記加工種類選択手段により選
択された加工の種類に従って、前記録音した音声データ
又は録音されていた音声データを加工する音声加工手段
(例えば、図7のステップS14を実行するためのCP
U11)と、前記音声加工手段により加工された音声デ
ータに、前記第1の画像データと前記第2の画像データ
を合成した画像データを対応付けて記録する合成画像記
録手段(例えば、図7のステップS16〜ステップS1
8を記憶装置17に実行させるためのCPU11)と、
を備えたことを特徴としている。
According to the first aspect of the present invention, in an information terminal device (for example, the information terminal device 1 in FIG. 1) for recording audio data in association with image data, recorded audio data or recorded audio data Image selection means for selecting the first image data to be associated (for example, the input unit 12 for executing step S10 in FIG. 7), and a second image corresponding to the type of processing for processing the audio data By selecting data, processing type selection means (for example, input unit 12 for executing step S13 in FIG. 7) for selecting the type of processing, and processing type selected by the processing type selection means, Audio processing means for processing the recorded audio data or the recorded audio data (for example, a CP for executing step S14 in FIG. 7)
U11) and combined image recording means for recording image data obtained by combining the first image data and the second image data with the sound data processed by the sound processing means (for example, FIG. Step S16 to step S1
CPU 11 for causing storage device 17 to execute 8);
It is characterized by having.

【0008】請求項1記載の発明によれば、録音した、
あるいは録音されていた音声データに対応させる画像デ
ータを、一覧表示した画像データの中から選択し、音声
データを加工する為の加工の種類に対応した第2の画像
データを選択することにより、加工の種類を選択する。
そして、選択された加工の種類に従って、音声データを
加工し、加工された音声データを第1の画像データと第
2の画像データを合成した画像データと対応付けて記録
する。従って、ユーザは音声データに対して思い通りの
加工をすることができ、また、加工の種類に応じた画像
データを表示することにより、音声データの加工内容を
容易に知ることができるようになる。
According to the first aspect of the present invention, the recorded
Alternatively, the image data corresponding to the recorded audio data is selected from the list of displayed image data, and the second image data corresponding to the type of processing for processing the audio data is selected. Select the type.
Then, the audio data is processed according to the selected type of processing, and the processed audio data is recorded in association with the image data obtained by combining the first image data and the second image data. Therefore, the user can perform desired processing on the audio data, and by displaying image data corresponding to the type of processing, the user can easily know the processing content of the audio data.

【0009】請求項2記載の発明によれば、音声データ
を画像データと対応付けて記録する情報端末装置(例え
ば、図1の情報端末装置1)において、録音した音声デ
ータ又は録音されていた音声データに対応させる第1の
画像データを選択する第1画像選択手段(例えば、図1
5のステップS30を実行するための入力部12)と、
前記音声データの加工の種類を選択する加工種類選択手
段(例えば、図15のステップS32を実行するための
入力部12)と、前記加工種類選択手段により選択され
た加工の種類に対応する第2の画像データを選択する第
2画像選択手段(例えば、図15のステップS33を実
行するための入力部12)と、前記音声データの加工度
を指定する加工度指定手段(例えば、図15のステップ
S34を実行するための入力部12)と、前記加工種類
選択手段により選択された加工の種類と、前記加工度指
定手段により指定された加工度とに従って、前記録音し
た音声データ又は録音されていた音声データを加工する
音声加工手段(例えば、図15のステップS35を実行
するためのCPU11)と、前記音声加工手段により加
工された音声データに、前記第1の画像データと前記第
2の画像データを合成した画像データを対応付けて記録
する合成画像記録手段(例えば、図15のステップS3
7〜ステップS39を記憶装置17に実行させるための
CPU11)と、を備えたことを特徴としている。
According to the second aspect of the present invention, in the information terminal device (for example, the information terminal device 1 in FIG. 1) for recording the audio data in association with the image data, the recorded audio data or the recorded audio is recorded. First image selecting means for selecting first image data corresponding to data (for example, FIG.
An input unit 12) for executing step S30 of No. 5;
A processing type selection unit (for example, the input unit 12 for executing step S32 in FIG. 15) for selecting a processing type of the audio data, and a second processing type corresponding to the processing type selected by the processing type selection unit. A second image selecting means (for example, the input unit 12 for executing step S33 in FIG. 15) for selecting the image data, and a processing degree specifying means for specifying the processing degree of the audio data (for example, the step in FIG. 15) According to the input unit 12) for executing S34, the type of processing selected by the processing type selecting means, and the processing degree designated by the processing degree designating means, the recorded audio data or the recorded audio data is recorded. Voice processing means for processing voice data (for example, CPU 11 for executing step S35 in FIG. 15); and voice data processed by the voice processing means. , The step S3 of the first image data and the second synthesized image recording unit image data in association with synthesized image data is recorded (e.g., FIG. 15
And a CPU 11) for causing the storage device 17 to execute Steps 7 to S39.

【0010】請求項2記載の発明によれば、録音した、
あるいは録音されていた音声データに対応させる画像デ
ータを、一覧表示した画像データの中から選択し、音声
データの加工の種類を選択し、選択された加工の種類に
対応する第2の画像データを選択した後、音声データの
加工度を指定する。そして、選択された加工の種類と指
定された加工度に従って、音声データを加工し、加工さ
れた音声データを第1の画像データと第2の画像データ
を合成した画像データと対応付けて記録する。従って、
ユーザは音声データに対して思い通りの加工をすること
ができ、また、加工の種類に応じた画像データを表示す
ることにより、音声データの加工内容を容易に知ること
ができるようになる。
According to the second aspect of the present invention, the recorded
Alternatively, image data corresponding to the recorded audio data is selected from the list of image data, a type of processing of the audio data is selected, and second image data corresponding to the selected processing type is selected. After the selection, the degree of processing of the audio data is designated. Then, the audio data is processed according to the selected type of processing and the specified processing degree, and the processed audio data is recorded in association with the image data obtained by combining the first image data and the second image data. . Therefore,
The user can perform desired processing on the audio data, and by displaying image data according to the type of processing, the user can easily know the processing content of the audio data.

【0011】請求項4記載の発明は、音声データを画像
データと対応付けて記録する情報端末装置(例えば、図
1の情報端末装置1)において、録音した音声データ又
は録音されていた音声データに対応させる第1の画像デ
ータを選択する第1画像選択手段(例えば、図28のス
テップS70を実行するための入力部12)と、前記録
音した音声データ又は録音されていた音声データを解析
する音声解析手段(例えば、図28のステップS71を
実行するためのCPU11)と、前記音声解析手段によ
る解析結果に基づいて判定された加工の種類に対応する
画像データ又は選択指定された新規の画像データを、第
2の画像データとして選択する第2画像選択手段(例え
ば、図28のステップS73〜S75を実行するための
入力部12)と、前記録音した音声データ又は録音され
ていた音声データに、前記第1の画像データと前記第2
の画像データを合成した画像データを対応付けて記録す
る合成画像記録手段(例えば、図28のステップS76
〜ステップS78を記憶装置17に実行させるためのC
PU11)と、を備えたことを特徴としている。
According to a fourth aspect of the present invention, there is provided an information terminal device for recording audio data in association with image data (eg, the information terminal device 1 in FIG. 1). First image selecting means for selecting the first image data to be associated (for example, the input unit 12 for executing step S70 in FIG. 28), and a voice for analyzing the recorded voice data or the recorded voice data Analysis means (for example, CPU 11 for executing step S71 of FIG. 28) and image data corresponding to the type of processing determined based on the analysis result by the voice analysis means or new image data selected and designated; A second image selecting means for selecting as the second image data (for example, the input unit 12 for executing steps S73 to S75 in FIG. 28); The audio data being audio data or recording recorded sound, the said first image data a second
A composite image recording means (for example, step S76 in FIG. 28) for recording image data obtained by combining the image data of
C for causing the storage device 17 to execute Step S78
PU11).

【0012】請求項4記載の発明によれば、録音した、
あるいは録音されていた音声データに対応させる画像デ
ータを、一覧表示した画像データの中から選択し、音声
データを解析し、解析した結果に基づいて判定された加
工の種類に対応する画像データ、又は選択指定された新
規の画像データを第2の画像データとして選択し、前記
音声データを第1の画像データと第2の画像データを合
成した画像データと対応付けて記録する。従って、音声
データの内容が視覚的に識別可能となり、その結果、ユ
ーザは音声データの加工内容を一目で把握できるように
なる。従って、音声データの内容が視覚的に識別可能と
なり、その結果、ユーザは音声データの加工内容を一目
で把握できるようになる。
According to the fourth aspect of the present invention, the recorded
Alternatively, image data to be associated with the audio data that was recorded is selected from the list of image data, and the audio data is analyzed, and the image data corresponding to the processing type determined based on the analysis result, or The selected and designated new image data is selected as the second image data, and the audio data is recorded in association with the image data obtained by combining the first image data and the second image data. Therefore, the contents of the audio data can be visually identified, and as a result, the user can grasp the processing contents of the audio data at a glance. Therefore, the contents of the audio data can be visually identified, and as a result, the user can grasp the processing contents of the audio data at a glance.

【0013】[0013]

【発明の実施の形態】以下、図を参照して本発明の実施
の形態を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0014】〔第1の実施の形態〕まず、構成を説明す
る。図1は、本実施の形態における情報端末装置1の全
体構成を示す図である。図1に示す様に、情報端末装置
1は、CPU11、入力部12、RAM13、伝送制御
部14、VRAM15、表示部16、記録媒体17aを
有する記憶装置17、スピーカ18a、マイク18bを
備えた音声処理部18により構成され、記録媒体17a
を除く各部は、バス19により接続されているコンピュ
ータである。
[First Embodiment] First, the configuration will be described. FIG. 1 is a diagram illustrating an overall configuration of an information terminal device 1 according to the present embodiment. As shown in FIG. 1, the information terminal device 1 includes a CPU 11, an input unit 12, a RAM 13, a transmission control unit 14, a VRAM 15, a display unit 16, a storage device 17 having a recording medium 17a, a speaker 18a, and a voice including a microphone 18b. The recording medium 17a
Each part except for is a computer connected by a bus 19.

【0015】CPU(Central Processing Unit)11
は、記憶装置17の有する記録媒体17aに記憶されて
いる各種制御プログラムを読み出し、RAM13内に形
成されたワークメモリに展開し、該制御プログラムに従
って各部の動作を集中制御する。また、CPU11は、
RAM13内のワークメモリに展開した制御プログラム
に従って、後述する音声スタンプ作成処理A等を実行
し、その処理結果をRAM13内のワークメモリに格納
すると共に表示部16に表示させる。そして、ワークメ
モリに格納した処理結果を、記憶装置17或いは記録媒
体17a内の所定の保存先に保存させる。
CPU (Central Processing Unit) 11
Reads out various control programs stored in the recording medium 17a of the storage device 17, expands them into a work memory formed in the RAM 13, and centrally controls the operation of each unit according to the control programs. In addition, the CPU 11
In accordance with the control program developed in the work memory in the RAM 13, an audio stamp creation process A described later is executed, and the processing result is stored in the work memory in the RAM 13 and displayed on the display unit 16. Then, the processing result stored in the work memory is stored in a predetermined storage destination in the storage device 17 or the recording medium 17a.

【0016】すなわち、CPU11は、音声スタンプ作
成処理Aの実行に際して、音声の録音指示があると、録
音を開始して音声スタンプを作成するための音声データ
を作成する。録音の指示がなければ、過去に録音した音
声データの一覧を表示して、一覧の中から選択された音
声データを、音声スタンプを作成する音声データとして
認識する。そして、画像データの一覧を表示させて、録
音された、あるいは選択された音声データに対応させる
画像データを選択する。画像データの選択後、音声デー
タ加工の指示があると、加工の種類と加工度合いを表す
合成マークの一覧を表示させ、選択された合成マークに
対応した加工処理を音声データに対して行う。そして、
選択された画像データと合成マークを合成し、合成した
画像に加工済みの音声データを関連付けて音声スタンプ
を設定し登録する。音声データ加工の指示がなければ、
選択された画像データに、録音された、あるいは選択さ
れた音声データを関連付けて音声スタンプを設定し登録
する。
That is, when executing the voice stamp creation processing A, the CPU 11 starts recording and creates voice data for creating a voice stamp when a voice recording instruction is given. If there is no recording instruction, a list of previously recorded voice data is displayed, and the voice data selected from the list is recognized as voice data for creating a voice stamp. Then, a list of image data is displayed, and image data corresponding to the recorded or selected audio data is selected. After the selection of the image data, when a voice data processing instruction is given, a list of composite marks indicating the type and degree of processing is displayed, and a processing corresponding to the selected composite mark is performed on the audio data. And
The selected image data is combined with the combined mark, and the combined image is associated with the processed audio data, and an audio stamp is set and registered. If there is no instruction of audio data processing,
An audio stamp is set and registered by associating the selected image data with the recorded or selected audio data.

【0017】入力部12は、文字/英数字入力キー、カ
ーソルキー、及び各種機能キー等を備えたキーボード
と、ポインティングデバイスであるマウスと、を備えて
構成され、キーボードで押圧操作されたキーの押圧信号
とマウスによる操作信号とを、入力信号としてCPU1
1へ出力する。若しくは、入力部12は、表示部16の
表示画面を覆う透明なシートパネルに、指又は専用のタ
ッチペンで触れることにより入力される位置情報を入力
信号としてCPU11へ出力する、タッチパネルにより
構成される。
The input unit 12 includes a keyboard having character / alphanumeric input keys, a cursor key, various function keys, and the like, and a mouse as a pointing device. The CPU 1 receives a pressing signal and an operation signal from a mouse as input signals.
Output to 1. Alternatively, the input unit 12 is configured by a touch panel that outputs position information input by touching a transparent sheet panel covering the display screen of the display unit 16 with a finger or a dedicated touch pen to the CPU 11 as an input signal.

【0018】RAM(Random Access Memory)13は、
CPU11により実行制御される上記各種処理におい
て、記憶装置17から読み出された情報端末装置1で実
行可能なシステムプログラム、制御プログラム、入力若
しくは出力データ、及びパラメータ等を一時的に格納す
る。
A RAM (Random Access Memory) 13
In the various processes executed and controlled by the CPU 11, a system program, a control program, input or output data, parameters, and the like that can be executed by the information terminal device 1 and that are read from the storage device 17 are temporarily stored.

【0019】伝送制御部14は、ルータやTA(Termin
al Adapter)等によって構成され、専用線、或いはIS
DN(Integrated Service Digital Network)回線等の
通信回線を介してネットワークに接続された他の端末と
の通信制御を行う。ルータは、情報端末装置1がLAN
を構成している場合に、外部のLANとの間を接続する
装置であり、TAは、ISDN回線を介して外部機器と
の通信を行うために、既存のインタフェースをISDN
に対応するインタフェースに変換する装置である。
The transmission control unit 14 includes a router and a TA (Termin
al Adapter), dedicated line, or IS
It controls communication with other terminals connected to the network via a communication line such as a DN (Integrated Service Digital Network) line. When the information terminal device 1 is a LAN,
Is a device for connecting to an external LAN, and the TA uses an existing interface to communicate with an external device via an ISDN line.
This is a device for converting to an interface corresponding to.

【0020】VRAM15は、CPU11の表示指示に
従って、表示部16に表示するための画像データを一時
的に格納する。表示部16は、LCD(Liquid Crystal
Display)やCRT(Cathode Ray Tube)等により構成
され、CPU11から入力される表示信号の指示に従っ
て、表示画面上に、後述する音声データファイル選択画
面1001、画像データ選択画面1002、合成マーク
選択画面1003、音声スタンプ設定画面1004等の
表示を行う。
The VRAM 15 temporarily stores image data to be displayed on the display unit 16 in accordance with a display instruction from the CPU 11. The display 16 is an LCD (Liquid Crystal).
Display), a CRT (Cathode Ray Tube), or the like, and on the display screen, an audio data file selection screen 1001, an image data selection screen 1002, and a composite mark selection screen 1003, which will be described later, in accordance with a display signal input from the CPU 11. , A voice stamp setting screen 1004 and the like are displayed.

【0021】記憶装置17は、プログラムやデータ等が
予め記憶された記録媒体17aを有し、この記録媒体1
7aは磁気的、光学的記録媒体、若しくは半導体等の不
揮発性メモリで構成されている。記録媒体17aは、記
憶装置17に固定的に設けたもの、若しくは着脱自在に
装着するものであり、記録媒体17aには情報端末装置
1に対応するシステムプログラム、及び該システムプロ
グラム上で実行可能な音声スタンプ作成処理A等の各種
処理プログラム、及びこれらのプログラムで処理された
データ等を記憶する。これらの各処理プログラムは、読
み取り可能なプログラムコードの形態で格納され、CP
U11は、当該プログラムコードに従った動作を逐次実
行する。
The storage device 17 has a recording medium 17a in which programs and data are stored in advance.
Reference numeral 7a denotes a magnetic or optical recording medium or a nonvolatile memory such as a semiconductor. The recording medium 17a is fixedly provided in the storage device 17, or is removably mounted. The recording medium 17a has a system program corresponding to the information terminal device 1 and an executable program on the system program. Various processing programs such as a voice stamp creation process A, and data processed by these programs are stored. Each of these processing programs is stored in the form of a readable program code,
U11 sequentially executes the operation according to the program code.

【0022】本実施の形態において、記憶装置17は、
図2に示す様に、内部に音声データファイル171、画
像データファイル172、音声スタンプ登録情報ファイ
ル(1)173、合成マークファイル174を有して構
成される。以下、これら各ファイル内のデータ構成につ
いて図3〜図6を参照して詳細に説明する。
In the present embodiment, the storage device 17
As shown in FIG. 2, it is configured to internally include an audio data file 171, an image data file 172, an audio stamp registration information file (1) 173, and a combined mark file 174. Hereinafter, the data structure in each of these files will be described in detail with reference to FIGS.

【0023】図3は、録音した音声データを格納する音
声データファイル171内のデータ格納例を示す図であ
る。図3に示す様に、音声データファイル171は、音
声データを特定する為に一意的に割り当てられた識別コ
ード(例えば、“yama.def”、“kawa.def”、“umi.de
f”、…)を「音声データ名」として格納する音声デー
タ名領域171aと、録音された、あるいは既存の音声
データ(例えば、“音声1”、“音声2”、“音声3”
…)を「音声データ」として格納する音声データ領域1
71bと、を有する。
FIG. 3 is a diagram showing an example of data storage in an audio data file 171 for storing recorded audio data. As shown in FIG. 3, the audio data file 171 includes identification codes (for example, “yama.def”, “kawa.def”, “umi.de”) uniquely assigned to identify the audio data.
..) as “audio data names” and recorded or existing audio data (eg, “audio 1”, “audio 2”, “audio 3”).
..) As audio data
71b.

【0024】図4は、画像データを格納する画像データ
ファイル172内のデータ格納例を示す図である。図4
に示す様に、画像データファイル172は、画像データ
を特定する為に一意的に割り当てられた識別コード(例
えば、“speaker.ghi”、“house.ghi”、“maru.gh
i”、…)を「画像データ名」として格納する画像デー
タ名領域172aと、登録された、あるいは既存の画像
データ(例えば、“画像1”、“画像2”、“画像3”
…)を「画像データ」として格納する画像データ領域1
72bと、を有する。
FIG. 4 is a diagram showing an example of data storage in an image data file 172 for storing image data. FIG.
As shown in FIG. 7, the image data file 172 includes identification codes (for example, “speaker.ghi”, “house.ghi”, “maru.gh”) uniquely assigned to specify the image data.
..) as “image data names” and registered or existing image data (eg, “image 1”, “image 2”, “image 3”).
…) Is stored as “image data” in the image data area 1
72b.

【0025】図5は、音声スタンプの登録に必要な情報
を格納する音声スタンプ登録情報ファイル(1)173
内のデータ格納例を示す図である。図5に示す様に、音
声スタンプ登録情報ファイル(1)173は、音声スタ
ンプを特定するために一意的に割り当てられた識別コー
ド(例えば、“onsei.abc”、“onsei1.abc”、“onsei
2.abc”、…)を「ファイル名」として格納するファイ
ル名領域173aと、当該音声スタンプに登録されてい
る音声データを特定するために一意的に割り当てられた
識別コード(例えば、“yama.def”、“kawa.def”、
“umi.def”、…)を「音声データ名」として格納する
音声データ名領域173bと、該音声スタンプに登録さ
れている画像データを特定する為に一意的に割り当てら
れた識別コード(例えば、“speaker.ghi”、“house.g
hi”、“maru.ghi”、…)を「画像データ名」として格
納する画像データ名領域173cと、該音声データに施
された加工の種類を表す文字列データ(例えば、“音
量”、“音の高さ”、“音質”、…)を「加工の種類」
として格納する加工の種類領域173dと、該音声デー
タに施された加工度を表す数値データ(例えば、
“1”、“2”、“4”、…)を「加工度」として格納
する加工度領域173eと、該音声スタンプが登録され
た日付を表す日付データ(例えば、“01.03.10”、“0
1.03.09”、“01.02.10”、…)を「登録日」として格
納する登録日領域173fと、該音声スタンプが登録さ
れた時間を表すデータ(例えば、“15:01”、“14:5
8”、“12:00”、…)を「登録時間」として格納する
登録時間領域173gと、を有する。なお、「加工の種
類」と「加工度」は、音声スタンプ作成時に音声データ
を加工しなかった場合は空欄となる。
FIG. 5 shows an audio stamp registration information file (1) 173 for storing information necessary for audio stamp registration.
FIG. 6 is a diagram showing an example of data storage in the storage device. As shown in FIG. 5, the voice stamp registration information file (1) 173 includes identification codes (for example, “onsei.abc”, “onsei1.abc”, “onsei1.abc”) uniquely assigned to specify the voice stamp.
2.abc ”,...) As a“ file name ”and an identification code (for example,“ yama. def ”,“ kawa.def ”,
An audio data name area 173b storing “umi.def”,...) As an “audio data name” and an identification code (for example, uniquely assigned to identify the image data registered in the audio stamp) “Speaker.ghi”, “house.g
hi ”,“ maru.ghi ”,...) as“ image data names ”, and character string data (for example,“ volume ”,“ volume ”,“ volume ”) indicating the type of processing performed on the audio data. “Pitch”, “sound quality”,…) to “type of processing”
And a numerical data (for example, a processing type area 173d) representing the processing degree applied to the audio data.
A processing degree area 173e for storing “1”, “2”, “4”,...) As “processing degree”, and date data (eg, “01.03.10”, “ 0
1.03.09 ”,“ 01.02.10 ”,...) As a“ registration date ”and data indicating the time at which the voice stamp was registered (for example,“ 15:01 ”,“ 14: Five
8 ”,“ 12:00 ”,...) As“ registration time ”. The “type of processing” and “degree of processing” are blank if the voice data is not processed when the voice stamp is created.

【0026】図6は、音声データの加工の種類、加工度
に対応づけた合成マークを格納する合成マークファイル
174内のデータ格納例を示す図である。図6に示す様
に、合成マークファイル174は、加工の種類を表す文
字列データ(例えば、“音量”、…)を「加工の種類」
として格納する加工の種類領域174aと、加工度を表
す数値データ(例えば、“1”、“2”、“3”…)を
「加工度」として格納する加工度領域174bと、合成
マークの画像データ(例えば、“音符1”、“音符
2”、“音符3”、…)を「合成マークデータ」として
格納する合成マークデータ領域174cと、を有する。
FIG. 6 is a diagram showing an example of data storage in a combined mark file 174 for storing a combined mark associated with the type and degree of processing of audio data. As shown in FIG. 6, the composite mark file 174 stores character string data (for example, “volume”,.
, A processing degree area 174b storing numerical data (for example, “1”, “2”, “3”,...) As the processing degree, and a composite mark image And a composite mark data area 174c for storing data (for example, “note 1”, “note 2”, “note 3”,...) As “composite mark data”.

【0027】音声処理部18は、アナログ/デジタル変
換器、増幅器等により構成され、スピーカ18a、マイ
ク18bを備える。音声処理部18は、記憶装置17に
格納されている音声データを変換器でアナログ信号に変
換し、増幅器を介してスピーカ18aから外部に出力す
る。また、音声処理部18は、マイク18b等から入力
される音声信号を変換器によりデジタル信号に変換し、
音声データファイル171に音声データとして格納す
る。
The audio processing unit 18 comprises an analog / digital converter, an amplifier and the like, and includes a speaker 18a and a microphone 18b. The audio processing unit 18 converts the audio data stored in the storage device 17 into an analog signal by a converter, and outputs the analog signal to the outside from the speaker 18a via the amplifier. The audio processing unit 18 converts an audio signal input from the microphone 18b or the like into a digital signal using a converter,
The voice data is stored in the voice data file 171 as voice data.

【0028】次に、動作を説明する。情報端末装置1に
より実行される音声スタンプ作成処理Aについて図7の
フローチャートを参照して説明する。動作説明の前提と
して、以下のフローチャートに記述されている各機能を
実現するためのプログラムは、読み取り可能なプログラ
ムコードの形態で記録媒体17aに格納されており、C
PU11は、上記プログラムコードに従った動作を逐次
実行する。また、CPU11は、伝送媒体を介して伝送
されてきた上述のプログラムコードに従った動作を逐次
実行することもできる。すなわち、記録媒体17aの
他、伝送媒体を介して外部供給されたプログラム或いは
データを利用して本実施の形態特有の動作を実行するこ
ともできる。
Next, the operation will be described. The voice stamp creation process A executed by the information terminal device 1 will be described with reference to the flowchart in FIG. As a premise of the description of the operation, a program for realizing each function described in the following flowchart is stored in a recording medium 17a in the form of a readable program code, and C
The PU 11 sequentially executes an operation according to the program code. Further, the CPU 11 can also sequentially execute an operation according to the above-described program code transmitted via the transmission medium. That is, an operation unique to the present embodiment can be executed using a program or data externally supplied via a transmission medium in addition to the recording medium 17a.

【0029】まず、CPU11は、入力部12により音
声スタンプの作成を指示する信号が入力されると(ステ
ップS1)、録音して音声データを作成するか、既存の
音声データを利用するか、の選択画面を表示する(ステ
ップS2)。録音が選択されると(ステップS3;
Y)、CPU11は、音声処理部18を介して録音を開
始し(ステップS4)、録音が終了すると(ステップS
5;Y)、音声データファイルを作成し、当該音声デー
タファイルを、音声スタンプを作成するための音声デー
タとして認識する(ステップS6)。一方、既存の音声
データの利用が選択されると(ステップS3;N)、C
PU11は、記憶装置17に記憶されている音声データ
ファイル171の一覧を表示し(ステップS7)、音声
データが選択されると、当該音声データを、音声スタン
プを作成するための音声データとして認識する(ステッ
プS8)。
First, when a signal instructing creation of a voice stamp is input from the input unit 12 (step S1), the CPU 11 determines whether to create voice data by recording or to use existing voice data. A selection screen is displayed (step S2). When recording is selected (step S3;
Y), the CPU 11 starts recording via the audio processing unit 18 (step S4), and ends the recording (step S4).
5; Y), an audio data file is created, and the audio data file is recognized as audio data for creating an audio stamp (step S6). On the other hand, when the use of the existing voice data is selected (step S3; N), C
The PU 11 displays a list of the audio data files 171 stored in the storage device 17 (step S7), and when the audio data is selected, recognizes the audio data as audio data for creating an audio stamp. (Step S8).

【0030】図8は、ステップS7で表示部16に表示
される音声データファイル171の一覧を示す音声デー
タファイル選択画面1001の例を示す図である。図8
に示す様に、音声データファイル選択画面1001は、
「音声データを選択して下さい」等のユーザへの指示メ
ッセージが表示され、その下に音声データのファイルが
一覧表示される。ユーザは、一覧表示されている音声デ
ータファイルの中から所望のファイルに対応するファイ
ル名にカーソルを合わせ、選択ボタンを指定することに
より、音声データを選択する。
FIG. 8 is a diagram showing an example of an audio data file selection screen 1001 showing a list of audio data files 171 displayed on the display unit 16 in step S7. FIG.
As shown in the figure, the audio data file selection screen 1001
An instruction message to the user such as "Please select audio data" is displayed, and a list of audio data files is displayed below. The user selects the audio data by moving the cursor to a file name corresponding to a desired file from among the audio data files displayed in the list and designating a selection button.

【0031】次に、CPU11は、記憶装置17に記憶
されている画像データファイル172の画像データを表
示する(ステップS9)。表示一覧の中から当該音声デ
ータに対応させる画像データが選択されると(ステップ
S10)、CPU11は、当該音声データを加工するか
否かの選択画面を表示部16に表示させる。加工するこ
とが選択されると(ステップS11;Y)、記憶装置1
7に記憶されている合成マークファイル174の合成マ
ークと、合成マークに対応する加工の種類を一覧表示す
る(ステップS12)。
Next, the CPU 11 displays the image data of the image data file 172 stored in the storage device 17 (step S9). When image data corresponding to the audio data is selected from the display list (step S10), the CPU 11 causes the display unit 16 to display a selection screen as to whether or not to process the audio data. When processing is selected (step S11; Y), the storage device 1
A list of the combined marks of the combined mark file 174 stored in the storage unit 7 and the types of processing corresponding to the combined marks is displayed (step S12).

【0032】合成マークが選択されると(ステップS1
3)、CPU11は、当該音声データに、当該合成マー
クに対応した加工処理を行う(ステップS14)。音声
データの加工処理が終了すると、CPU11は、当該合
成マークと当該画像データの合成を行い(ステップS1
5)、合成した画像に対して当該音声データを関連付け
(ステップS16)、音声スタンプを設定登録し、一連
の音声スタンプ作成処理Aを終了する(ステップS1
8)。
When a composite mark is selected (step S1)
3), the CPU 11 performs a processing corresponding to the composite mark on the audio data (step S14). When the processing of the audio data is completed, the CPU 11 combines the combined mark and the image data (step S1).
5) Associating the audio data with the synthesized image (step S16), setting and registering an audio stamp, and terminating a series of audio stamp creation processing A (step S1).
8).

【0033】図9は、ステップS9で表示部16に表示
される画像データファイル172の画像一覧を示す画像
データ選択画面1002の例を図示している。図9に示
す様に、画像データ選択画面1002は、「音声スタン
プの画像を選択して下さい」等のユーザへの指示メッセ
ージが表示され、その下に画像データの内容が表示され
る。ユーザは一覧表示されている画像の中から所望の画
像にカーソルを合わせ、選択ボタンを指定することによ
り、画像データを選択する。画像データ選択画面100
2では、画像データ(a)の様なスピーカの画像が選択
されたことを示している。
FIG. 9 shows an example of an image data selection screen 1002 showing a list of images of the image data file 172 displayed on the display unit 16 in step S9. As shown in FIG. 9, on the image data selection screen 1002, an instruction message to the user such as "Please select an image of the voice stamp" is displayed, and the content of the image data is displayed below the instruction message. The user selects image data by moving the cursor to a desired image from the images displayed in the list and designating a selection button. Image data selection screen 100
2 indicates that a speaker image such as the image data (a) is selected.

【0034】図10、図11は、ステップS11で音声
データの加工が選択された場合に、ステップS12〜ス
テップS18において音声データが加工され、音声スタ
ンプが設定登録される過程で表示部16に表示される画
面の例である。
FIGS. 10 and 11 show that when the processing of the audio data is selected in step S11, the audio data is processed in steps S12 to S18 and displayed on the display unit 16 in the process of setting and registering the audio stamp. It is an example of a screen to be displayed.

【0035】図10は、ステップS13で表示部16に
表示される合成マークファイル174の一覧を示す合成
マーク選択画面1003の例を図示している。図10に
示す様に、合成マーク選択画面1003は、「音声効果
の画像を選択して下さい」等のユーザへの指示メッセー
ジが表示され、その下に音声データの加工の種類に対応
した合成マークが表示される。ユーザは、表示されてい
る合成マークの中から希望する音声データの加工の種類
に対応している合成マークにカーソルを合わせることに
より、音声データの加工の種類を選択する。合成マーク
選択画面1003では、音量を最小にすることを示す加
工の種類に対応している合成マークである最も薄色の音
符が選択されたことを示している。
FIG. 10 shows an example of a composite mark selection screen 1003 showing a list of composite mark files 174 displayed on the display unit 16 in step S13. As shown in FIG. 10, an instruction message to the user such as “Please select an image of the sound effect” is displayed on the composite mark selection screen 1003, and a composite mark corresponding to the type of audio data processing is displayed below the instruction message. Is displayed. The user selects the type of audio data processing by moving the cursor to the composite mark corresponding to the type of audio data processing desired from the displayed composite marks. The composite mark selection screen 1003 indicates that the lightest note that is the composite mark corresponding to the type of processing indicating that the volume is to be minimized has been selected.

【0036】図11は、ステップS18で表示部16に
表示される音声スタンプ設定画面1004の例を示す図
である。音声スタンプ設定画面1004では、図9で選
択された画像(ここでは、スピーカ)と、図10で選択
された合成マーク(ここでは、最も薄色の音符)を合成
した音声スタンプが表示されている。画面最下部に指示
されている登録ボタンの選択操作を行うと、表示されて
いる音声スタンプが登録(記録)される。
FIG. 11 is a diagram showing an example of the voice stamp setting screen 1004 displayed on the display unit 16 in step S18. The voice stamp setting screen 1004 displays a voice stamp in which the image (here, the speaker) selected in FIG. 9 and the synthesis mark (here, the lightest note) selected in FIG. 10 are synthesized. . When an operation of selecting a registration button instructed at the bottom of the screen is performed, the displayed voice stamp is registered (recorded).

【0037】なお、音声データの加工の種類を示す画像
は、ここでは音符等の合成マークとしているが、額縁等
であってもよい。即ち、図9で選択された画像データに
額縁をつけて、その額縁の形状、模様、色等により加工
の種類を区別するようにしてもよい。この場合、音符等
の合成マークと額縁を併用するこも勿論可能である。
The image indicating the type of processing of the audio data is a synthetic mark such as a musical note here, but may be a picture frame or the like. That is, a frame may be added to the image data selected in FIG. 9, and the type of processing may be distinguished by the shape, pattern, color, or the like of the frame. In this case, it is of course possible to use a combination mark such as a musical note together with a frame.

【0038】一方、ステップS11において、当該音声
データを加工しないという指示があると(ステップS1
1;N)、CPU11は、画像データに当該音声データ
を関連付け(ステップS17)、音声スタンプを設定登
録し、一連の音声スタンプ作成処理Aを終了する(ステ
ップS18)。
On the other hand, if there is an instruction not to process the audio data in step S11 (step S1).
1; N), the CPU 11 associates the audio data with the image data (step S17), sets and registers an audio stamp, and ends a series of audio stamp creation processing A (step S18).

【0039】図12は、ステップS9でスピーカの画像
を選択し、ステップS11で音声データの加工をしない
ことを選択した場合にステップS18で表示部16に表
示される音声スタンプ設定画面1005の例を示す図で
ある。画面下に指示されている登録ボタンの選択操作を
行うと、表示されている音声スタンプが登録される。
FIG. 12 shows an example of an audio stamp setting screen 1005 displayed on the display unit 16 in step S18 when a speaker image is selected in step S9 and no audio data processing is selected in step S11. FIG. When a registration button selection operation indicated at the bottom of the screen is performed, the displayed voice stamp is registered.

【0040】以上説明した様に、情報端末装置1によれ
ば、音声データと所望の画像データを対応付けて音声ス
タンプを作成、登録する。音声データは加工することが
でき、加工する場合には、音声データの加工の種類に対
応した合成マークを選択することによって音声データに
加工を行い、合成マークと画像データとを合成した画像
を音声スタンプとして設定する。これによって、ユーザ
が簡単に音声データを加工できるようになり、設定され
た音声スタンプの画像から、加工の種類を容易に知るこ
とができるようになる。
As described above, according to the information terminal device 1, an audio stamp is created and registered by associating audio data with desired image data. The audio data can be processed, and in the case of processing, the audio data is processed by selecting a composite mark corresponding to the type of the audio data processing, and an image obtained by synthesizing the composite mark and the image data is processed as a voice. Set as a stamp. As a result, the user can easily process the audio data, and the type of the processing can be easily known from the image of the set audio stamp.

【0041】なお、上記第1の実施の形態における記述
内容は、本発明に係る情報端末装置1の好適な一例であ
り、これに限定されるものではない。例えば、上記実施
の形態では、ステップS6で録音した音声データファイ
ル171を作成した後に、引き続き音声スタンプの作成
のステップに入っているが、録音、作成した音声データ
ファイル171を保存しておき、後日音声スタンプを作
成することもできる。また、予め音声データの加工の種
類を決めてから録音し、録音した音声データを自動的に
加工して音声スタンプを作成するものとしてもよい。
The description in the first embodiment is a preferred example of the information terminal device 1 according to the present invention, and the present invention is not limited to this. For example, in the above-described embodiment, after the audio data file 171 recorded in step S6 is created, the process of creating an audio stamp continues. However, the recorded and created audio data file 171 is stored and stored at a later date. You can also create audio stamps. Alternatively, the type of audio data processing may be determined in advance and then recorded, and the recorded audio data may be automatically processed to create an audio stamp.

【0042】さらに、上記実施の形態によれば、ステッ
プS14の音声データ加工のあと、すぐに画像データを
合成しているが、一旦加工した音声データを出力して、
ユーザの嗜好にあった音声が出力されなければ、ステッ
プS12の合成マーク一覧表示のステップまで戻り、嗜
好にあった音声加工がなされるまでステップS12〜ス
テップS14の各処理を繰り返し行うようにしてもよ
い。
Further, according to the above-described embodiment, the image data is synthesized immediately after the audio data processing in step S14.
If the voice that matches the user's preference is not output, the process returns to the step of displaying the composite mark list in step S12, and the processes in steps S12 to S14 are repeated until the voice processing that matches the preference is performed. Good.

【0043】〔第2の実施の形態〕以下、第1の実施の
形態の応用例として、音声データの加工の種類と加工度
を指定して、その指定に基づいて音声データを加工し、
加工した音声データに対応して、画像データの大きさ、
明るさ等を変化させたもの(以下、「画像エフェクト」
と記す。)を利用した実施の形態について詳述する。な
お、本実施の形態における情報端末装置1の構成は、上
述した第1の実施の形態と同様であるので、各構成要素
には同一の符号を付し、その構成の図示及び説明は省略
する。
[Second Embodiment] Hereinafter, as an application example of the first embodiment, a type and a degree of processing of audio data are specified, and the audio data is processed based on the specification.
Depending on the processed audio data, the size of the image data,
What changed the brightness etc. (hereinafter, "image effect"
It is written. An embodiment utilizing ()) will be described in detail. Since the configuration of the information terminal device 1 in the present embodiment is the same as that of the above-described first embodiment, the same reference numerals are given to the components, and the illustration and description of the configuration are omitted. .

【0044】但し、情報端末装置1の記憶装置17は、
図13に示すように、内部に音声データファイル17
1、画像データファイル172、音声スタンプ登録情報
ファイル(2)175を有して構成されており、音声ス
タンプ登録情報ファイル(2)175は、本実施の形態
特有の構成要素であるので以下詳細に説明する。
However, the storage device 17 of the information terminal device 1
As shown in FIG.
1, an image data file 172 and an audio stamp registration information file (2) 175. Since the audio stamp registration information file (2) 175 is a component unique to the present embodiment, it will be described in detail below. explain.

【0045】図14は、後述する音声スタンプ作成処理
Bにおいて音声スタンプの登録に必要な情報を格納する
音声スタンプ登録情報ファイル(2)175内のデータ
格納例を示す図である。図15に示す様に、音声スタン
プ登録情報ファイル(2)175は、ファイル名領域1
75aと、音声データ名領域175bと、画像データ名
領域175cと、加工の種類領域175dと、加工度領
域175eと、画像エフェクト情報175fと、登録日
領域175gと、登録時間領域175hと、から構成さ
れる。
FIG. 14 is a diagram showing an example of data storage in the voice stamp registration information file (2) 175 for storing information necessary for voice stamp registration in voice stamp creation processing B described later. As shown in FIG. 15, the voice stamp registration information file (2) 175 has a file name area 1
75a, an audio data name area 175b, an image data name area 175c, a processing type area 175d, a processing degree area 175e, image effect information 175f, a registration date area 175g, and a registration time area 175h. Is done.

【0046】ファイル名領域175aは、音声スタンプ
を特定するために一意的に割り当てられた識別コード
(例えば、“onsei.abc”、“onsei1.abc”、“onsei2.
abc”、…)を「ファイル名」として格納する。音声デ
ータ名領域175bは、当該音声スタンプに登録されて
いる音声データを特定するために一意的に割り当てられ
た識別コード(例えば、“yama.def”、“kawa.def”、
“umi.def”、…)を「音声データ名」として格納す
る。画像データ名領域175cは、音声スタンプに登録
されている画像データを特定する為に一意的に割り当て
られた識別コード(例えば、“speaker.ghi”、“hous
e.ghi”、“maru.ghi”、…)を「画像データ名」とし
て格納する。
The file name area 175a contains identification codes (eg, “onsei.abc”, “onsei1.abc”, “onsei2.abc”) uniquely assigned to specify the voice stamp.
abc ”,…) is stored as the“ file name ”. The audio data name area 175b includes an identification code (for example, “yama.def”, “kawa.def”, “yama.def”) uniquely assigned to identify the audio data registered in the audio stamp.
“Umi.def”,...) Are stored as “audio data names”. The image data name area 175c includes identification codes (for example, “speaker.ghi”, “hous”) uniquely assigned to specify the image data registered in the voice stamp.
e.ghi ”,“ maru.ghi ”,...) are stored as“ image data names ”.

【0047】加工の種類領域175dは、該音声データ
に施された加工の種類を表す文字列データ(例えば、
“音量”、“音質”、…)を「加工の種類」として格納
する。加工度領域175eは、該音声データに施された
加工度を表す数値データ(例えば、“1”、“4”、
…)を「加工度」として格納する。画像エフェクト情報
175fは、音声データの加工の種類と度合いによって
画像をどのように変化させるかを関連付けた情報を識別
するための記号データ(例えば、“a”、“b”…)を
「画像エフェクト情報」として格納する。なお、「加工
の種類」、「加工度」、「画像エフェクト情報」は、音
声スタンプ作成時に音声データを加工しなかった場合は
上から2番目のレコードの様に空欄となる。
The processing type area 175d contains character string data (for example, character string data indicating the type of processing performed on the audio data.
“Volume”, “sound quality”,...) Are stored as “type of processing”. The processing degree area 175e includes numerical data (for example, “1”, “4”,
..) Are stored as “degree of processing”. The image effect information 175f includes symbol data (for example, “a”, “b”,...) For identifying information that associates how an image is changed depending on the type and degree of processing of audio data. Information ”. Note that the “type of processing”, “degree of processing”, and “image effect information” are blank as in the second record from the top if audio data is not processed when the audio stamp is created.

【0048】登録日領域175gは、該音声スタンプが
登録された日付を表す日付データ(例えば、“01.03.1
0”、“01.03.09”、“01.02.10”、…)を「登録日」
として格納する。登録時間領域175hは、該音声スタ
ンプが登録された時間を表すデータ(例えば、“15:0
1”、“14:58”、“12:00”、…)を「登録時間」と
して格納する。
The registration date area 175g stores date data (eg, "01.03.1
0 ”,“ 01.03.09 ”,“ 01.02.10 ”,…)
Stored as The registration time area 175h contains data indicating the time at which the voice stamp was registered (for example, “15: 0”).
1), “14:58”, “12:00”,...) Are stored as “registration time”.

【0049】次に動作を説明する。情報端末装置1によ
り実行される音声スタンプ作成処理Bについて図15の
フローチャートを参照して説明する。まず、CPU11
は、入力部12により音声スタンプの作成を指示する信
号が入力されると(ステップS21)、録音して音声デ
ータを作成するか、既存の音声データを利用するか、の
選択画面を表示させる(ステップS22)。録音が選択
されると(ステップS23;Y)、CPU11は、音声
処理部18により録音を開始し(ステップS24)、録
音が終了すると(ステップS25;Y)、音声データフ
ァイルを作成し、当該音声データファイルを、音声スタ
ンプを作成するための音声データとして認識する(ステ
ップS26)。
Next, the operation will be described. The voice stamp creation process B executed by the information terminal device 1 will be described with reference to the flowchart in FIG. First, the CPU 11
When a signal instructing creation of a voice stamp is input from the input unit 12 (step S21), a selection screen is displayed for selecting whether to create voice data by recording or to use existing voice data (step S21). Step S22). When the recording is selected (Step S23; Y), the CPU 11 starts recording by the audio processing unit 18 (Step S24), and when the recording is completed (Step S25; Y), creates a voice data file and generates the voice data. The data file is recognized as audio data for creating an audio stamp (step S26).

【0050】一方、既存の音声データの利用が選択され
ると(ステップS23;N)、CPU11は、記憶装置
17に記憶されている音声データファイル171の一覧
を表示し(ステップS27)、音声データが選択される
と、当該音声データを、音声スタンプを作成するための
音声データとして認識する(ステップS28)。
On the other hand, when the use of the existing voice data is selected (step S23; N), the CPU 11 displays a list of the voice data files 171 stored in the storage device 17 (step S27), and Is selected, the voice data is recognized as voice data for creating a voice stamp (step S28).

【0051】次に、CPU11は、記憶装置17に記憶
されている画像データファイル172の画像データを表
示させる(ステップS29)。表示一覧の中から当該音
声データに対応させる画像データが選択されると(ステ
ップS30)、CPU11は、当該音声データを加工す
るか否かの選択画面を表示させる。加工することが選択
されると(ステップS31;Y)、CPU11は、加工
の種類を一覧にした選択画面を表示させる。
Next, the CPU 11 displays the image data of the image data file 172 stored in the storage device 17 (step S29). When image data corresponding to the audio data is selected from the display list (step S30), the CPU 11 displays a selection screen as to whether or not to process the audio data. When processing is selected (step S31; Y), the CPU 11 displays a selection screen listing types of processing.

【0052】加工の種類が選択されると(ステップS3
2)、CPU11は、上述した画像エフェクトの一覧画
面を表示部16に表示させ、選択された画像エフェクト
と音声データの加工の種類とを関連づける(ステップS
33)。
When the type of processing is selected (step S3)
2), the CPU 11 displays the above-described image effect list screen on the display unit 16 and associates the selected image effect with the type of audio data processing (step S).
33).

【0053】次いで、CPU11は、加工度を入力する
画面を表示部16に表示し、加工度が入力されると(ス
テップS34)、入力された加工度に従って音声データ
を加工する(ステップS35)。音声データを加工する
と、CPU11は、ステップS33で選択された画像エ
フェクトに従い、画像データを変更し(ステップS3
6)、変更した画像データに音声データを関連付け(ス
テップS37)、音声スタンプを設定登録し、一連の音
声スタンプ作成処理Bを終了する(ステップS39)。
Next, the CPU 11 displays a screen for inputting the degree of processing on the display unit 16 and, when the degree of processing is input (step S34), processes the voice data according to the input degree of processing (step S35). After processing the audio data, the CPU 11 changes the image data according to the image effect selected in step S33 (step S3).
6) The audio data is associated with the changed image data (step S37), an audio stamp is set and registered, and a series of audio stamp creation processing B is completed (step S39).

【0054】以下に示す図16〜図21は、ステップS
31で音声データの加工が選択された場合に、ステップ
S32〜ステップS39において音声スタンプが設定登
録される過程を示す表示画面の例である。
FIG. 16 to FIG.
21 is an example of a display screen showing a process of setting and registering an audio stamp in steps S32 to S39 when the processing of audio data is selected in 31.

【0055】図16は、ステップS32で表示部16に
表示される音声データに施す加工の種類選択画面100
6の例を示す図である。図16に示す様に、加工の種類
選択画面1006は、「音声データの加工の種類を選択
して下さい」等のユーザへの指示メッセージが表示さ
れ、その下に音声データの加工の種類が表示される。ユ
ーザは、一覧表示されている音声データの加工の種類の
中から、音声データに施そうとする加工の種類にカーソ
ルを合わせることによりにより、音声データの加工の種
類を選択する。当該加工の種類選択画面1006では、
音量変更が選択された様子を示している。
FIG. 16 shows a processing type selection screen 100 to be applied to the audio data displayed on the display unit 16 in step S32.
6 is a diagram showing an example of No. 6. FIG. As shown in FIG. 16, on the processing type selection screen 1006, an instruction message to the user such as "Please select the processing type of audio data" is displayed, and the processing type of audio data is displayed below the instruction message. Is done. The user selects the type of audio data processing by moving the cursor to the type of processing to be performed on the audio data from among the types of audio data processing displayed in the list. On the processing type selection screen 1006,
The state in which the volume change is selected is shown.

【0056】図17は、ステップS33で表示部16に
表示される、ステップS32で選択された音声データの
加工の種類に対応する画像エフェクト選択画面1007
の例を示す図である。図17に示す様に、画像エフェク
ト選択画面1007は、「音量変化に対応する画像エフ
ェクトを選択して下さい」等のユーザへの指示メッセー
ジが表示され、その下に画像エフェクトによる画像デー
タの変化が表示される。ユーザは、一覧表示された画像
エフェクトの中から所望の画像エフェクトにカーソルを
合わせることによって、音声データの加工の種類に対応
する画像エフェクトを選択する。当該画像エフェクト選
択画面1007では、音量変化と画像のサイズが関連付
けられた様子を示している。
FIG. 17 shows an image effect selection screen 1007 displayed on the display unit 16 in step S33 and corresponding to the type of audio data processing selected in step S32.
It is a figure showing the example of. As shown in FIG. 17, on the image effect selection screen 1007, an instruction message to the user such as "Please select an image effect corresponding to a change in volume" is displayed, and below that, a change in image data due to the image effect is displayed. Is displayed. The user selects an image effect corresponding to the type of audio data processing by moving the cursor to a desired image effect from among the image effects displayed in the list. The image effect selection screen 1007 shows a state where the volume change and the image size are associated with each other.

【0057】図18〜図21は、ステップS34で表示
部16に表示される加工度入力画面の一例である。図1
8は、ステップS32で加工の種類として音量が選択さ
れ、ステップS33で画像エフェクトとして画像データ
の画像サイズの変更が選択された場合に表示される加工
度入力画面1008の例を示す図である。図18に示す
様に、加工度入力画面1008は、「加工度を入力して
下さい」等のユーザへの指示メッセージが表示される。
その下にはステップS30で選択された画像データの画
像サイズが音声データの加工度と対応づけて表示され、
更にその下に加工度を数値で入力可能な領域1008a
が設けられている。ユーザは、領域1008aに数値を
入力することにより、加工度を指定する。画面最下部に
指示されている決定ボタンの指定操作を行うと、入力さ
れた加工度が設定される。
FIGS. 18 to 21 show examples of the processing degree input screen displayed on the display unit 16 in step S34. FIG.
FIG. 8 is a diagram showing an example of the processing degree input screen 1008 displayed when the volume is selected as the processing type in step S32 and the change of the image size of the image data is selected as the image effect in step S33. As shown in FIG. 18, an instruction message to the user such as "Please enter the degree of processing" is displayed on the degree of processing input screen 1008.
Below that, the image size of the image data selected in step S30 is displayed in association with the audio data processing degree,
An area 1008a below which a numerical value of the degree of processing can be input.
Is provided. The user specifies the degree of processing by inputting a numerical value in the area 1008a. When the operation of designating the decision button instructed at the bottom of the screen is performed, the input processing degree is set.

【0058】図19は、ステップS32で加工の種類と
して音量が選択され、ステップS33で画像エフェクト
として合成マークのサイズ変更が選択された場合に表示
される加工度入力画面1009の例を示す図である。図
19に示す様に、加工度入力画面1009は、「加工度
を入力して下さい」等のユーザへの指示メッセージが表
示される。その下には合成マークである音符のサイズが
音声データの加工度と対応づけて表示され、更にその下
に加工度を数値で入力可能な領域1009aが設けられ
ている。ユーザは、領域1009aに数値を入力するこ
とにより、加工度を指定する。画面最下部に指示されて
いる決定ボタンの指定操作を行うと、入力された加工度
が設定される。
FIG. 19 is a diagram showing an example of the processing degree input screen 1009 displayed when the volume is selected as the processing type in step S32 and the size change of the composite mark is selected as the image effect in step S33. is there. As shown in FIG. 19, on the processing degree input screen 1009, an instruction message to the user such as "Please input the processing degree" is displayed. Below this, the size of the note as a composite mark is displayed in association with the degree of processing of the audio data, and below that is provided an area 1009a in which the degree of processing can be entered numerically. The user specifies the degree of processing by inputting a numerical value in the area 1009a. When the operation of designating the decision button instructed at the bottom of the screen is performed, the input processing degree is set.

【0059】図20は、ステップS32で加工の種類と
して音質が選択され、ステップS33で画像エフェクト
として画像データの明るさの変更が選択された場合に表
示される加工度入力画面1010の例を示す図である。
図20に示す様に、加工度入力画面1010は、「加工
度を入力して下さい」等のユーザへの指示メッセージが
表示される。その下にはステップS30で選択された画
像データの画像の明るさが音声データの加工度と対応づ
けて表示され、更にその下には加工度を数値で入力可能
な領域1010aが設けられている。ユーザは、領域1
010aに数値を入力することにより、加工度を指定す
る。画面下に指示されている決定ボタンの指定操作を行
うと、入力された加工度が設定される。
FIG. 20 shows an example of the processing degree input screen 1010 displayed when the sound quality is selected as the processing type in step S32 and the change of the brightness of the image data is selected as the image effect in step S33. FIG.
As shown in FIG. 20, an instruction message to the user such as “Please enter the degree of processing” is displayed on the degree of processing input screen 1010. Below that, the brightness of the image of the image data selected in step S30 is displayed in association with the degree of processing of the audio data, and further below that, there is provided an area 1010a in which the degree of processing can be input as a numerical value. . The user is in area 1
The degree of processing is designated by inputting a numerical value to 010a. When the operation of designating the enter button instructed at the bottom of the screen is performed, the input processing degree is set.

【0060】図21は、ステップS32で加工の種類と
して音の高さが選択され、ステップS33で画像エフェ
クトとして合成マークの明るさの変更が選択された場合
に表示される加工度入力画面1011の例を示す図であ
る。図21に示す様に、加工度入力画面1011は、
「加工度を入力して下さい」等のユーザへの指示メッセ
ージが表示される。その下には合成マークである音符の
明るさが音声データの加工度と対応づけて表示され、更
にその下に加工度を数値で入力可能な領域1011aが
設けられている。ユーザは、領域1011aに数値を入
力することにより、加工度を指定する。、画面最下部に
指示されている決定ボタンの指定操作を行うと、入力さ
れた加工度が設定される。
FIG. 21 shows a processing degree input screen 1011 displayed when the tone pitch is selected as the processing type in step S32 and the change of the brightness of the composite mark is selected as the image effect in step S33. It is a figure showing an example. As shown in FIG. 21, the processing input screen 1011 is
An instruction message to the user, such as "Please enter the degree of processing," is displayed. Below that, the brightness of the note as a composite mark is displayed in association with the degree of processing of the audio data, and further below that, there is provided an area 1011a in which the degree of processing can be entered in numerical values. The user specifies the degree of processing by inputting a numerical value into the area 1011a. When the operation of designating the enter button indicated at the bottom of the screen is performed, the input processing degree is set.

【0061】図22は、ステップS39で表示部16に
表示される音声スタンプ設定画面1012の例を示す図
である。音声スタンプ設定画面1012では、図9で選
択された画像(ここでは、スピーカ)に、図16で選択
された音声データの加工の種類(ここでは、音量)と図
18で入力された加工度に対応した画像エフェクト(こ
こでは、画像の大きさ)をかけることによって作成した
音声スタンプを表示している。画面下に指示されている
「登録」操作を行うと、表示されている音声スタンプが
登録(記録)される。
FIG. 22 is a diagram showing an example of the voice stamp setting screen 1012 displayed on the display unit 16 in step S39. On the audio stamp setting screen 1012, the image (here, the speaker) selected in FIG. 9 is displayed with the type of audio data processing (here, volume) selected in FIG. 16 and the processing degree input in FIG. A sound stamp created by applying a corresponding image effect (here, the size of the image) is displayed. When the “registration” operation indicated at the bottom of the screen is performed, the displayed voice stamp is registered (recorded).

【0062】一方、ステップS31において、音声デー
タを加工しないという指示があると(ステップS31;
N)、CPU11は、画像データに当該音声データを関
連付け(ステップS38)、音声スタンプを設定登録
し、一連の音声スタンプ作成処理Bを終了する(ステッ
プS39)。
On the other hand, if there is an instruction not to process the audio data in step S31 (step S31;
N), the CPU 11 associates the audio data with the image data (step S38), sets and registers an audio stamp, and ends a series of audio stamp creation processing B (step S39).

【0063】図12は、ステップS29でスピーカの画
像を選択し、ステップS31で音声データの加工をしな
いことを選択した場合にステップS39で表示部16に
表示される音声スタンプ設定画面1005を例示する図
である。画面下に指示されている「登録」操作を行う
と、表示されている“onsei1.abc”のファイル名の音声
スタンプが登録(記録)される。
FIG. 12 exemplifies an audio stamp setting screen 1005 displayed on the display section 16 in step S39 when an image of a speaker is selected in step S29 and when no processing of audio data is selected in step S31. FIG. When the “registration” operation indicated at the bottom of the screen is performed, the voice stamp of the displayed “onsei1.abc” file name is registered (recorded).

【0064】以上説明した様に、情報端末装置1によれ
ば、音声データと所望の画像データを対応付けて音声ス
タンプを作成、登録する。音声データは加工することが
でき、加工する場合には、ユーザは加工の種類と加工度
を指定し、好みの画像エフェクトを選択するだけで音声
データを加工し、音声データの加工の種類と加工度に対
応した画像エフェクトを画像データに施し、音声スタン
プとして設定する。これによって、ユーザが簡単に音声
データを加工できるようになり、設定された音声スタン
プの画像から、加工内容を容易に知ることができるよう
になる。
As described above, according to the information terminal device 1, an audio stamp is created and registered in association with audio data and desired image data. Audio data can be processed, and in the case of processing, the user specifies the type of processing and the degree of processing, processes the audio data simply by selecting a desired image effect, and processes and processes the audio data. An image effect corresponding to the degree is applied to the image data and set as an audio stamp. Thus, the user can easily process the audio data, and can easily know the processing content from the image of the set audio stamp.

【0065】なお、上記第2の実施の形態における記述
内容は、本発明に係る情報端末装置1の好適な一例であ
り、これに限定されるものではない。例えば、上記実施
の形態では、ステップS26で録音した音声データファ
イル171を作成した後に、引き続き音声スタンプの作
成のステップに入っているが、録音、作成した音声デー
タファイル171を保存しておき、後日音声スタンプを
作成することもできる。また、予め音声データの加工の
種類と度合いを決めてから録音し、録音した音声データ
を自動的に加工して音声スタンプを作成するものとして
もよい。
The description in the second embodiment is a preferred example of the information terminal device 1 according to the present invention, and the present invention is not limited to this. For example, in the above-described embodiment, after the audio data file 171 recorded in step S26 is created, the process of creating an audio stamp continues. However, the recorded and created audio data file 171 is stored and stored at a later date. You can also create audio stamps. Alternatively, the type and degree of processing of the audio data may be determined in advance and then recorded, and the recorded audio data may be automatically processed to create an audio stamp.

【0066】さらに、ステップS35の音声データ加工
のあと、すぐに画像データを合成しているが、一旦加工
した音声データを出力して、ユーザの嗜好にあった音声
が出力されなければ、ステップS33の加工に対応する
画像エフェクト選択のステップまで戻り、嗜好にあった
音声加工がなされるまでステップS33〜ステップS3
5の各処理を繰り返し行うようにしてもよい。
Further, the image data is synthesized immediately after the voice data processing in step S35. If the processed voice data is output, and if the voice that meets the user's preference is not output, the process proceeds to step S33. The process returns to the step of selecting the image effect corresponding to the processing of step S33 to step S3 until the sound processing suitable for the taste is performed.
5 may be repeated.

【0067】〔第3の実施の形態〕以下、上記各実施の
形態の応用例として、登録された音声スタンプが表示さ
れている場合に、当該音声スタンプの加工度を切り替え
るための実施の形態について詳述する。なお、本実施の
形態における情報端末装置1の構成は、上述した第1の
実施の形態と同様であるので、各構成要素には同一の符
号を付し、その構成の図示及び説明は省略する。
[Third Embodiment] Hereinafter, as an application example of each of the above embodiments, an embodiment for switching the processing degree of a registered voice stamp when the registered voice stamp is displayed. It will be described in detail. Since the configuration of the information terminal device 1 in the present embodiment is the same as that of the above-described first embodiment, the same reference numerals are given to the components, and the illustration and description of the configuration are omitted. .

【0068】以下、動作を説明する。情報端末装置1に
より実行される加工度変更処理について図23のフロー
チャートを参照して説明する。なお、ここで使用される
音声スタンプは第1の実施の形態で登録されたものであ
っても、第2の実施の形態で登録されたものであって
も、加工度変更処理を行うことができるが、ここでは、
第1の実施の形態で登録された音声スタンプに対して加
工度の切り替えを行う動作について説明する。
The operation will be described below. The processing degree change processing executed by the information terminal device 1 will be described with reference to the flowchart in FIG. It should be noted that whether the audio stamp used here is the one registered in the first embodiment or the one registered in the second embodiment, the processing degree change processing can be performed. Yes, but here,
An operation of switching the processing degree for the voice stamp registered in the first embodiment will be described.

【0069】まず、CPU11は、入力部12により特
定の音声スタンプの表示を指示する信号が入力される
と、表示部16に音声スタンプを表示させる(ステップ
S41)。そして、音声スタンプの加工度を変更すると
ういう指示が入力されると(ステップS42;Y)、C
PU11は、当該音声スタンプに加工が施されているか
どうかを判別し、加工が施されていると判別すると(ス
テップS43;Y)、記憶装置17の音声スタンプ登録
情報ファイル(1)173(図2参照)から音声スタン
プの情報を読み出す(ステップS44)。そして、CP
U11は、当該音声スタンプに加工度の変更の指示がさ
れる毎に音声を出力する(ステップS45)。加工度の
変更の指示とは、例えば、当該音声スタンプにマウスポ
インタを合わせて1回クリックするという操作によって
なされる。
First, when a signal instructing display of a specific voice stamp is input from the input unit 12, the CPU 11 causes the display unit 16 to display a voice stamp (step S41). Then, when an instruction to change the processing degree of the voice stamp is input (step S42; Y), C
The PU 11 determines whether or not the voice stamp has been processed, and if it determines that the voice stamp has been processed (Step S43; Y), the voice stamp registration information file (1) 173 of the storage device 17 (FIG. 2). (Refer to step S44). And CP
U11 outputs a sound each time an instruction to change the processing degree is given to the sound stamp (step S45). The instruction to change the processing degree is given, for example, by an operation of placing the mouse pointer on the voice stamp and clicking once.

【0070】そして、CPU11は、出力した音声デー
タの加工度に応じて音声スタンプの画面を切り替えて表
示させる(ステップS46)。加工が終了すると(ステ
ップS47;N)、当該音声スタンプを登録するかを確
認し、登録の指示があると(ステップS48;Y)、当
該音声スタンプを新規に登録し、一連の加工度変更処理
を終了する(ステップS49)。
Then, the CPU 11 switches and displays the voice stamp screen according to the processing degree of the output voice data (step S46). When the processing is completed (step S47; N), it is confirmed whether or not the voice stamp is to be registered. When there is a registration instruction (step S48; Y), the voice stamp is newly registered and a series of processing degree change processing is performed. Is ended (step S49).

【0071】図24、図25は、ステップS45でマウ
スによるクリック等の操作により音声データの加工度が
変更され、ステップS46で加工度の変更に応じて画像
データが切り替わる様子を図示したものである。図24
は、第1の実施の形態で設定登録した画像データと、音
声データの加工の種類に対応した合成マークとの合成画
像による音声スタンプの加工度切り替えの様子を示して
いる。図25は、第2の実施の形態で設定登録した画像
データに、音声データの加工の種類に対応した画像エフ
ェクトを施した音声スタンプの加工度切り替えの様子を
示している。
FIGS. 24 and 25 show how the degree of processing of audio data is changed by an operation such as clicking with a mouse in step S45, and the image data is switched in accordance with the change in degree of processing in step S46. . FIG.
Fig. 8 shows a state in which the processing degree of the audio stamp is switched by a composite image of the image data set and registered in the first embodiment and a composite mark corresponding to the type of processing of the audio data. FIG. 25 illustrates a state of switching the processing degree of an audio stamp in which an image effect corresponding to the type of processing of audio data has been applied to image data set and registered in the second embodiment.

【0072】一方、ステップS42において、音声スタ
ンプの加工度の変更が指示されなければ(ステップS4
2;N)、音声データを出力する(ステップS50)。
また、音声データが加工されていなければ(ステップS
43;N)、前述した音声スタンプ作成処理A(図7参
照)のステップS12〜ステップS18の処理を行い、
音声データを加工した音声スタンプを作成する。
On the other hand, if it is not instructed in step S42 to change the processing degree of the voice stamp (step S4).
2; N), and output audio data (step S50).
If the audio data has not been processed (step S
43; N), perform the processing of steps S12 to S18 of the above-described voice stamp creation processing A (see FIG. 7),
Create an audio stamp by processing audio data.

【0073】以上説明した様に、情報端末装置1によれ
ば、登録された音声スタンプの画像をクリックする等の
簡単な操作で音声スタンプに登録された音声データの加
工度を切り替えて出力すると共に、その出力に併せて音
声スタンプの画像も変化させて表示する。そして、登録
指示の有った時点でその音声スタンプを登録する。これ
によって、ユーザが簡単に音声スタンプに登録された音
声データの加工度を切り替えることができるようにな
る。
As described above, according to the information terminal device 1, the processing degree of the voice data registered in the voice stamp is switched and output by a simple operation such as clicking the image of the registered voice stamp. The image of the voice stamp is also changed and displayed in accordance with the output. Then, when there is a registration instruction, the voice stamp is registered. Thus, the user can easily switch the processing degree of the audio data registered in the audio stamp.

【0074】なお、上記各実施の形態における記述内容
は、本発明に係る情報端末装置の好適な一例であり、こ
れに限定されるものではない。例えば、上記実施の形態
では、第1の実施の形態で登録された音声スタンプにお
ける音声データの加工度を切り替える処理をしている
が、第2の実施の形態において登録された音声スタンプ
においては、CPU11がステップS44において該音
声スタンプに加工が施されていないと判断すると、音声
スタンプ作成処理B(図15参照)のステップS32〜
ステップS39の処理を行うようにしてもよい。
The description in each of the above embodiments is a preferred example of the information terminal device according to the present invention, and the present invention is not limited to this. For example, in the above embodiment, the processing for switching the processing degree of the audio data in the audio stamp registered in the first embodiment is performed. However, in the audio stamp registered in the second embodiment, If the CPU 11 determines in step S44 that the voice stamp has not been processed, steps S32 to S32 of the voice stamp creation processing B (see FIG. 15) will be described.
The process of step S39 may be performed.

【0075】〔第4の実施の形態〕以下、上記各実施の
形態の応用例として、音声データを解析し、解析結果か
ら加工の種類を判断し、解析結果と加工の種類に対応し
て画像データを合成する実施の形態について詳述する。
なお、本実施の形態における情報端末装置1の構成は、
上述した第1の実施の形態と同様であるので、各構成要
素には同一の符号を付し、その構成の図示及び説明は省
略する。
[Fourth Embodiment] As an application example of each of the above embodiments, audio data is analyzed, the type of processing is determined from the analysis result, and the image is displayed in correspondence with the analysis result and the type of processing. An embodiment for synthesizing data will be described in detail.
The configuration of the information terminal device 1 in the present embodiment is as follows.
Since the configuration is the same as that of the first embodiment described above, the same reference numerals are given to the respective components, and the illustration and description of the configuration are omitted.

【0076】但し、情報端末装置1の音声処理部18
は、マイク18b等により入力された音声データを解析
する。また、記憶装置17に形成された図26に示す音
声データファイル171、画像データファイル172、
音声解析スタンプ登録情報ファイル176を有して構成
されており、音声解析スタンプ登録情報ファイル176
は、本実施の形態特有の構成要素であるので以下詳細に
説明する。
However, the audio processing unit 18 of the information terminal device 1
Analyzes voice data input by the microphone 18b or the like. Also, an audio data file 171, an image data file 172, and the like shown in FIG.
It is configured to have a voice analysis stamp registration information file 176, and has a voice analysis stamp registration information file 176.
Are components specific to the present embodiment, and will be described in detail below.

【0077】図27に示す様に、音声解析スタンプ登録
情報ファイル176は、ファイル名領域176aと、音
声データ名領域176bと、画像データ名領域176c
と、解析結果領域176dと、登録日領域176eと、
登録時間領域176fと、から構成される。
As shown in FIG. 27, the audio analysis stamp registration information file 176 includes a file name area 176a, an audio data name area 176b, and an image data name area 176c.
, An analysis result area 176d, a registration date area 176e,
And a registration time area 176f.

【0078】ファイル名領域176aは、音声解析スタ
ンプを特定するために一意的に割り当てられた識別コー
ド(例えば、“onsei.abc”、“onsei1.abc”、“onsei
2.abc”、…)を「ファイル名」として格納する。音声
データ名領域176bは、当該音声スタンプに登録され
ている音声データを特定するために一意的に割り当てら
れた識別コード(例えば、“yama.def”、“kawa.de
f”、“umi.def”、…)を「音声データ名」として格納
する。画像データ名領域176cは、該音声スタンプに
登録されている画像データを特定する為に一意的に割り
当てられた識別コード(例えば、“speaker.ghi”、“h
ouse.ghi”、“maru.ghi”、…)を「画像データ名」と
して格納する。
The file name area 176a contains identification codes (eg, “onsei.abc”, “onsei1.abc”, “onsei1.abc”) uniquely assigned to specify the voice analysis stamp.
2.abc ”,…) is stored as the“ file name ”. The audio data name area 176b contains identification codes (eg, “yama.def”, “kawa.de”) uniquely assigned to identify the audio data registered in the audio stamp.
f ”,“ umi.def ”,...) are stored as“ audio data names ”. The image data name area 176c stores identification codes (eg, “speaker.ghi”, “h”) uniquely assigned to specify the image data registered in the voice stamp.
ouse.ghi ”,“ maru.ghi ”,...) are stored as“ image data names ”.

【0079】解析結果領域176dは、音声データの解
析結果を表すための文字列データ(例えば、“人の
声”、“楽器”…)を「解析結果」として格納する。登
録日領域176eは、該音声スタンプが登録された日付
を表す日付データ(例えば、“01.03.10”、“01.03.0
9”、“01.02.10”、…)を「登録日」として格納す
る。登録時間領域176fは、該音声スタンプが登録さ
れた時間を表すデータ(例えば、“15:01”、“14:5
8”、“12:00”、…)を「登録時間」として格納す
る。
The analysis result area 176d stores character string data (for example, “human voice”, “musical instrument”...) For representing the analysis result of the voice data as “analysis result”. The registration date area 176e contains date data (eg, "01.03.10", "01.03.0
9 ”,“ 01.02.10 ”,...) Are stored as“ registration date ”. The registration time area 176f contains data (eg, “15:01”, “14: 5”) indicating the time at which the voice stamp was registered.
8 ”,“ 12:00 ”,...) Are stored as“ registration time ”.

【0080】以下、動作を説明する。情報端末装置1に
より実行される音声解析スタンプ作成処理について図2
8のフローチャートを参照して説明する。
The operation will be described below. FIG. 2 shows a speech analysis stamp creation process executed by the information terminal device 1.
This will be described with reference to the flowchart of FIG.

【0081】まず、CPU11は、入力部12により音
声解析スタンプの作成を指示する信号が入力されると
(ステップS61)、録音して音声データを作成する
か、既存の音声データを利用するか、の選択画面を表示
する(ステップS62)。録音が選択されると(ステッ
プS63;Y)、CPU11は、音声処理部18により
録音を開始し(ステップS64)、録音が終了すると
(ステップS65;Y)、音声データファイルを作成
し、当該音声データファイルを、音声解析スタンプを作
成するための音声データとして認識する(ステップS6
6)。一方、既存の音声データの利用が選択されると
(ステップS63;N)、CPU11は、記憶装置17
に記憶されている音声データファイル171の一覧を表
示し(ステップS67)、音声データが選択されると、
当該音声データを、音声解析スタンプを作成するための
音声データとして認識する(ステップS68)。
First, when a signal instructing creation of a voice analysis stamp is input from the input unit 12 (step S61), the CPU 11 determines whether to record and create voice data or to use existing voice data. Is displayed (step S62). When recording is selected (Step S63; Y), the CPU 11 starts recording by the audio processing unit 18 (Step S64). When recording is completed (Step S65; Y), the CPU 11 creates an audio data file and creates the audio data file. The data file is recognized as audio data for creating an audio analysis stamp (step S6).
6). On the other hand, when the use of the existing voice data is selected (step S63; N), the CPU 11
Is displayed (step S67), and when audio data is selected, a list of audio data files 171 is displayed.
The voice data is recognized as voice data for creating a voice analysis stamp (step S68).

【0082】次に、CPU11は、記憶装置17に記憶
されている画像データファイル172の画像データを表
示させる(ステップS69)。表示一覧の中から当該音
声データに対応させる画像データが選択されると(ステ
ップS70)、CPU11は、当該音声データを解析し
(ステップS71)、解析した結果を表示部16に表示
させる(ステップS72)。
Next, the CPU 11 displays the image data of the image data file 172 stored in the storage device 17 (step S69). When the image data corresponding to the audio data is selected from the display list (step S70), the CPU 11 analyzes the audio data (step S71), and displays the analysis result on the display unit 16 (step S72). ).

【0083】図29は、ステップS72で表示部16に
表示される、音声データの解析結果を表示する音声デー
タ解析結果表示画面1013の例である。画面上には、
「音声データの解析」と表示され、その下に「音声デー
タを解析した結果、人の声が含まれています」等の文字
により、ユーザに対して解析結果を示すと共に、解析結
果に応じた解析合成画像を表示する。
FIG. 29 is an example of a voice data analysis result display screen 1013 displayed on the display unit 16 in step S72 and displaying the voice data analysis result. On the screen,
"Analysis of voice data" is displayed, and below that, the analysis result is shown to the user with characters such as "Result of voice data analysis, human voice is included", and according to the analysis result Display the analysis composite image.

【0084】図30は、解析合成画像と解析結果の対応
関係を一覧表示した解析合成画像一覧表示画面1014
の例を示す図である。ユーザは、所定の入力操作によ
り、解析合成画像一覧表示画面1014の解析合成画像
を自由に切替表示して画像と解析結果の対応関係を確認
することができる。
FIG. 30 shows an analysis / combined image list display screen 1014 displaying a list of the correspondence between the analysis / combined image and the analysis result.
It is a figure showing the example of. By a predetermined input operation, the user can freely switch and display the analysis and synthesis image on the analysis and synthesis image list display screen 1014 to check the correspondence between the image and the analysis result.

【0085】図28に戻り、解析結果を表示させた後、
CPU11は、解析合成画像を選択するか否かの選択画
面を表示部16に表示させる。ユーザが解析合成画像を
選択するという指示があると(ステップS73;Y)、
CPU11は、図31に示す解析合成画像変更選択画面
1015を一覧表示させる(ステップS74)。次に、
ユーザは、解析合成画像変更選択画面1015上の解析
合成画像の中から、解析結果に対応させる所望の解析合
成画像を選択する(ステップS75)。そして、CPU
11は、ステップS70で選択した画像データと、ステ
ップS75で選択した、解析結果に応じた解析合成画像
とを合成し(ステップS76)、合成した画像に音声デ
ータファイルを関連付けて(ステップS77)、音声解
析スタンプとして設定登録する(ステップS78)。
Returning to FIG. 28, after displaying the analysis result,
The CPU 11 causes the display unit 16 to display a selection screen as to whether or not to select an analysis and synthesis image. When the user gives an instruction to select an analysis composite image (step S73; Y),
The CPU 11 displays a list of the analysis / synthesized image change selection screen 1015 shown in FIG. 31 (step S74). next,
The user selects a desired analysis composite image corresponding to the analysis result from the analysis composite images on the analysis composite image change selection screen 1015 (step S75). And CPU
11 combines the image data selected in step S70 with the analysis-combined image selected in step S75 according to the analysis result (step S76), and associates the combined image with the audio data file (step S77); The setting is registered as a voice analysis stamp (step S78).

【0086】図31は、ステップS74で表示部16に
表示される解析合成画像の変更候補を示した解析合成画
像変更選択画面1015の例を示す図である。図31に
示す様に、解析合成画像変更選択画面1015は、「画
像を選択して下さい」等のユーザへの指示メッセージが
表示され、その下に、解析合成画像の選択候補が一覧表
示される。ユーザは一覧表示されている解析合成画像の
選択候補の中から所望の画像にカーソルを合わせ、選択
ボタンを指定することにより、画像データを選択する。
FIG. 31 is a diagram showing an example of an analysis / combined image change selection screen 1015 showing candidates for changing the analysis / combined image displayed on the display unit 16 in step S74. As shown in FIG. 31, on the analysis / combined image change selection screen 1015, an instruction message to the user such as “Please select an image” is displayed, and below that, a list of analysis / combined image selection candidates is displayed. . The user selects the image data by moving the cursor to a desired image from the list of analysis and synthesis image selection candidates and designating a selection button.

【0087】一方、ステップS73において、ユーザが
解析合成画像を選択しないという指示があると(ステッ
プS73;N)、CPU11は、図30に示す様な解析
合成画像と解析結果との対応関係に基づいて、ステップ
S71における解析結果に対応する解析合成画像を自動
的に選択し、この解析合成画像とステップS70で選択
した画像データとを合成する(ステップS76)。そし
て、CPU11は、合成した画像に音声データファイル
を関連付けて(ステップS77)、音声解析スタンプと
して設定登録する(ステップS78)。
On the other hand, in step S73, if the user instructs not to select an analysis / combined image (step S73; N), the CPU 11 determines the correspondence between the analysis / combined image and the analysis result as shown in FIG. Then, the analysis and synthesis image corresponding to the analysis result in step S71 is automatically selected, and the analysis and synthesis image is synthesized with the image data selected in step S70 (step S76). Then, the CPU 11 associates the synthesized image with the audio data file (step S77), and sets and registers it as an audio analysis stamp (step S78).

【0088】以上説明した様に、情報端末装置1によれ
ば、音声データの内容を解析し、解析結果に対応した解
析合成画像と画像データとを合成して当該音声データに
関連付けることによって音声解析スタンプを設定、登録
(記録)する。これによって、ユーザは、音声データの
内容を簡単に把握することができる。
As described above, according to the information terminal device 1, the content of the audio data is analyzed, and the synthesized image and the image data corresponding to the analysis result are synthesized and associated with the audio data, whereby the audio analysis is performed. Set and register (record) a stamp. Thus, the user can easily grasp the contents of the audio data.

【0089】なお、上記各実施の形態における記述内容
は、本発明に係る情報端末装置1の好適な一例であり、
これに限定されるものではない。例えば、上記実施の形
態により登録された音声解析スタンプに関しても、第3
の実施の形態における加工度の切り替えを行うことがで
きる。
The description in each of the above embodiments is a preferred example of the information terminal device 1 according to the present invention.
It is not limited to this. For example, regarding the voice analysis stamp registered according to the above embodiment, the third
In this embodiment, the degree of processing can be switched.

【0090】また、上述した第1から第4の実施の形態
において、第3の実施の形態以外は独立した機能として
実現可能であるが、1つのアプリケーションの中にある
機能としてそれぞれの実施の形態をユーザが選択できる
ようにすることで、加工のバリエーションも増え、ユー
ザインターフェイスを向上させることができる。その
他、情報端末装置1の細部構成、及び詳細動作に関して
も、本発明の趣旨を逸脱することのない範囲で適宜変更
可能である。
In the above-described first to fourth embodiments, the functions other than the third embodiment can be realized as independent functions. However, each of the embodiments can be realized as a function in one application. Can be selected by the user, the variation of processing can be increased, and the user interface can be improved. In addition, the detailed configuration and the detailed operation of the information terminal device 1 can be appropriately changed without departing from the spirit of the present invention.

【0091】[0091]

【発明の効果】請求項1記載の発明によれば、録音し
た、あるいは録音されていた音声データに対応させる画
像データを、一覧表示した画像データの中から選択し、
音声データを加工する為の加工の種類に対応した第2の
画像データを選択することにより、加工の種類を選択す
る。そして、選択された加工の種類に従って、音声デー
タを加工し、加工された音声データを第1の画像データ
と第2の画像データを合成した画像データと対応付けて
記録する。従って、ユーザは音声データに対して思い通
りの加工をすることができ、また、加工の種類に応じた
画像データを表示することにより、音声データの加工内
容を容易に知ることができるようになる。
According to the first aspect of the present invention, image data corresponding to recorded or recorded audio data is selected from a list of image data,
The type of processing is selected by selecting the second image data corresponding to the type of processing for processing the audio data. Then, the audio data is processed according to the selected type of processing, and the processed audio data is recorded in association with the image data obtained by combining the first image data and the second image data. Therefore, the user can perform desired processing on the audio data, and by displaying image data corresponding to the type of processing, the user can easily know the processing content of the audio data.

【0092】請求項2記載の発明によれば、録音した、
あるいは録音されていた音声データに対応させる画像デ
ータを、一覧表示した画像データの中から選択し、音声
データの加工の種類を選択し、選択された加工の種類に
対応する第2の画像データを選択した後、音声データの
加工度を指定する。そして、選択された加工の種類と指
定された加工度に従って、音声データを加工し、加工さ
れた音声データを第1の画像データと第2の画像データ
を合成した画像データと対応付けて記録する。従って、
ユーザは音声データに対して思い通りの加工をすること
ができ、また、加工の種類のみならず加工度に応じた画
像データを変化させて表示することにより、音声データ
の加工内容をより容易に知ることができるようになる。
According to the second aspect of the present invention, the recorded
Alternatively, image data to be associated with the recorded audio data is selected from the list of image data, a processing type of the audio data is selected, and the second image data corresponding to the selected processing type is selected. After the selection, the degree of processing of the audio data is designated. Then, the audio data is processed according to the selected type of processing and the specified processing degree, and the processed audio data is recorded in association with the image data obtained by combining the first image data and the second image data. . Therefore,
The user can process the audio data as desired, and more easily know the processing details of the audio data by changing and displaying not only the type of processing but also the image data according to the processing degree. Will be able to do it.

【0093】請求項3記載の発明によれば、記録された
音声データに対応付けられた画像データを表示し、表示
された画像データの中から加工度を切り替える画像デー
タを選択し、前記画像データが選択される毎に、画像デ
ータに対応する音声データの加工度を切り替えて出力
し、変更された加工度に対応させて画像データを切り替
える。従って、すでに記録されている音声データに対応
づけられた画像データに簡単な操作をすることによって
当該音声データの加工を切り替えることができ、ユーザ
は思い通りの音声データの加工を容易に行うことができ
る。
According to the third aspect of the present invention, image data associated with the recorded audio data is displayed, and image data for switching the processing degree is selected from the displayed image data. Each time is selected, the processing degree of the audio data corresponding to the image data is switched and output, and the image data is switched in accordance with the changed processing degree. Therefore, the processing of the audio data can be switched by performing a simple operation on the image data associated with the already recorded audio data, and the user can easily perform the processing of the audio data as desired. .

【0094】請求項4記載の発明によれば、録音した、
あるいは録音されていた音声データに対応させる画像デ
ータを、一覧表示した画像データの中から選択し、音声
データを解析し、解析した結果に基づいて判定された加
工の種類に対応する画像データ、又は選択指定された新
規の画像データを第2の画像データとして選択し、前記
音声データを第1の画像データと第2の画像データを合
成した画像データと対応付けて記録する。従って、音声
データの内容が視覚的に識別可能となり、その結果、ユ
ーザは音声データの加工内容を一目で把握できるように
なる。
According to the fourth aspect of the present invention, the recorded
Alternatively, image data to be associated with the audio data that was recorded is selected from the list of image data, and the audio data is analyzed, and the image data corresponding to the processing type determined based on the analysis result, or The selected and designated new image data is selected as the second image data, and the audio data is recorded in association with the image data obtained by combining the first image data and the second image data. Therefore, the contents of the audio data can be visually identified, and as a result, the user can grasp the processing contents of the audio data at a glance.

【0095】請求項5記載の発明によれば、録音した、
あるいは録音されていた音声データに対応させる画像デ
ータを、一覧表示した画像データの中から選択させ、音
声データを加工する為の加工の種類に対応した第2の画
像データを選択させることにより、加工の種類を選択さ
せて、選択された加工の種類に従って音声データを加工
し、加工された音声データを第1の画像データと第2の
画像データを合成した画像データと対応付けて記録させ
るプログラムをコンピュータに読み込ませることで、請
求項1に記載する機能を実現できる。従って、システム
と独立したソフトウェア製品単体としての販売、配布も
容易になる。また、汎用コンピュータ等のハードウェア
資源を用いて、当該プログラムを実行することにより、
本発明の技術をハードウェア上で容易に実施できる。
According to the fifth aspect of the present invention, the recorded
Alternatively, the image data corresponding to the recorded audio data is selected from the list of image data, and the second image data corresponding to the type of processing for processing the audio data is selected. And a program for processing the audio data according to the selected processing type, and recording the processed audio data in association with the image data obtained by combining the first image data and the second image data. The functions described in claim 1 can be realized by causing a computer to read them. Therefore, sales and distribution as a single software product independent of the system are also facilitated. Also, by executing the program using hardware resources such as a general-purpose computer,
The technique of the present invention can be easily implemented on hardware.

【0096】請求項6記載の発明によれば、録音した、
あるいは録音されていた音声データに対応させる画像デ
ータを、一覧表示した画像データの中から選択させ、音
声データの加工の種類と、選択された加工の種類に対応
する第2の画像データを選択させ、音声データの加工度
を指定させて、加工の種類と加工度に従って、音声デー
タを加工して、加工された音声データを第1の画像デー
タと第2の画像データを合成した画像データと対応付け
て記録させるプログラムをコンピュータに読み込ませる
ことで、請求項2に記載する機能を実現できる。従っ
て、システムと独立したソフトウェア製品単体としての
販売、配布も容易になる。また、汎用コンピュータ等の
ハードウェア資源を用いて、当該プログラムを実行する
ことにより、本発明の技術をハードウェア上で容易に実
施できる。
According to the sixth aspect of the present invention, the recorded
Alternatively, the user selects image data corresponding to the recorded audio data from the list of image data, and selects a type of audio data processing and a second image data corresponding to the selected processing type. Processing the audio data in accordance with the type and degree of processing by designating the degree of processing of the audio data, and associating the processed audio data with the image data obtained by combining the first image data and the second image data. The functions described in claim 2 can be realized by causing a computer to read a program to be attached and recorded. Therefore, sales and distribution as a single software product independent of the system are also facilitated. Further, by executing the program using hardware resources such as a general-purpose computer, the technology of the present invention can be easily implemented on hardware.

【0097】請求項7記載の発明によれば、録音した、
あるいは録音されていた音声データに対応させる画像デ
ータを、一覧表示した画像データの中から選択させ、音
声データを解析させ、解析した結果に基づいて判定され
た加工の種類に対応する画像データ、又は選択指定され
た新規の画像データを第2の画像データとして選択さ
せ、前記音声データを第1の画像データと第2の画像デ
ータを合成した画像データと対応付けて記録させるプロ
グラムをコンピュータに読み込ませることで、請求項2
に記載する機能を実現できる。従って、システムと独立
したソフトウェア製品単体としての販売、配布も容易に
なる。また、汎用コンピュータ等のハードウェア資源を
用いて、当該プログラムを実行することにより、本発明
の技術をハードウェア上で容易に実施できる。
According to the seventh aspect of the present invention, the recorded
Alternatively, the image data to be associated with the audio data that was recorded is selected from the list of image data, the audio data is analyzed, and the image data corresponding to the processing type determined based on the analysis result, or A computer is caused to read a program for causing the selected new image data to be selected as the second image data and recording the audio data in association with the image data obtained by combining the first image data and the second image data. Therefore, claim 2
Can be realized. Therefore, sales and distribution as a single software product independent of the system are also facilitated. Further, by executing the program using hardware resources such as a general-purpose computer, the technology of the present invention can be easily implemented on hardware.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る情報端末装置1の機能的構成を示
すブロック図である。
FIG. 1 is a block diagram showing a functional configuration of an information terminal device 1 according to the present invention.

【図2】図1の記憶装置17内部のファイル構成を示す
図である。
FIG. 2 is a diagram showing a file configuration inside a storage device 17 of FIG.

【図3】図2の音声データファイル171内部のデータ
格納例を示す図である。
FIG. 3 is a diagram showing an example of data storage in an audio data file 171 of FIG. 2;

【図4】図2の画像データファイル172内部のデータ
格納例を示す図である。
FIG. 4 is a diagram showing an example of data storage in an image data file 172 of FIG. 2;

【図5】図2の音声スタンプ登録情報ファイル(1)1
73内部のデータ格納例を示す図である。
FIG. 5 is a voice stamp registration information file (1) 1 of FIG. 2;
73 is a diagram showing an example of data storage inside 73. FIG.

【図6】図2の合成マークファイル174内部のデータ
格納例を示す図である。
FIG. 6 is a diagram showing an example of data storage inside a combined mark file 174 of FIG. 2;

【図7】図1のCPU11により実行される音声スタン
プ作成処理Aの動作を示すフローチャートである。
FIG. 7 is a flowchart showing an operation of a voice stamp creation process A executed by the CPU 11 of FIG. 1;

【図8】図7のステップS7で表示される音声データフ
ァイル選択画面1001の一例を示す図である。
8 is a diagram showing an example of an audio data file selection screen 1001 displayed in step S7 of FIG.

【図9】図7のステップS9で表示される画像データ選
択画面1002の一例を示す図である。
9 is a diagram showing an example of an image data selection screen 1002 displayed in step S9 of FIG.

【図10】図7のステップS13で表示される合成マー
ク選択画面1003の一例を示す図である。
FIG. 10 is a diagram showing an example of a composite mark selection screen 1003 displayed in step S13 of FIG.

【図11】図7のステップS18で表示される音声スタ
ンプ設定画面1004の一例を示す図である。
11 is a diagram showing an example of a voice stamp setting screen 1004 displayed in step S18 of FIG.

【図12】図7のステップS39で表示される音声スタ
ンプ設定画面1005の一例を示す図である。
12 is a diagram showing an example of a voice stamp setting screen 1005 displayed in step S39 of FIG.

【図13】図1の記憶装置17内部のファイル構成を示
す図である。
FIG. 13 is a diagram showing a file configuration inside a storage device 17 of FIG.

【図14】図13の音声スタンプ登録情報ファイル
(2)175内部のデータ格納例を示す図である。
14 is a diagram showing an example of data storage in a voice stamp registration information file (2) 175 of FIG.

【図15】図1のCPU11により実行される音声スタ
ンプ作成処理Bの動作を示すフローチャートである。
FIG. 15 is a flowchart showing an operation of a voice stamp creation process B executed by the CPU 11 of FIG. 1;

【図16】図15のステップS32で表示される、音声
データに施す加工の種類選択画面1006の一例を示す
図である。
FIG. 16 is a diagram showing an example of a processing type selection screen 1006 displayed in step S32 of FIG.

【図17】図15のステップS33で表示される画像エ
フェクト選択画面1007の一例を示す図である。
17 is a diagram showing an example of an image effect selection screen 1007 displayed in step S33 of FIG.

【図18】図15のステップS34で表示される加工度
入力画面1008の一例を示す図である。
FIG. 18 is a diagram showing an example of a processing degree input screen 1008 displayed in step S34 of FIG.

【図19】図15のステップS34で表示される加工度
入力画面1009の一例を示す図である。
FIG. 19 is a diagram showing an example of a processing degree input screen 1009 displayed in step S34 of FIG.

【図20】図15のステップS34で表示される加工度
入力画面1010の一例を示す図である。
20 is a diagram showing an example of a processing degree input screen 1010 displayed in step S34 of FIG.

【図21】図15のステップS34で表示される加工度
入力画面1011の一例を示す図である。
FIG. 21 is a diagram showing an example of a processing degree input screen 1011 displayed in step S34 of FIG.

【図22】図15のステップS39で表示される音声ス
タンプ設定画面1012の一例を示す図である。
FIG. 22 is a diagram showing an example of a voice stamp setting screen 1012 displayed in step S39 of FIG.

【図23】図1のCPU11により実行される加工度変
更処理の動作を示すフローチャートである。
FIG. 23 is a flowchart showing an operation of a processing degree changing process executed by the CPU 11 of FIG. 1;

【図24】図23のステップS46における画面切り替
えの一例を示す図である。
24 is a diagram illustrating an example of screen switching in step S46 in FIG.

【図25】図23のステップS46における画面切り替
えの一例を示す図である。
FIG. 25 is a diagram showing an example of screen switching in step S46 of FIG.

【図26】図1の記憶装置17内部のファイル構成を示
す図である。
FIG. 26 is a diagram showing a file configuration inside a storage device 17 of FIG.

【図27】図26の音声解析スタンプ登録情報ファイル
176内部のデータ格納例を示す図である。
FIG. 27 is a diagram showing an example of data storage in the voice analysis stamp registration information file 176 of FIG. 26;

【図28】図1のCPU11により実行される音声解析
スタンプ作成処理の動作を示すフローチャートである。
FIG. 28 is a flowchart showing an operation of a voice analysis stamp creation process executed by the CPU 11 of FIG. 1;

【図29】図28のステップS70で表示される音声デ
ータ解析結果表示画面1013の一例を示す図である。
FIG. 29 is a diagram showing an example of an audio data analysis result display screen 1013 displayed in step S70 of FIG. 28.

【図30】図28のステップS70で表示される解析合
成画像と、解析結果との対応関係を表す解析合成画像一
覧表示画面1014の一例を示す図である。
30 is a diagram showing an example of an analysis / combined image list display screen 1014 showing the correspondence between the analysis / combination image displayed in step S70 of FIG. 28 and the analysis result.

【図31】図28のステップS74で表示される解析合
成画像変更選択画面1015の一例を示す図である。
31 is a diagram showing an example of an analysis / synthesized image change selection screen 1015 displayed in step S74 of FIG. 28. FIG.

【符号の説明】[Explanation of symbols]

1 情報端末装置 11 CPU 12 入力部 13 RAM 14 伝送制御部 15 VRAM 16 表示部 17 記憶装置 17a 記録媒体 18 音声処理部 18a スピーカ 18b マイク Reference Signs List 1 information terminal device 11 CPU 12 input unit 13 RAM 14 transmission control unit 15 VRAM 16 display unit 17 storage device 17a recording medium 18 audio processing unit 18a speaker 18b microphone

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 AA08 BA10 CA05 CA07 EA19 FA02 FA10 FA19 5D045 AB30 5D108 CA29 5E501 AA18 AC34 BA03 BA05 CA02 CA08 FA04  ────────────────────────────────────────────────── ─── Continued on the front page F term (reference) 5B050 AA08 BA10 CA05 CA07 EA19 FA02 FA10 FA19 5D045 AB30 5D108 CA29 5E501 AA18 AC34 BA03 BA05 CA02 CA08 FA04

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】音声データを画像データと対応付けて記録
する情報端末装置において、 録音した音声データ又は録音されていた音声データに対
応させる第1の画像データを選択する画像選択手段と、 前記音声データを加工する為の加工の種類に対応した第
2の画像データを選択することにより、加工の種類を選
択する加工種類選択手段と、 前記加工種類選択手段により選択された加工の種類に従
って、前記録音した音声データ又は録音されていた音声
データを加工する音声加工手段と、 前記音声加工手段により加工された音声データに、前記
第1の画像データと前記第2の画像データを合成した画
像データを対応付けて記録する合成画像記録手段と、 を備えたことを特徴とする情報端末装置。
1. An information terminal device for recording audio data in association with image data, comprising: image selection means for selecting recorded audio data or first image data to be associated with recorded audio data; Processing type selecting means for selecting the type of processing by selecting the second image data corresponding to the type of processing for processing the data, according to the type of processing selected by the processing type selecting means, Voice processing means for processing the recorded voice data or recorded voice data; and image data obtained by combining the first image data and the second image data with the voice data processed by the voice processing means. An information terminal device, comprising: synthesized image recording means for recording in association with each other.
【請求項2】音声データを画像データと対応付けて記録
する情報端末装置において、 録音した音声データ又は録音されていた音声データに対
応させる第1の画像データを選択する第1画像選択手段
と、 前記音声データの加工の種類を選択する加工種類選択手
段と、 前記加工種類選択手段により選択された加工の種類に対
応する第2の画像データを選択する第2画像選択手段
と、 前記音声データの加工度を指定する加工度指定手段と、 前記加工種類選択手段により選択された加工の種類と、
前記加工度指定手段により指定された加工度とに従っ
て、前記録音した音声データ又は録音されていた音声デ
ータを加工する音声加工手段と、 前記音声加工手段により加工された音声データに、前記
第1の画像データと前記第2の画像データを合成した画
像データを対応付けて記録する合成画像記録手段と、 を備えたことを特徴とする情報端末装置。
2. An information terminal device for recording audio data in association with image data, wherein: first image selecting means for selecting recorded audio data or first image data to be associated with the recorded audio data; Processing type selection means for selecting a processing type of the audio data; second image selection means for selecting second image data corresponding to the processing type selected by the processing type selection means; Machining degree designating means for designating a machining degree; and a machining type selected by the machining type selecting means,
Voice processing means for processing the recorded audio data or recorded voice data according to the processing degree designated by the processing degree designating means; and An information terminal device, comprising: synthesized image recording means for recording image data and image data obtained by synthesizing the second image data in association with each other.
【請求項3】前記合成画像記録手段に記録された画像デ
ータを表示する合成画像表示手段と、 前記合成画像表示手段に表示された画像データを選択す
る合成画像選択手段と、 前記合成画像選択手段により前記画像データが選択され
るごとに、前記音声加工手段により加工された音声デー
タの加工度を変更して出力する加工度変更出力手段と、 前記加工度変更出力手段により変更された加工度に対応
させて、前記画像データを切り替える画像切替手段と、 を更に備えたことを特徴とする請求項1又は2記載の情
報端末装置。
3. A composite image display means for displaying image data recorded on the composite image recording means; a composite image selection means for selecting image data displayed on the composite image display means; Each time the image data is selected, the processing degree change output means for changing and outputting the processing degree of the sound data processed by the sound processing means, and the processing degree changed by the processing degree change output means The information terminal device according to claim 1, further comprising: an image switching unit that switches the image data in a corresponding manner.
【請求項4】音声データを画像データと対応付けて記録
する情報端末装置において、 録音した音声データ又は録音されていた音声データに対
応させる第1の画像データを選択する第1画像選択手段
と、 前記録音した音声データ又は録音されていた音声データ
を解析する音声解析手段と、 前記音声解析手段による解析結果に基づいて判定された
加工の種類に対応する画像データ又は選択指定された新
規の画像データを、第2の画像データとして選択する第
2画像選択手段と、 前記録音した音声データ又は録音されていた音声データ
に、前記第1の画像データと前記第2の画像データを合
成した画像データを対応付けて記録する合成画像記録手
段と、 を備えたことを特徴とする情報端末装置。
4. An information terminal device for recording audio data in association with image data, wherein: first image selection means for selecting recorded audio data or first image data to be associated with the recorded audio data; Voice analysis means for analyzing the recorded voice data or recorded voice data, and image data corresponding to the type of processing determined based on the analysis result by the voice analysis means or new image data selected and designated A second image selecting unit for selecting the first image data and the second image data with the recorded audio data or the recorded audio data. An information terminal device, comprising: synthesized image recording means for recording in association with each other.
【請求項5】コンピュータに、 録音した音声データ又は録音されていた音声データに対
応させる第1の画像データを選択する機能と、 前記音声データを加工する為の加工の種類に対応した第
2の画像データを選択することにより、加工の種類を選
択する機能と、 選択された加工の種類に従って、前記録音した音声デー
タ又は録音されていた音声データを加工する機能と、 加工された音声データに、前記第1の画像データと前記
第2の画像データを合成した画像データを対応付けて記
録する機能と、 を実現させるためのプログラム。
5. A computer which has a function of selecting recorded audio data or first image data corresponding to recorded audio data, and a second function corresponding to a type of processing for processing the audio data. A function of selecting the type of processing by selecting image data; a function of processing the recorded audio data or the recorded audio data in accordance with the selected processing type; A function of recording the first image data and the image data obtained by combining the second image data in association with each other.
【請求項6】コンピュータに、 録音した音声データ又は録音されていた音声データに対
応させる第1の画像データを選択する機能と、 前記音声データの加工の種類を選択する機能と、 選択された加工の種類に対応する第2の画像データを選
択する機能と、 前記音声データの加工度を指定する機能と、 選択された加工の種類と、指定された加工度とに従っ
て、前記録音した音声データ又は録音されていた音声デ
ータを加工する機能と、 加工された音声データに、前記第1の画像データと前記
第2の画像データを合成した画像データを対応付けて記
録する機能と、 を実現させるためのプログラム。
6. A computer, wherein: a function of selecting recorded audio data or first image data corresponding to the recorded audio data; a function of selecting a type of processing of the audio data; A function of selecting the second image data corresponding to the type of the audio data; a function of specifying the degree of processing of the audio data; the type of processing selected and the specified degree of processing; A function of processing recorded audio data, and a function of recording the processed audio data in association with image data obtained by combining the first image data and the second image data. Program.
【請求項7】コンピュータに、 録音した音声データ又は録音されていた音声データに対
応させる第1の画像データを選択する機能と、 前記録音した音声データ又は録音されていた音声データ
を解析する機能と、 解析結果に基づいて判定された加工の種類に対応する画
像データ又は選択指定された新規の画像データを、第2
の画像データとして選択する機能と、 前記録音した音声データ又は録音されていた音声データ
に、前記第1の画像データと前記第2の画像データを合
成した画像データを対応付けて記録する機能と、 を実現させるためのプログラム。
7. A function for a computer to select recorded audio data or first image data corresponding to recorded audio data, and a function for analyzing the recorded audio data or recorded audio data. The image data corresponding to the type of processing determined based on the analysis result or the new image data selected and designated is stored in the second
A function of selecting as the image data, a function of recording the recorded audio data or the recorded audio data in association with the image data obtained by synthesizing the first image data and the second image data, The program to realize.
JP2001168435A 2001-06-04 2001-06-04 Information terminal device and program Expired - Fee Related JP4158356B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001168435A JP4158356B2 (en) 2001-06-04 2001-06-04 Information terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001168435A JP4158356B2 (en) 2001-06-04 2001-06-04 Information terminal device and program

Publications (2)

Publication Number Publication Date
JP2002366179A true JP2002366179A (en) 2002-12-20
JP4158356B2 JP4158356B2 (en) 2008-10-01

Family

ID=19010665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001168435A Expired - Fee Related JP4158356B2 (en) 2001-06-04 2001-06-04 Information terminal device and program

Country Status (1)

Country Link
JP (1) JP4158356B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158908A (en) * 2005-12-07 2007-06-21 Kenwood Corp Content data transmission apparatus, content reproducing system and content data transmission method
WO2009093421A1 (en) * 2008-01-21 2009-07-30 Panasonic Corporation Sound reproducing device
JP2018139115A (en) * 2018-03-20 2018-09-06 株式会社 ディー・エヌ・エー System, method and program that enable voice chat
US10469422B2 (en) 2014-07-01 2019-11-05 DeNA Co., Ltd. System, method, and program that allow audio chatting

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158908A (en) * 2005-12-07 2007-06-21 Kenwood Corp Content data transmission apparatus, content reproducing system and content data transmission method
WO2009093421A1 (en) * 2008-01-21 2009-07-30 Panasonic Corporation Sound reproducing device
JP4990377B2 (en) * 2008-01-21 2012-08-01 パナソニック株式会社 Sound playback device
US8571879B2 (en) 2008-01-21 2013-10-29 Panasonic Corporation Sound reproducing device adding audio data to decoded sound using processor selected based on trade-offs
US10469422B2 (en) 2014-07-01 2019-11-05 DeNA Co., Ltd. System, method, and program that allow audio chatting
JP2018139115A (en) * 2018-03-20 2018-09-06 株式会社 ディー・エヌ・エー System, method and program that enable voice chat

Also Published As

Publication number Publication date
JP4158356B2 (en) 2008-10-01

Similar Documents

Publication Publication Date Title
KR101212403B1 (en) Method of composing music on a handheld device
US20090176533A1 (en) Portable information apparatus, character display method in portable information apparatus, and program product for implementing the method
CN107066194A (en) User interface generating means
TWI276977B (en) Chinese character input method, Chinese character input device and computer readable medium that stores a Chinese character input program
JP2939021B2 (en) Window management information input / output device
JPH06266521A (en) System and device for customizing user interface
GB2380020A (en) Method of generating a dynamic editable table in a web page
JPH02268313A (en) Information input device
US20090064016A1 (en) Displaying device with user-defined display regions and method thereof
JPH09114453A (en) Display and editing device for music information and playing device capable of display and editing
JP4158356B2 (en) Information terminal device and program
JPH06242886A (en) Electronic mail system
JPH0348927A (en) Icon display control system for information processing system
US6979768B2 (en) Electronic musical instrument connected to computer keyboard
WO2002023350A1 (en) Technique for superimposingly display additional information on display screen
JPH08137648A (en) Operation device for image input output device
JP2021047837A (en) Information processing apparatus, information processing method, and information processing program
JP2001022778A (en) Device and method for retrieval
JPH08328839A (en) Human-machine interface design assisting device
JP3595292B2 (en) Karaoke device that stores and manages the user songbook
KR20030071904A (en) Method and apparatus for modifying functions of buttons by a user's selection
JP2002182833A (en) Device and method for setting function of portable terminal
JP3442196B2 (en) Learning support device and learning software development support device
JPS6299813A (en) Numerical controller
JPH03127269A (en) Method and device for processing information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080624

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080707

R150 Certificate of patent or registration of utility model

Ref document number: 4158356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130725

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees