JP4158356B2 - Information terminal device and program - Google Patents
Information terminal device and program Download PDFInfo
- Publication number
- JP4158356B2 JP4158356B2 JP2001168435A JP2001168435A JP4158356B2 JP 4158356 B2 JP4158356 B2 JP 4158356B2 JP 2001168435 A JP2001168435 A JP 2001168435A JP 2001168435 A JP2001168435 A JP 2001168435A JP 4158356 B2 JP4158356 B2 JP 4158356B2
- Authority
- JP
- Japan
- Prior art keywords
- processing
- data
- image data
- image
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- User Interface Of Digital Computer (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、音声データを画像データと対応付けて記録する情報端末装置、及びプログラムに関する。
【0002】
【従来の技術】
近年、音楽のデジタルデータ化が進み、インターネット経由での音楽のダウンロードをはじめとして、ユーザがパソコン上で音声データを取り扱うことが増えてきた。従来、音声データを管理する機能として、音声データに音符やスピーカ等が表示された画像データを対応付けることによってパソコンの画面上で音声データであることを視覚的に区別できるようにし、当該画像データをマウスでクリックする等の簡単な操作で音声データが再生できる音声スタンプが利用されている。
【0003】
通常、音声スタンプは録音、受信メールからの音声登録時に自動的にデフォルトの画像データが対応づけられており、ユーザがこの画像データを別の画像データに変更する機能を有している。画像データの変更は、ユーザが入力部を介して任意の画像データを選択することにより行い、選択された画像データには音声スタンプであることを示す音符が合成されている。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の音声スタンプでは、画像データの変更はできるものの、既存の音声データの音質を変化させる等の加工をしたり、加工の種類と度合いに応じて画像データを変化させる機能がなかった。このため、ユーザが思い通りに音声データの加工を行って、加工の種類と度合いを視覚的に識別可能な音声スタンプを作成することはできなかった。
【0005】
本発明の課題は、音声データの加工の種類と加工度に対応した画像データを作成、表示することにより、ユーザが簡単に音声データを加工できるようにするとともに、音声データの加工内容を容易に知ることができるようにすることである。
【0006】
【課題を解決するための手段】
本発明は、上記課題を解決するため、以下の様な特徴を備えている。以下に示す手段の説明において、実施の形態に対応する構成を括弧内に例示する。なお、符号は後記の図面参照符号に対応する。
【0007】
請求項1記載の発明は、
音声データを画像データと対応付けて記録する情報端末装置(例えば、図1の情報端末装置1)において、
録音した音声データ又は録音されていた音声データに対応させる第1の画像データを選択する画像選択手段(例えば、図7のステップS10を実行するための入力部12)と、
前記音声データを加工する為の加工の種類に対応した第2の画像データを選択することにより、加工の種類を選択する加工種類選択手段(例えば、図7のステップS13を実行するための入力部12)と、
前記加工種類選択手段により選択された加工の種類に従って、前記録音した音声データ又は録音されていた音声データを加工する音声加工手段(例えば、図7のステップS14を実行するためのCPU11)と、
前記音声加工手段により加工された音声データに、前記第1の画像データと前記第2の画像データを合成した画像データを対応付けて記録する合成画像記録手段(例えば、図7のステップS16〜ステップS18を記憶装置17に実行させるためのCPU11)と、
を備えたことを特徴としている。
【0008】
請求項1記載の発明によれば、録音した、あるいは録音されていた音声データに対応させる画像データを、一覧表示した画像データの中から選択し、音声データを加工する為の加工の種類に対応した第2の画像データを選択することにより、加工の種類を選択する。そして、選択された加工の種類に従って、音声データを加工し、加工された音声データを第1の画像データと第2の画像データを合成した画像データと対応付けて記録する。従って、ユーザは音声データに対して思い通りの加工をすることができ、また、加工の種類に応じた画像データを表示することにより、音声データの加工内容を容易に知ることができるようになる。
【0009】
請求項2記載の発明によれば、
音声データを画像データと対応付けて記録する情報端末装置(例えば、図1の情報端末装置1)において、
録音した音声データ又は録音されていた音声データに対応させる第1の画像データを選択する第1画像選択手段(例えば、図15のステップS30を実行するための入力部12)と、
前記音声データの加工の種類を選択する加工種類選択手段(例えば、図15のステップS32を実行するための入力部12)と、
前記加工種類選択手段により選択された加工の種類に対応する第2の画像データを選択する第2画像選択手段(例えば、図15のステップS33を実行するための入力部12)と、
前記音声データの加工度を指定する加工度指定手段(例えば、図15のステップS34を実行するための入力部12)と、
前記加工種類選択手段により選択された加工の種類と、前記加工度指定手段により指定された加工度とに従って、前記録音した音声データ又は録音されていた音声データを加工する音声加工手段(例えば、図15のステップS35を実行するためのCPU11)と、
前記音声加工手段により加工された音声データに、前記第1の画像データと前記第2の画像データを合成した画像データを対応付けて記録する合成画像記録手段(例えば、図15のステップS37〜ステップS39を記憶装置17に実行させるためのCPU11)と、
を備えたことを特徴としている。
【0010】
請求項2記載の発明によれば、録音した、あるいは録音されていた音声データに対応させる画像データを、一覧表示した画像データの中から選択し、音声データの加工の種類を選択し、選択された加工の種類に対応する第2の画像データを選択した後、音声データの加工度を指定する。そして、選択された加工の種類と指定された加工度に従って、音声データを加工し、加工された音声データを第1の画像データと第2の画像データを合成した画像データと対応付けて記録する。従って、ユーザは音声データに対して思い通りの加工をすることができ、また、加工の種類に応じた画像データを表示することにより、音声データの加工内容を容易に知ることができるようになる。
【0011】
請求項4記載の発明は、
音声データを画像データと対応付けて記録する情報端末装置(例えば、図1の情報端末装置1)において、
録音した音声データ又は録音されていた音声データに対応させる第1の画像データを選択する第1画像選択手段(例えば、図28のステップS70を実行するための入力部12)と、
前記録音した音声データ又は録音されていた音声データを解析する音声解析手段(例えば、図28のステップS71を実行するためのCPU11)と、
前記音声解析手段による解析結果に基づいて判定された加工の種類に対応する画像データ又は選択指定された新規の画像データを、第2の画像データとして選択する第2画像選択手段(例えば、図28のステップS73〜S75を実行するための入力部12)と、
前記録音した音声データ又は録音されていた音声データに、前記第1の画像データと前記第2の画像データを合成した画像データを対応付けて記録する合成画像記録手段(例えば、図28のステップS76〜ステップS78を記憶装置17に実行させるためのCPU11)と、
を備えたことを特徴としている。
【0012】
請求項4記載の発明によれば、録音した、あるいは録音されていた音声データに対応させる画像データを、一覧表示した画像データの中から選択し、音声データを解析し、解析した結果に基づいて判定された加工の種類に対応する画像データ、又は選択指定された新規の画像データを第2の画像データとして選択し、前記音声データを第1の画像データと第2の画像データを合成した画像データと対応付けて記録する。従って、音声データの内容が視覚的に識別可能となり、その結果、ユーザは音声データの加工内容を一目で把握できるようになる。従って、音声データの内容が視覚的に識別可能となり、その結果、ユーザは音声データの加工内容を一目で把握できるようになる。
【0013】
【発明の実施の形態】
以下、図を参照して本発明の実施の形態を詳細に説明する。
【0014】
〔第1の実施の形態〕
まず、構成を説明する。
図1は、本実施の形態における情報端末装置1の全体構成を示す図である。図1に示す様に、情報端末装置1は、CPU11、入力部12、RAM13、伝送制御部14、VRAM15、表示部16、記録媒体17aを有する記憶装置17、スピーカ18a、マイク18bを備えた音声処理部18により構成され、記録媒体17aを除く各部は、バス19により接続されているコンピュータである。
【0015】
CPU(Central Processing Unit)11は、記憶装置17の有する記録媒体17aに記憶されている各種制御プログラムを読み出し、RAM13内に形成されたワークメモリに展開し、該制御プログラムに従って各部の動作を集中制御する。また、CPU11は、RAM13内のワークメモリに展開した制御プログラムに従って、後述する音声スタンプ作成処理A等を実行し、その処理結果をRAM13内のワークメモリに格納すると共に表示部16に表示させる。そして、ワークメモリに格納した処理結果を、記憶装置17或いは記録媒体17a内の所定の保存先に保存させる。
【0016】
すなわち、CPU11は、音声スタンプ作成処理Aの実行に際して、音声の録音指示があると、録音を開始して音声スタンプを作成するための音声データを作成する。録音の指示がなければ、過去に録音した音声データの一覧を表示して、一覧の中から選択された音声データを、音声スタンプを作成する音声データとして認識する。そして、画像データの一覧を表示させて、録音された、あるいは選択された音声データに対応させる画像データを選択する。画像データの選択後、音声データ加工の指示があると、加工の種類と加工度合いを表す合成マークの一覧を表示させ、選択された合成マークに対応した加工処理を音声データに対して行う。そして、選択された画像データと合成マークを合成し、合成した画像に加工済みの音声データを関連付けて音声スタンプを設定し登録する。音声データ加工の指示がなければ、選択された画像データに、録音された、あるいは選択された音声データを関連付けて音声スタンプを設定し登録する。
【0017】
入力部12は、文字/英数字入力キー、カーソルキー、及び各種機能キー等を備えたキーボードと、ポインティングデバイスであるマウスと、を備えて構成され、キーボードで押圧操作されたキーの押圧信号とマウスによる操作信号とを、入力信号としてCPU11へ出力する。若しくは、入力部12は、表示部16の表示画面を覆う透明なシートパネルに、指又は専用のタッチペンで触れることにより入力される位置情報を入力信号としてCPU11へ出力する、タッチパネルにより構成される。
【0018】
RAM(Random Access Memory)13は、CPU11により実行制御される上記各種処理において、記憶装置17から読み出された情報端末装置1で実行可能なシステムプログラム、制御プログラム、入力若しくは出力データ、及びパラメータ等を一時的に格納する。
【0019】
伝送制御部14は、ルータやTA(Terminal Adapter)等によって構成され、専用線、或いはISDN(Integrated Service Digital Network)回線等の通信回線を介してネットワークに接続された他の端末との通信制御を行う。ルータは、情報端末装置1がLANを構成している場合に、外部のLANとの間を接続する装置であり、TAは、ISDN回線を介して外部機器との通信を行うために、既存のインタフェースをISDNに対応するインタフェースに変換する装置である。
【0020】
VRAM15は、CPU11の表示指示に従って、表示部16に表示するための画像データを一時的に格納する。表示部16は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等により構成され、CPU11から入力される表示信号の指示に従って、表示画面上に、後述する音声データファイル選択画面1001、画像データ選択画面1002、合成マーク選択画面1003、音声スタンプ設定画面1004等の表示を行う。
【0021】
記憶装置17は、プログラムやデータ等が予め記憶された記録媒体17aを有し、この記録媒体17aは磁気的、光学的記録媒体、若しくは半導体等の不揮発性メモリで構成されている。記録媒体17aは、記憶装置17に固定的に設けたもの、若しくは着脱自在に装着するものであり、記録媒体17aには情報端末装置1に対応するシステムプログラム、及び該システムプログラム上で実行可能な音声スタンプ作成処理A等の各種処理プログラム、及びこれらのプログラムで処理されたデータ等を記憶する。これらの各処理プログラムは、読み取り可能なプログラムコードの形態で格納され、CPU11は、当該プログラムコードに従った動作を逐次実行する。
【0022】
本実施の形態において、記憶装置17は、図2に示す様に、内部に音声データファイル171、画像データファイル172、音声スタンプ登録情報ファイル(1)173、合成マークファイル174を有して構成される。以下、これら各ファイル内のデータ構成について図3〜図6を参照して詳細に説明する。
【0023】
図3は、録音した音声データを格納する音声データファイル171内のデータ格納例を示す図である。図3に示す様に、音声データファイル171は、音声データを特定する為に一意的に割り当てられた識別コード(例えば、“yama.def”、“kawa.def”、“umi.def”、…)を「音声データ名」として格納する音声データ名領域171aと、録音された、あるいは既存の音声データ(例えば、“音声1”、“音声2”、“音声3”…)を「音声データ」として格納する音声データ領域171bと、を有する。
【0024】
図4は、画像データを格納する画像データファイル172内のデータ格納例を示す図である。図4に示す様に、画像データファイル172は、画像データを特定する為に一意的に割り当てられた識別コード(例えば、“speaker.ghi”、“house.ghi”、“maru.ghi”、…)を「画像データ名」として格納する画像データ名領域172aと、登録された、あるいは既存の画像データ(例えば、“画像1”、“画像2”、“画像3”…)を「画像データ」として格納する画像データ領域172bと、を有する。
【0025】
図5は、音声スタンプの登録に必要な情報を格納する音声スタンプ登録情報ファイル(1)173内のデータ格納例を示す図である。図5に示す様に、音声スタンプ登録情報ファイル(1)173は、音声スタンプを特定するために一意的に割り当てられた識別コード(例えば、“onsei.abc”、“onsei1.abc”、“onsei2.abc”、…)を「ファイル名」として格納するファイル名領域173aと、当該音声スタンプに登録されている音声データを特定するために一意的に割り当てられた識別コード(例えば、“yama.def”、“kawa.def”、“umi.def”、…)を「音声データ名」として格納する音声データ名領域173bと、該音声スタンプに登録されている画像データを特定する為に一意的に割り当てられた識別コード(例えば、“speaker.ghi”、“house.ghi”、“maru.ghi”、…)を「画像データ名」として格納する画像データ名領域173cと、該音声データに施された加工の種類を表す文字列データ(例えば、“音量”、“音の高さ”、“音質”、…)を「加工の種類」として格納する加工の種類領域173dと、該音声データに施された加工度を表す数値データ(例えば、“1”、“2”、“4”、…)を「加工度」として格納する加工度領域173eと、該音声スタンプが登録された日付を表す日付データ(例えば、“01.03.10”、“01.03.09”、“01.02.10”、…)を「登録日」として格納する登録日領域173fと、該音声スタンプが登録された時間を表すデータ(例えば、“15:01”、“14:58”、“12:00”、…)を「登録時間」として格納する登録時間領域173gと、を有する。なお、「加工の種類」と「加工度」は、音声スタンプ作成時に音声データを加工しなかった場合は空欄となる。
【0026】
図6は、音声データの加工の種類、加工度に対応づけた合成マークを格納する合成マークファイル174内のデータ格納例を示す図である。図6に示す様に、合成マークファイル174は、加工の種類を表す文字列データ(例えば、“音量”、…)を「加工の種類」として格納する加工の種類領域174aと、加工度を表す数値データ(例えば、“1”、“2”、“3”…)を「加工度」として格納する加工度領域174bと、合成マークの画像データ(例えば、“音符1”、“音符2”、“音符3”、…)を「合成マークデータ」として格納する合成マークデータ領域174cと、を有する。
【0027】
音声処理部18は、アナログ/デジタル変換器、増幅器等により構成され、スピーカ18a、マイク18bを備える。音声処理部18は、記憶装置17に格納されている音声データを変換器でアナログ信号に変換し、増幅器を介してスピーカ18aから外部に出力する。また、音声処理部18は、マイク18b等から入力される音声信号を変換器によりデジタル信号に変換し、音声データファイル171に音声データとして格納する。
【0028】
次に、動作を説明する。
情報端末装置1により実行される音声スタンプ作成処理Aについて図7のフローチャートを参照して説明する。
動作説明の前提として、以下のフローチャートに記述されている各機能を実現するためのプログラムは、読み取り可能なプログラムコードの形態で記録媒体17aに格納されており、CPU11は、上記プログラムコードに従った動作を逐次実行する。また、CPU11は、伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体17aの他、伝送媒体を介して外部供給されたプログラム或いはデータを利用して本実施の形態特有の動作を実行することもできる。
【0029】
まず、CPU11は、入力部12により音声スタンプの作成を指示する信号が入力されると(ステップS1)、録音して音声データを作成するか、既存の音声データを利用するか、の選択画面を表示する(ステップS2)。録音が選択されると(ステップS3;Y)、CPU11は、音声処理部18を介して録音を開始し(ステップS4)、録音が終了すると(ステップS5;Y)、音声データファイルを作成し、当該音声データファイルを、音声スタンプを作成するための音声データとして認識する(ステップS6)。一方、既存の音声データの利用が選択されると(ステップS3;N)、CPU11は、記憶装置17に記憶されている音声データファイル171の一覧を表示し(ステップS7)、音声データが選択されると、当該音声データを、音声スタンプを作成するための音声データとして認識する(ステップS8)。
【0030】
図8は、ステップS7で表示部16に表示される音声データファイル171の一覧を示す音声データファイル選択画面1001の例を示す図である。図8に示す様に、音声データファイル選択画面1001は、「音声データを選択して下さい」等のユーザへの指示メッセージが表示され、その下に音声データのファイルが一覧表示される。ユーザは、一覧表示されている音声データファイルの中から所望のファイルに対応するファイル名にカーソルを合わせ、選択ボタンを指定することにより、音声データを選択する。
【0031】
次に、CPU11は、記憶装置17に記憶されている画像データファイル172の画像データを表示する(ステップS9)。表示一覧の中から当該音声データに対応させる画像データが選択されると(ステップS10)、CPU11は、当該音声データを加工するか否かの選択画面を表示部16に表示させる。加工することが選択されると(ステップS11;Y)、記憶装置17に記憶されている合成マークファイル174の合成マークと、合成マークに対応する加工の種類を一覧表示する(ステップS12)。
【0032】
合成マークが選択されると(ステップS13)、CPU11は、当該音声データに、当該合成マークに対応した加工処理を行う(ステップS14)。音声データの加工処理が終了すると、CPU11は、当該合成マークと当該画像データの合成を行い(ステップS15)、合成した画像に対して当該音声データを関連付け(ステップS16)、音声スタンプを設定登録し、一連の音声スタンプ作成処理Aを終了する(ステップS18)。
【0033】
図9は、ステップS9で表示部16に表示される画像データファイル172の画像一覧を示す画像データ選択画面1002の例を図示している。図9に示す様に、画像データ選択画面1002は、「音声スタンプの画像を選択して下さい」等のユーザへの指示メッセージが表示され、その下に画像データの内容が表示される。ユーザは一覧表示されている画像の中から所望の画像にカーソルを合わせ、選択ボタンを指定することにより、画像データを選択する。画像データ選択画面1002では、画像データ(a)の様なスピーカの画像が選択されたことを示している。
【0034】
図10、図11は、ステップS11で音声データの加工が選択された場合に、ステップS12〜ステップS18において音声データが加工され、音声スタンプが設定登録される過程で表示部16に表示される画面の例である。
【0035】
図10は、ステップS13で表示部16に表示される合成マークファイル174の一覧を示す合成マーク選択画面1003の例を図示している。図10に示す様に、合成マーク選択画面1003は、「音声効果の画像を選択して下さい」等のユーザへの指示メッセージが表示され、その下に音声データの加工の種類に対応した合成マークが表示される。ユーザは、表示されている合成マークの中から希望する音声データの加工の種類に対応している合成マークにカーソルを合わせることにより、音声データの加工の種類を選択する。合成マーク選択画面1003では、音量を最小にすることを示す加工の種類に対応している合成マークである最も薄色の音符が選択されたことを示している。
【0036】
図11は、ステップS18で表示部16に表示される音声スタンプ設定画面1004の例を示す図である。音声スタンプ設定画面1004では、図9で選択された画像(ここでは、スピーカ)と、図10で選択された合成マーク(ここでは、最も薄色の音符)を合成した音声スタンプが表示されている。画面最下部に指示されている登録ボタンの選択操作を行うと、表示されている音声スタンプが登録(記録)される。
【0037】
なお、音声データの加工の種類を示す画像は、ここでは音符等の合成マークとしているが、額縁等であってもよい。即ち、図9で選択された画像データに額縁をつけて、その額縁の形状、模様、色等により加工の種類を区別するようにしてもよい。この場合、音符等の合成マークと額縁を併用するこも勿論可能である。
【0038】
一方、ステップS11において、当該音声データを加工しないという指示があると(ステップS11;N)、CPU11は、画像データに当該音声データを関連付け(ステップS17)、音声スタンプを設定登録し、一連の音声スタンプ作成処理Aを終了する(ステップS18)。
【0039】
図12は、ステップS9でスピーカの画像を選択し、ステップS11で音声データの加工をしないことを選択した場合にステップS18で表示部16に表示される音声スタンプ設定画面1005の例を示す図である。画面下に指示されている登録ボタンの選択操作を行うと、表示されている音声スタンプが登録される。
【0040】
以上説明した様に、情報端末装置1によれば、音声データと所望の画像データを対応付けて音声スタンプを作成、登録する。音声データは加工することができ、加工する場合には、音声データの加工の種類に対応した合成マークを選択することによって音声データに加工を行い、合成マークと画像データとを合成した画像を音声スタンプとして設定する。これによって、ユーザが簡単に音声データを加工できるようになり、設定された音声スタンプの画像から、加工の種類を容易に知ることができるようになる。
【0041】
なお、上記第1の実施の形態における記述内容は、本発明に係る情報端末装置1の好適な一例であり、これに限定されるものではない。
例えば、上記実施の形態では、ステップS6で録音した音声データファイル171を作成した後に、引き続き音声スタンプの作成のステップに入っているが、録音、作成した音声データファイル171を保存しておき、後日音声スタンプを作成することもできる。また、予め音声データの加工の種類を決めてから録音し、録音した音声データを自動的に加工して音声スタンプを作成するものとしてもよい。
【0042】
さらに、上記実施の形態によれば、ステップS14の音声データ加工のあと、すぐに画像データを合成しているが、一旦加工した音声データを出力して、ユーザの嗜好にあった音声が出力されなければ、ステップS12の合成マーク一覧表示のステップまで戻り、嗜好にあった音声加工がなされるまでステップS12〜ステップS14の各処理を繰り返し行うようにしてもよい。
【0043】
〔第2の実施の形態〕
以下、第1の実施の形態の応用例として、音声データの加工の種類と加工度を指定して、その指定に基づいて音声データを加工し、加工した音声データに対応して、画像データの大きさ、明るさ等を変化させたもの(以下、「画像エフェクト」と記す。)を利用した実施の形態について詳述する。なお、本実施の形態における情報端末装置1の構成は、上述した第1の実施の形態と同様であるので、各構成要素には同一の符号を付し、その構成の図示及び説明は省略する。
【0044】
但し、情報端末装置1の記憶装置17は、図13に示すように、内部に音声データファイル171、画像データファイル172、音声スタンプ登録情報ファイル(2)175を有して構成されており、音声スタンプ登録情報ファイル(2)175は、本実施の形態特有の構成要素であるので以下詳細に説明する。
【0045】
図14は、後述する音声スタンプ作成処理Bにおいて音声スタンプの登録に必要な情報を格納する音声スタンプ登録情報ファイル(2)175内のデータ格納例を示す図である。図15に示す様に、音声スタンプ登録情報ファイル(2)175は、ファイル名領域175aと、音声データ名領域175bと、画像データ名領域175cと、加工の種類領域175dと、加工度領域175eと、画像エフェクト情報175fと、登録日領域175gと、登録時間領域175hと、から構成される。
【0046】
ファイル名領域175aは、音声スタンプを特定するために一意的に割り当てられた識別コード(例えば、“onsei.abc”、“onsei1.abc”、“onsei2.abc”、…)を「ファイル名」として格納する。音声データ名領域175bは、当該音声スタンプに登録されている音声データを特定するために一意的に割り当てられた識別コード(例えば、“yama.def”、“kawa.def”、“umi.def”、…)を「音声データ名」として格納する。画像データ名領域175cは、音声スタンプに登録されている画像データを特定する為に一意的に割り当てられた識別コード(例えば、“speaker.ghi”、“house.ghi”、“maru.ghi”、…)を「画像データ名」として格納する。
【0047】
加工の種類領域175dは、該音声データに施された加工の種類を表す文字列データ(例えば、“音量”、“音質”、…)を「加工の種類」として格納する。加工度領域175eは、該音声データに施された加工度を表す数値データ(例えば、“1”、“4”、…)を「加工度」として格納する。画像エフェクト情報175fは、音声データの加工の種類と度合いによって画像をどのように変化させるかを関連付けた情報を識別するための記号データ(例えば、“a”、“b”…)を「画像エフェクト情報」として格納する。なお、「加工の種類」、「加工度」、「画像エフェクト情報」は、音声スタンプ作成時に音声データを加工しなかった場合は上から2番目のレコードの様に空欄となる。
【0048】
登録日領域175gは、該音声スタンプが登録された日付を表す日付データ(例えば、“01.03.10”、“01.03.09”、“01.02.10”、…)を「登録日」として格納する。登録時間領域175hは、該音声スタンプが登録された時間を表すデータ(例えば、“15:01”、“14:58”、“12:00”、…)を「登録時間」として格納する。
【0049】
次に動作を説明する。
情報端末装置1により実行される音声スタンプ作成処理Bについて図15のフローチャートを参照して説明する。
まず、CPU11は、入力部12により音声スタンプの作成を指示する信号が入力されると(ステップS21)、録音して音声データを作成するか、既存の音声データを利用するか、の選択画面を表示させる(ステップS22)。録音が選択されると(ステップS23;Y)、CPU11は、音声処理部18により録音を開始し(ステップS24)、録音が終了すると(ステップS25;Y)、音声データファイルを作成し、当該音声データファイルを、音声スタンプを作成するための音声データとして認識する(ステップS26)。
【0050】
一方、既存の音声データの利用が選択されると(ステップS23;N)、CPU11は、記憶装置17に記憶されている音声データファイル171の一覧を表示し(ステップS27)、音声データが選択されると、当該音声データを、音声スタンプを作成するための音声データとして認識する(ステップS28)。
【0051】
次に、CPU11は、記憶装置17に記憶されている画像データファイル172の画像データを表示させる(ステップS29)。表示一覧の中から当該音声データに対応させる画像データが選択されると(ステップS30)、CPU11は、当該音声データを加工するか否かの選択画面を表示させる。加工することが選択されると(ステップS31;Y)、CPU11は、加工の種類を一覧にした選択画面を表示させる。
【0052】
加工の種類が選択されると(ステップS32)、CPU11は、上述した画像エフェクトの一覧画面を表示部16に表示させ、選択された画像エフェクトと音声データの加工の種類とを関連づける(ステップS33)。
【0053】
次いで、CPU11は、加工度を入力する画面を表示部16に表示し、加工度が入力されると(ステップS34)、入力された加工度に従って音声データを加工する(ステップS35)。音声データを加工すると、CPU11は、ステップS33で選択された画像エフェクトに従い、画像データを変更し(ステップS36)、変更した画像データに音声データを関連付け(ステップS37)、音声スタンプを設定登録し、一連の音声スタンプ作成処理Bを終了する(ステップS39)。
【0054】
以下に示す図16〜図21は、ステップS31で音声データの加工が選択された場合に、ステップS32〜ステップS39において音声スタンプが設定登録される過程を示す表示画面の例である。
【0055】
図16は、ステップS32で表示部16に表示される音声データに施す加工の種類選択画面1006の例を示す図である。図16に示す様に、加工の種類選択画面1006は、「音声データの加工の種類を選択して下さい」等のユーザへの指示メッセージが表示され、その下に音声データの加工の種類が表示される。ユーザは、一覧表示されている音声データの加工の種類の中から、音声データに施そうとする加工の種類にカーソルを合わせることによりにより、音声データの加工の種類を選択する。当該加工の種類選択画面1006では、音量変更が選択された様子を示している。
【0056】
図17は、ステップS33で表示部16に表示される、ステップS32で選択された音声データの加工の種類に対応する画像エフェクト選択画面1007の例を示す図である。図17に示す様に、画像エフェクト選択画面1007は、「音量変化に対応する画像エフェクトを選択して下さい」等のユーザへの指示メッセージが表示され、その下に画像エフェクトによる画像データの変化が表示される。ユーザは、一覧表示された画像エフェクトの中から所望の画像エフェクトにカーソルを合わせることによって、音声データの加工の種類に対応する画像エフェクトを選択する。当該画像エフェクト選択画面1007では、音量変化と画像のサイズが関連付けられた様子を示している。
【0057】
図18〜図21は、ステップS34で表示部16に表示される加工度入力画面の一例である。図18は、ステップS32で加工の種類として音量が選択され、ステップS33で画像エフェクトとして画像データの画像サイズの変更が選択された場合に表示される加工度入力画面1008の例を示す図である。図18に示す様に、加工度入力画面1008は、「加工度を入力して下さい」等のユーザへの指示メッセージが表示される。その下にはステップS30で選択された画像データの画像サイズが音声データの加工度と対応づけて表示され、更にその下に加工度を数値で入力可能な領域1008aが設けられている。ユーザは、領域1008aに数値を入力することにより、加工度を指定する。画面最下部に指示されている決定ボタンの指定操作を行うと、入力された加工度が設定される。
【0058】
図19は、ステップS32で加工の種類として音量が選択され、ステップS33で画像エフェクトとして合成マークのサイズ変更が選択された場合に表示される加工度入力画面1009の例を示す図である。図19に示す様に、加工度入力画面1009は、「加工度を入力して下さい」等のユーザへの指示メッセージが表示される。その下には合成マークである音符のサイズが音声データの加工度と対応づけて表示され、更にその下に加工度を数値で入力可能な領域1009aが設けられている。ユーザは、領域1009aに数値を入力することにより、加工度を指定する。画面最下部に指示されている決定ボタンの指定操作を行うと、入力された加工度が設定される。
【0059】
図20は、ステップS32で加工の種類として音質が選択され、ステップS33で画像エフェクトとして画像データの明るさの変更が選択された場合に表示される加工度入力画面1010の例を示す図である。図20に示す様に、加工度入力画面1010は、「加工度を入力して下さい」等のユーザへの指示メッセージが表示される。その下にはステップS30で選択された画像データの画像の明るさが音声データの加工度と対応づけて表示され、更にその下には加工度を数値で入力可能な領域1010aが設けられている。ユーザは、領域1010aに数値を入力することにより、加工度を指定する。画面下に指示されている決定ボタンの指定操作を行うと、入力された加工度が設定される。
【0060】
図21は、ステップS32で加工の種類として音の高さが選択され、ステップS33で画像エフェクトとして合成マークの明るさの変更が選択された場合に表示される加工度入力画面1011の例を示す図である。図21に示す様に、加工度入力画面1011は、「加工度を入力して下さい」等のユーザへの指示メッセージが表示される。その下には合成マークである音符の明るさが音声データの加工度と対応づけて表示され、更にその下に加工度を数値で入力可能な領域1011aが設けられている。ユーザは、領域1011aに数値を入力することにより、加工度を指定する。、画面最下部に指示されている決定ボタンの指定操作を行うと、入力された加工度が設定される。
【0061】
図22は、ステップS39で表示部16に表示される音声スタンプ設定画面1012の例を示す図である。音声スタンプ設定画面1012では、図9で選択された画像(ここでは、スピーカ)に、図16で選択された音声データの加工の種類(ここでは、音量)と図18で入力された加工度に対応した画像エフェクト(ここでは、画像の大きさ)をかけることによって作成した音声スタンプを表示している。画面下に指示されている「登録」操作を行うと、表示されている音声スタンプが登録(記録)される。
【0062】
一方、ステップS31において、音声データを加工しないという指示があると(ステップS31;N)、CPU11は、画像データに当該音声データを関連付け(ステップS38)、音声スタンプを設定登録し、一連の音声スタンプ作成処理Bを終了する(ステップS39)。
【0063】
図12は、ステップS29でスピーカの画像を選択し、ステップS31で音声データの加工をしないことを選択した場合にステップS39で表示部16に表示される音声スタンプ設定画面1005を例示する図である。画面下に指示されている「登録」操作を行うと、表示されている“onsei1.abc”のファイル名の音声スタンプが登録(記録)される。
【0064】
以上説明した様に、情報端末装置1によれば、音声データと所望の画像データを対応付けて音声スタンプを作成、登録する。音声データは加工することができ、加工する場合には、ユーザは加工の種類と加工度を指定し、好みの画像エフェクトを選択するだけで音声データを加工し、音声データの加工の種類と加工度に対応した画像エフェクトを画像データに施し、音声スタンプとして設定する。これによって、ユーザが簡単に音声データを加工できるようになり、設定された音声スタンプの画像から、加工内容を容易に知ることができるようになる。
【0065】
なお、上記第2の実施の形態における記述内容は、本発明に係る情報端末装置1の好適な一例であり、これに限定されるものではない。
例えば、上記実施の形態では、ステップS26で録音した音声データファイル171を作成した後に、引き続き音声スタンプの作成のステップに入っているが、録音、作成した音声データファイル171を保存しておき、後日音声スタンプを作成することもできる。また、予め音声データの加工の種類と度合いを決めてから録音し、録音した音声データを自動的に加工して音声スタンプを作成するものとしてもよい。
【0066】
さらに、ステップS35の音声データ加工のあと、すぐに画像データを合成しているが、一旦加工した音声データを出力して、ユーザの嗜好にあった音声が出力されなければ、ステップS33の加工に対応する画像エフェクト選択のステップまで戻り、嗜好にあった音声加工がなされるまでステップS33〜ステップS35の各処理を繰り返し行うようにしてもよい。
【0067】
〔第3の実施の形態〕
以下、上記各実施の形態の応用例として、登録された音声スタンプが表示されている場合に、当該音声スタンプの加工度を切り替えるための実施の形態について詳述する。なお、本実施の形態における情報端末装置1の構成は、上述した第1の実施の形態と同様であるので、各構成要素には同一の符号を付し、その構成の図示及び説明は省略する。
【0068】
以下、動作を説明する。
情報端末装置1により実行される加工度変更処理について図23のフローチャートを参照して説明する。なお、ここで使用される音声スタンプは第1の実施の形態で登録されたものであっても、第2の実施の形態で登録されたものであっても、加工度変更処理を行うことができるが、ここでは、第1の実施の形態で登録された音声スタンプに対して加工度の切り替えを行う動作について説明する。
【0069】
まず、CPU11は、入力部12により特定の音声スタンプの表示を指示する信号が入力されると、表示部16に音声スタンプを表示させる(ステップS41)。そして、音声スタンプの加工度を変更するとういう指示が入力されると(ステップS42;Y)、CPU11は、当該音声スタンプに加工が施されているかどうかを判別し、加工が施されていると判別すると(ステップS43;Y)、記憶装置17の音声スタンプ登録情報ファイル(1)173(図2参照)から音声スタンプの情報を読み出す(ステップS44)。そして、CPU11は、当該音声スタンプに加工度の変更の指示がされる毎に音声を出力する(ステップS45)。加工度の変更の指示とは、例えば、当該音声スタンプにマウスポインタを合わせて1回クリックするという操作によってなされる。
【0070】
そして、CPU11は、出力した音声データの加工度に応じて音声スタンプの画面を切り替えて表示させる(ステップS46)。加工が終了すると(ステップS47;N)、当該音声スタンプを登録するかを確認し、登録の指示があると(ステップS48;Y)、当該音声スタンプを新規に登録し、一連の加工度変更処理を終了する(ステップS49)。
【0071】
図24、図25は、ステップS45でマウスによるクリック等の操作により音声データの加工度が変更され、ステップS46で加工度の変更に応じて画像データが切り替わる様子を図示したものである。図24は、第1の実施の形態で設定登録した画像データと、音声データの加工の種類に対応した合成マークとの合成画像による音声スタンプの加工度切り替えの様子を示している。図25は、第2の実施の形態で設定登録した画像データに、音声データの加工の種類に対応した画像エフェクトを施した音声スタンプの加工度切り替えの様子を示している。
【0072】
一方、ステップS42において、音声スタンプの加工度の変更が指示されなければ(ステップS42;N)、音声データを出力する(ステップS50)。また、音声データが加工されていなければ(ステップS43;N)、前述した音声スタンプ作成処理A(図7参照)のステップS12〜ステップS18の処理を行い、音声データを加工した音声スタンプを作成する。
【0073】
以上説明した様に、情報端末装置1によれば、登録された音声スタンプの画像をクリックする等の簡単な操作で音声スタンプに登録された音声データの加工度を切り替えて出力すると共に、その出力に併せて音声スタンプの画像も変化させて表示する。そして、登録指示の有った時点でその音声スタンプを登録する。これによって、ユーザが簡単に音声スタンプに登録された音声データの加工度を切り替えることができるようになる。
【0074】
なお、上記各実施の形態における記述内容は、本発明に係る情報端末装置の好適な一例であり、これに限定されるものではない。
例えば、上記実施の形態では、第1の実施の形態で登録された音声スタンプにおける音声データの加工度を切り替える処理をしているが、第2の実施の形態において登録された音声スタンプにおいては、CPU11がステップS44において該音声スタンプに加工が施されていないと判断すると、音声スタンプ作成処理B(図15参照)のステップS32〜ステップS39の処理を行うようにしてもよい。
【0075】
〔第4の実施の形態〕
以下、上記各実施の形態の応用例として、音声データを解析し、解析結果から加工の種類を判断し、解析結果と加工の種類に対応して画像データを合成する実施の形態について詳述する。なお、本実施の形態における情報端末装置1の構成は、上述した第1の実施の形態と同様であるので、各構成要素には同一の符号を付し、その構成の図示及び説明は省略する。
【0076】
但し、情報端末装置1の音声処理部18は、マイク18b等により入力された音声データを解析する。また、記憶装置17に形成された図26に示す音声データファイル171、画像データファイル172、音声解析スタンプ登録情報ファイル176を有して構成されており、音声解析スタンプ登録情報ファイル176は、本実施の形態特有の構成要素であるので以下詳細に説明する。
【0077】
図27に示す様に、音声解析スタンプ登録情報ファイル176は、ファイル名領域176aと、音声データ名領域176bと、画像データ名領域176cと、解析結果領域176dと、登録日領域176eと、登録時間領域176fと、から構成される。
【0078】
ファイル名領域176aは、音声解析スタンプを特定するために一意的に割り当てられた識別コード(例えば、“onsei.abc”、“onsei1.abc”、“onsei2.abc”、…)を「ファイル名」として格納する。音声データ名領域176bは、当該音声スタンプに登録されている音声データを特定するために一意的に割り当てられた識別コード(例えば、“yama.def”、“kawa.def”、“umi.def”、…)を「音声データ名」として格納する。画像データ名領域176cは、該音声スタンプに登録されている画像データを特定する為に一意的に割り当てられた識別コード(例えば、“speaker.ghi”、“house.ghi”、“maru.ghi”、…)を「画像データ名」として格納する。
【0079】
解析結果領域176dは、音声データの解析結果を表すための文字列データ(例えば、“人の声”、“楽器”…)を「解析結果」として格納する。登録日領域176eは、該音声スタンプが登録された日付を表す日付データ(例えば、“01.03.10”、“01.03.09”、“01.02.10”、…)を「登録日」として格納する。登録時間領域176fは、該音声スタンプが登録された時間を表すデータ(例えば、“15:01”、“14:58”、“12:00”、…)を「登録時間」として格納する。
【0080】
以下、動作を説明する。
情報端末装置1により実行される音声解析スタンプ作成処理について図28のフローチャートを参照して説明する。
【0081】
まず、CPU11は、入力部12により音声解析スタンプの作成を指示する信号が入力されると(ステップS61)、録音して音声データを作成するか、既存の音声データを利用するか、の選択画面を表示する(ステップS62)。録音が選択されると(ステップS63;Y)、CPU11は、音声処理部18により録音を開始し(ステップS64)、録音が終了すると(ステップS65;Y)、音声データファイルを作成し、当該音声データファイルを、音声解析スタンプを作成するための音声データとして認識する(ステップS66)。一方、既存の音声データの利用が選択されると(ステップS63;N)、CPU11は、記憶装置17に記憶されている音声データファイル171の一覧を表示し(ステップS67)、音声データが選択されると、当該音声データを、音声解析スタンプを作成するための音声データとして認識する(ステップS68)。
【0082】
次に、CPU11は、記憶装置17に記憶されている画像データファイル172の画像データを表示させる(ステップS69)。表示一覧の中から当該音声データに対応させる画像データが選択されると(ステップS70)、CPU11は、当該音声データを解析し(ステップS71)、解析した結果を表示部16に表示させる(ステップS72)。
【0083】
図29は、ステップS72で表示部16に表示される、音声データの解析結果を表示する音声データ解析結果表示画面1013の例である。画面上には、「音声データの解析」と表示され、その下に「音声データを解析した結果、人の声が含まれています」等の文字により、ユーザに対して解析結果を示すと共に、解析結果に応じた解析合成画像を表示する。
【0084】
図30は、解析合成画像と解析結果の対応関係を一覧表示した解析合成画像一覧表示画面1014の例を示す図である。ユーザは、所定の入力操作により、解析合成画像一覧表示画面1014の解析合成画像を自由に切替表示して画像と解析結果の対応関係を確認することができる。
【0085】
図28に戻り、解析結果を表示させた後、CPU11は、解析合成画像を選択するか否かの選択画面を表示部16に表示させる。ユーザが解析合成画像を選択するという指示があると(ステップS73;Y)、CPU11は、図31に示す解析合成画像変更選択画面1015を一覧表示させる(ステップS74)。次に、ユーザは、解析合成画像変更選択画面1015上の解析合成画像の中から、解析結果に対応させる所望の解析合成画像を選択する(ステップS75)。そして、CPU11は、ステップS70で選択した画像データと、ステップS75で選択した、解析結果に応じた解析合成画像とを合成し(ステップS76)、合成した画像に音声データファイルを関連付けて(ステップS77)、音声解析スタンプとして設定登録する(ステップS78)。
【0086】
図31は、ステップS74で表示部16に表示される解析合成画像の変更候補を示した解析合成画像変更選択画面1015の例を示す図である。図31に示す様に、解析合成画像変更選択画面1015は、「画像を選択して下さい」等のユーザへの指示メッセージが表示され、その下に、解析合成画像の選択候補が一覧表示される。ユーザは一覧表示されている解析合成画像の選択候補の中から所望の画像にカーソルを合わせ、選択ボタンを指定することにより、画像データを選択する。
【0087】
一方、ステップS73において、ユーザが解析合成画像を選択しないという指示があると(ステップS73;N)、CPU11は、図30に示す様な解析合成画像と解析結果との対応関係に基づいて、ステップS71における解析結果に対応する解析合成画像を自動的に選択し、この解析合成画像とステップS70で選択した画像データとを合成する(ステップS76)。そして、CPU11は、合成した画像に音声データファイルを関連付けて(ステップS77)、音声解析スタンプとして設定登録する(ステップS78)。
【0088】
以上説明した様に、情報端末装置1によれば、音声データの内容を解析し、解析結果に対応した解析合成画像と画像データとを合成して当該音声データに関連付けることによって音声解析スタンプを設定、登録(記録)する。これによって、ユーザは、音声データの内容を簡単に把握することができる。
【0089】
なお、上記各実施の形態における記述内容は、本発明に係る情報端末装置1の好適な一例であり、これに限定されるものではない。
例えば、上記実施の形態により登録された音声解析スタンプに関しても、第3の実施の形態における加工度の切り替えを行うことができる。
【0090】
また、上述した第1から第4の実施の形態において、第3の実施の形態以外は独立した機能として実現可能であるが、1つのアプリケーションの中にある機能としてそれぞれの実施の形態をユーザが選択できるようにすることで、加工のバリエーションも増え、ユーザインターフェイスを向上させることができる。
その他、情報端末装置1の細部構成、及び詳細動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。
【0091】
【発明の効果】
請求項1記載の発明によれば、録音した、あるいは録音されていた音声データに対応させる画像データを、一覧表示した画像データの中から選択し、音声データを加工する為の加工の種類に対応した第2の画像データを選択することにより、加工の種類を選択する。そして、選択された加工の種類に従って、音声データを加工し、加工された音声データを第1の画像データと第2の画像データを合成した画像データと対応付けて記録する。従って、ユーザは音声データに対して思い通りの加工をすることができ、また、加工の種類に応じた画像データを表示することにより、音声データの加工内容を容易に知ることができるようになる。
【0092】
請求項2記載の発明によれば、録音した、あるいは録音されていた音声データに対応させる画像データを、一覧表示した画像データの中から選択し、音声データの加工の種類を選択し、選択された加工の種類に対応する第2の画像データを選択した後、音声データの加工度を指定する。そして、選択された加工の種類と指定された加工度に従って、音声データを加工し、加工された音声データを第1の画像データと第2の画像データを合成した画像データと対応付けて記録する。従って、ユーザは音声データに対して思い通りの加工をすることができ、また、加工の種類のみならず加工度に応じた画像データを変化させて表示することにより、音声データの加工内容をより容易に知ることができるようになる。
【0093】
請求項3記載の発明によれば、記録された音声データに対応付けられた画像データを表示し、表示された画像データの中から加工度を切り替える画像データを選択し、前記画像データが選択される毎に、画像データに対応する音声データの加工度を切り替えて出力し、変更された加工度に対応させて画像データを切り替える。従って、すでに記録されている音声データに対応づけられた画像データに簡単な操作をすることによって当該音声データの加工を切り替えることができ、ユーザは思い通りの音声データの加工を容易に行うことができる。
【0094】
請求項4記載の発明によれば、録音した、あるいは録音されていた音声データに対応させる画像データを、一覧表示した画像データの中から選択し、音声データを解析し、解析した結果に基づいて判定された加工の種類に対応する画像データ、又は選択指定された新規の画像データを第2の画像データとして選択し、前記音声データを第1の画像データと第2の画像データを合成した画像データと対応付けて記録する。従って、音声データの内容が視覚的に識別可能となり、その結果、ユーザは音声データの加工内容を一目で把握できるようになる。
【0095】
請求項5記載の発明によれば、録音した、あるいは録音されていた音声データに対応させる画像データを、一覧表示した画像データの中から選択させ、音声データを加工する為の加工の種類に対応した第2の画像データを選択させることにより、加工の種類を選択させて、選択された加工の種類に従って音声データを加工し、加工された音声データを第1の画像データと第2の画像データを合成した画像データと対応付けて記録させるプログラムをコンピュータに読み込ませることで、請求項1に記載する機能を実現できる。従って、システムと独立したソフトウェア製品単体としての販売、配布も容易になる。また、汎用コンピュータ等のハードウェア資源を用いて、当該プログラムを実行することにより、本発明の技術をハードウェア上で容易に実施できる。
【0096】
請求項6記載の発明によれば、録音した、あるいは録音されていた音声データに対応させる画像データを、一覧表示した画像データの中から選択させ、音声データの加工の種類と、選択された加工の種類に対応する第2の画像データを選択させ、音声データの加工度を指定させて、加工の種類と加工度に従って、音声データを加工して、加工された音声データを第1の画像データと第2の画像データを合成した画像データと対応付けて記録させるプログラムをコンピュータに読み込ませることで、請求項2に記載する機能を実現できる。従って、システムと独立したソフトウェア製品単体としての販売、配布も容易になる。また、汎用コンピュータ等のハードウェア資源を用いて、当該プログラムを実行することにより、本発明の技術をハードウェア上で容易に実施できる。
【0097】
請求項7記載の発明によれば、録音した、あるいは録音されていた音声データに対応させる画像データを、一覧表示した画像データの中から選択させ、音声データを解析させ、解析した結果に基づいて判定された加工の種類に対応する画像データ、又は選択指定された新規の画像データを第2の画像データとして選択させ、前記音声データを第1の画像データと第2の画像データを合成した画像データと対応付けて記録させるプログラムをコンピュータに読み込ませることで、請求項2に記載する機能を実現できる。従って、システムと独立したソフトウェア製品単体としての販売、配布も容易になる。また、汎用コンピュータ等のハードウェア資源を用いて、当該プログラムを実行することにより、本発明の技術をハードウェア上で容易に実施できる。
【図面の簡単な説明】
【図1】本発明に係る情報端末装置1の機能的構成を示すブロック図である。
【図2】図1の記憶装置17内部のファイル構成を示す図である。
【図3】図2の音声データファイル171内部のデータ格納例を示す図である。
【図4】図2の画像データファイル172内部のデータ格納例を示す図である。
【図5】図2の音声スタンプ登録情報ファイル(1)173内部のデータ格納例を示す図である。
【図6】図2の合成マークファイル174内部のデータ格納例を示す図である。
【図7】図1のCPU11により実行される音声スタンプ作成処理Aの動作を示すフローチャートである。
【図8】図7のステップS7で表示される音声データファイル選択画面1001の一例を示す図である。
【図9】図7のステップS9で表示される画像データ選択画面1002の一例を示す図である。
【図10】図7のステップS13で表示される合成マーク選択画面1003の一例を示す図である。
【図11】図7のステップS18で表示される音声スタンプ設定画面1004の一例を示す図である。
【図12】図7のステップS39で表示される音声スタンプ設定画面1005の一例を示す図である。
【図13】図1の記憶装置17内部のファイル構成を示す図である。
【図14】図13の音声スタンプ登録情報ファイル(2)175内部のデータ格納例を示す図である。
【図15】図1のCPU11により実行される音声スタンプ作成処理Bの動作を示すフローチャートである。
【図16】図15のステップS32で表示される、音声データに施す加工の種類選択画面1006の一例を示す図である。
【図17】図15のステップS33で表示される画像エフェクト選択画面1007の一例を示す図である。
【図18】図15のステップS34で表示される加工度入力画面1008の一例を示す図である。
【図19】図15のステップS34で表示される加工度入力画面1009の一例を示す図である。
【図20】図15のステップS34で表示される加工度入力画面1010の一例を示す図である。
【図21】図15のステップS34で表示される加工度入力画面1011の一例を示す図である。
【図22】図15のステップS39で表示される音声スタンプ設定画面1012の一例を示す図である。
【図23】図1のCPU11により実行される加工度変更処理の動作を示すフローチャートである。
【図24】図23のステップS46における画面切り替えの一例を示す図である。
【図25】図23のステップS46における画面切り替えの一例を示す図である。
【図26】図1の記憶装置17内部のファイル構成を示す図である。
【図27】図26の音声解析スタンプ登録情報ファイル176内部のデータ格納例を示す図である。
【図28】図1のCPU11により実行される音声解析スタンプ作成処理の動作を示すフローチャートである。
【図29】図28のステップS70で表示される音声データ解析結果表示画面1013の一例を示す図である。
【図30】図28のステップS70で表示される解析合成画像と、解析結果との対応関係を表す解析合成画像一覧表示画面1014の一例を示す図である。
【図31】図28のステップS74で表示される解析合成画像変更選択画面1015の一例を示す図である。
【符号の説明】
1 情報端末装置
11 CPU
12 入力部
13 RAM
14 伝送制御部
15 VRAM
16 表示部
17 記憶装置
17a 記録媒体
18 音声処理部
18a スピーカ
18b マイク[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information terminal device that records audio data in association with image data, and a program.
[0002]
[Prior art]
In recent years, digitalization of music has progressed, and users are increasingly handling audio data on personal computers, including downloading music via the Internet. Conventionally, as a function of managing audio data, it is possible to visually distinguish audio data on a personal computer screen by associating audio data with image data in which notes, speakers, and the like are displayed. Audio stamps that can be used to reproduce audio data with simple operations such as clicking with a mouse are used.
[0003]
Usually, the voice stamp is automatically associated with default image data when recording or registering voice from a received mail, and the user has a function of changing this image data to another image data. The image data is changed by the user selecting arbitrary image data via the input unit, and a musical note indicating a voice stamp is synthesized with the selected image data.
[0004]
[Problems to be solved by the invention]
However, although the conventional audio stamp can change the image data, it has no function of changing the sound quality of the existing audio data or changing the image data according to the type and degree of processing. For this reason, it has been impossible to create a voice stamp that allows the user to visually process the voice data and visually identify the type and degree of processing.
[0005]
An object of the present invention is to create and display image data corresponding to the type and degree of processing of audio data, so that the user can easily process the audio data and easily process the audio data. It is to be able to know.
[0006]
[Means for Solving the Problems]
In order to solve the above problems, the present invention has the following features. In the description of the means described below, a configuration corresponding to the embodiment is illustrated in parentheses. Reference numerals correspond to the reference numerals of the drawings described later.
[0007]
The invention according to
In an information terminal device (for example, the
Image selection means (for example, the
Processing type selection means for selecting the type of processing by selecting second image data corresponding to the type of processing for processing the audio data (for example, an input unit for executing step S13 in FIG. 7) 12)
Voice processing means (for example,
Synthetic image recording means for recording the audio data processed by the audio processing means in association with the image data obtained by combining the first image data and the second image data (for example, steps S16 to S16 in FIG. 7). CPU 11) for causing the
It is characterized by having.
[0008]
According to the first aspect of the present invention, the image data to be recorded or made to correspond to the recorded audio data is selected from the displayed image data, and corresponds to the type of processing for processing the audio data. The type of processing is selected by selecting the second image data. Then, the audio data is processed according to the selected type of processing, and the processed audio data is recorded in association with the image data obtained by combining the first image data and the second image data. Therefore, the user can process the audio data as desired, and the image data corresponding to the type of processing can be displayed, so that the processing contents of the audio data can be easily known.
[0009]
According to invention of
In an information terminal device (for example, the
First image selection means (for example, the
Processing type selection means (for example, the
Second image selection means (for example, the
A processing level specifying means (for example, the
Audio processing means for processing the recorded voice data or recorded voice data according to the type of processing selected by the processing type selection means and the processing degree specified by the processing degree specifying means (for example, FIG.
Synthetic image recording means for recording the audio data processed by the audio processing means in association with the image data obtained by synthesizing the first image data and the second image data (for example, step S37 to step S37 in FIG. 15). CPU 11) for causing the
It is characterized by having.
[0010]
According to the second aspect of the present invention, the image data to be recorded or made to correspond to the recorded audio data is selected from the displayed image data, the type of processing of the audio data is selected and selected. After selecting the second image data corresponding to the type of processing, the processing level of the audio data is designated. Then, the audio data is processed according to the selected type of processing and the specified processing level, and the processed audio data is recorded in association with the image data obtained by combining the first image data and the second image data. . Therefore, the user can process the audio data as desired, and the image data corresponding to the type of processing can be displayed, so that the processing contents of the audio data can be easily known.
[0011]
The invention according to
In an information terminal device (for example, the
First image selection means (for example, the
Voice analysis means for analyzing the recorded voice data or the recorded voice data (for example,
Second image selection means (for example, FIG. 28) that selects image data corresponding to the type of processing determined based on the analysis result by the voice analysis means or new image data selected and designated as second image data. Input unit 12) for executing steps S73 to S75 of FIG.
Synthetic image recording means for recording the recorded audio data or the recorded audio data in association with the image data obtained by synthesizing the first image data and the second image data (for example, step S76 in FIG. 28). To CPU 11) for causing the
It is characterized by having.
[0012]
According to the fourth aspect of the present invention, the image data to be recorded or corresponded to the recorded audio data is selected from the list of image data, the audio data is analyzed, and based on the analysis result. An image obtained by selecting image data corresponding to the determined processing type or new image data selected and designated as second image data, and combining the audio data with the first image data and the second image data. Record in association with the data. Therefore, the contents of the audio data can be visually identified, and as a result, the user can grasp the processing contents of the audio data at a glance. Therefore, the contents of the audio data can be visually identified, and as a result, the user can grasp the processing contents of the audio data at a glance.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0014]
[First Embodiment]
First, the configuration will be described.
FIG. 1 is a diagram showing an overall configuration of an
[0015]
A CPU (Central Processing Unit) 11 reads various control programs stored in a
[0016]
That is, when the voice stamp creation process A is executed, the
[0017]
The
[0018]
A RAM (Random Access Memory) 13 is a system program, control program, input or output data, parameters, and the like that can be executed by the
[0019]
The
[0020]
The
[0021]
The
[0022]
In this embodiment, as shown in FIG. 2, the
[0023]
FIG. 3 is a diagram showing an example of data storage in the audio data file 171 that stores the recorded audio data. As shown in FIG. 3, the audio data file 171 includes an identification code (for example, “yama.def”, “kawa.def”, “umi.def”,...) Uniquely assigned to specify the audio data. ) As a “voice data name”, and recorded or existing voice data (for example, “
[0024]
FIG. 4 is a diagram illustrating an example of data storage in the image data file 172 that stores image data. As shown in FIG. 4, the image data file 172 has an identification code (for example, “speaker.ghi”, “house.ghi”, “maru.ghi”,...) Uniquely assigned to specify the image data. ) As an “image data name”, and registered or existing image data (for example, “
[0025]
FIG. 5 is a diagram showing an example of data storage in the voice stamp registration information file (1) 173 that stores information necessary for voice stamp registration. As shown in FIG. 5, the voice stamp registration information file (1) 173 includes an identification code (for example, “onsei.abc”, “onsei1.abc”, “onsei2”) uniquely assigned to specify the voice stamp. .abc ”,...) as a“ file name ”, and an identification code (for example,“ yama.def ”uniquely assigned to identify the audio data registered in the audio stamp) ”,“ Kawa.def ”,“ umi.def ”,...) As“ audio data name ”, and uniquely for specifying the image data registered in the audio stamp. An image
[0026]
FIG. 6 is a diagram showing an example of data storage in the composite mark file 174 that stores composite marks associated with the type and degree of processing of audio data. As shown in FIG. 6, the
[0027]
The
[0028]
Next, the operation will be described.
The voice stamp creation process A executed by the
As a premise of the operation description, a program for realizing each function described in the following flowchart is stored in the
[0029]
First, when a signal instructing creation of an audio stamp is input from the input unit 12 (step S1), the
[0030]
FIG. 8 is a diagram showing an example of an audio data
[0031]
Next, the
[0032]
When the composite mark is selected (step S13), the
[0033]
FIG. 9 shows an example of an image
[0034]
FIG. 10 and FIG. 11 show screens displayed on the
[0035]
FIG. 10 shows an example of a composite
[0036]
FIG. 11 is a diagram showing an example of the voice
[0037]
Note that the image indicating the type of processing of the audio data is a synthetic mark such as a note here, but may be a frame or the like. That is, a frame may be attached to the image data selected in FIG. 9, and the type of processing may be distinguished by the shape, pattern, color, etc. of the frame. In this case, it is of course possible to use a composite mark such as a note and a frame together.
[0038]
On the other hand, if there is an instruction not to process the sound data in step S11 (step S11; N), the
[0039]
FIG. 12 is a diagram showing an example of a voice
[0040]
As described above, according to the
[0041]
In addition, the description content in the said 1st Embodiment is a suitable example of the
For example, in the above embodiment, after the voice data file 171 recorded in step S6 is created, the voice stamp creation step continues, but the recorded and created voice data file 171 is stored and saved at a later date. Audio stamps can also be created. Further, it is possible to record the sound data after determining the type of processing of the sound data in advance, and automatically process the recorded sound data to create a sound stamp.
[0042]
Furthermore, according to the above embodiment, the image data is synthesized immediately after the voice data processing in step S14, but the processed voice data is output and the voice that suits the user's preference is output. If not, the process returns to the step of displaying the composite mark list in step S12, and the processes in steps S12 to S14 may be repeated until the voice processing that suits the taste is performed.
[0043]
[Second Embodiment]
Hereinafter, as an application example of the first embodiment, the type and degree of processing of audio data are specified, the audio data is processed based on the specification, and the image data is processed in accordance with the processed audio data. An embodiment using a change in size, brightness, etc. (hereinafter referred to as “image effect”) will be described in detail. Note that the configuration of the
[0044]
However, as shown in FIG. 13, the
[0045]
FIG. 14 is a diagram showing an example of data storage in the voice stamp registration information file (2) 175 for storing information necessary for voice stamp registration in the voice stamp creation process B described later. As shown in FIG. 15, the audio stamp registration information file (2) 175 includes a
[0046]
In the
[0047]
The
[0048]
The
[0049]
Next, the operation will be described.
The voice stamp creation process B executed by the
First, when a signal instructing creation of an audio stamp is input from the input unit 12 (step S21), the
[0050]
On the other hand, when the use of the existing audio data is selected (step S23; N), the
[0051]
Next, the
[0052]
When the type of processing is selected (step S32), the
[0053]
Next, the
[0054]
FIGS. 16 to 21 shown below are examples of display screens showing a process in which voice stamps are set and registered in steps S32 to S39 when voice data processing is selected in step S31.
[0055]
FIG. 16 is a diagram showing an example of a processing
[0056]
FIG. 17 is a diagram illustrating an example of an image
[0057]
18 to 21 are examples of the processing degree input screen displayed on the
[0058]
FIG. 19 is a diagram showing an example of the processing
[0059]
FIG. 20 is a diagram illustrating an example of the processing
[0060]
FIG. 21 shows an example of the processing
[0061]
FIG. 22 is a diagram showing an example of the voice
[0062]
On the other hand, when there is an instruction not to process the audio data in step S31 (step S31; N), the
[0063]
FIG. 12 is a diagram illustrating an audio
[0064]
As described above, according to the
[0065]
In addition, the description content in the said 2nd Embodiment is a suitable example of the
For example, in the above embodiment, after the audio data file 171 recorded in step S26 is created, the audio stamp file continues to be created. However, the recorded and created audio data file 171 is stored and saved at a later date. Audio stamps can also be created. It is also possible to record the sound data after determining the type and degree of processing of the sound data in advance, and automatically process the recorded sound data to create a sound stamp.
[0066]
Further, the image data is synthesized immediately after the voice data processing in step S35, but once the processed voice data is output and no voice according to the user's preference is output, the processing in step S33 is performed. You may make it return to the step of the corresponding image effect selection, and may repeat each process of step S33-step S35 until the audio processing suitable for preference is made.
[0067]
[Third Embodiment]
Hereinafter, as an application example of each of the above embodiments, an embodiment for switching the processing level of the voice stamp when a registered voice stamp is displayed will be described in detail. Note that the configuration of the
[0068]
The operation will be described below.
The processing degree changing process executed by the
[0069]
First, when a signal instructing display of a specific voice stamp is input from the
[0070]
Then, the
[0071]
24 and 25 illustrate how the processing level of the audio data is changed by an operation such as clicking with the mouse in step S45, and the image data is switched in accordance with the change of the processing level in step S46. FIG. 24 shows a state of switching the processing level of the voice stamp by the composite image of the image data set and registered in the first embodiment and the composite mark corresponding to the processing type of the audio data. FIG. 25 shows how the processing level of the sound stamp is switched by applying the image effect corresponding to the processing type of the sound data to the image data set and registered in the second embodiment.
[0072]
On the other hand, if it is not instructed to change the processing level of the voice stamp in step S42 (step S42; N), voice data is output (step S50). If the voice data has not been processed (step S43; N), the processing of steps S12 to S18 of the voice stamp creation process A (see FIG. 7) described above is performed to create a voice stamp obtained by processing the voice data. .
[0073]
As described above, according to the
[0074]
In addition, the description content in each said embodiment is a suitable example of the information terminal device which concerns on this invention, and is not limited to this.
For example, in the above embodiment, the processing for switching the processing level of the voice data in the voice stamp registered in the first embodiment is performed, but in the voice stamp registered in the second embodiment, If the
[0075]
[Fourth Embodiment]
As an application example of each of the embodiments described above, an embodiment in which audio data is analyzed, the type of processing is determined from the analysis result, and image data is synthesized corresponding to the analysis result and the type of processing will be described in detail. . Note that the configuration of the
[0076]
However, the
[0077]
As shown in FIG. 27, the voice analysis stamp
[0078]
In the
[0079]
The
[0080]
The operation will be described below.
The voice analysis stamp creation process executed by the
[0081]
First, when a signal instructing creation of a voice analysis stamp is input from the input unit 12 (step S61), the
[0082]
Next, the
[0083]
FIG. 29 is an example of a voice data analysis
[0084]
FIG. 30 is a diagram illustrating an example of an analysis / synthesis image
[0085]
Returning to FIG. 28, after the analysis result is displayed, the
[0086]
FIG. 31 is a diagram showing an example of the analysis / synthesis image
[0087]
On the other hand, when the user gives an instruction not to select an analysis / combination image in step S73 (step S73; N), the
[0088]
As described above, according to the
[0089]
In addition, the description content in each said embodiment is a suitable example of the
For example, with respect to the voice analysis stamp registered according to the above embodiment, the degree of processing in the third embodiment can be switched.
[0090]
In the first to fourth embodiments described above, functions other than the third embodiment can be realized as independent functions. However, a user can define each embodiment as a function in one application. By making it selectable, variations in processing increase and the user interface can be improved.
In addition, the detailed configuration and detailed operation of the
[0091]
【The invention's effect】
According to the first aspect of the present invention, the image data to be recorded or made to correspond to the recorded audio data is selected from the displayed image data, and corresponds to the type of processing for processing the audio data. The type of processing is selected by selecting the second image data. Then, the audio data is processed according to the selected type of processing, and the processed audio data is recorded in association with the image data obtained by combining the first image data and the second image data. Therefore, the user can process the audio data as desired, and the image data corresponding to the type of processing can be displayed, so that the processing contents of the audio data can be easily known.
[0092]
According to the second aspect of the present invention, the image data to be recorded or made to correspond to the recorded audio data is selected from the displayed image data, the type of processing of the audio data is selected and selected. After selecting the second image data corresponding to the type of processing, the processing level of the audio data is designated. Then, the audio data is processed according to the selected type of processing and the specified processing level, and the processed audio data is recorded in association with the image data obtained by combining the first image data and the second image data. . Therefore, the user can process the audio data as desired, and the processing contents of the audio data can be made easier by changing and displaying not only the type of processing but also the image data according to the degree of processing. To be able to know.
[0093]
According to the third aspect of the present invention, the image data associated with the recorded audio data is displayed, the image data for switching the processing degree is selected from the displayed image data, and the image data is selected. Each time, the processing degree of the audio data corresponding to the image data is switched and output, and the image data is switched corresponding to the changed degree of processing. Therefore, the processing of the sound data can be switched by performing a simple operation on the image data associated with the already recorded sound data, and the user can easily process the sound data as desired. .
[0094]
According to the fourth aspect of the present invention, the image data to be recorded or corresponded to the recorded audio data is selected from the list of image data, the audio data is analyzed, and based on the analysis result. An image obtained by selecting image data corresponding to the determined processing type or new image data selected and designated as second image data, and combining the audio data with the first image data and the second image data. Record in association with the data. Therefore, the contents of the audio data can be visually identified, and as a result, the user can grasp the processing contents of the audio data at a glance.
[0095]
According to the fifth aspect of the present invention, the image data to be recorded or made to correspond to the recorded audio data is selected from the image data displayed in a list and corresponds to the type of processing for processing the audio data. By selecting the second image data, the type of processing is selected, the audio data is processed according to the selected type of processing, and the processed audio data is converted into the first image data and the second image data. The function described in
[0096]
According to the sixth aspect of the present invention, image data corresponding to recorded or recorded audio data is selected from the displayed image data, and the type of audio data processing and the selected processing are selected. The second image data corresponding to the type of image data is selected, the processing level of the audio data is designated, the audio data is processed according to the processing type and the processing level, and the processed audio data is converted into the first image data. The function described in
[0097]
According to the seventh aspect of the present invention, the recorded image data or the image data corresponding to the recorded sound data is selected from the displayed image data, the sound data is analyzed, and based on the analysis result. Image data corresponding to the determined type of processing or new image data selected and designated is selected as second image data, and the audio data is combined with the first image data and the second image data. The function described in
[Brief description of the drawings]
FIG. 1 is a block diagram showing a functional configuration of an
FIG. 2 is a diagram showing a file structure inside the
FIG. 3 is a diagram showing an example of data storage inside the audio data file 171 of FIG. 2;
4 is a diagram showing an example of data storage inside the image data file 172 of FIG. 2; FIG.
5 is a diagram showing an example of data storage in the voice stamp registration information file (1) 173 in FIG. 2; FIG.
6 is a diagram showing an example of data storage inside a
7 is a flowchart showing an operation of voice stamp creation processing A executed by
8 is a diagram showing an example of an audio data
9 is a diagram showing an example of an image
10 is a diagram showing an example of a composite
11 is a diagram showing an example of an audio
12 is a diagram showing an example of an audio
13 is a diagram showing a file configuration inside the
14 is a diagram showing an example of data storage in the voice stamp registration information file (2) 175 of FIG.
15 is a flowchart showing the operation of a voice stamp creation process B executed by the
16 is a diagram showing an example of a processing
FIG. 17 is a diagram showing an example of an image
18 is a diagram showing an example of a processing
19 is a diagram showing an example of a processing
20 is a diagram showing an example of a processing
FIG. 21 is a diagram showing an example of a processing
22 is a diagram showing an example of a voice
FIG. 23 is a flowchart showing the processing degree change process executed by the
24 is a diagram showing an example of screen switching in step S46 of FIG.
FIG. 25 is a diagram showing an example of screen switching in step S46 of FIG.
FIG. 26 is a diagram showing a file structure inside the
27 is a diagram showing an example of data storage inside the voice analysis stamp registration information file 176 of FIG. 26. FIG.
FIG. 28 is a flowchart showing an operation of a voice analysis stamp creation process executed by the
29 is a diagram showing an example of a voice data analysis
30 is a diagram showing an example of an analysis / synthesis image
FIG. 31 is a diagram showing an example of the analysis / synthesis image
[Explanation of symbols]
1 Information terminal equipment
11 CPU
12 Input section
13 RAM
14 Transmission control unit
15 VRAM
16 Display section
17 Storage device
17a Recording medium
18 Voice processing part
18a speaker
18b microphone
Claims (7)
録音した音声データ又は録音されていた音声データに対応させる第1の画像データを選択する画像選択手段と、
前記音声データを加工する為の加工の種類に対応した第2の画像データを選択することにより、加工の種類を選択する加工種類選択手段と、
前記加工種類選択手段により選択された加工の種類に従って、前記録音した音声データ又は録音されていた音声データを加工する音声加工手段と、
前記音声加工手段により加工された音声データに、前記第1の画像データと前記第2の画像データを合成した画像データを対応付けて記録する合成画像記録手段と、
を備えたことを特徴とする情報端末装置。In an information terminal device that records audio data in association with image data,
Image selection means for selecting the first image data corresponding to the recorded voice data or the recorded voice data;
Processing type selection means for selecting the type of processing by selecting second image data corresponding to the type of processing for processing the audio data;
According to the type of processing selected by the processing type selection means, the voice processing means for processing the recorded voice data or recorded voice data;
Synthetic image recording means for recording the audio data processed by the audio processing means in association with the image data obtained by combining the first image data and the second image data;
An information terminal device comprising:
録音した音声データ又は録音されていた音声データに対応させる第1の画像データを選択する第1画像選択手段と、
前記音声データの加工の種類を選択する加工種類選択手段と、
前記加工種類選択手段により選択された加工の種類に対応する第2の画像データを選択する第2画像選択手段と、
前記音声データの加工度を指定する加工度指定手段と、
前記加工種類選択手段により選択された加工の種類と、前記加工度指定手段により指定された加工度とに従って、前記録音した音声データ又は録音されていた音声データを加工する音声加工手段と、
前記音声加工手段により加工された音声データに、前記第1の画像データと前記第2の画像データを合成した画像データを対応付けて記録する合成画像記録手段と、
を備えたことを特徴とする情報端末装置。In an information terminal device that records audio data in association with image data,
First image selecting means for selecting first image data corresponding to the recorded voice data or the recorded voice data;
A processing type selection means for selecting a processing type of the audio data;
Second image selection means for selecting second image data corresponding to the type of processing selected by the processing type selection means;
A processing degree specifying means for specifying a processing degree of the audio data;
A voice processing means for processing the recorded voice data or the recorded voice data in accordance with the type of processing selected by the processing type selection means and the processing degree specified by the processing degree specifying means;
Synthetic image recording means for recording the audio data processed by the audio processing means in association with the image data obtained by combining the first image data and the second image data;
An information terminal device comprising:
前記合成画像表示手段に表示された画像データを選択する合成画像選択手段と、
前記合成画像選択手段により前記画像データが選択されるごとに、前記音声加工手段により加工された音声データの加工度を変更して出力する加工度変更出力手段と、
前記加工度変更出力手段により変更された加工度に対応させて、前記画像データを切り替える画像切替手段と、
を更に備えたことを特徴とする請求項1又は2記載の情報端末装置。Composite image display means for displaying the image data recorded in the composite image recording means;
Composite image selection means for selecting image data displayed on the composite image display means;
Every time the image data is selected by the synthesized image selection means, a processing degree change output means for changing and outputting the processing degree of the voice data processed by the voice processing means,
Image switching means for switching the image data in correspondence with the processing degree changed by the processing degree change output means;
The information terminal device according to claim 1, further comprising:
録音した音声データ又は録音されていた音声データに対応させる第1の画像データを選択する第1画像選択手段と、
前記録音した音声データ又は録音されていた音声データを解析する音声解析手段と、
前記音声解析手段による解析結果に基づいて判定された加工の種類に対応する画像データ又は選択指定された新規の画像データを、第2の画像データとして選択する第2画像選択手段と、
前記録音した音声データ又は録音されていた音声データに、前記第1の画像データと前記第2の画像データを合成した画像データを対応付けて記録する合成画像記録手段と、
を備えたことを特徴とする情報端末装置。In an information terminal device that records audio data in association with image data,
First image selecting means for selecting first image data corresponding to the recorded voice data or the recorded voice data;
Voice analysis means for analyzing the recorded voice data or recorded voice data;
Second image selection means for selecting, as second image data, image data corresponding to the type of processing determined based on the analysis result by the voice analysis means or new image data selected and designated;
Synthetic image recording means for recording the recorded audio data or the recorded audio data in association with the image data obtained by combining the first image data and the second image data;
An information terminal device comprising:
録音した音声データ又は録音されていた音声データに対応させる第1の画像データを選択する機能と、
前記音声データを加工する為の加工の種類に対応した第2の画像データを選択することにより、加工の種類を選択する機能と、
選択された加工の種類に従って、前記録音した音声データ又は録音されていた音声データを加工する機能と、
加工された音声データに、前記第1の画像データと前記第2の画像データを合成した画像データを対応付けて記録する機能と、
を実現させるためのプログラム。On the computer,
A function of selecting the first image data corresponding to the recorded voice data or the recorded voice data;
A function of selecting the type of processing by selecting second image data corresponding to the type of processing for processing the audio data;
A function of processing the recorded voice data or the recorded voice data according to the selected type of processing;
A function of recording the processed audio data in association with the image data obtained by combining the first image data and the second image data;
A program to realize
録音した音声データ又は録音されていた音声データに対応させる第1の画像データを選択する機能と、
前記音声データの加工の種類を選択する機能と、
選択された加工の種類に対応する第2の画像データを選択する機能と、
前記音声データの加工度を指定する機能と、
選択された加工の種類と、指定された加工度とに従って、前記録音した音声データ又は録音されていた音声データを加工する機能と、
加工された音声データに、前記第1の画像データと前記第2の画像データを合成した画像データを対応付けて記録する機能と、
を実現させるためのプログラム。On the computer,
A function of selecting the first image data corresponding to the recorded voice data or the recorded voice data;
A function of selecting the type of processing of the audio data;
A function of selecting second image data corresponding to the selected type of processing;
A function for designating the processing level of the audio data;
A function of processing the recorded audio data or the recorded audio data according to the selected type of processing and the specified processing level;
A function of recording the processed audio data in association with the image data obtained by combining the first image data and the second image data;
A program to realize
録音した音声データ又は録音されていた音声データに対応させる第1の画像データを選択する機能と、
前記録音した音声データ又は録音されていた音声データを解析する機能と、
解析結果に基づいて判定された加工の種類に対応する画像データ又は選択指定された新規の画像データを、第2の画像データとして選択する機能と、
前記録音した音声データ又は録音されていた音声データに、前記第1の画像データと前記第2の画像データを合成した画像データを対応付けて記録する機能と、
を実現させるためのプログラム。On the computer,
A function of selecting the first image data corresponding to the recorded voice data or the recorded voice data;
A function of analyzing the recorded voice data or the recorded voice data;
A function of selecting, as second image data, image data corresponding to the type of processing determined based on the analysis result or new image data selected and designated;
A function of recording the recorded voice data or the recorded voice data in association with the image data obtained by combining the first image data and the second image data;
A program to realize
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001168435A JP4158356B2 (en) | 2001-06-04 | 2001-06-04 | Information terminal device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001168435A JP4158356B2 (en) | 2001-06-04 | 2001-06-04 | Information terminal device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002366179A JP2002366179A (en) | 2002-12-20 |
JP4158356B2 true JP4158356B2 (en) | 2008-10-01 |
Family
ID=19010665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001168435A Expired - Fee Related JP4158356B2 (en) | 2001-06-04 | 2001-06-04 | Information terminal device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4158356B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007158908A (en) * | 2005-12-07 | 2007-06-21 | Kenwood Corp | Content data transmission apparatus, content reproducing system and content data transmission method |
JP4990377B2 (en) * | 2008-01-21 | 2012-08-01 | パナソニック株式会社 | Sound playback device |
JP5807094B1 (en) | 2014-07-01 | 2015-11-10 | 株式会社 ディー・エヌ・エー | System, method and program enabling voice chat |
JP6531196B2 (en) * | 2018-03-20 | 2019-06-12 | 株式会社 ディー・エヌ・エー | System, method and program for enabling voice chat |
-
2001
- 2001-06-04 JP JP2001168435A patent/JP4158356B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002366179A (en) | 2002-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5749083A (en) | Document processing system | |
JP3100334B2 (en) | Multimedia title editing device and style creation device used therefor | |
JP2007115180A (en) | Information processor, information display method and information display program | |
CN107066194A (en) | User interface generating means | |
JP2939021B2 (en) | Window management information input / output device | |
JPH06266521A (en) | System and device for customizing user interface | |
GB2380020A (en) | Method of generating a dynamic editable table in a web page | |
CN108712682A (en) | Dynamic image regenerator and method and dynamic image dissemination system | |
JP4158356B2 (en) | Information terminal device and program | |
JPH09114453A (en) | Display and editing device for music information and playing device capable of display and editing | |
JP5671780B2 (en) | Electronic musical instrument and program | |
JP3288460B2 (en) | Display data generation apparatus and method | |
JP3784695B2 (en) | Product catalog display device, product catalog display program, and recording medium | |
JPH06242886A (en) | Electronic mail system | |
JPH0348927A (en) | Icon display control system for information processing system | |
JP3715993B2 (en) | Scenario editing device and scenario execution device | |
JPH1172499A (en) | System controller for analyser | |
JP2518467B2 (en) | Dialogue evaluation device | |
JPH0744368A (en) | Editing system for combination model | |
JPH043097A (en) | Musical information retrieving device | |
JP2002365092A (en) | Measuring apparatus | |
JP2942657B2 (en) | Image creation device | |
JPH07141155A (en) | Information processor | |
JPH08329016A (en) | Color display device | |
JPH03127269A (en) | Method and device for processing information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050815 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080624 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4158356 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110725 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110725 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120725 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120725 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130725 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |