JP3060617U - Image synthesis output device with voice synthesis output function - Google Patents

Image synthesis output device with voice synthesis output function

Info

Publication number
JP3060617U
JP3060617U JP1998010405U JP1040598U JP3060617U JP 3060617 U JP3060617 U JP 3060617U JP 1998010405 U JP1998010405 U JP 1998010405U JP 1040598 U JP1040598 U JP 1040598U JP 3060617 U JP3060617 U JP 3060617U
Authority
JP
Japan
Prior art keywords
data
image
sound
user
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1998010405U
Other languages
Japanese (ja)
Inventor
明 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP1998010405U priority Critical patent/JP3060617U/en
Application granted granted Critical
Publication of JP3060617U publication Critical patent/JP3060617U/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

(57)【要約】 【課題】 画像と音声の両方を取り扱えるようにして、
目と耳の両方からユーザに臨場感を与えることができる
音声合成出力機能付画像合成出力装置を提供すること。
画像データ及び音声データの表示・再生の他に、自由な
編集・加工を可能にすること。 【解決手段】 ユーザの声を録音しメモリに記憶させる
録音手段と、背景音、背景音楽等の複数の音データを記
憶した音データ記憶手段と、この音データ記憶手段に記
憶された複数の音データのうちユーザが選択した音デー
タと前記録音手段によって録音したユーザの音声データ
とを合成して出力する音合成出力を設ける。また、合成
した画像データ及び音データを各種記憶媒体に出力、ま
たはネットワーク経由で指定メールアドレスへ配信し、
後で各種記憶媒体に出力された画像データ及び音データ
を入力し、モニタに表示、スピーカから再生可能に構成
する。
(57) [Summary] [Problem] To be able to handle both images and sounds,
An image synthesizing output device with a voice synthesizing output function capable of giving a user a sense of realism from both eyes and ears.
To enable free editing and processing in addition to display and playback of image data and audio data. SOLUTION: Recording means for recording a user's voice and storing the same in a memory, sound data storage means for storing a plurality of sound data such as background sounds and background music, and a plurality of sounds stored in the sound data storage means A sound synthesis output for synthesizing sound data selected by the user among the data and voice data of the user recorded by the recording means is provided. In addition, the synthesized image data and sound data are output to various storage media or distributed to a designated mail address via a network,
Image data and sound data output to various storage media later are input, displayed on a monitor, and reproducible from a speaker.

Description

【考案の詳細な説明】[Detailed description of the invention]

【0001】[0001]

【考案の属する技術分野】[Technical field to which the invention belongs]

本考案は、アミューズメントパークやゲームセンタ等に設置され、被写体(利 用者)とあらかじめ用意された画像パターンとを合成して撮影し、その撮影画像 をシールや名刺等としてプリントアウトする装置に係り、詳しくは、撮影映像の みでなく音声等の音も合成して所定の出力媒体から出力可能にした音声合成出力 機能付画像合成出力装置に関するものである。 The present invention relates to a device that is installed in an amusement park, a game center, or the like, combines an object (user) with an image pattern prepared in advance, shoots the image, and prints out the shot image as a sticker, business card, or the like. More specifically, the present invention relates to an image synthesizing output device with an audio synthesizing output function that synthesizes not only captured video but also sound such as audio so that the sound can be output from a predetermined output medium.

【0002】[0002]

【従来の技術】[Prior art]

近年、ユーザの肖像画像を撮影し、あらかじめ用意された背景等の画像データ をユーザが指定することで、撮影された肖像画像と指定された画像データとを合 成し、合成結果をプリントシート/シールや名刺などへ印刷する画像プリント装 置がアミューズメントパークやゲームセンタ等に設置されている。 この画像プリント装置は、被写体であるユーザを撮影するためのカメラ、背景 などの複数の合成用画像データをあらかじめ記憶したメモリ、撮影画像と背景等 の合成用画像データを合成する画像合成手段、撮影画像や合成用画像データを表 示するモニタ、合成画像をシールや名刺等に印刷するプリンタなどを基本的な構 成として備えている。 In recent years, a portrait image of a user is photographed, and the user designates image data such as a background prepared in advance, thereby synthesizing the photographed portrait image with the designated image data, and synthesizing a print sheet / print sheet. Image printing devices for printing on stickers, business cards, etc. are installed at amusement parks, game centers, and so on. This image printing apparatus includes a camera for photographing a user who is a subject, a memory in which a plurality of image data for synthesis such as a background are stored in advance, an image synthesizing means for synthesizing a photographed image and image data for synthesis such as a background, A monitor that displays images and image data for compositing, a printer that prints composite images on stickers, business cards, and the like are provided as basic components.

【0003】[0003]

【考案が解決しようとする課題】[Problems to be solved by the invention]

ところで、上記従来の画像プリント装置が画像データしか取り扱っていないこ とは、作成した合成画像をシールや名刺等に印刷するという上記の目的、そして その目的を達成するための上記の構成から明らかである。従来の画像プリント装 置では、カメラやモニタ、あるいは画像合成手段やプリンタなど、画像を取り扱 うための手段のみで構成されており、音声や音楽などを装置内に取り込む集音、 録音機構やそれら音声に関する処理を行なう手段は設けられていなかった。つま り、従来の画像プリント装置は音声や音楽、効果音など、音に関する情報を利用 対象にしていなかったために、任意に録音されたユーザの声や自然音等の背景音 、背景音楽等の音声データを画像と一緒に取扱えないという問題があった。 The fact that the conventional image printing apparatus handles only image data is evident from the above-described object of printing a created composite image on a sticker, a business card, and the like, and the above-described configuration for achieving the object. is there. Conventional image printing devices consist only of means for handling images, such as cameras and monitors, or image synthesizing means and printers. There is no means for performing the processing related to the voice. In other words, conventional image printing devices do not target information on sound such as voice, music, and sound effects, and therefore, arbitrarily recorded background sounds such as user voices and natural sounds, and sounds such as background music. There was a problem that data could not be handled with images.

【0004】 また、従来の画像プリント装置では、出力はプリントシート/シールや絵葉書 などに印刷するという2次元的展開のみであり、合成画像の印刷終了後に、さら にその合成画像を編集・加工したり、あるいは焼き増しのように合成画像を再印 刷するといったことはできない。また、従来の画像プリント装置は、ネットワー クに接続されていても、背景パターンの書き換えや装置の保守に利用するだけで あった。Further, in the conventional image printing apparatus, the output is only a two-dimensional development of printing on a print sheet / sticker, a postcard, or the like. After the printing of the composite image is completed, the composite image is further edited and processed. It is not possible to reprint a composite image, or to reprint a composite image like a reprint. In addition, the conventional image printing apparatus is used only for rewriting the background pattern and for maintaining the apparatus, even if the apparatus is connected to a network.

【0005】 本考案の目的は、従来の画像プリント装置に、録音されたユーザの声、自然音 等の背景音、背景音楽等の音声データを扱える機能を加えることにより、画像と 音声の両方を取り扱えるようにして、目と耳の両方からユーザに臨場感を与える ことができる音声合成出力機能付画像合成出力装置を提供することにある。[0005] An object of the present invention is to provide a conventional image printing apparatus with a function of handling voice data such as recorded user voice, background sound such as natural sound, and sound data such as background music, so that both image and sound can be obtained. It is an object of the present invention to provide an image synthesizing output device with a voice synthesizing output function which can be handled and can give a sense of reality to the user from both eyes and ears.

【0006】 また、本考案の他の目的は、画像や音声をデジタルデータとして取り扱い、出 力手段としてプリントシート/シールへの印刷手段に加え、各種情報記憶媒体へ の格納手段、ネットワークを経由した指定メールアドレスへの配信手段を備える ことにより、後に画像データ及び音声データの表示・再生を行えるようにし、ま たユーザがその画像なり音声に自由に編集・加工することも可能となるような音 声合成出力機能付画像合成出力装置を提供することにある。Another object of the present invention is to handle images and sounds as digital data, print means on a print sheet / sticker as output means, storage means on various information storage media, and via a network. Providing a means for distributing to the designated e-mail address makes it possible to display and reproduce image data and audio data later, and also allows the user to freely edit and process the image or sound. An object of the present invention is to provide an image synthesis output device with a voice synthesis output function.

【0007】[0007]

【課題を解決するための手段】[Means for Solving the Problems]

本考案の目的は、ユーザの声を録音しメモリに記憶させる録音手段と、背景音 、背景音楽等の複数の音データを記憶した音データ記憶手段と、この音データ記 憶手段に記憶された複数の音データのうちユーザが選択した音データと前記録音 手段によって録音したユーザの音声データとを合成して出力する音合成出力を設 けることで達成される。 また、本考案の他の目的は、ICカード、フロッピーディスク等の各種記憶媒 体への出力手段、ネットワーク経由の指定メールアドレスへの配信手段、各種記 憶媒体からの入力手段、画像データのモニタへの表示手段、音声データのスピー カからの再生手段を用いて、合成した画像データ及び音データを各種記憶媒体に 出力、またはネットワーク経由で指定メールアドレスへ配信し、後で各種記憶媒 体に出力された画像データ及び音データを入力し、モニタに表示、スピーカから 再生することにより達成される。 An object of the present invention is to provide a recording means for recording a user's voice and storing it in a memory, a sound data storage means for storing a plurality of sound data such as a background sound and a background music, and a sound data storage means for storing the sound data. This is achieved by providing a sound synthesis output for synthesizing and outputting sound data selected by the user from the plurality of sound data and the user's voice data recorded by the recording means. Another object of the present invention is to provide means for outputting to various storage media such as an IC card and a floppy disk, means for delivering to a designated mail address via a network, means for inputting from various storage media, and monitoring of image data. The synthesized image data and sound data are output to various storage media using a display means for displaying the audio data and a means for reproducing the audio data from the speaker, or distributed to a designated e-mail address via a network, and later to the various storage media. This is achieved by inputting the output image data and sound data, displaying them on a monitor, and playing them back from speakers.

【0008】[0008]

【考案の実施の形態】[Embodiment of the invention]

以下、図面を参照して本考案の実施の形態を詳細に説明する。 図1は、本考案の音声合成出力機能付画像合成出力装置の一実施形態を示すハ ードウェア構成図である。 この実施形態の音声合成出力機能付画像合成出力装置には、モニタ兼タッチパ ネル1、マイク2、スピーカ3が設けられ、これらのモニタ兼タッチパネル1、 マイク2、スピーカ3はユーザ(被写体)を乗せる回転台4に固定されており、回 転台4が回転してもユーザはモニタを見てタッチパネル1を操作し、自分の声を 録音し、またガイダンスや音声データの再生音を聞くことができるようになって いる。また、回転台4は駆動装置5により回転し、カメラ6は駆動装置7により 上下運動するように構成され、ユーザを自由な構図で撮影することができるよう になっている。この場合、カメラ6の視野は、ユーザの頭部から足元までの全身 画像を撮影可能に設定されている。ユーザから見えない装置内部には、画像処理 等を行う処理装置8が設けられている。この処理装置8は、ネットワーク9に接 続され、作成された画像データと音声データをネットワーク9を経由してユーザ の指定したメールアドレスに配信することができるようになっている。処理装置 8において加工、合成された画像データや音声データは、シール印刷機10にお いてシールに印刷出力される。また、ICカード等の媒体のREAD/WRIT E装置11において、画像データや音声データをICカードのような携帯記憶媒 体に出力することもできる。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a hardware configuration diagram showing an embodiment of an image synthesizing output device with a voice synthesizing output function according to the present invention. The image synthesizing output device with a voice synthesizing output function of this embodiment is provided with a monitor / touch panel 1, a microphone 2, and a speaker 3, and these monitor / touch panel 1, microphone 2, and speaker 3 carry a user (subject). It is fixed to the turntable 4 so that even when the turntable 4 rotates, the user can operate the touch panel 1 while watching the monitor, record his own voice, and hear the guidance and the sound of the voice data. It is as follows. In addition, the turntable 4 is rotated by a driving device 5, and the camera 6 is configured to move up and down by a driving device 7, so that a user can be photographed in a free composition. In this case, the field of view of the camera 6 is set so that a whole body image from the head to the foot of the user can be captured. A processing device 8 that performs image processing and the like is provided inside the device that is invisible to the user. The processing device 8 is connected to a network 9 so that the created image data and audio data can be delivered to a mail address specified by the user via the network 9. The image data and audio data processed and combined in the processing device 8 are printed out on a sticker in the sticker printing machine 10. Further, in the READ / WRITE device 11 for a medium such as an IC card, image data and audio data can be output to a portable storage medium such as an IC card.

【0009】 図2は、本考案の一実施形態の構成の要部を示すブロック図である。 本考案にかかる音声合成出力機能付画像合成出力装置のCPU201は、メモ リ202、I/O制御部203、画像・音声入力部204、パターンメモリ20 5、画像・音声処理部206、画像・音声出力部207、データ記憶部208、 データ入力部209に接続されている。各回路ブロックは、例えば、公知の半導 体集積回路応用技術によって半導体基板上、またはガラスエポキシ基板上に形成 されるものである。 CPU201はディジタルカメラI/F211とマイクI/F212からの圧 縮ディジタル信号を受信し、その圧縮デジタル信号を画像・音声処理部206に 格納されているプログラムにより合成し、ビデオプリンタ217(図1のシール 印刷機10に相当)によるプリント出力処理やREAD/WRITE装置(図1の ICカードのREAD/WRITE装置11に相当)218による情報記憶媒体 への出力を行なう。FIG. 2 is a block diagram showing a main part of the configuration of an embodiment of the present invention. The CPU 201 of the image synthesizing output device with the audio synthesizing output function according to the present invention includes a memory 202, an I / O control unit 203, an image / audio input unit 204, a pattern memory 205, an image / audio processing unit 206, an image / audio. The output unit 207, the data storage unit 208, and the data input unit 209 are connected. Each circuit block is formed, for example, on a semiconductor substrate or a glass epoxy substrate by a known semiconductor integrated circuit application technique. The CPU 201 receives the compressed digital signals from the digital camera I / F 211 and the microphone I / F 212, synthesizes the compressed digital signals by a program stored in the image / audio processing unit 206, and outputs the combined data to the video printer 217 (FIG. 1). The print output processing by the seal printer 10 and the output to the information storage medium by the READ / WRITE device 218 (corresponding to the READ / WRITE device 11 of the IC card in FIG. 1) are performed.

【0010】 メモリ202は画像・音声入力部204から取り込んだ画像データと音声デー タを記憶するほか、CPU201に発する命令と本音声合成出力機能付画像合成 出力装置の制御手順となる命令群をプログラムとして記憶している。また、CP U201の処理データもワークメモリとして一時的に記憶する。 画像・音声入力部204は、カメラ(図1のカメラ6に相当)220が撮影した 画像データとマイク(図1のマイク2に相当)221が録音した音声データをA/ D変換装置(図示しない)によりアナログ信号からディジタル信号に変換する。 このとき、画像撮影についてはクロマキー処理などを行なうことも可能である。 パターンメモリ205は、メモリ202にある画像・音声データと重ね合せる ための、背景やキャラクタ等の画像パターンデータと音楽やキャラクタの音声等 の音パターンデータを記憶する。後述するように外部のデータを格納し、画像パ ターンデータや音声パターンデータとして利用できることはもちろん、メモリ2 02に格納された合成データそのものを、画像パターンデータや音パターンデー タとして格納することも可能である。The memory 202 stores image data and audio data fetched from the image / audio input unit 204, and also stores a command issued to the CPU 201 and a command group as a control procedure of the image synthesis output device with the voice synthesis output function. It is remembered as. The processing data of the CPU 201 is also temporarily stored as a work memory. The image / voice input unit 204 converts the image data captured by the camera (corresponding to the camera 6 in FIG. 1) 220 and the voice data recorded by the microphone (corresponding to the microphone 2 in FIG. 1) 221 into an A / D converter (not shown). ) Converts an analog signal into a digital signal. At this time, it is also possible to perform chroma key processing or the like for image shooting. The pattern memory 205 stores image pattern data such as backgrounds and characters and sound pattern data such as music and character voices to be overlaid with image and voice data in the memory 202. As will be described later, external data can be stored and used as image pattern data and audio pattern data. Of course, the synthesized data itself stored in the memory 202 can be stored as image pattern data and sound pattern data. It is possible.

【0011】 画像・音声処理部206は、メモリ202の画像・音声データとパターンメモ リ205の画像パターンデータや音パターンデータをもとに、画像・音声の合成 処理を行なう。 画像・音声出力部207は、画像・音声処理部206が加工したデータを出力 する。画像・音声出力部207はビデオプリンタ217とREAD/WRITE 装置218に接続しており、ユーザの指示あるいは出力の形態に従って、ビデオ プリンタ217やREAD/WRITE装置218に出力する。 データ記憶部208は、パターンメモリ205の内容を書き換えるものである 。パターンメモリ205に書き込まれているデータの日付と照合し、データ記憶 部208に記憶されたデータが新しいものであれば、パターンメモリ205内の データを書き換える。これにより、データ記憶部208に記憶されたデータを背 景、音声、キャラクタ等の画像パターンデータや音パターンデータとして用いる 事ができる。The image / sound processing unit 206 performs image / sound synthesis processing based on the image / sound data in the memory 202 and the image / sound pattern data in the pattern memory 205. The image / audio output unit 207 outputs data processed by the image / audio processing unit 206. The image / audio output unit 207 is connected to the video printer 217 and the READ / WRITE device 218, and outputs to the video printer 217 and the READ / WRITE device 218 according to a user's instruction or output form. The data storage unit 208 rewrites the contents of the pattern memory 205. The data in the pattern memory 205 is collated with the date of the data written in the pattern memory 205, and if the data stored in the data storage unit 208 is new, the data in the pattern memory 205 is rewritten. As a result, the data stored in the data storage unit 208 can be used as image pattern data and sound pattern data of the background, voice, character, and the like.

【0012】 データ入力部209はREAD/WRITE装置218に接続し、携帯記憶媒 体219の画像データや音データなどを、ディジタル情報のまま取り込むもので ある。データ入力部209は、取り込んだデータを一旦データ記憶部208に格 納する。データ記憶部208は、そのデータをパターンメモリ205に書き込ま れたデータの日付と比較し、パターンメモリ205のデータよりも新しいものと 判断したら、パターンメモリ205内のデータをデータ記憶部208のデータに 書換える。これにより、データ入力部209が取り込んだデータを、背景、音声 、キャラクタ等の画像パターンデータや音パターンデータとして用いる事ができ る。さらに、データ入力部209は取り込んだデータをメモリ202に格納し、 そのデータに上書きして合成することも可能である。A data input unit 209 is connected to the READ / WRITE device 218, and takes in image data and sound data of the portable storage medium 219 as digital information. The data input unit 209 temporarily stores the fetched data in the data storage unit 208. The data storage unit 208 compares the data with the date of the data written in the pattern memory 205, and determines that the data in the pattern memory 205 is newer than the data in the pattern memory 205. rewrite. As a result, the data captured by the data input unit 209 can be used as image pattern data and sound pattern data of a background, voice, character, and the like. Further, the data input unit 209 can store the fetched data in the memory 202 and overwrite the data to synthesize the data.

【0013】 ところで、I/O制御部203は、通信制御I/F210、ディジタルカメラ I/F211、マイクI/F212、センサ213、タツチパネル214、コイ ン制御部215、タイマ216に接続し、これら全体の制御を行うものである。 通信制御I/F210は、外部ネットワークとの接続に用いる。通信制御I/ F210は専用回線を介して、外部にある機器管理サーバに接続する。この機器 管理サーバ(図示しない)は故障の有無を管理することを目的とする。また、新 しい背景パターン、音パターン、キャラクタ等を機器管理サーバから送信し、I /O制御部203を介してデータ記憶部208に記憶する。また通信制御I/F 210は、光通信制御I/F223に接続している。光通信制御I/F223は 赤外線通信を行なうIr−DAの制御や、光ファイバーを利用した通信の制御を 行なう。このインターフェースを用いることでプログラムなどのバイナリーデー タのやり取りができ、PDAなどの情報携帯端末やノートパソコンと直接接続す ることができ、情報携帯端末やパソコンが本考案の音声合成出力機能付画像合成 出力装置のプログラムやデータを取り込むことができる。また、パソコンで録音 ・作成したデータやプログラムを本音声合成出力機能付画像合成出力装置に送っ て、背景パターン、音パターン、キャラクタを任意に変更することができる。The I / O control unit 203 is connected to a communication control I / F 210, a digital camera I / F 211, a microphone I / F 212, a sensor 213, a touch panel 214, a coin control unit 215, and a timer 216. Is performed. The communication control I / F 210 is used for connection with an external network. The communication control I / F 210 connects to an external device management server via a dedicated line. The purpose of this device management server (not shown) is to manage the presence or absence of a failure. Further, a new background pattern, a sound pattern, a character, and the like are transmitted from the device management server, and stored in the data storage unit 208 via the I / O control unit 203. The communication control I / F 210 is connected to the optical communication control I / F 223. The optical communication control I / F 223 controls Ir-DA for infrared communication and communication using an optical fiber. By using this interface, binary data such as programs can be exchanged, and it can be directly connected to portable information terminals such as PDAs and notebook PCs. The program and data of the synthesis output device can be imported. Also, data and programs recorded and created by a personal computer can be sent to the image synthesis and output device with voice synthesis output function to change background patterns, sound patterns, and characters as desired.

【0014】 センサ213は、赤外線センサによって、操作部位のユーザの存否を検知し、 ユーザがコイン投入後、所定の位置にいるかどうか、また、存在するユーザは単 数であるか複数であるかを確認する。 タッチパネル(図1のモニタ兼タッチパネル1のタッチパネル部に相当)214 は、例えば、操作メニューを表示し種々の選択条件の入力を受け付けるものであ る。またタツチパネル214は、例えば表示した操作メニューがユーザにより入 力された時の抵抗値を、CPU201がA/D変換装置を介して検知し、画面上 の座標を算出することで、ユーザによりどのボタンが選択されたかを判定する。 コイン制御部215は、コインの投入の有無や不正コインの投入などをCPU 201により検知する。投入されたコインの形状と重さを計測し、真正コインで はないコインに対し、さらにコインの表裏の模様を判定し、投入されたコインが 真正コインか、不正コインや偽造コインであるかどうかを判別する。撮影料金は コイン制御部215が受け付けるが、料金受納手段はコイン検知器に限られず、 紙幣読取器、プリペイドカード読取器、クレジットカード等を用いることも可能 である。 タイマ216は、外部にある管理サーバと専用線で接続できる環境にないとき に装置本体内に設けられ、CPU201の命令により動作する。The sensor 213 detects the presence or absence of a user at the operation site by an infrared sensor, and determines whether the user is at a predetermined position after inserting the coin, and whether there is a single user or a plurality of users. Confirm. The touch panel (corresponding to the monitor and touch panel portion of the touch panel 1 in FIG. 1) 214 displays, for example, an operation menu and accepts input of various selection conditions. In addition, the touch panel 214 detects which resistance value when the displayed operation menu is input by the user through the A / D converter, and calculates the coordinates on the screen. Is determined. The coin control unit 215 detects, by the CPU 201, whether or not a coin has been inserted or an illegal coin has been inserted. The shape and weight of the inserted coin are measured, and for coins that are not genuine coins, the patterns on the front and back of the coins are further determined, and whether the inserted coin is a genuine coin, a fraudulent coin, or a counterfeit coin is determined. Is determined. The shooting fee is accepted by the coin control unit 215, but the fee receiving means is not limited to the coin detector, and a bill reader, a prepaid card reader, a credit card, or the like can be used. The timer 216 is provided in the apparatus main body when there is no environment in which it can be connected to an external management server by a dedicated line, and operates according to an instruction from the CPU 201.

【0015】 ところで、ユーザの撮影はコイン投入後、ユーザへの撮影指示をタツチパネル 214が受け付けたときに、カメラ(図1のカメラ6に相当)220が行なう。画 像入力装置としては、カメラ220にはCCDカメラのほかにMOSや通常のビ デオカメラ等を用いてもよい。カメラ220が撮影した画像データは、カメラ2 20が内蔵するAE(オートアイリス)機能が露出調整し、メモリ202に記憶 することもできる。 また画像入力装置として例えば、Ir―DA光通信機能を有するディジタルス ティルカメラを用いてもよい。すると、あらかじめ撮影した画像データを受信し 転送できるIr−DA光通信機能と複数枚の画像データが格納できるバッファメ モリにより、ユーザにメニュー画像の選択条件となるアイコンを選択させて、J PEG圧縮した複数枚の静止画を容易に合成することができるようになる。By the way, the camera (corresponding to the camera 6 in FIG. 1) 220 performs shooting of a user when the touch panel 214 receives a shooting instruction to the user after inserting a coin. As the image input device, a MOS, an ordinary video camera, or the like may be used as the camera 220 in addition to the CCD camera. The image data captured by the camera 220 can be stored in the memory 202 after the exposure is adjusted by an AE (auto iris) function built in the camera 220. For example, a digital still camera having an Ir-DA optical communication function may be used as the image input device. Then, with the Ir-DA optical communication function that can receive and transfer the image data captured in advance and the buffer memory that can store multiple image data, the user can select an icon that is a selection condition of the menu image, and JPEG-compressed. A plurality of still images can be easily synthesized.

【0016】 一方、音声や背景音などの録音は、例えば、ユーザにより声を録音するコマン ドや背景音を録音するコマンド等が選択され、タッチパネルがそのコマンドを受 け付けることにより行われる。音声入力装置としてはマイク221のほかに、外 部機器接続用LINEOUT222に接続するレコーダやスピーカ等でもよい。 出力について言えば、画像・音声出力部207がデータをビデオプリンタ217 に出力した場合、ビデオプリンタ217はカラー画像を葉書もしくはシールに印 刷、出力する。READ/WRITE装置218に出力した場合、READ/W RITE装置218は携帯記憶媒体219に生成した画像データや音データをデ ィジタル情報のまま記憶する。On the other hand, recording of a voice or a background sound is performed, for example, by selecting a command for recording a voice, a command for recording a background sound, or the like by a user, and receiving the command by the touch panel. In addition to the microphone 221, a recorder or a speaker connected to the external device connection LINEOUT 222 may be used as the audio input device. In terms of output, when the image / audio output unit 207 outputs data to the video printer 217, the video printer 217 prints and outputs a color image on a postcard or a sticker. When the data is output to the READ / WRITE device 218, the READ / WRITE device 218 stores the generated image data and sound data in the portable storage medium 219 as digital information.

【0017】 なお、上記の説明では、画像・音声入力部204や画像・音声処理部205の ように、便宜上画像データと音データを区別無く取扱っているが、実際は画像デ ータと音声データを区別して取扱っており、画像データに音データを合成するよ うなことはない。画像データに合成できるのは画像データ、音データに合成でき るのは音データだけであり、音データを画像データに合成したい時には画像デー タに変換してから行なう。その際のデータ変換機能は、例えば画像・音声処理手 段205に備えればよいし、また独立した一手段として設けてもよい。In the above description, the image data and the sound data are handled without distinction for convenience, like the image / sound input unit 204 and the image / sound processing unit 205, but actually, the image data and the sound data are handled. They are handled differently, and there is no need to synthesize sound data with image data. Only sound data can be combined with image data and sound data. If sound data is to be combined with image data, it must be converted into image data. The data conversion function at that time may be provided, for example, in the image / sound processing means 205, or may be provided as an independent means.

【0018】 また、図1の駆動装置5及び7の制御部については、図2には示していないが 、I/O制御部203に接続された各駆動制御部を介して図1の駆動装置5及び 7の駆動制御が行われる。また、回転台4に回転開始、停止は、例えば回転台床 面に設けたフットスイッチをユーザが操作することによって指示される。カメラ 6の上下動についても同様に、タッチパネル1に設けた指示スイッチ、あるいは 回転台床面に設けたフットスイッチをユーザが操作することによって指示される 。The control units of the driving devices 5 and 7 in FIG. 1 are not shown in FIG. 2, but are connected to the driving device of FIG. The drive control of 5 and 7 is performed. The start and stop of rotation of the turntable 4 are instructed, for example, by a user operating a foot switch provided on the turntable floor. Similarly, the vertical movement of the camera 6 is also instructed by the user operating an instruction switch provided on the touch panel 1 or a foot switch provided on the turntable floor.

【0019】 図3は、本考案にかかる音声合成出力機能付画像合成出力装置が携帯記憶媒体 に出力を行なう場合の具体的な構成を示す概略斜視図である。図で示すとおり、 ICカード等の記憶媒体を出し入れするための出入口301が筐体300の操作 面側に設けられている。これにより、図1で示したREAD/WRITE装置1 1が、携帯記憶媒体内の画像データや音データの入出力を行なう事ができる。FIG. 3 is a schematic perspective view showing a specific configuration when the image synthesizing output device with a voice synthesizing output function according to the present invention outputs to a portable storage medium. As shown in the figure, an entrance 301 for inserting and removing a storage medium such as an IC card is provided on the operation surface side of the housing 300. This allows the READ / WRITE device 11 shown in FIG. 1 to input and output image data and sound data in the portable storage medium.

【0020】 図4は、音声合成出力機能付画像合成出力装置の出力データの構造と出力先を 示す図である。出力データ400は大きくプログラム部410とデータ部420 の2つに分けられる。プログラム部410は画像データ表示機能411と音声デ ータ再生機能412を持っており、データ部420は合成後画像データ421と 合成後音声データ422の2つに分けられる。出力データ400がプログラム部 410を持っているのは、出力データ400を携帯情報端末やパソコン等で読み 込んだ時、あらかじめパソコンに表示再生プログラムをインストールしておくこ となしに、データ部420を表示再生を可能にするためであり、画像データ表示 機能411は合成後画像データ421を、音声データ再生機能412は合成後音 声データ422をそれぞれ表示再生する。FIG. 4 is a diagram showing a structure and an output destination of output data of the image synthesizing output device with the audio synthesizing output function. The output data 400 is roughly divided into two parts, a program part 410 and a data part 420. The program section 410 has an image data display function 411 and an audio data reproduction function 412, and the data section 420 is divided into two parts: image data 421 after synthesis and audio data 422 after synthesis. The output data 400 has the program section 410 because when the output data 400 is read by a portable information terminal, a personal computer, or the like, the display section reproducing program is not installed on the personal computer in advance, and the data section 420 is stored. The image data display function 411 displays and reproduces the synthesized image data 421, and the audio data reproduction function 412 displays and reproduces the synthesized audio data 422.

【0021】 出力データ400をシール430に出力する場合は、合成後画像データ421 をシール印刷機によってシール430に印刷出力する。ここで音声データを利用 する場合には、音声データはあらかじめ合成後画像データ421に変換されてい る必要がある。つまり、シール印刷は画像データしか取扱えないため、音声デー タは画像データに変換される必要がある。その方法としては様々な形態が考えら れ、例えば、公知技術である音声を音声再生用バーコードに変換する手段を、本 音声合成出力機能付画像合成出力装置に備えればよい。シール印刷を行なうと画 像データとともに音声再生バーコードも印刷されるので、このバーコードを専用 の音声再生バーコードリーダで読取れば音声が再生される。また、ユーザが吹き 込んだ音声であれば、その音声に対して音声認識処理を行なって文字データに変 換し、さらにその文字データを「フキダシ」として画像データに加工する。作成 された「フキダシ」は画像パターンデータとして格納し、それを撮影画像データ と合成すれば、シールに印刷した際にユーザの音声も画像データとともに印刷す ることができる。また、あらかじめ本音声合成出力機能付画像合成出力装置に格 納されている音声パターンデータを利用するならば、その音声パターンデータの 文字データも格納しておき、それを「フキダシ」として利用する等が考えられる 。When the output data 400 is output to the sticker 430, the combined image data 421 is printed out on the sticker 430 by a sticker printing machine. Here, when using the audio data, the audio data needs to be converted into the synthesized image data 421 in advance. That is, since sticker printing can only handle image data, audio data must be converted to image data. Various methods are conceivable as the method. For example, a means for converting sound into a barcode for sound reproduction, which is a known technique, may be provided in the image synthesizing output apparatus with the sound synthesizing output function. When sticker printing is performed, an audio playback barcode is printed together with the image data, so if this barcode is read by a dedicated audio playback barcode reader, the audio is played back. In addition, if the user speaks the voice, the voice recognition processing is performed on the voice to convert the voice into character data, and the character data is further processed into image data as “balloon”. If the created “balloon” is stored as image pattern data and combined with the captured image data, the user's voice can be printed with the image data when printed on a sticker. If the voice pattern data stored in the image synthesis output device with the voice synthesis output function in advance is used, the character data of the voice pattern data is also stored and used as “balloon”. Can be considered.

【0022】 また、音声が音楽や背景音の場合には、その音声がMIDIデータであるのな らば、五線譜の画像データに変換して出力することが可能である。またそのよう な音楽に対応づけて、曲のアーティスト名や詳細情報を格納しておき、印刷の際 には画像データとして出力してもよい。このように音声データを利用する場合に は、音声データを文字データや画像データに変換してから、合成後画像データ4 21に合成する。その後、合成後画像データ421をシール印刷機430におい て出力、印刷する。When the sound is music or background sound, if the sound is MIDI data, the sound can be converted into image data of a staff and output. In addition, the artist name and detailed information of the song may be stored in association with such music, and output as image data when printing. When using voice data in this way, the voice data is converted into character data or image data and then combined with the combined image data 421. Then, the post-combination image data 421 is output and printed by the sticker printing machine 430.

【0023】 出力データ400をICカードやスマートメディアなどの携帯記憶媒体440 に出力する場合は、出力データ400をそのまま携帯記憶媒体440に格納すれ ばよい。もし、本音声合成出力機能付画像合成出力装置が2種類以上の記憶媒体 出力手段を有している時は記憶媒体の種類をユーザに1つ、あるいは複数を指定 させてから出力を行う。携帯記憶媒体440には出力データ400がディジタル データのままで格納されているので、ユーザはその携帯記憶媒体が使用可能な表 示再生装置があれば、いつでも、何度でも、出力データ400を再生することが できる。特にプログラム部410を備えたことで、表示再生プログラムが表示再 生装置にインストールされていなくても、データ部420を表示再生することが 可能である。さらに、表示再生装置が画像プリント装置を備えていれば、何度で も焼き増しすることができる。また、本音声合成出力機能付画像合成出力装置に おいては、出力したデータにさらに加工・合成を加えて出力したり、そのデータ の一部を画像パターンデータや音声パターンデータとして利用して新たに出力デ ータを作成するなど、ユーザが任意の編集を行なうことができる。When outputting the output data 400 to a portable storage medium 440 such as an IC card or a smart media, the output data 400 may be stored in the portable storage medium 440 as it is. If the image synthesizing output device with the audio synthesizing output function has two or more types of storage medium output means, the output is performed after the user specifies one or more types of storage medium. Since the output data 400 is stored as digital data in the portable storage medium 440, the user can reproduce the output data 400 anytime and any number of times if there is a display / playback device that can use the portable storage medium. can do. In particular, with the provision of the program section 410, the data section 420 can be displayed and reproduced even if the display reproduction program is not installed in the display reproduction apparatus. Furthermore, if the display / reproduction device is provided with an image printing device, additional printing can be performed any number of times. In addition, in the image synthesis output device with the voice synthesis output function, the output data is further processed / synthesized and output, or a part of the data is used as image pattern data or audio pattern data to be newly used. The user can arbitrarily edit the data, such as creating output data in the database.

【0024】 出力データ400をネットワーク経由で配信する場合は、ユーザに配信先メー ルアドレスを指定させ、その指定アドレスに出力データ400をそのまま配信す る。ユーザ指定のメールアドレスには出力データ400がディジタルデータのま ま送られ、先に述べたように、何度でも焼き増ししたり、ユーザが任意の編集を 行なうなどはもちろん可能である。また、携帯記憶媒体の場合とは異なり、ネッ トワーク配信は媒体の影響を受けないので、ユーザ側の端末装置に出力データの 表示再生プログラムが備わっているか、プログラム部410が作動できる環境で あれば、ユーザは端末装置でいつでも出力データ400を表示・再生・加工・編 集等を行なうことができる。さらに、ネットワークを経由して、ユーザの端末側 から本音声合成出力機能付画像合成出力装置に画像データや音声データを送信す ることが可能である。それにより、本音声合成出力機能付画像合成出力装置は、 ユーザ側のデータをシールやICカードなどの各種媒体に出力したり、そのデー タを上書き加工して新たな出力データを作成したり、新たな出力データを作成す る際に用いる画像パターンデータや音声パターンデータとして用いることができ る。When the output data 400 is to be distributed via a network, the user is required to specify a destination mail address, and the output data 400 is distributed to the specified address as it is. The output data 400 is sent to the user-specified mail address in the form of digital data. As described above, the output data 400 can be repeatedly copied or the user can perform arbitrary editing. Also, unlike the case of the portable storage medium, the network distribution is not affected by the medium, so that if the terminal device on the user side has a display / playback program for the output data, or if the environment allows the program unit 410 to operate. The user can display, reproduce, process, edit, etc. the output data 400 at any time on the terminal device. Further, it is possible to transmit image data and audio data from the user terminal side to the image synthesizing output device with the audio synthesizing output function via the network. As a result, the image synthesizing output device with the audio synthesizing output function can output the data on the user side to various media such as a sticker or an IC card, overwrite the data to create new output data, It can be used as image pattern data and audio pattern data used when creating new output data.

【0025】 次に、いくつかの実施の形態に即して説明する。 図5は、本音声合成出力機能付画像合成出力装置を「星占い」に適用した場合 の処理を説明するためのフローチャートである。以下、図を参照しながら処理の 一例を説明する。最初に、カメラ220でユーザを撮影し、それを撮影画像デー タとする(ステップ501)。「背景を合成する」や「色を変える」などのタッ チパネルのコマンド入力を通じて、ユーザと本音声合成出力機能付画像合成出力 装置が対話式で撮影画像データを加工していくことで、撮影画像データに画像パ ターンデータを合成し、ユーザにとって適切な撮影画像を作成する(ステップ5 02)。次に、ユーザによる生年月日を入力を受け付ける(ステップ503)。Next, a description will be given according to some embodiments. FIG. 5 is a flowchart for explaining a process in a case where the image synthesizing output device with the audio synthesizing output function is applied to “horoscope”. Hereinafter, an example of the process will be described with reference to the drawings. First, the user is photographed by the camera 220, and the photographed image data is used as the photographed image data (step 501). The user and the image synthesizing output device with voice synthesis output function interactively process the captured image data through command input on the touch panel, such as “combining the background” and “changing the color,” so that the captured image data can be processed. The image pattern data is combined with the data to create a photographed image suitable for the user (step 502). Next, the input of the date of birth by the user is received (step 503).

【0026】 本音声合成出力機能付画像合成出力装置は、入力された生年月日で星占いのプ ログラムを実行し、「今日の運勢」を表す言葉を求める(ステップ504)。な お星占いの結果がたとえ悪い運勢でも、「今日の運勢」を表す言葉は肯定的な表 現とする。例えば、「明けない夜はない。もう少し頑張ろうよ。」といったやわ らかな表現を用いる。次に、求めた「今日の運勢」を表す言葉をフキダシ画像デ ータに合成し、ステップ502で作成した撮影画像とフキダシ画像データとを合 成し、合成後画像データとする(ステップ505)。ここで、フキダシ画像デー タとは、フキダシに「今日の運勢」の言葉が書き込まれた画像パターンデータで ある。次に、あらかじめ本音声合成出力機能付画像合成出力装置に用意された音 声データの中から、「今日の運勢」の言葉に該当する音声パターンデータを取り 出し、「今日の運勢」の言葉の音声データとする(ステップ506)。そして、背景 音/背景音楽などをユーザに選択させる(ステップ507)。選択された背景音 /背景音楽の音パターンデータを取り出し、それを「今日の運勢」の言葉の音声 パターンデータと合成し、合成後音声データとする(ステップ508)。そして 、出力データをシールに出力するかをユーザに選択させる(ステップ509)。 ユーザによって出力する選択がなされた場合には、合成後画像データをシール印 刷機を用いてシールに印刷する(ステップ510)。次に、出力データをICカ ードに出力するかをユーザに選択させる(ステップ511)。ユーザによって出 力する選択がなされた場合には、合成後画像データ、合成後音声データ、表示再 生プログラムをICカードに出力する(ステップ512)。最後に、出力データ をネットワークで配信するかをユーザに選択させる(ステップ513)。ユーザ によって配信する選択がなされた場合には、配信するメールアドレスをユーザに 指定してさせ(ステップ514)、合成後画像データ、合成後音声データ、表示 再生プログラムを、そのユーザ指定のメールアドレスに配信する(ステップ51 5)。The image synthesizing output device with the voice synthesizing output function executes the horoscope program on the input date of birth, and obtains a word representing “today's fortune” (step 504). Even if the result of the horoscope is bad, the word “today's fortune” is a positive expression. For example, use a plain expression such as "There is no dawn night. Let's do our best a little." Next, the obtained word representing "fortune of today" is combined with balloon image data, and the photographed image created in step 502 and the balloon image data are combined to obtain combined image data (step 505). . Here, the balloon image data is image pattern data in which the word “Today's Fortune” is written in the balloon. Next, the voice pattern data corresponding to the word “Today's fortune” is extracted from the voice data prepared in advance in the image synthesis / output device with the voice synthesis output function, and the speech pattern data corresponding to the word “Today's fortune” is extracted. The audio data is set (step 506). Then, the user is caused to select background sound / background music (step 507). The sound pattern data of the selected background sound / background music is taken out and synthesized with the sound pattern data of the words "Today's Fortune" to obtain synthesized voice data (step 508). Then, the user is made to select whether to output the output data to the sticker (step 509). If the user selects to output, the combined image data is printed on a sticker using a sticker printer (step 510). Next, the user is made to select whether to output the output data to the IC card (step 511). If the user selects to output, the image data after synthesis, the audio data after synthesis, and the display playback program are output to the IC card (step 512). Finally, the user is made to select whether to deliver the output data through a network (step 513). When the distribution is selected by the user, the user specifies the mail address to be distributed (step 514), and the image data after synthesis, the audio data after synthesis, and the display / playback program are stored in the mail address specified by the user. It is distributed (step 515).

【0027】 図6、図7及び図8は、図5に示した本音声合成出力機能付画像合成出力装置 におけるアプリケーション「星占い」の実施の形態の出力例である。 図6は、出力データをシールに印刷した一出力例である。シール600は合成 後画像データをもとに作成される。合成後画像データは撮影画像601とフキダ シ602によって構成されている。撮影画像601はユーザが撮影画像データを タッチパネルのコマンド入力操作を通じて、本音声合成出力機能付画像合成出力 装置と対話式に加工・合成していくことで得られた撮影画像であって、図の背景 にある太陽や雲もその過程でユーザによって加えられたものである。また、フキ ダシ602は星占いにより得られた「今日の運勢」を表す言葉を、フキダシ画像 データとして合成したものである。 図7は、出力データをICカードに出力した一出力例である。ICカード70 0は合成後画像データ701と合成後音声データ702と表示再生プログラム7 03を格納している。ここで、合成後音声データ702には、「今日の運勢」の 言葉に該当する音声データ以外に、ユーザ自身が選択した背景音/背景音楽など も格納している。 図8は、上記の出力例の応用例であって、ICカード801にシール802を 貼り付けたものである。これによりICカード801の内容がシール802を見 ることにより瞬時に判断できるという効果がある。シール802の貼り付けは機 械で自動的に行ってもよいし、ICカード801とシール802とを別々に出力 し、ユーザの必要に応じてユーザ自身で貼ってもらってもよい。FIGS. 6, 7 and 8 are output examples of the embodiment of the application “horoscope” in the image synthesizing output device with the audio synthesizing output function shown in FIG. FIG. 6 is an output example in which output data is printed on a sticker. The seal 600 is created based on the image data after synthesis. The combined image data includes a captured image 601 and a balloon 602. The photographed image 601 is a photographed image obtained by the user interactively processing and synthesizing the photographed image data with the image synthesizing output device with the voice synthesizing output function through a command input operation of the touch panel. The background sun and clouds were also added by the user in the process. The balloon 602 is obtained by combining words representing “fortune of today” obtained by horoscope as balloon image data. FIG. 7 is an output example in which output data is output to an IC card. The IC card 700 stores the synthesized image data 701, the synthesized audio data 702, and the display / reproduction program 703. Here, in the synthesized voice data 702, in addition to the voice data corresponding to the word “today's fortune”, background sound / background music selected by the user himself / herself are also stored. FIG. 8 shows an application example of the above output example, in which a sticker 802 is attached to an IC card 801. This has the effect that the contents of the IC card 801 can be judged instantly by looking at the sticker 802. The sticker 802 may be automatically attached by a machine, or the IC card 801 and the seal 802 may be separately output, and the user may attach the sticker 802 as needed.

【0028】 図9は、本音声合成出力機能付画像合成出力装置を「恋人/友人へのメッセー ジ」に適用した場合の処理を説明するためのフローチャートである。以下、図を 参照して処理の一例を説明する。最初にカメラ220でユーザを撮影し、それを 撮影画像データとする(ステップ901)。ユーザのタッチパネルのコマンド入 力を通じて、本音声合成出力機能付画像合成出力装置が対話式で撮影画像データ を加工し、ユーザにとって適切な撮影画像を作成する(ステップ902)。次に 、ユーザがマイクから吹き込んだ「恋人/友人へのメッセージ」を受付けて、録 音音声データとする(ステップ903)。吹き込まれた録音音声データをスピー カで再生し、その内容の確認をユーザに問合せOKであれば次に進み、そうでな ければメッセージの吹き込みをやり直す(ステップ904)。次に、本音声合成 出力機能付画像合成出力装置は録音音声データであるユーザのメッセージの音声 認識処理を行い、メッセージを文字データに変換した後、フキダシ画像データと して合成する(ステップ905)。そして、ステップ902で作成した撮影画像 とフキダシ画像データを合成し、それを合成後画像データとする(ステップ90 6)。FIG. 9 is a flowchart for explaining processing when the present image synthesizing output device with a voice synthesizing output function is applied to “message to lover / friend”. Hereinafter, an example of the process will be described with reference to the drawings. First, the user is photographed by the camera 220, and is used as photographed image data (step 901). Through the user's command input on the touch panel, the image synthesizing output device with the voice synthesizing output function interactively processes the photographed image data to create a photographed image suitable for the user (step 902). Next, the "message to lover / friend" that the user has blown from the microphone is accepted and recorded as sound data (step 903). The recorded voice data is reproduced by the speaker, and the user is inquired of the confirmation of the content if it is OK. If not, the message is reproduced again (step 904). Next, the image synthesizing output device with the audio synthesizing output function performs voice recognition processing of the user's message which is the recorded audio data, converts the message into character data, and synthesizes it as balloon image data (step 905). . Then, the photographed image created in step 902 and the balloon image data are combined, and the combined image data is used as combined image data (step 906).

【0029】 次に、背景音/背景音楽などをユーザに選択させる(ステップ907)。選択 された背景音/背景音楽などと、ユーザが吹き込んだ録音音声データであるメッ セージとを合成し、合成後音声データとする(ステップ908)。そして、出力 データをシール印刷機に出力するかをユーザに選択させる(ステップ909)。Next, the user is caused to select a background sound / background music (step 907). The selected background sound / background music and the like are combined with the message, which is the recorded voice data recorded by the user, to obtain synthesized voice data (step 908). Then, the user is made to select whether to output the output data to the sticker printing machine (step 909).

【0030】 ユーザによって出力する選択がなされた場合には、合成後画像データをシール に印刷する(ステップ910)。次に、出力データをICカードに出力するかを ユーザに選択させる(ステップ911)。ユーザによって出力する選択がなされ た場合には、合成後画像データ、合成後音声データ、表示再生プログラムをIC カードに出力する(ステップ912)。最後に、出力データをネットワークで配 信するかをユーザに選択させる(ステップ913)。ユーザによって配信する選 択がなされた場合には、配信するメールアドレスをユーザに指定してさせ(ステ ップ914)、合成後画像データ、合成後音声データ、表示再生プログラムを、 そのユーザ指定のメールアドレスに配信する(ステップ915)。If the user has selected to output, the combined image data is printed on a sticker (step 910). Next, the user is made to select whether to output the output data to the IC card (step 911). If the user selects to output, the image data after synthesis, the audio data after synthesis, and the display / reproduction program are output to the IC card (step 912). Finally, the user is made to select whether to deliver the output data via a network (step 913). If the user selects delivery, the user is allowed to specify the mail address to be delivered (step 914), and the combined image data, combined voice data, and display / playback program are displayed in the user-specified format. Delivery is made to the mail address (step 915).

【0031】 図10は、図9に示した本音声合成出力機能付画像合成出力装置における「恋 人/友人へのメッセージ」の実施の形態の一出力例である。本出力例では、シー ル1000がICカード1001に貼られている。撮影画像1002はユーザが もとの撮影画像データに加工して得られた撮影画像であって、図の背景にある星 もその過程でユーザによって加えられたものである。またフキダシ1003は恋 人や友人にためにユーザが吹き込んだメッセージを、音声認識によって文字デー タに変換した後、フキダシ画像データに合成したものである。ICカード100 1は合成後画像データと合成後音声データと表示再生プログラムを格納している 。 ここで、合成後音声データには、ユーザが吹き込んだメッセージ以外に、ユー ザ自身が選択した背景音/背景音楽なども格納している。FIG. 10 is an output example of the embodiment of the “message to lover / friend” in the image synthesizing output device with the voice synthesizing output function shown in FIG. In this output example, the seal 1000 is attached to the IC card 1001. The photographed image 1002 is a photographed image obtained by processing the original photographed image data by the user, and the star in the background of the figure is also added by the user in the process. A balloon 1003 is obtained by converting a message blown by a user for a lover or a friend into character data by voice recognition, and then synthesizing it with balloon image data. The IC card 1001 stores image data after synthesis, audio data after synthesis, and a display / reproduction program. Here, in the synthesized speech data, in addition to the message blown by the user, a background sound / background music selected by the user himself / herself are also stored.

【0032】 図11は、本音声合成出力機能付画像合成出力装置を「ペットと写す」に適用 した場合の処理を説明するためのフローチャートである。以下、図を参照して処 理の一例を説明する。最初にカメラ220でユーザを撮影し、それを撮影画像デ ータとする(ステップ1101)。ユーザのタッチパネルのコマンド入力を通じ て、本音声合成出力機能付画像合成出力装置が対話式で撮影画像データを加工し 、ユーザにとって適切な撮影画像を作成し、その撮影画像をユーザ画像データと する(ステップ1102)。次に、ユーザがマイクで吹き込んだメッセージを録 音音声データとして記憶し(ステップ1103)、ユーザが選択した背景音/背 景音楽などを音声パターンデータから取り出す(ステップ1104)。このメッ セージと背景/背景音楽を合成し、ユーザ音声データとする(ステップ1105 )。次に、ユーザが挿入したICカードを受け付ける(ステップ1106)。そ してICカード内の合成後画像データと合成後音声データを取り出し、それぞれ ペット画像データ、ペット音声データとする(ステップ1107、ステップ11 08)。このICカードは、撮影以前にユーザが自分のペットを本音声合成出力 機能付画像合成出力装置において撮影したものである。つまり、ICカード内の 合成後画像データにはペットの画像が、合成後音声データにはペットの音声が、 それぞれ格納されている。次に、ユーザ画像データとペット画像データを合成し 、それを合成後画像データとする(ステップ1109)。さらに、ユーザ音声デ ータとペット音声データを合成し、それを合成後音声データとする(ステップ1 110)。そして、出力データをシール印刷機に出力するかをユーザに選択させ る(ステップ1111)。ユーザによって出力する選択がなされた場合には、合 成後画像データをシール印刷機に出力する(ステップ1112)。次に、出力デ ータをICカードに出力するかをユーザに選択させる(ステップ1113)。ユ ーザによって出力する選択がなされた場合には、合成後画像データ、合成後音声 データ、表示再生プログラムをICカードに出力する(ステップ1114)。最 後に、出力データをネットワークで配信するかをユーザに選択させる(ステップ 1115)。ユーザによって配信する選択がなされた場合には、配信するメール アドレスをユーザに指定してさせ(ステップ1116)、合成後画像データ、合 成後音声データ、表示再生プログラムを、そのユーザ指定のメールアドレスに配 信する(ステップ1117)。FIG. 11 is a flowchart for explaining processing when the present image synthesis output device with a voice synthesis output function is applied to “shoot with a pet”. Hereinafter, an example of the processing will be described with reference to the drawings. First, a user is photographed by the camera 220, and the photographed image data is used (step 1101). Through the user's touch panel command input, the image synthesis and output device with voice synthesis output function interactively processes the captured image data, creates a captured image appropriate for the user, and sets the captured image as user image data ( Step 1102). Next, the message blown by the user through the microphone is stored as recorded voice data (step 1103), and the background sound / background music selected by the user is extracted from the voice pattern data (step 1104). This message is combined with the background / background music to generate user voice data (step 1105). Next, the IC card inserted by the user is received (step 1106). Then, the synthesized image data and the synthesized audio data in the IC card are taken out to be pet image data and pet audio data, respectively (steps 1107 and 108). This IC card is obtained by photographing a user's own pet with the present image synthesis / output device with voice synthesis output function before shooting. In other words, the image of the pet is stored in the image data after synthesis in the IC card, and the sound of the pet is stored in the audio data after synthesis. Next, the user image data and the pet image data are combined, and the combined image data is used as combined image data (step 1109). Further, the user voice data and the pet voice data are synthesized, and the synthesized voice data is used as the synthesized voice data (step 1110). Then, the user is made to select whether to output the output data to the sticker printing machine (step 1111). When the output is selected by the user, the synthesized image data is output to the sticker printing machine (step 1112). Next, the user is made to select whether to output the output data to the IC card (step 1113). If the user selects to output, the image data after synthesis, the audio data after synthesis, and the display / reproduction program are output to the IC card (step 1114). Finally, the user is made to select whether to deliver the output data through a network (step 1115). When the distribution is selected by the user, the user specifies the mail address to be distributed (step 1116), and the image data after synthesis, the audio data after synthesis, and the display / playback program are stored in the mail address specified by the user. (Step 1117).

【0033】 図12は、図11に示したアプリケーション「ペットと写す」の実施の形態に おいて、ユーザが本音声合成出力機能付画像合成出力装置に挿入したICカード である。 ICカード1200には、合成後画像データ1201、合成後音声データ12 02、表示再生プログラム1203が格納されている。合成後画像データ120 1は、ペットの猫の撮影画像である。合成後音声データ1202は、その猫の「 ミャオミャオ」という鳴き声である。FIG. 12 shows an IC card inserted by the user into the image synthesizing output device with the voice synthesizing output function in the embodiment of the application “sharing with pet” shown in FIG. The IC card 1200 stores image data 1201 after synthesis, audio data 1202 after synthesis, and a display / reproduction program 1203. The combined image data 1201 is a photographed image of a pet cat. The synthesized speech data 1202 is a cry of the cat “Miao Miao”.

【0034】 図13は、図11に示した本音声合成出力機能付画像合成出力装置のアプリケ ーション「ペットと写る」の実施の形態における、ICカードへの出力例である 。使用するペットのデータは図12に示したICカードから取り込んでいる。I Cカード1300には、合成後画像データ1301、合成後音声データ1302 、表示再生プログラム1303が格納されている。合成後画像データ1301は 、ユーザの撮影画像に、ICカードの猫の撮影画像を合成したものである。合成 後音声データ1302には、ユーザの「今度遊びに来て下さいね」というメッセ ージとともに、ICカードから取り込んだ猫の「ミャオミャオ」という鳴き声も 格納されている。FIG. 13 is an example of output to an IC card in the embodiment of the application “appearing with a pet” of the image synthesizing and outputting apparatus with a voice synthesizing output function shown in FIG. The data of the pet to be used is taken from the IC card shown in FIG. The IC card 1300 stores post-synthesis image data 1301, post-synthesis audio data 1302, and a display / reproduction program 1303. The combined image data 1301 is obtained by combining a captured image of a cat on an IC card with a captured image of a user. The synthesized voice data 1302 stores the user's message “Please come to play next time” and the cat's cry “Miao Miao” captured from the IC card.

【0035】 図11、図12及び図13で示した実施の形態では、ICカードから合成用の データを取り込んでいるが、他の携帯記憶媒体でもよいことはいうまでもない。 例えば、デジタルカメラ内の携帯記憶媒体から撮影したデータを読み込んで、合 成するための画像データとすることができる。逆に、携帯記憶媒体内の画像デー タ及び音声データを読み込んで、その上に上書き加工、合成をすることも可能で ある。In the embodiments shown in FIG. 11, FIG. 12, and FIG. 13, data for synthesis is taken from the IC card, but it goes without saying that other portable storage media may be used. For example, data taken from a portable storage medium in a digital camera can be read and used as image data for synthesis. Conversely, it is also possible to read image data and audio data in the portable storage medium, and overwrite and synthesize the data.

【0036】 図14は、本音声合成出力機能付画像合成出力装置を「コマ割りドラマ」に適 用した場合の処理を説明するためのフローチャートである。 一般にカラオケというものは音楽で歌手の歌う部分をカラにし、ユーザが自分 の歌声でその部分を補うことによって素人が歌手になった気分を幾分味わえるよ うにしたものである。それに対してここで述べるコマ割りドラマは、静止画では あるが、ドラマでヒロイン(またはヒーロー)の演じる部分をカラにし、ユーザ の肖像及び声でその部分を補うことによってユーザがドラマのヒロイン(または ヒーロー)になった気分を幾分味わえるようにしたものであると言うことができ る。その際ユーザの相手役としては人気俳優、アニメのキャラクタ等が考えられ る。FIG. 14 is a flowchart for explaining a process when the image synthesizing output device with the audio synthesizing output function is applied to “frame division drama”. In general, karaoke is a music in which the singer's singing part is emptied, and the user supplements that part with his own singing voice so that the amateur can feel somewhat like a singer. On the other hand, the frame split drama described here is a still image, but the drama heroine (or hero) (or hero) is made empty by making the part played by the heroine (or hero) and the user's portrait and voice supplement the part. It can be said that it is something that makes you feel like a hero. At this time, popular actors and anime characters can be considered as the opponents of the user.

【0037】 以下、図15のコマ画像遷移図を参照しながら、図14のフローチャートの処 理の一例を説明する。 最初に、あらかじめ用意された複数のコマ割りドラマの中から好みのコマ割り ドラマと、そのドラマに出てくるキャラクタのうち演じたいキャラクタを、ユー ザにタッチパネルで選択させる(ステップ1401)。コマ割りドラマのコマ数 はあらかじめ決められていてもよいし、撮影を始まる前にユーザに指定してもら ってもよい。コマ数が増加する場合は、コマ数に応じて課金を要求する。そして そのユーザが選択したドラマの最初のコマを読み出す(ステップ1402)。次 に、コマを表示する前にコマの中からユーザが選択したキャラクタを消去し、そ のキャラクタが表示されていた場所は他と区別して画面に表示する(ステップ1 403)。この区別して表示した場所にユーザの撮影画像をはめ込む。図15の (A)がもとのコマ画像、(B)がステップ1403の処理済みコマ画像である 。(A)の1501はユーザが選択したユーザ選択キャラクタであり、このキャ ラクタ画像の代わりにユーザ画像をはめ込む。ステップ1403の処理でユーザ 選択キャラクタ1501は消去され、その位置には他と区別して表示するために 、例えば図のように網掛け1502が行われている。この網掛け部分1502に ユーザがはめ込まれる。ユーザが表示された処理済みコマ画像(B)を見ながら 好きなポーズをとり、カメラで撮影を行ない撮影画像データとする(ステップ1 404)。この時ユーザは回転台を回転させたりカメラの上下を操作したりして 、好きなアングルで撮影することができるようにしても良い。そして、撮影画像 データを図15の処理済みコマ画像(B)と合成する(ステップ1405)。そ の結果が図15の(C)で示された合成後コマ画像である。網掛け部分1502 には、ユーザ選択キャラクタの代わりにユーザの画像1503がはめ込まれ表示 されている。次は、ユーザにキャラクタの会話を指示する。まず、現在撮影中の コマのユーザ担当キャラクタのセリフを表示する(ステップ1406)。図15 の例では、「明日は晴れるかしら」というセリフが画面に表示されることになる 。そして、ユーザはその表示に従ってセリフを吹き込み、その音声データを格納 する(ステップ1407)。そして、コマ内の会話に必要な各キャラクタの音声 データを読み出し、その音声データを格納する(ステップ1408)。ちなみに 各キャラクタの会話やセリフの音声データは、あらかじめ記録されている。たと えば、図15の相手役キャラクターの「多分晴れると思うよ」というセリフは、 あらかじめ音声パターンデータとして記録されている。さらに、各キャラクタの セリフの再生順序は、再生した時に自然な会話に聞こえるような配列になってい る。つまり、ユーザの吹き込んだセリフがユーザ選択キャラクタの音声パターン データの代わりに格納されるので、音声を再生した時にはユーザがあたかも他の キャラクタと会話しているように聞こえる。これらの会話の音声データとBGM や効果音を合成し、合成後コマ音声とする(ステップ1409)。最後に、最後 に合成後コマ画像1503を画面に表示し、ユーザの吹き込んだセリフを含めた コマ内の全ての会話を音声再生し、ユーザにこれで良いか確認する(ステップ1 410)。気に入らなければステップ1404に戻り、撮影と録音をやり直す。 以上で1コマ分の作成が終わったので、次に続きのコマがあるか判定する(ステ ップ1411)。もし続きのコマがあれば、次のコマを読み込んでステップ14 03に戻る(ステップ1412)。続きのコマが無く全てのコマの作成が終わっ たら、出力処理に入る。全コマ分の合成後コマ画像及び合成後コマ音声が、それ ぞれ合成後画像データ及び合成後音声データである。まず、出力データをシール に印刷するかをユーザに選択させる(ステップ1413)。ユーザによって出力 する選択がなされた場合には合成後画像データを印刷する(ステップ1414) 。次に、出力データをICカードに出力するかをユーザに選択させる(ステップ 1415)。ユーザによって出力する選択がなされた場合には、合成後画像デー タ、合成後音声データ、そして表示再生プログラムをICカードに出力する(ス テップ1416)。最後に、出力データをネットワークで配信するかをユーザに 選択させる(ステップ1417)。ユーザによって配信する選択がなされた場合 には、配信するメールアドレスをユーザに指定させ(ステップ1418)、合成 後画像データ、合成後音声データ、表示再生プログラムを、そのユーザ指定のメ ールアドレスに配信する(ステップ1419)。Hereinafter, an example of the processing of the flowchart of FIG. 14 will be described with reference to the frame image transition diagram of FIG. First, the user selects a desired frame-divided drama from a plurality of frame-divided dramas prepared in advance and a character to be played among characters appearing in the drama on the touch panel (step 1401). The number of frames in a frame-divided drama may be determined in advance, or may be specified by the user before shooting starts. If the number of frames increases, charging is requested according to the number of frames. Then, the first frame of the drama selected by the user is read (step 1402). Next, before displaying the frame, the character selected by the user from the frame is deleted, and the place where the character was displayed is displayed on the screen in a manner distinguished from the others (step 1403). The user's photographed image is fitted into the place displayed in a distinguished manner. FIG. 15A shows the original frame image, and FIG. 15B shows the processed frame image in step 1403. Reference numeral 1501 in (A) denotes a user-selected character selected by the user, into which a user image is inserted instead of the character image. In the process of step 1403, the user-selected character 1501 is deleted, and the position is shaded 1502 as shown in the drawing, for example, in order to display the character in distinction. The user is fitted into the shaded portion 1502. The user takes a desired pose while looking at the displayed processed frame image (B), and performs photographing with the camera to obtain photographed image data (step 1404). At this time, the user may rotate the turntable or operate the camera up and down so that the user can take a picture at a desired angle. Then, the photographed image data is combined with the processed frame image (B) in FIG. 15 (step 1405). The result is the post-combination frame image shown in FIG. In the hatched portion 1502, a user image 1503 is displayed in place of the user-selected character. Next, the user is instructed to speak the character. First, the dialogue of the character in charge of the user of the frame currently being photographed is displayed (step 1406). In the example of FIG. 15, a phrase “Is it going to be fine tomorrow?” Is displayed on the screen. Then, the user blows a line according to the display and stores the voice data (step 1407). Then, the voice data of each character necessary for the conversation in the frame is read out, and the voice data is stored (step 1408). Incidentally, the voice data of the conversation and dialogue of each character is recorded in advance. For example, the phrase "I think it will be fine" of the opponent character in FIG. 15 is recorded in advance as voice pattern data. Furthermore, the playback order of the dialogue of each character is arranged so that it can be heard as a natural conversation when played back. In other words, the words spoken by the user are stored in place of the voice pattern data of the character selected by the user, so that when the voice is reproduced, it sounds as if the user is talking with another character. The speech data of these conversations is synthesized with BGM and sound effects, and the synthesized frame sound is obtained (step 1409). Finally, the combined frame image 1503 is displayed on the screen, and all the conversations in the frame including the speech spoken by the user are reproduced by voice, and the user is confirmed whether or not this is sufficient (step 1410). If the user does not like it, the process returns to step 1404, and photography and recording are repeated. Now that one frame has been created, it is determined whether there is a next frame (step 1411). If there is a subsequent frame, the next frame is read and the process returns to step 1403 (step 1412). When there are no more frames and all frames have been created, output processing starts. The combined frame image and combined frame sound for all frames are the combined image data and combined voice data, respectively. First, the user is prompted to select whether to print the output data on a sticker (step 1413). If the user has selected to output, the image data after synthesis is printed (step 1414). Next, the user is made to select whether to output the output data to the IC card (step 1415). If the user selects to output, the image data after synthesis, the audio data after synthesis, and the display / reproduction program are output to the IC card (step 1416). Finally, the user is made to select whether to distribute the output data through a network (step 1417). When the distribution is selected by the user, the user specifies the mail address to be distributed (step 1418), and distributes the synthesized image data, the synthesized audio data, and the display / playback program to the user-specified mail address. (Step 1419).

【0038】 図16は、本音声合成出力機能付画像合成出力装置のアプリケーション「コマ 割りドラマ」の実施の形態において、ICカードへの出力の一例である。ICカ ード1600には合成後画像データ1601と合成後音声データ1602と表示 再生プログラム1603が格納されている。合成後画像データ1601は複数の 合成後コマ画像からなり、この場合4コマから構成されている。そして図に示さ れている女性は、ユーザ選択キャラクタに代わってはめ込まれているユーザであ る。合成後音声データ1602には、コマ割りドラマの会話が音声として格納さ れている。下線が引かれている部分はユーザが担当した部分、つまりユーザがマ イクから吹き込んだセリフである。そして、1603が表示再生プログラムであ るが、本実施の形態における表示再生プログラムとは、単に画像を表示し音声を 再生するに留まらず、コマ順に合成後コマ画像を表示し、表示した各コマに対応 して合成後コマ音声を再生することができるものである。FIG. 16 shows an example of output to an IC card in the embodiment of the application “frame division drama” of the image synthesizing output device with the audio synthesizing output function. The IC card 1600 stores image data after synthesis 1601, audio data after synthesis 1602, and a display / reproduction program 1603. The combined image data 1601 is composed of a plurality of combined frame images, and in this case, is composed of four frames. The female shown in the figure is a user who is fitted in place of the user-selected character. In the synthesized voice data 1602, the conversation of the frame-separated drama is stored as voice. The underlined part is the part that the user was responsible for, that is, the lines that the user uttered from the microphone. Reference numeral 1603 denotes a display / reproduction program. The display / reproduction program in the present embodiment is not limited to simply displaying an image and reproducing a sound, but displaying a composite frame image in frame order and displaying each displayed frame. It is possible to play back the synthesized frame sound corresponding to.

【0039】 以上の本考案の実施の形態によって、本考案が画像データだけでなく音声デー タも再生できることは明らかであるが、本考案による音声の再生方法は本考案の 実施の形態に留まらない。以下、その他考えられる再生方法の例を図を参照して 説明する。ところで、以下の出力例では音声データを音声のまま再生するので、 印刷されている合成後画像データには「フキダシ」は用いていない。Although it is clear that the present invention can reproduce not only image data but also audio data according to the embodiment of the present invention, the audio reproducing method according to the present invention is not limited to the embodiment of the present invention. . Hereinafter, examples of other possible reproduction methods will be described with reference to the drawings. By the way, in the following output example, since the audio data is reproduced as the audio, "balloon" is not used for the synthesized image data that is printed.

【0040】 図17は、シール印刷のみで音声再生を行なった一例である。シール1700 には、印刷画像1701のほかに、音声再生用バーコード1702が印刷されて いる。これは公知技術であるところの、音声を音声再生用バーコードに変換、印 刷する技術を用いている。音声を再生する時は、図示しない専用のバーコードリ ーダでシール1700に印刷された音声再生用バーコード1702を読取ればよ い。FIG. 17 shows an example in which sound reproduction is performed only by sticker printing. On the sticker 1700, a barcode 1702 for sound reproduction is printed in addition to the print image 1701. This uses a technique of converting sound into a barcode for sound reproduction and printing, which is a known technique. To reproduce the audio, the barcode 1702 for audio reproduction printed on the sticker 1700 may be read by a dedicated barcode reader (not shown).

【0041】 図18は、携帯記憶媒体のみで音声再生する再生方法の一例である。ICカー ド1800には印刷したシール1801を貼ってあるので、画像データはシール 1801を見ることによって得られる。音声データについては、ICカード18 00内の音声再生素子1802を動作させることにより再生が可能である。つま りICカード1800だけで画像と音声が楽しめることになる。FIG. 18 shows an example of a reproducing method for reproducing sound only with a portable storage medium. Since the printed sticker 1801 is attached to the IC card 1800, image data can be obtained by viewing the sticker 1801. Audio data can be reproduced by operating the audio reproducing element 1802 in the IC card 1800. In other words, images and sounds can be enjoyed only with the IC card 1800.

【0042】 図19は、携帯端末で音声データを再生をする再生方法の一例である。キーホ ルダー型ICカードREADER1900は小型の携帯端末であり、画像表示手 段と音声再生手段を備える。これにより、表示再生プログラムを起動し、表示部 1901には合成後画像データが表示され、音声出力部1902からは合成後音 声データが出力される。FIG. 19 shows an example of a reproducing method for reproducing audio data on a portable terminal. The key holder type IC card READER 1900 is a small portable terminal, and includes an image display means and a sound reproducing means. As a result, the display / reproduction program is started, the combined image data is displayed on the display unit 1901, and the combined sound data is output from the sound output unit 1902.

【0043】 図20は、パソコン2000で合成後画像データと合成後音声データを表示再 生する再生パターンの一例である。ICカードREADER2001から読み込 んだ、またはネットワーク2002経由でメールとして届いた出力データ(合成 後画像データ+合成後音声データ+表示再生プログラム)を受信し、パソコン2 000は表示再生プログラムを読取って起動し、モニタ2003及び内蔵スピー カ2004で表示、再生する。FIG. 20 shows an example of a reproduction pattern for displaying and reproducing synthesized image data and synthesized audio data on the personal computer 2000. The PC 2000 receives the output data (combined image data + synthesized audio data + display reproduction program) read from the IC card READER 2001 or arrived as an e-mail via the network 2002, and the personal computer 2000 reads and starts the display reproduction program. Then, it is displayed and reproduced on the monitor 2003 and the built-in speaker 2004.

【0044】 他の再生パターンとして、図示しないが本音声合成出力機能付画像合成出力装 置そのものを利用した再生パターンがある。そのためには、本音声合成出力機能 付画像合成出力装置そのものにICカードから出力データを読み込み表示、再生 する機能を持たせておけばよい。As another reproduction pattern, although not shown, there is a reproduction pattern using the image synthesizing output device with the audio synthesizing output function itself. For this purpose, the image synthesis output device with the audio synthesis output function itself should have a function of reading, displaying, and reproducing output data from an IC card.

【0045】[0045]

【考案の効果】[Effect of the invention]

以上説明したように本考案は、従来の画像プリント装置に画像データだけでな く、録音されたユーザの声、自然音等の背景音、背景音楽等の音データを扱える 機能を加えたことにより、画像に音声を加えた、より現実に近いアミューズメン ト環境をユーザに提供することができる。 また、画像データと音データに表示再生プログラムを加えて、携帯記憶媒体へ の書き込み、ネットワーク経由での指定メールアドレスへの配信を行うことによ り、ユーザは後で画像データと音データを表示、再生することができる。 As described above, the present invention adds a function that can handle not only image data but also sound data such as recorded user's voice, natural sound and the like, and background music and the like to the conventional image printing apparatus. In addition, it is possible to provide a user with a more realistic amusement environment in which sound is added to an image. In addition, by adding a display / playback program to the image data and sound data, writing the data to a portable storage medium and distributing it to a designated e-mail address via a network, the user can display the image data and sound data later. , Can be played.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本考案の音声合成出力機能付画像合成出力装置
のハードウェア構成を示す図である。
FIG. 1 is a diagram illustrating a hardware configuration of an image synthesis output device with a voice synthesis output function according to the present invention.

【図2】本音声合成出力機能付画像合成出力装置の一実
施形態の構成の要部を示すブロック図である。
FIG. 2 is a block diagram illustrating a main part of a configuration of an embodiment of an image synthesis output device with a voice synthesis output function.

【図3】情報記憶媒体出力を行なう場合の具体的な構成
を示す概略斜視図である。
FIG. 3 is a schematic perspective view showing a specific configuration when outputting an information storage medium.

【図4】出力データの構造と出力先を示す図である。FIG. 4 is a diagram showing the structure and output destination of output data.

【図5】本音声合成出力機能付画像合成出力装置を「星
占い」に適用した場合の処理を示すフローチャートであ
る。
FIG. 5 is a flowchart showing a process in a case where the image synthesizing output device with a voice synthesizing output function is applied to “horoscope”;

【図6】「星占い」の実施の形態で、出力データをシー
ルに印刷した一出力例である。
FIG. 6 is an output example in which output data is printed on a sticker in the embodiment of “horoscope”;

【図7】「星占い」の実施の形態で、出力データをIC
カードに出力した一出力例である。
FIG. 7 is an embodiment of “horoscope”, in which output data is IC
It is an example of one output outputted to a card.

【図8】「星占い」の実施の形態で、シールをICカー
ドに貼り付けた出力例である。
FIG. 8 is an output example in which a sticker is attached to an IC card in the embodiment of “horoscope”.

【図9】本音声合成出力機能付画像合成出力装置を「恋
人/友人へのメッセージ」に適用した場合の処理を示す
フローチャートである。
FIG. 9 is a flowchart showing a process when the image synthesis output device with the voice synthesis output function is applied to “message to lover / friend”.

【図10】「恋人/友人へのメッセージ」の実施の形態
における一出力例である。
FIG. 10 is an example of output in the embodiment of “message to lover / friend”;

【図11】本音声合成出力機能付画像合成出力装置を
「ペットと写す」に適用した場合の処理を示すフローチ
ャートである。
FIG. 11 is a flowchart showing a process in a case where the present image synthesis output device with a voice synthesis output function is applied to “shoot with a pet”.

【図12】「ペットと写す」の実施の形態において、ユ
ーザが本音声合成出力機能付画像合成出力装置に挿入し
たICカードを示す説明図である。
FIG. 12 is an explanatory diagram showing an IC card inserted by a user into the image synthesizing output device with a voice synthesizing output function in the embodiment of “sharing with a pet”.

【図13】「ペットと写す」の実施の形態における一出
力例を示す図である。
FIG. 13 is a diagram illustrating an example of an output in the embodiment of “sharing with a pet”;

【図14】本音声合成出力機能付画像合成出力装置を
「コマ割りドラマ」に適用した場合の処理を示すフロー
チャートである。
FIG. 14 is a flowchart showing a process in a case where the present image synthesizing output device with a voice synthesizing output function is applied to “frame division drama”.

【図15】「コマ割りドラマ」の実施の形態におけるコ
マ画像遷移図である。
FIG. 15 is a frame image transition diagram in the embodiment of “frame split drama”.

【図16】「コマ割りドラマ」の実施の形態における一
出力例を示す図である。
FIG. 16 is a diagram showing an example of output in the embodiment of “frame split drama”.

【図17】シール印刷のみで音声再生を行なった一例を
示す図である。
FIG. 17 is a diagram illustrating an example in which sound reproduction is performed only by sticker printing.

【図18】携帯記憶媒体のみで音声再生を行なった一例
を示す説明図である。
FIG. 18 is an explanatory diagram showing an example in which sound is reproduced only with a portable storage medium.

【図19】携帯端末で音声再生を行なった一例を示す説
明図である。
FIG. 19 is an explanatory diagram illustrating an example in which sound reproduction is performed on a portable terminal.

【図20】パソコンで音声再生を行なった一例を示す説
明図である。
FIG. 20 is an explanatory diagram showing an example in which sound reproduction is performed by a personal computer.

【符合の説明】[Description of sign]

1…モニタ兼タッチパネル、2…マイク、3…スピー
カ、4…回転台、5…駆動装置、6…カメラ、7…駆動
装置、8…処理装置、9…ネットワーク、10…シール
印刷機、11…ICカード等の媒体のREAD/WRI
TE装置、400…出力データ、410…プログラム
部、411…画像データ表示機能、412…音声データ
再生機能、420…データ部、421…合成後画像デー
タ、422…合成後音声データ、430…シール、44
0…ICカード等携帯記憶媒体、450…ユーザ指定の
メールアドレス。
DESCRIPTION OF SYMBOLS 1 ... Monitor and touch panel, 2 ... Microphone, 3 ... Speaker, 4 ... Rotating stand, 5 ... Drive device, 6 ... Camera, 7 ... Drive device, 8 ... Processing device, 9 ... Network, 10 ... Seal printing machine, 11 ... READ / WRI of media such as IC cards
TE device, 400 output data, 410 program part, 411 image data display function, 412 audio data reproduction function, 420 data part, 421 synthesized image data, 422 synthesized audio data, 430 seal, 44
0: portable storage medium such as an IC card; 450: user-specified mail address.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G10L 5/02 H04N 5/225 Z H04N 5/225 5/781 510F ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification code FIG10L 5/02 H04N 5/225 Z H04N 5/225 5/781 510F

Claims (4)

【実用新案登録請求の範囲】[Utility model registration claims] 【請求項1】 被写体を撮影する撮影手段と、 被写体が発生した音声を録音する録音手段と、 前記撮影手段によって撮影した撮影画像データを記憶す
る撮影画像データ記憶手段と、 前記録音手段によって録音した録音音声データを記憶す
る録音音声データ記憶手段と、 前記撮影画像データと合成する複数の画像パターンデー
タを記憶した画像パターンデータ記憶手段と、 前記録音音声データと合成する複数の音パターンデータ
を記憶した音パターンデータ記憶手段と、 複数の画像パターンデータのうち所望の画像パターンデ
ータを選択する画像パターンデータ選択手段と、 前記撮影画像データに前記画像パターンデータ選択手段
で選択された画像パターンデータを合成して合成後画像
データを出力する画像合成出力手段と、 複数の音パターンデータのうち所望の音パターンデータ
を選択する音声パターンデータ選択手段と、 前記録音音声データに前記音パターンデータ選択手段で
選択された音パターンデータを合成して合成後音声デー
タを出力する音声合成出力手段とを備え、 さらに、前記合成後画像データをシールに印刷出力する
印刷手段、前記合成後画像データと前記合成後音声デー
タと前記合成後画像データを表示し前記合成後音声デー
タを再生するための表示再生プログラムとを携帯記憶媒
体へ格納する格納手段、前記合成後画像データと前記合
成後音声データと前記合成後画像データを表示し前記合
成後音声データを再生するための表示再生プログラムと
をネットワーク経由で利用者指定のメールアドレスに配
信する配信手段、のいずれか1つあるいは複数を備えた
音声合成出力機能付画像合成出力装置。
1. A photographing means for photographing a subject, a recording means for recording a sound generated by the subject, a photographed image data storage means for storing photographed image data photographed by the photographing means, Recorded voice data storage means for storing recorded voice data; Image pattern data storage means for storing a plurality of image pattern data to be synthesized with the photographed image data; and Stored a plurality of sound pattern data to be synthesized with the recorded voice data. Sound pattern data storage means, image pattern data selection means for selecting desired image pattern data among a plurality of image pattern data, and synthesizing the image pattern data selected by the image pattern data selection means with the photographed image data. Image synthesizing output means for outputting image data after synthesizing, and a plurality of sound patterns Sound pattern data selecting means for selecting desired sound pattern data from the sound data, and a sound synthesis output for synthesizing the sound pattern data selected by the sound pattern data selecting means with the recorded sound data and outputting synthesized sound data. Printing means for printing out the combined image data on a sticker, for displaying the combined image data, the combined voice data, and the combined image data, and reproducing the combined voice data. Storage means for storing the display / playback program in a portable storage medium; and a display / playback program for displaying the combined image data, the combined sound data, and the combined image data, and playing back the combined sound data. One or more of delivery means for delivering to a user-specified mail address via a network Image synthesis output device with voice synthesis output function.
【請求項2】 前記録音音声データを文字データに変換
し、その変換された文字データを画像パターンデータに
合成して、前記画像パターンデータ記憶手段に格納する
音声データ変換手段をさらに備えることを特徴とする請
求項1記載の音声合成出力機能付画像合成出力装置。
2. The apparatus according to claim 1, further comprising a voice data conversion unit for converting the recorded voice data into character data, synthesizing the converted character data with image pattern data, and storing the image data in the image pattern data storage unit. The image synthesizing output device with a voice synthesizing output function according to claim 1.
【請求項3】 前記携帯記憶媒体内に予め記憶された画
像データまたは音データあるいは両方を読取り、画像デ
ータを前記撮影画像データか画像パターンデータとし
て、音データを録音音声データか音パターンデータとし
て、それぞれ入力する携帯記憶媒体読取入力手段をさら
に備えることを特徴とする請求項1記載の音声合成出力
機能付画像合成出力装置。
3. Reading image data and / or sound data stored in advance in the portable storage medium, and reading image data as the photographed image data or image pattern data, and sound data as recorded voice data or sound pattern data. 2. The image synthesizing output device with a voice synthesizing output function according to claim 1, further comprising a portable storage medium reading and inputting means for inputting each of them.
【請求項4】 ネットワーク経由の画像データまたは音
データあるいは両方を受信し、受信した画像データを前
記撮影画像データか画像パターンデータとして、音デー
タは録音音声データか音パターンデータとして、それぞ
れ入力するデータ受信入力手段をさらに備えることを特
徴とする請求項1記載の音声合成出力機能付画像合成出
力装置。
4. Data which receives image data and / or sound data via a network and inputs the received image data as the photographed image data or image pattern data, and the sound data as recorded voice data or sound pattern data. 2. The image synthesizing output device with a voice synthesizing output function according to claim 1, further comprising a receiving input unit.
JP1998010405U 1998-12-28 1998-12-28 Image synthesis output device with voice synthesis output function Expired - Lifetime JP3060617U (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1998010405U JP3060617U (en) 1998-12-28 1998-12-28 Image synthesis output device with voice synthesis output function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1998010405U JP3060617U (en) 1998-12-28 1998-12-28 Image synthesis output device with voice synthesis output function

Publications (1)

Publication Number Publication Date
JP3060617U true JP3060617U (en) 1999-09-07

Family

ID=43194430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1998010405U Expired - Lifetime JP3060617U (en) 1998-12-28 1998-12-28 Image synthesis output device with voice synthesis output function

Country Status (1)

Country Link
JP (1) JP3060617U (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333573A (en) * 2002-05-14 2003-11-21 Omron Corp Image printer and method, print medium, and print medium unit
WO2006067981A1 (en) * 2004-12-24 2006-06-29 Megachips Corporation E-mail transmission terminal and e-mail system
WO2018235312A1 (en) * 2017-06-23 2018-12-27 富士フイルム株式会社 Printer-equipped imaging device, operation method for printer-equipped imaging device, program, and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333573A (en) * 2002-05-14 2003-11-21 Omron Corp Image printer and method, print medium, and print medium unit
WO2006067981A1 (en) * 2004-12-24 2006-06-29 Megachips Corporation E-mail transmission terminal and e-mail system
KR101236496B1 (en) * 2004-12-24 2013-02-21 가부시끼가이샤 메가 칩스 E-mail Transmission Terminal and E-mail System
WO2018235312A1 (en) * 2017-06-23 2018-12-27 富士フイルム株式会社 Printer-equipped imaging device, operation method for printer-equipped imaging device, program, and recording medium
US11016366B2 (en) 2017-06-23 2021-05-25 Fujifilm Corporation Printer-equipped imaging apparatus, operation method of printer-equipped imaging apparatus, program, and recording medium

Similar Documents

Publication Publication Date Title
US6463205B1 (en) Personalized video story production apparatus and method
US6061532A (en) Animated image presentations with personalized digitized images
US5830065A (en) User image integration into audiovisual presentation system and methodology
US7137892B2 (en) System and methodology for mapping and linking based user image integration
US8905843B2 (en) Image integration, mapping and linking system and methodology
US5595389A (en) Method and apparatus for producing "personalized" video games using CD discs
US6514083B1 (en) Method and apparatus for providing interactive karaoke entertainment
US20100201693A1 (en) System and method for audience participation event with digital avatars
JP2003298803A (en) Server, system and method for providing image
US8821276B2 (en) Image integration, mapping and linking system and methodology
US20030025726A1 (en) Original video creating system and recording medium thereof
JP3060617U (en) Image synthesis output device with voice synthesis output function
JP2003163888A (en) Original video creating system and recording medium thereof
JP4126745B2 (en) Data processing apparatus, processing method therefor, and medium
JP2001306744A (en) Device, system and method for audition
JPH10154269A (en) Digital data selling machine
JP2001251618A (en) Moving picture generating device, moving picture reproducing device, portable terminal, control method therefor and storage medium
WO2001026763A1 (en) A system and methodology for developing, capturing, communicating, and using user images
WO1998031006A1 (en) Device for producing audio storage medium and audio storage medium produced by the same
JP4223267B2 (en) Commemorative photo editing device
JP2023147876A (en) System, program and the like
JP2023147878A (en) System, program and the like
JP2023147877A (en) System, program and the like
JP2023147879A (en) System, program and the like
JP2002171520A (en) Portrait photographing device with function of reading physiognomy

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term