JP2002084457A - Image processing unit and method, and recording medium - Google Patents

Image processing unit and method, and recording medium

Info

Publication number
JP2002084457A
JP2002084457A JP2000272247A JP2000272247A JP2002084457A JP 2002084457 A JP2002084457 A JP 2002084457A JP 2000272247 A JP2000272247 A JP 2000272247A JP 2000272247 A JP2000272247 A JP 2000272247A JP 2002084457 A JP2002084457 A JP 2002084457A
Authority
JP
Japan
Prior art keywords
image
character
moving image
moving
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000272247A
Other languages
Japanese (ja)
Inventor
Shiyo Shizuka
詩葉 静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000272247A priority Critical patent/JP2002084457A/en
Publication of JP2002084457A publication Critical patent/JP2002084457A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing unit that pastes a moving picture to an input image so as to generate a composite image with a plurality of patterns from the one input image. SOLUTION: A camera 61 photographs a moving picture or a still picture and supplies a video signal configuring the moving picture or the still picture to a filter 62 through prescribed processing (not shown). The filter 62 extracts a generated image (moving picture) having already been generated and stored in e.g. a storage medium such as a HDD as sown in Figure 1 (b) and pastes the generated image to the original photographing image by using a mask pattern.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、外部から入力され
た画像に対してエフェクト処理を施す画像処理装置及び
方法、並びに記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method for effecting an externally input image, and a recording medium.

【0002】[0002]

【従来の技術】従来、画像処理装置の行うエフェクト機
能としては、「フレーム」と呼ばれる取り込んだ画像に
静止画を貼り付ける機能があった。
2. Description of the Related Art Conventionally, as an effect function performed by an image processing apparatus, there has been a function of pasting a still image to a captured image called a "frame".

【0003】[0003]

【発明が解決しようとする課題】ところで、従来は、貼
り付けるものが静止画であったために、1枚の絵(撮影
画像)に対して1パターンしか生成できなかった。
Conventionally, only one pattern can be generated for one picture (photographed image) because the image to be pasted is a still image.

【0004】本発明は、上記実情に鑑みてなされたもの
であり、貼り付ける画像を動画にすることにより、1枚
の入力画像で複数のパターンの合成画像を生成すること
ができる画像処理装置及び方法、並びに記録媒体の提供
を目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has an image processing apparatus capable of generating a composite image of a plurality of patterns from one input image by using an image to be pasted as a moving image. It is intended to provide a method and a recording medium.

【0005】[0005]

【課題を解決するための手段】本発明に係る画像処理装
置は、上記課題を解決するために、外部から入力された
画像に対してエフェクト処理を施す画像処理装置におい
て、予め生成した動画像を記憶している記憶手段と、上
記外部から入力された画像に対して、上記記憶手段から
読み出した動画像を貼り付ける合成手段とを備える。
In order to solve the above-mentioned problems, an image processing apparatus according to the present invention performs an effect processing on an image input from the outside in an image processing apparatus. The image processing apparatus includes a storage unit that stores the image and a combining unit that pastes the moving image read from the storage unit to the image input from the outside.

【0006】ここで、上記合成手段は、上記記憶手段か
ら読み出した動画像を構成する静止画像の一つ一つを上
記画像に別々に貼り付ける。
Here, the synthesizing unit separately pastes each of the still images constituting the moving image read from the storage unit to the image.

【0007】また、上記外部から入力された画像は、動
画像又は静止画像である。そして、上記合成手段は、上
記外部から入力された画像が動画像であるとき、その動
画像を構成する静止画像の一枚一枚に上記記録手段から
読み出した動画像を構成する静止画像の一つ一つを別々
に貼り付ける。
The image input from the outside is a moving image or a still image. Then, when the image input from the outside is a moving image, the synthesizing unit includes, for each still image constituting the moving image, one still image constituting the moving image read from the recording unit. Paste each one separately.

【0008】また、上記合成手段は、上記外部から入力
された画像に貼り付ける動画像の所定領域をマスクパタ
ーンを使ってフィルタリングする。
[0008] Further, the synthesizing means filters a predetermined area of the moving image to be pasted on the image input from outside using a mask pattern.

【0009】本発明に係る画像処理方法は、上記課題を
解決するために、外部から入力された画像に対してエフ
ェクト処理を施す画像処理方法において、上記外部から
入力された画像に対して、予め生成した動画像を記憶し
ている記憶手段から読み出した動画像を貼り付ける合成
工程を備える。
In order to solve the above-mentioned problems, an image processing method according to the present invention is directed to an image processing method for effect processing an externally input image. A combining step of pasting the moving image read from the storage unit that stores the generated moving image.

【0010】本発明に係る記録媒体は、上記課題を解決
するために、外部から入力された画像に対してエフェク
ト処理を施す画像処理プログラムを記録する記録媒体で
あって、上記外部から入力された画像に対して、予め生
成した動画像を記憶している記憶手段から読み出した動
画像を貼り付ける合成工程を有するプログラムを記録し
ている。
A recording medium according to the present invention is a recording medium for recording an image processing program for performing an effect process on an image input from the outside in order to solve the above-mentioned problem. A program having a synthesizing step of pasting a moving image read from a storage unit that stores a previously generated moving image to an image is recorded.

【0011】[0011]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら説明する。この実施の形態は、デ
ジタルカメラ等で撮影された動画、静止画等上に動きの
あるキャラクタを一緒に映し出す画像処理システムであ
る。
Embodiments of the present invention will be described below with reference to the drawings. This embodiment is an image processing system that simultaneously displays a moving character on a moving image, a still image, or the like captured by a digital camera or the like.

【0012】この画像処理システムは、デジタルビデオ
・カメラの静止画・動画取り込みツールである、スマー
トキャプチャ(Smart Capture)(商標)のような動画
及び静止画の取り込み(撮影)ソフトウェアの中のエフ
ェクト機能を実行するときに適用できる。
This image processing system has an effect function in moving image and still image capturing (shooting) software such as Smart Capture (trademark) which is a still image and moving image capturing tool of a digital video camera. Applicable when performing

【0013】従来、上記エフェクト機能としては、「フ
レーム」と呼ばれる取り込んだ画像に静止画を貼り付け
る機能があった。しかし、従来の「フレーム」では、貼
り付けるものが静止画であったために、1枚の絵(撮影
画像)に対して1パターンしか生成できなかった。
Conventionally, the effect function has a function of pasting a still image to a captured image called a "frame". However, in the conventional "frame", only one pattern can be generated for one picture (captured image) because the image to be pasted is a still image.

【0014】本実施の形態では、この「フレーム」とい
う機能を動画に準用して、撮影をするタイミングにより
様々な絵を生成できるようにした。
In this embodiment, the function of "frame" is applied to a moving image so that various pictures can be generated according to the shooting timing.

【0015】すなわち、動画入力又は静止画入力に対し
て、例えばビットマップ画像として生成した生成画像
(動画)をフィルタ手段により合成する。そして、生成
画像のフレーム毎の静止画を、上記動画入力又は静止画
入力と重ねて撮影することにより複数パターンの合成画
像を得ることができる。
That is, for a moving image input or a still image input, a generated image (moving image) generated as, for example, a bitmap image is synthesized by the filter means. Then, by capturing a still image of each frame of the generated image with the moving image input or the still image input, the combined image of a plurality of patterns can be obtained.

【0016】この複数パターンの合成画像を生成するた
めの画像処理システムの構成を図1の(a)に示す。こ
のシステムは図1の(a)に示すように、カメラ61
と、静止画及び動画撮影ソフトウェア用動画フィルタ6
2とを備えてなり、フィルタ出力63として複数パター
ンの合成画像を出力する。
FIG. 1A shows the configuration of an image processing system for generating a composite image of a plurality of patterns. This system includes a camera 61 as shown in FIG.
And moving image filter 6 for still image and moving image shooting software
And outputs a composite image of a plurality of patterns as the filter output 63.

【0017】カメラ61は、動画又は静止画を撮影し、
図示を省略した所定の処理を経て、動画又は静止画像を
構成する映像信号を上記フィルタ62に供給する。上記
フィルタ62では、図1の(b)に示すように、既に生
成され、例えばHDD等の記憶媒体に記憶されていた生
成画像(動画)を取り出し、マスクーパターンを使っ
て、撮影された元の画像に貼り付ける。
The camera 61 shoots a moving image or a still image,
The video signal forming the moving image or the still image is supplied to the filter 62 through a predetermined process (not shown). In the filter 62, as shown in FIG. 1B, a generated image (moving image) that has already been generated and stored in a storage medium such as an HDD is taken out, and the original image captured using a mask pattern is taken out. Paste on the image.

【0018】図2には、元の画像Aに、上記生成画像
(重ねる画像B)をマスクパターンCを用いて合成する
模様を模式的に示す。特に、ここでは、重ねる画像とマ
スクパターンを生成画像(動画)の各フレーム単位で生
成し、上記元の画像に貼り付けるようにしている。
FIG. 2 schematically shows a pattern in which the generated image (image B to be superimposed) is combined with the original image A by using a mask pattern C. In particular, here, the image to be superimposed and the mask pattern are generated for each frame of the generated image (moving image), and are pasted on the original image.

【0019】これにより、図3の(a)、(b)及び
(c)に示すように、デスクトップ画面71上のアプリ
ケーションダイアグラム71中に、撮影された建物73
の画像と、さらに動きのある生成画像、すなわちキャラ
クタT72a、72b及び72cを合成して表示するこ
とができる。
As a result, as shown in FIGS. 3A, 3B and 3C, the photographed building 73 is displayed in the application diagram 71 on the desktop screen 71.
And the generated image having more motion, that is, the characters T72a, 72b, and 72c can be combined and displayed.

【0020】ここまでの処理を図4のフローチャートを
用いてまとめて説明する。先ず、ステップS11にて例
えばスマートキャプチャのエフェクト機能が選択された
とする。次に、ステップS12において、本発明のエフ
ェクト(キャラクタT)が選択されれば、ステップS1
3以降の処理に進む。選択されなければ、終了となる。
The processing up to this point will be described together with reference to the flowchart of FIG. First, it is assumed that the smart capture effect function is selected in step S11, for example. Next, in step S12, if the effect (character T) of the present invention is selected, step S1
The process proceeds to step 3 and subsequent steps. If not selected, the process ends.

【0021】ステップS13では、上記HDD等の記憶
媒体に格納されているキャラクタTの画像ファイルを読
み込む。ここでは、予め用意されている複数のビットマ
ップ画像を読み込む。具体例として、画像が5枚ある場
合を想定する。
In step S13, an image file of the character T stored in a storage medium such as the HDD is read. Here, a plurality of bitmap images prepared in advance are read. As a specific example, it is assumed that there are five images.

【0022】そして、ステップS14にてカメラ61か
らの画像の順番iを0、上記画像ファイルからのビット
マップ画像の順番jを0に初期化する。この後、ステッ
プS15にて終了ボタンが操作されるか他のエフェクト
が選択されたと判断されるまで、以下の処理を繰り返
す。
In step S14, the order i of the images from the camera 61 is initialized to 0, and the order j of the bitmap images from the image file is initialized to 0. Thereafter, the following processing is repeated until the end button is operated or another effect is selected in step S15.

【0023】次に、ステップS16で、カメラ61で撮
影された静止画を一枚読み込む。例えば1/10秒に1
回読み込むと仮定する。この読み込まれた静止画にj番
目のビットマップ画像(エフェクト画像)を合成する
(ステップS17)。上記ステップS13で読み込んだ
5枚のビットマップ画像のうち、j番目のものをカメラ
61からの静止画に合成して出力する。
Next, in step S16, one still image taken by the camera 61 is read. For example, 1 in 1/10 second
Assume that you read times. The j-th bitmap image (effect image) is combined with the read still image (step S17). The j-th one of the five bitmap images read in step S13 is combined with a still image from the camera 61 and output.

【0024】そして、ステップS18〜ステップS20
の処理を通して、カメラからの静止画の順番をインクリ
メントし、iが10になったら(つまり0.1×10=1
秒毎に)合成するビットマップ画像を切り換える。ま
た、ステップS20〜ステップS22の処理を通して、
ビットマップ画像が5枚なので、jが5になったら0に
戻す。
Then, steps S18 to S20
, The order of the still images from the camera is incremented, and when i becomes 10, ie, 0.1 × 10 = 1
Switch the bitmap image to be synthesized (every second). Further, through the processing of steps S20 to S22,
Since the number of bitmap images is 5, when j becomes 5, it is reset to 0.

【0025】次に、上記ビットマップ画像の張り合わせ
方について説明する。「カメラからの静止画」にビット
マップ画像を張り合わせる場合、通常はカメラからの静
止画の範囲と同じ範囲に左端からビットマップ画像を重
ねていく。動画のように見せるためには、この張り合わ
せるビットマップ画像を左端から少し右にずらしてい
く。そうすると作成した画像がまるで、左に平行移動し
てるように見える。左にずらせば右に、画面の幅分ずら
すと上や下に動いているように見える。
Next, a method of laminating the bitmap images will be described. When a bitmap image is pasted onto a “still image from a camera”, the bitmap image is usually superimposed from the left end in the same range as the range of the still image from the camera. In order to make it look like a moving image, the stuck bitmap image is slightly shifted rightward from the left end. Then, the created image looks as if it moves to the left. If you shift it to the left, it appears to be moving up and down if you shift it to the right by the width of the screen.

【0026】作成したビットップ画像が一枚の場合は、
ただ単に動いているように見えるが、何枚かを順番に繰
り返し表示するとキャラクタTが歩いているように見え
る。ここでは、5枚くらいのビットマップ画像を繰り返
し使用している。繰り返すような動作、例えば歩く場合
でも、作成する画像の枚数を少なくできるという利点が
ある。
In the case where one bitmap image is created,
Although it appears that the character T is simply moving, the character T appears to be walking when some of the images are repeatedly displayed in order. Here, about five bitmap images are repeatedly used. There is an advantage that the number of images to be created can be reduced even when the operation is repeated, for example, when walking.

【0027】上記画像処理システムで実行される上記図
4の処理は、画像処理プログラムとされて光ディスク
や、半導体メモリ等の記録媒体に記録されてもよい。例
えばコンピュータ装置は、上記記録媒体からに上記図4
に基づいた画像処理プログラムを読み出してCPUで実
行することにより上記画像処理システムとして機能する
ことができる。
The process of FIG. 4 executed by the image processing system may be recorded as an image processing program on a recording medium such as an optical disk or a semiconductor memory. For example, the computer device reads the recording medium shown in FIG.
By reading out an image processing program based on the above and executing the program on the CPU, it is possible to function as the image processing system.

【0028】また、上記画像処理システムは、以下に説
明するコンピュータ装置において、撮影画像とキャラク
タを一緒に表示する技術に適用されている。
The image processing system is applied to a technique for displaying a captured image and a character together in a computer device described below.

【0029】このコンピュータ装置1を概略的に示した
のが図5である。この図5において、コンピュータ装置
1は、後述するCPU上で実行されるアプリケーション
ソフトウェア2、3及び4と、アプリケーションソフト
ウェア2、3及び4と通信し、後述するキャラクタデー
タをアプリケーションソフトウェアのシナリオ情報に基
づいて制御するキャラクタ制御部5と、このキャラクタ
制御部5に接続し、後述するキャラクタのデータ及びシ
ナリオ情報を提供するキャラクタデータ記憶部7及びシ
ナリオ情報記憶部6とを備えてなる。
FIG. 5 schematically shows the computer 1. In FIG. 5, a computer device 1 communicates with application software 2, 3, and 4 executed on a CPU, which will be described later, and with application software 2, 3, and 4, and transmits character data, which will be described later, based on scenario information of the application software. And a character data storage unit 7 and a scenario information storage unit 6 connected to the character control unit 5 and providing character data and scenario information to be described later.

【0030】アプリケーションソフトウェア2、3及び
4の具体例を挙げる。アプリケーションソフトウェア2
の具体例としては、デジタルビデオ・カメラの静止画・
動画取り込みツールである、スマートキャプチャ(Smar
t Capture)(商標)がある。アプリケーションソフト
ウェア3の具体例としては、画像ビューア&画像整形ツ
ールであるピクチャギア(PicthreGear)(商標)があ
る。スマートキャプチャにより取り込んだ画像を、ピク
チャギアによりスライドショー表示できる。アプリケー
ションソフトウェア4の具体例としては、上記キャラク
タ自体を表示するためのエージェントプログラムがあ
る。
Specific examples of the application software 2, 3, and 4 will be described. Application software 2
Examples of digital still cameras
Smart capture (Smar
t Capture) (trademark). As a specific example of the application software 3, there is a picture gear (PicthreGear) (trademark) which is an image viewer & image shaping tool. Images captured by smart capture can be displayed as a slide show using picture gear. A specific example of the application software 4 is an agent program for displaying the character itself.

【0031】キャラクタデータ記憶部7は、基本ソフト
ウェア(Operating System:OS)起動後のデスクトッ
プ画面や、アプリケーションソフトウェア2、3及び4
の実行によるそれぞれのアプリケーションウィンドウに
登場させるキャラクタのデータを記憶している。コンピ
ュータ装置においては、例えばハードディスクドライブ
(HDD)や、ドライブに装着された磁気ディスク、光
ディスク、光磁気ディスク、半導体メモリがこのキャラ
クタデータ記憶部7となる。
The character data storage unit 7 stores a desktop screen after starting basic software (Operating System: OS), application software 2, 3 and 4
The data of the character which appears in each application window by executing is stored. In the computer device, for example, a hard disk drive (HDD), a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor memory mounted on the drive serve as the character data storage unit 7.

【0032】シナリオ情報記憶部6は、各アプリケーシ
ョンソフトウェアのシナリオ情報を記憶する。コンピュ
ータ装置においては、上記キャラクタデータ記憶部7と
同様に例えばハードディスクドライブ(HDD)や、ド
ライブに装着された磁気ディスク、光ディスク、光磁気
ディスク、半導体メモリがその役割を担う。
The scenario information storage section 6 stores scenario information of each application software. In the computer device, for example, a hard disk drive (HDD), a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor memory mounted on the drive play a role similarly to the character data storage unit 7.

【0033】キャラクタ制御部5は、キャラクタデータ
記憶部7が記憶しているキャラクタデータをシナリオ情
報記憶部6が記憶しているシナリオ情報に基づいて制御
し、そのキャラクタをアプリケーションソフトウェア
2、3及び4の実行によるそれぞれのアプリケーション
ウィンドウ間や上記デスクトップ画面にストーリー性を
持たせて登場させる。つまり、キャラクタ制御部5は、
キャラクタデータ記憶部7からのキャラクタデータを、
シナリオ情報記憶部6からのシナリオ情報に基づいて、
アプリケーションソフトウェア2、3及び4や上記基本
ソフトウェアに提供する。キャラクタ制御部5は、コン
ピュータ装置のCPUで機能される。
The character control unit 5 controls the character data stored in the character data storage unit 7 based on the scenario information stored in the scenario information storage unit 6, and controls the character in the application software 2, 3, and 4. Of the application window and the desktop screen with a story. That is, the character control unit 5
The character data from the character data storage unit 7 is
Based on the scenario information from the scenario information storage unit 6,
It is provided to the application software 2, 3, and 4 and the above basic software. The character control unit 5 is operated by a CPU of a computer device.

【0034】そして、アプリケーションソフトウェア
2、3及び4は、キャラクタ制御部5と通信することに
より、キャラクタ制御部5にシナリオ情報を渡し、かつ
上記キャラクタデータを得る。そして、上記キャラクタ
の状態や画像情報を取得し、それぞれのアプリケーショ
ンウィンドウに上記シナリオ情報に基づいて表示する。
The application software 2, 3 and 4 communicate scenario information to the character control unit 5 by communicating with the character control unit 5 and obtain the character data. Then, the state and image information of the character are obtained and displayed in each application window based on the scenario information.

【0035】キャラクタ制御部5とアプリケーションソ
フトウェアとの通信については後述する。
Communication between the character control unit 5 and the application software will be described later.

【0036】次に、上記図5に概略的に示したコンピュ
ータ装置1の詳細な構成について、新たにコンピュータ
装置10として図6に示す。CPU(Cental Processin
Unit)11は、本発明の画像処理方法に基づいた画像
処理プログラムや、複数のアプリケーションソフトウェ
アや、OS(Operating System)を実行する。また、上
記図5に示したキャラクタ制御部2としても機能する。
Next, the detailed configuration of the computer device 1 schematically shown in FIG. 5 is newly shown in FIG. CPU (Cental Processin
The unit 11 executes an image processing program based on the image processing method of the present invention, a plurality of application software, and an OS (Operating System). It also functions as the character control unit 2 shown in FIG.

【0037】ROM12は、一般的には、CPU11が
使用するプログラムや演算用のパラメータのうちの基本
的に固定のデータを格納する。RAM13は、CPU1
1の実行において使用するプログラムや、その実行にお
いて適宜変化するパラメータを格納する。これらはCP
Uバスなどから構成されるホストバス14により相互に
接続されている。
The ROM 12 generally stores basically fixed data of programs used by the CPU 11 and calculation parameters. The RAM 13 is a CPU 1
1 stores a program used in the execution and parameters that change as appropriate in the execution. These are CP
They are interconnected by a host bus 14 such as a U bus.

【0038】ホストバス14は、ブリッジ15を介し
て、PCI(Periphera1 ComponentInter connect/Inte
rface)バスなどの外部バス16に接続されている。キ
ーボード18は、CPU11に各種の指令を入力すると
き、使用者により操作される。マウス19は、ディスプ
レイ20の画面上のポイントの指示や選択を行うとき、
使用者により操作される。ディスプレイ20は、液晶表
示装置またはCRT(Cathode Ray Tube)などから成
り、各種情報をテキストやイメージで表示する。HDD
(Hard Disk Drive)21は、ハードディスクを駆動
し、それらにCPU11によって実行するプログラムや
情報を記録または再生させる。本実施の形態では、前述
する画像処理方法に基づいた画像処理プログラムや、複
数のアプリケーション間をキャラクタが自在に往来する
ソフトウェア、あるいは複数のアプリケーションソフト
ウェアを予め記録している。そして、このプログラムを
再生し、RAM13に供給する。また、上記図5に示し
たキャラクタデータ記憶部7やシナリオ情報記憶部6と
しても機能する。
The host bus 14 is connected to a PCI (Periphera1 Component Interconnect / Inte
rface) bus and the like. The keyboard 18 is operated by the user when inputting various commands to the CPU 11. The mouse 19 is used when pointing or selecting a point on the screen of the display 20.
Operated by the user. The display 20 is composed of a liquid crystal display device or a CRT (Cathode Ray Tube), and displays various information as text or images. HDD
A (Hard Disk Drive) 21 drives a hard disk and records or reproduces a program or information executed by the CPU 11 on the hard disk. In the present embodiment, an image processing program based on the above-described image processing method, software for allowing a character to freely move between a plurality of applications, or a plurality of application software are recorded in advance. Then, the program is reproduced and supplied to the RAM 13. Also, it functions as the character data storage unit 7 and the scenario information storage unit 6 shown in FIG.

【0039】ドライブ22は、装着されている磁気ディ
スク23、光ディスク(CDを含む)や光磁気ディスク2
4、または半導体メモリ25に記録されているデータま
たはプログラムを読み出して、そのデータまたはプログ
ラムを、インターフェース17、外部バス16、ブリッ
ジ15、およびホストバス14を介して接続されている
RAM13に供給する。この磁気ディスク23、光ディ
スク(CDを含む)や光磁気ディスク24、または半導体
メモリ25に、本発明の画像処理方法に基づいた画像処
理プログラムや、上記アプリケーションソフトウェア実
行方法に基づいたプログラムや、複数のアプリケーショ
ンソフトウェアを予め記録しておいてもよい。また、キ
ャラクタデータ記憶部7やシナリオ情報記憶部6として
も機能させてもよい。
The drive 22 includes a mounted magnetic disk 23, an optical disk (including a CD), and a magneto-optical disk 2.
4, or reads out data or a program recorded in the semiconductor memory 25, and supplies the data or the program to the RAM 13 connected via the interface 17, the external bus 16, the bridge 15, and the host bus 14. An image processing program based on the image processing method of the present invention, a program based on the application software execution method, a plurality of programs, and the like, are stored in the magnetic disk 23, optical disk (including CD), magneto-optical disk 24, or semiconductor memory 25. Application software may be recorded in advance. Further, it may function as the character data storage unit 7 and the scenario information storage unit 6.

【0040】USB(Universal Sirial Bus)ポート2
6には、USBケーブルを介して、図示しないポータブ
ルデバイスが接続される。USBポート26は、インタ
ーフェース17、外部バス16、ブリッジ15、または
ホストバス14を介して、HDD21、CPU11、ま
たはRAM13から供給されたデータ(例えば、コンテ
ンツまたはポータブルデバイスのコマンドなどを含む)
をポータブルデバイスに出力する。
USB (Universal Serial Bus) port 2
6, a portable device (not shown) is connected via a USB cable. The USB port 26 is data (including, for example, content or a command of a portable device) supplied from the HDD 21, the CPU 11, or the RAM 13 via the interface 17, the external bus 16, the bridge 15, or the host bus 14.
To a portable device.

【0041】これらのキーボード18乃至USBポート
26は、インターフェース17に接続されており、イン
ターフェース17は、外部バス16、ブリッジ15、お
よびホストバス14を介してCPU11に接続されてい
る。
The keyboard 18 to the USB port 26 are connected to the interface 17, and the interface 17 is connected to the CPU 11 via the external bus 16, the bridge 15, and the host bus 14.

【0042】音声入出力インタフェース27は、入力端
子28から供給されるデジタル音声入出力、あるいはア
ナログ音声入出力のインタフェース処理を実行する。ス
ピーカ29は、音声入出力インタフェース27から供給
された音声信号を基に、コンテンツに対応する所定の音
声を出力する。
The audio input / output interface 27 executes interface processing of digital audio input / output supplied from the input terminal 28 or analog audio input / output. The speaker 29 outputs a predetermined sound corresponding to the content based on the sound signal supplied from the sound input / output interface 27.

【0043】通信部30は、ネットワーク31が接続さ
れ、CPU11 、またはHDD21 から供給されたデ
ータ(例えば、登録の要求、またはコンテンツの送信要
求など)を、所定の方式のパケットに格納して、ネット
ワーク31を介して、送信するとともに、ネットワーク
31を介して、受信したパケットに格納されているデー
タ(例えば、認証鍵、またはコンテンツなど)をCPU
11、RAM13、またはHDD21に出力する。
The communication unit 30 is connected to the network 31 and stores data (for example, a registration request or a content transmission request) supplied from the CPU 11 or the HDD 21 in a packet of a predetermined format, and CPU 31 transmits data (for example, an authentication key or content) stored in a packet received via network 31 to CPU
11, to the RAM 13 or the HDD 21.

【0044】次に、キャラクタ制御部5と、例えば、上
記スマートキャプチャのようなアプリケーションソフト
ウェア2及び上記ピクチャギアのようなアプリケーショ
ンソフトウェア3との通信について図7を用いて説明す
る。キャラクタ制御部5は、アプリケーションソフトウ
ェア2及び3を起動(S1)する。そして、取り込んだ
画像をスライドショー表示させるコマンドをアプリケー
ションソフトウェア2に発する(S2)。
Next, communication between the character control unit 5 and the application software 2 such as the smart capture and the application software 3 such as the picture gear will be described with reference to FIG. The character control unit 5 starts the application software 2 and 3 (S1). Then, a command to display the captured image in a slide show is issued to the application software 2 (S2).

【0045】すると、アプリケーションソフトウェア2
又は3は、キャラクタの現在位置などをキャラクタ制御
部5に問い合わせる(S3)。この問い合わせに対し、
キャラクタ制御部5は、キャラクタの現在位置、形状、
感情パラメータ、動作パターン、音声情報をキャラクタ
データとして提供する(S5)。
Then, the application software 2
Or, 3 inquires of the character control unit 5 about the current position of the character (S3). In response to this inquiry,
The character control unit 5 determines the current position, shape,
An emotion parameter, a motion pattern, and voice information are provided as character data (S5).

【0046】次に、アプリケーションソフトウェア2又
は3は、自身の持つ色表現や階調等の表示能力、音声能
力に関する仕様情報をキャラクタ制御部5に送る(S
5)。また、アプリケーションソフトの使い方を一連の
シナリオ情報にしてキャラクタ制御部5に渡す(S
6)。キャラクタ制御部5は、上記シナリオ情報を例え
ばHDDや他の媒体に記憶し、そのシナリオ情報に基づ
いて例えば「スマートキャプチャを挙げて」とか、「エ
フェクトを選んで」というようなコマンドをアプリケー
ションソフトウェア2に指示する。
Next, the application software 2 or 3 sends to the character control unit 5 specification information on its own display capabilities, such as color expression and gradation, and audio capabilities (S
5). Further, the usage of the application software is passed to the character control unit 5 as a series of scenario information (S
6). The character control unit 5 stores the scenario information in, for example, an HDD or another medium, and based on the scenario information, sends a command such as “select smart capture” or “select an effect” to the application software 2. To instruct.

【0047】図8〜図13を用いてコンピュータ装置1
がアプリケーションソフトウェア実行方法に基づいたプ
ログラムを駆動したときの動作について説明する。HD
D等の媒体から上記アプリケーションソフトウェア実行
プログラムが読み出され、RAM13に格納されてか
ら、CPU11にて実行される。また、CPU11は、
上述したキャラクタ制御部5としても機能する。ここで
は、OSが駆動された後、ユーザによりスライドショー
表示を行いたいとの入力があったとする。スライドショ
ー表示のためには、アプリケーションソフトウェア2
「スマートキャプチャ」と、アプリケーションソフトウ
ェア3「ピクチャギア」が実行される必要がある。ま
た、キャラクタを撮影された画像と合成したものを静止
画として撮影し、スライドショー表示するため、静止画
撮影のためのソフト「スティルビュー」の起動も必要と
なる。ここでは、複数のアプリケーションソフトウェア
を連携して実行する具体例として、キャラクタの指示に
したがって「スマートキャプチャ」及び静止画撮影のた
めのソフト「スティルビュー」が起動され、自動的に
「ピクチャギア」が実行される例を示す。
Computer apparatus 1 will be described with reference to FIGS.
The following describes the operation performed when the user drives a program based on the application software execution method. HD
The application software execution program is read from a medium such as D, stored in the RAM 13, and executed by the CPU 11. Also, the CPU 11
It also functions as the character control unit 5 described above. Here, it is assumed that after the OS is driven, the user inputs an instruction to display a slide show. Application software 2 for slide show display
"Smart capture" and application software 3 "picture gear" need to be executed. In addition, since a still image of a character combined with a captured image is captured and displayed as a slide show, it is necessary to activate still image capturing software “Still View”. Here, as a specific example of executing a plurality of application software in cooperation with each other, “Smart Capture” and software for still image shooting “Still View” are started according to the instruction of the character, and “Picture Gear” is automatically set. Here is an example to be executed.

【0048】先ず、図8の(a)では、デスクトップ画
面41の下部からキャラクタT42が半身を乗り出すよ
うに登場してくる。そして、図8の(b)に示すよう
に、デスクトップ画面41上に全身を表し、「スマート
キャプチャを上げて」という文字枠43を表示する。こ
の指示に従いユーザが「スマートキャプチャ」をタスク
バー上でクリックする。
First, in FIG. 8A, a character T42 appears from the lower part of the desktop screen 41 so as to lean on a half body. Then, as shown in FIG. 8 (b), the whole body is displayed on the desktop screen 41, and a character frame 43 of "raise the smart capture" is displayed. According to this instruction, the user clicks “Smart Capture” on the task bar.

【0049】次に、図8の(c)に示すように、キャラ
クタT42があたかも話したように、デスクトップ画面
41上に「エフェクトを選んで!」という文字枠43を
表示してから、図9の(d)に示すように、スマートキ
ャプチャのダイアログ44上にエフェクト設定画面45
を表示し、その中のダウン表示領域46にエフェクトの
種類を表示する。そして、キャラクタT42が「キャラ
クタを選んで!」と文字枠43で指示する。
Next, as shown in FIG. 8C, a character frame 43 "Select an effect!" Is displayed on the desktop screen 41, as if the character T42 had spoken. (D), the effect setting screen 45 is displayed on the smart capture dialog 44.
Is displayed, and the type of the effect is displayed in the down display area 46 therein. Then, the character T42 instructs “select a character!” In the character frame 43.

【0050】すると、図9の(e)に示すようにキャラ
クタT2は、ダイアログ44の上部に登り、あたかもダ
イアログ内に入り込むような動作をする。ダイアログ4
4には例えばデジタルカメラで撮影された動画の1フレ
ームが映し出されている。なお、このデジタルカメラで
撮影された動画は、上記図6のドライブ22に装着され
た半導体メモリ25や磁気ディスク23及び光ディスク
24を媒介してコンピュータ装置10に取り込まれる。
また、HDD21に取り込まれていても良い。ここで
は、棒高跳びの選手が状態47aとしてこの1フレーム
に映し出されている。次の1フレーム中にキャラクタT
42は図9の(f)に示すように入り込み、選手の状態
47bと一緒に映し出される(キャラクタT42a)。
Then, as shown in FIG. 9 (e), the character T2 climbs to the upper part of the dialog 44 and operates as if entering the dialog. Dialog 4
In FIG. 4, for example, one frame of a moving image captured by a digital camera is displayed. The moving image captured by the digital camera is taken into the computer device 10 via the semiconductor memory 25, the magnetic disk 23, and the optical disk 24 mounted on the drive 22 shown in FIG.
Further, the data may be stored in the HDD 21. Here, the pole vault player is shown in this one frame as state 47a. Character T during the next frame
42 enters as shown in (f) of FIG. 9 and is displayed together with the player's state 47b (character T42a).

【0051】そして、キャラクタT42は、動画の動き
と一緒に自らも図10の(g)に示すように動き出し、
位置を移動したキャラクタT42bとなる。デジタルカ
メラ等で撮影された動画、静止画等上に上記動きのある
キャラクタT42を一緒に映し出す技術については後述
する。
Then, the character T42 starts moving as shown in FIG. 10G together with the motion of the moving image.
The character T42b has moved its position. A technique for simultaneously displaying the moving character T42 on a moving image, a still image, or the like captured by a digital camera or the like will be described later.

【0052】図10の(g)では、選手の状態47c
で、キャラクタT42bのときに、スティルビューとい
う静止画撮影用のアプリケーションソフトウェアが実行
され、静止画撮影を行う。次に、デスクトップ画面41
上でキャラクタT42は、「撮った写真にコメントを入
れて」と文字枠43をつかって指示する。これに対して
ユーザが図10の(i)に示すようにキーボート等を使
って「ガンバレ」というコメントを入れると、キャラク
タT42は「コメントを入れたらスティルビューを閉じ
てね!」という文字枠43を表示しスティルビューを閉
じさせる。
In FIG. 10 (g), the player's state 47c
In the case of the character T42b, still image shooting application software called still view is executed, and still image shooting is performed. Next, the desktop screen 41
In the above, the character T42 gives an instruction using the character frame 43 to “insert a comment in the photographed picture”. On the other hand, when the user enters a comment "Gambare" using a keyboard or the like as shown in FIG. 10 (i), the character T42 has a character frame 43 "Please close the still view if you enter a comment!" Is displayed and the still view is closed.

【0053】すると、デスクトップ画面41から、図1
1の(j)に示すように、キャラクタT42が「よし、
じゃ見ててね!」と文字枠43を使って知らせ、スマー
トキャプチャとスティルビューで得た撮影画像のスライ
ドショーをアプリケーションソフトウェア3の具体例と
して挙げたピクチャギアを使って図11の(k)、図1
1の(l)に示すように実行する。
Then, from the desktop screen 41, FIG.
As shown in FIG. 1 (j), the character T42 is "OK,
Look at it! 11 (k) and FIG. 1 using a picture gear, which is a specific example of the application software 3 showing a slide show of a captured image obtained by the smart capture and the still view.
This is executed as shown in 1 (l).

【0054】そして、図12の(m)に示すように、ピ
クチャギアのダイアログ50にピクチャギア50aと表
示し、スライドショー表示した画像51a、51b及び
51cをまとめて表示する。このとき、キャラクタT4
2は「どうだった」という文字枠43を使う。最後に図
8の(m)で「じゃまた、バイバイ!」と文字枠43で
表示し終了する。
Then, as shown in FIG. 12 (m), the picture gear 50a is displayed in the picture gear dialog 50, and the images 51a, 51b and 51c displayed in the slide show are displayed together. At this time, the character T4
2 uses a character frame 43 "How was it?" Finally, in FIG. 8 (m), "Jay again, bye-by!" Is displayed in a character frame 43, and the processing ends.

【0055】なお、キャラクタ制御部5は、複数のアプ
リケーションウィンドウ、及び上記デスクトップ画面
に、同時刻に同一のキャラクタを存在させないようにア
プリケーションソフトプログラム2、3及び4上のキャ
ラクタデータを制御する。図13は、二つのアプリケー
ションソフトウェアA及びBのアプリケーションウィン
ドウ55及び56に表示されるキャラクタT42を示す
図である。先ず、図13の(a)ではアプリケーション
ソフトウェアAがアクティブとされており、キャラクタ
T42dが表示されている。次に、アプリケーションソ
フトウェアBがアクティブとされると図13の(b)に
示すようにキャラクタT42eがアプリケーションウィ
ンドウ56内に表れ始め、その後図13の(c)に示す
ように完全に姿を見せる(キャラクタT42f)。
The character control unit 5 controls the character data on the application software programs 2, 3 and 4 so that the same character does not exist in a plurality of application windows and the desktop screen at the same time. FIG. 13 is a diagram showing the character T42 displayed in the application windows 55 and 56 of the two application softwares A and B. First, in FIG. 13A, the application software A is activated, and the character T42d is displayed. Next, when the application software B is activated, the character T42e starts to appear in the application window 56 as shown in FIG. 13 (b), and then completely appears as shown in FIG. 13 (c) ( Character T42f).

【0056】つまり、このコンピュータ装置1では、一
つのキャラクタがデスクトップ画面や複数のアプリケー
ションウィンドウをあたかも自由自在に往来しているよ
うに見せることができる。
That is, in the computer device 1, it is possible to make one character appear to be freely moving on the desktop screen and the plurality of application windows.

【0057】また、このコンピュータ装置1では、所定
のアプリケーションソフトウェアの実行に伴い、その操
作手順を上記アプリケーションウィンドウ、又は上記デ
スクトップ画面に上記キャラクタを使って表示してい
る。
Further, in the computer device 1, the operation procedure is displayed on the application window or the desktop screen using the character in accordance with the execution of the predetermined application software.

【0058】[0058]

【発明の効果】本発明によれば、貼り付ける画像を動画
にすることにより、1枚の入力画像で複数のパターンの
合成画像を生成することができる。また、繰り返すよう
な動作の場合には、作成する画像の枚数を少なくでき
る。
According to the present invention, a combined image of a plurality of patterns can be generated from one input image by making the image to be pasted a moving image. In the case of an operation that repeats, the number of images to be created can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】デジタルカメラ等で撮影された動画、静止画等
上に動きのあるキャラクタを一緒に映し出すシステムの
構成図である。
FIG. 1 is a configuration diagram of a system that simultaneously displays a moving character on a moving image, a still image, or the like captured by a digital camera or the like.

【図2】元の画像Aに、生成画像(重ねる画像B)をマ
スクパターンCを用いて合成する模様を模式的に示した
図である。
FIG. 2 is a diagram schematically illustrating a pattern in which a generated image (image B to be superimposed) is combined with an original image A using a mask pattern C;

【図3】デスクトップ画面上のアプリケーションダイア
グラム中に、合成された画像を示した図である。
FIG. 3 is a diagram showing a combined image in an application diagram on a desktop screen.

【図4】デジタルカメラ等で撮影された動画、静止画等
上に動きのあるキャラクタTを一緒に映し出すシステム
の処理を示すフローチャートである。
FIG. 4 is a flowchart illustrating a process of a system for simultaneously displaying a moving character T on a moving image, a still image, or the like captured by a digital camera or the like.

【図5】コンピュータ装置を概略的に示した機能ブロッ
ク図である。
FIG. 5 is a functional block diagram schematically showing a computer device.

【図6】上記コンピュータ装置の構成を詳細に示したブ
ロック図である。
FIG. 6 is a block diagram showing a configuration of the computer device in detail.

【図7】キャラクタ制御部とアプリケーションソフトウ
ェアとの通信処理を説明するための図である。
FIG. 7 is a diagram illustrating a communication process between a character control unit and application software.

【図8】コンピュータ装置がアプリケーションソフトウ
ェア実行方法に基づいたプログラムを駆動したときの動
作を説明するための第1の動作説明図である。
FIG. 8 is a first operation explanatory diagram illustrating an operation when a computer device drives a program based on an application software execution method.

【図9】コンピュータ装置がアプリケーションソフトウ
ェア実行方法に基づいたプログラムを駆動したときの動
作を説明するための第2の動作説明図である。
FIG. 9 is a second operation explanatory diagram illustrating an operation when the computer device drives a program based on the application software execution method.

【図10】コンピュータ装置がアプリケーションソフト
ウェア実行方法に基づいたプログラムを駆動したときの
動作を説明するための第3の動作説明図である。
FIG. 10 is a third operation explanatory diagram illustrating an operation when the computer device drives a program based on the application software execution method.

【図11】コンピュータ装置がアプリケーションソフト
ウェア実行方法に基づいたプログラムを駆動したときの
動作を説明するための第4の動作説明図である。
FIG. 11 is a fourth operation explanatory diagram illustrating an operation when the computer device drives a program based on the application software execution method.

【図12】コンピュータ装置がアプリケーションソフト
ウェア実行方法に基づいたプログラムを駆動したときの
動作を説明するための第5の動作説明図である。
FIG. 12 is a fifth operation explanatory diagram illustrating an operation when the computer device drives a program based on the application software execution method.

【図13】コンピュータ装置がアプリケーションソフト
ウェア実行方法に基づいたプログラムを駆動したときの
動作を説明するための第6の動作説明図である。
FIG. 13 is a sixth operation explanatory diagram illustrating an operation when the computer device drives a program based on the application software execution method.

【符号の説明】[Explanation of symbols]

1,10 コンピュータ装置、2,3,4 アプリケー
ションソフトウェア、5 キャラクタ制御部、6 シナ
リオ記憶部、7 キャラクタデータ記憶部、61 カメ
ラ、62 フィルタ
1, 10 computer device, 2, 3, 4 application software, 5 character control unit, 6 scenario storage unit, 7 character data storage unit, 61 camera, 62 filter

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 AA08 BA06 BA07 DA02 DA04 DA10 EA19 EA24 FA02 FA05 5B057 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC03 CE06 CE08 5C023 AA15 AA18 AA31 AA34 AA37 AA38 BA11 CA03 CA05 CA08 DA04 DA08 EA02  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference)

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 外部から入力された画像に対してエフェ
クト処理を施す画像処理装置において、 予め生成した動画像を記憶している記憶手段と、 上記外部から入力された画像に対して、上記記憶手段か
ら読み出した動画像を貼り付ける合成手段とを備えるこ
とを特徴とする画像処理装置。
1. An image processing apparatus for performing an effect process on an image input from the outside, comprising: storage means for storing a moving image generated in advance; And a synthesizing unit for pasting the moving image read from the unit.
【請求項2】 上記合成手段は、上記記憶手段から読み
出した動画像を構成する静止画像の一つ一つを上記画像
に別々に貼り付けることを特徴とする特徴とする請求項
1記載の画像処理装置。
2. The image according to claim 1, wherein the synthesizing unit separately pastes each of the still images constituting the moving image read from the storage unit to the image. Processing equipment.
【請求項3】 上記外部から入力された画像は、動画像
又は静止画像であることを特徴とする請求項1記載の画
像処理装置。
3. The image processing apparatus according to claim 1, wherein the image input from the outside is a moving image or a still image.
【請求項4】 上記合成手段は、上記外部から入力され
た画像が動画像であるとき、その動画像を構成する静止
画像の一枚一枚に上記記録手段から読み出した動画像を
構成する静止画像の一つ一つを別々に貼り付けることを
特徴とすることを特徴とする請求項3記載の画像処理装
置。
4. When the image input from the outside is a moving image, the synthesizing means includes a still image constituting the moving image read from the recording means for each still image constituting the moving image. 4. The image processing apparatus according to claim 3, wherein each of the images is separately attached.
【請求項5】 上記合成手段は、上記外部から入力され
た画像に貼り付ける動画像の所定領域をマスクパターン
を使ってフィルタリングすることを特徴とする請求項1
記載の画像処理装置。
5. The apparatus according to claim 1, wherein the synthesizing unit filters a predetermined area of the moving image to be pasted on the image input from outside using a mask pattern.
The image processing apparatus according to any one of the preceding claims.
【請求項6】 外部から入力された画像に対してエフェ
クト処理を施す画像処理方法において、 上記外部から入力された画像に対して、予め生成した動
画像を記憶している記憶手段から読み出した動画像を貼
り付ける合成工程を備えることを特徴とする画像処理方
法。
6. An image processing method for performing an effect process on an image input from the outside, wherein the moving image read from a storage unit storing a moving image generated in advance for the image input from the outside. An image processing method comprising a combining step of pasting an image.
【請求項7】 外部から入力された画像に対してエフェ
クト処理を施す画像処理プログラムを記録する記録媒体
であって、 上記外部から入力された画像に対して、予め生成した動
画像を記憶している記憶手段から読み出した動画像を貼
り付ける合成工程を有するプログラムを記録しているこ
とを特徴とする記録媒体。
7. A recording medium for recording an image processing program for performing an effect process on an image input from the outside, wherein a moving image generated in advance is stored for the image input from the outside. A recording medium storing a program having a synthesizing step of pasting a moving image read from a storage means.
JP2000272247A 2000-09-07 2000-09-07 Image processing unit and method, and recording medium Withdrawn JP2002084457A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000272247A JP2002084457A (en) 2000-09-07 2000-09-07 Image processing unit and method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000272247A JP2002084457A (en) 2000-09-07 2000-09-07 Image processing unit and method, and recording medium

Publications (1)

Publication Number Publication Date
JP2002084457A true JP2002084457A (en) 2002-03-22

Family

ID=18758400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000272247A Withdrawn JP2002084457A (en) 2000-09-07 2000-09-07 Image processing unit and method, and recording medium

Country Status (1)

Country Link
JP (1) JP2002084457A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005011263A1 (en) * 2003-07-04 2005-02-03 Field System, Inc. Moving picture generation/distribution system and imaging support tool for mobile terminal
WO2005015899A1 (en) * 2003-08-11 2005-02-17 Matsushita Electric Industrial Co., Ltd. Photographing system and photographing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005011263A1 (en) * 2003-07-04 2005-02-03 Field System, Inc. Moving picture generation/distribution system and imaging support tool for mobile terminal
WO2005015899A1 (en) * 2003-08-11 2005-02-17 Matsushita Electric Industrial Co., Ltd. Photographing system and photographing method

Similar Documents

Publication Publication Date Title
US6587119B1 (en) Method and apparatus for defining a panning and zooming path across a still image during movie creation
TW478284B (en) Method and apparatus for projection display
CN105531623B (en) Device, video recorder and storage medium
US6223190B1 (en) Method and system for producing an internet page description file on a digital imaging device
JP4492511B2 (en) Interface device, interface method, and program
JP2002082749A (en) Information processor, application software executing method, and recording medium
JP3962871B2 (en) Electronic camera and electronic zoom method
US20050264669A1 (en) Apparatus and method for image processing
CN106488090A (en) Mobile terminal and its control method
JPH10161837A (en) Display device, display method and recording medium
WO2016106997A1 (en) Screen capture method and device, and mobile terminal
JP2003091347A (en) Information processor, screen display method, screen display program and recording medium recording the screen display program
CN105684420A (en) Image processing device and image processing program
JP2002305713A (en) Image processing unit and its method, and storage medium
JPH11196357A (en) Image pickup device, its method and storage medium
JP2003092706A (en) Effect attaching device, effect attaching method, and effect attaching program
JP2002084457A (en) Image processing unit and method, and recording medium
JPH11103436A (en) Image processor, image processing method and storage medium
JP3124600B2 (en) Electronic still camera
TWI744737B (en) System and method for content control in augmented reality and computer readable storage medium
JP2005354332A (en) Image reproducer and program
JP4635675B2 (en) Imaging apparatus and program
JP2003091647A (en) Information processing device, information list drawing- up method and program, and recording medium storing information list drawing-up program
US20070104464A1 (en) Image forming apparatus and method
JP4781065B2 (en) Imaging device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071204