JP2010134768A - Device and method for generating moving image having image feature composed therein, and program - Google Patents

Device and method for generating moving image having image feature composed therein, and program Download PDF

Info

Publication number
JP2010134768A
JP2010134768A JP2008311278A JP2008311278A JP2010134768A JP 2010134768 A JP2010134768 A JP 2010134768A JP 2008311278 A JP2008311278 A JP 2008311278A JP 2008311278 A JP2008311278 A JP 2008311278A JP 2010134768 A JP2010134768 A JP 2010134768A
Authority
JP
Japan
Prior art keywords
image
images
synthesis
feature
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008311278A
Other languages
Japanese (ja)
Other versions
JP5246770B2 (en
Inventor
Naohito Kojima
尚人 小島
Yuichi Nagakura
佑一 永倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Science
Original Assignee
Tokyo University of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Science filed Critical Tokyo University of Science
Priority to JP2008311278A priority Critical patent/JP5246770B2/en
Publication of JP2010134768A publication Critical patent/JP2010134768A/en
Application granted granted Critical
Publication of JP5246770B2 publication Critical patent/JP5246770B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Studio Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and method for generating a moving image having image features composed therein, capable of enhancing the features of an image while maintaining the image quality of the image, and to provide a program. <P>SOLUTION: The device for generating the moving image having image features composed therein includes: an edge-enhanced image generation unit which generates a plurality of edge-enhanced images obtained by enhancing edges in a plurality of directions with respect to a target image of composition; a composite image generation unit which generates a plurality of composite images resulting from composing the plurality of edge-enhanced images and a source image of composition; and a composite moving image generation unit which generates a composite moving image wherein the plurality of composite images are consecutively switched and displayed. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像特徴合成動画生成装置、画像特徴合成動画生成方法、及びプログラムに関する。   The present invention relates to an image feature synthesized moving image generating apparatus, an image feature synthesized moving image generating method, and a program.

例えば衛星画像等に対しテクスチャ強調処理やエッジ強調処理等を施して、同画像の特徴を強調・可視化する技術が知られている(例えば、特許文献1参照)。尚、これらの処理対象の画像として、他には、医療画像、広告画像、交通標識画像、顕微鏡画像、実験計測画像等が挙げられる。
画像は、テクスチャ強調処理によって、そのきめや粗さ等が抽出され、エッジ強調処理によって、そのエッジ(辺縁)が強調される。これらの処理によって、画像の有する特徴が強調される。
特開2005−234603号公報
For example, a technique is known in which texture enhancement processing, edge enhancement processing, or the like is performed on a satellite image or the like to enhance and visualize the characteristics of the image (for example, see Patent Document 1). In addition, examples of these processing target images include medical images, advertisement images, traffic sign images, microscope images, and experimental measurement images.
The texture, roughness, and the like of the image are extracted by texture enhancement processing, and the edge (edge) is enhanced by edge enhancement processing. By these processes, the characteristics of the image are emphasized.
JP 2005-234603 A

しかしながら、前述したテクスチャやエッジ等の強調処理が施されると、画像の特徴は強調される一方、同画像の画質は低下するという問題があった。つまり、これらの特徴強調処理は、画像における特定の特徴の強調を目的としその画質を犠牲にしてきたため、例えば、特徴強調処理が施された画像と、同処理を施す前の元画像との関係を判読するのが困難であった。   However, when the above-described emphasis processing such as texture and edge is performed, the feature of the image is enhanced, but the image quality of the image is degraded. In other words, these feature enhancement processes have been aimed at emphasizing specific features in the image and have sacrificed the image quality. For example, the relationship between the image subjected to the feature enhancement process and the original image before the process is performed. It was difficult to read.

本発明はかかる課題に鑑みてなされたものであり、その目的とするところは、画像の画質を維持しつつ同画像の特徴を強調可能な画像特徴合成動画生成装置、画像特徴合成動画生成方法、及びプログラムを提供することにある。   The present invention has been made in view of such a problem, and an object of the present invention is to provide an image feature synthesis movie generation apparatus, an image feature synthesis movie generation method, and an image feature synthesis movie generation method capable of enhancing the features of the image while maintaining the image quality. And providing a program.

前記課題を解決するための発明は、合成対象画像に対して複数方向のエッジをそれぞれ強調した複数のエッジ強調画像を生成するエッジ強調画像生成部と、前記複数のエッジ強調画像と合成元画像をそれぞれ合成した複数の合成画像を生成する合成画像生成部と、前記複数の合成画像が連続的に切り替えて表示される合成動画を生成する合成動画生成部とを備えた画像特徴合成動画生成装置である。   An invention for solving the above-described problems includes an edge-enhanced image generation unit that generates a plurality of edge-enhanced images in which edges in a plurality of directions are emphasized with respect to a synthesis target image, and the plurality of edge-enhanced images and a synthesis source image. An image feature synthesized moving image generating apparatus including a synthesized image generating unit that generates a plurality of synthesized images, and a synthesized moving image generating unit that generates a synthesized moving image in which the plurality of synthesized images are continuously switched and displayed. is there.

また、かかる画像特徴合成動画生成装置において、前記合成対象画像は、所定の要素が強調された画像であることが好ましい。   In the image feature synthesis moving image generating apparatus, it is preferable that the synthesis target image is an image in which a predetermined element is emphasized.

また、かかる画像特徴合成動画生成装置において、前記所定の要素は、テクスチャ又はエッジであることが好ましい。   In the image feature composition moving image generating apparatus, it is preferable that the predetermined element is a texture or an edge.

また、かかる画像特徴合成動画生成装置において、前記合成対象画像は、前記合成元画像とは異なる画像であることとしてもよい。   In the image feature synthesis moving image generation apparatus, the synthesis target image may be an image different from the synthesis source image.

また、かかる画像特徴合成動画生成装置において、前記合成対象画像は、前記合成元画像と同一の画像であることとしてもよい。   In the image feature synthesis moving image generating apparatus, the synthesis target image may be the same image as the synthesis source image.

また、かかる画像特徴合成動画生成装置において、前記合成元画像は、赤色画像、緑色画像、青色画像を含んで構成されることとしてもよい。   In the image feature synthesis moving image generating apparatus, the synthesis source image may include a red image, a green image, and a blue image.

また、前記課題を解決するための発明は、合成対象画像に対して複数方向のエッジをそれぞれ強調した複数のエッジ強調画像を生成し、前記複数のエッジ強調画像と合成元画像をそれぞれ合成した複数の合成画像を生成し、前記複数の合成画像が連続的に切り替えて表示される合成動画を生成する画像特徴合成動画生成方法である。   Further, the invention for solving the above-described problem is that a plurality of edge-enhanced images in which edges in a plurality of directions are emphasized with respect to a synthesis target image are generated, and the plurality of edge-enhanced images and a synthesis source image are synthesized. Is generated, and a synthesized moving image in which the plurality of synthesized images are continuously switched and displayed is generated.

また、前記課題を解決するための発明は、コンピュータに、合成対象画像に対して複数方向のエッジをそれぞれ強調した複数のエッジ強調画像を生成する手順と、前記複数のエッジ強調画像と合成元画像をそれぞれ合成した複数の合成画像を生成する手順と、前記複数の合成画像が連続的に切り替えて表示される合成動画を生成する手順とを実行させるためのプログラムである。   In addition, the invention for solving the above-described problems includes a computer that generates a plurality of edge-enhanced images in which edges in a plurality of directions are emphasized with respect to a synthesis target image, and the plurality of edge-enhanced images and a synthesis source image. Is a program for executing a procedure for generating a plurality of synthesized images obtained by synthesizing the images and a procedure for generating a synthesized moving image in which the plurality of synthesized images are continuously switched and displayed.

また、前記課題を解決するための発明は、所定の要素が強調された合成対象画像に対して複数方向をそれぞれ光源とみなす複数のエンボス画像を生成するエンボス画像生成部と、前記複数のエンボス画像と合成元画像をそれぞれ合成した複数の合成画像を生成する合成画像生成部と、前記複数の合成画像が連続的に切り替えて表示される合成動画を生成する合成動画生成部とを備えた画像特徴合成動画生成装置である。   Further, the invention for solving the above problems includes an embossed image generating unit that generates a plurality of embossed images in which a plurality of directions are regarded as light sources with respect to a compositing target image in which predetermined elements are emphasized, and the plurality of embossed images And a composite video generation unit that generates a composite video that generates a composite video in which the plurality of composite images are continuously switched and displayed. It is a synthetic moving image generating apparatus.

また、前記課題を解決するための発明は、所定の要素が強調された合成対象画像に対して複数方向をそれぞれ光源とみなす複数のエンボス画像を生成し、前記複数のエンボス画像と合成元画像をそれぞれ合成した複数の合成画像を生成し、前記複数の合成画像が連続的に切り替えて表示される合成動画を生成する画像特徴合成動画生成方法である。   Further, the invention for solving the above-described problem is to generate a plurality of embossed images in which a plurality of directions are regarded as light sources with respect to a compositing target image in which a predetermined element is emphasized, and the plurality of embossed images and the composition original image are generated. This is an image feature synthesized moving image generating method that generates a plurality of combined images that are respectively combined and generates a combined moving image in which the plurality of combined images are continuously switched and displayed.

また、前記課題を解決するための発明は、コンピュータに、所定の要素が強調された合成対象画像に対して複数方向をそれぞれ光源とみなす複数のエンボス画像を生成する手順と、前記複数のエンボス画像と合成元画像をそれぞれ合成した複数の合成画像を生成する手順と、前記複数の合成画像が連続的に切り替えて表示される合成動画を生成する手順とを実行させるためのプログラムである。   Further, the invention for solving the above-described problems includes a computer that generates a plurality of embossed images in which a plurality of directions are regarded as light sources for a synthesis target image in which predetermined elements are emphasized, and the plurality of embossed images. And a procedure for generating a plurality of synthesized images obtained by synthesizing each of the source images and a procedure for generating a synthesized moving image in which the plurality of synthesized images are continuously switched and displayed.

本発明によれば、画像の画質を維持しつつ同画像の特徴を強調できる。   According to the present invention, it is possible to emphasize the features of the image while maintaining the image quality.

===システムの構成===
図1乃至図7を参照しつつ、本実施の形態の画像特徴合成動画生成システムの構成例について説明する。
尚、図1は、画像特徴合成動画生成システムの構成例を示すブロック図である。図2は、図1のシステムにおけるクライアント10の構成例を示すブロック図である。図3は、図1のシステムにおける画像特徴合成動画生成装置20の構成例を示すブロック図である。図4は、図3の画像特徴合成動画生成装置20の機能ブロック図である。図5は、エンボス処理における仮想光の照射方向の一例を示す模式図である。図6は、エンボス処理におけるフィルタ係数の一例を示す模式図である。図7は、エンボス処理の一例を示す模式図である。
=== System configuration ===
A configuration example of the image feature synthesis moving image generation system of the present embodiment will be described with reference to FIGS. 1 to 7.
FIG. 1 is a block diagram illustrating a configuration example of an image feature synthesis moving image generation system. FIG. 2 is a block diagram illustrating a configuration example of the client 10 in the system of FIG. FIG. 3 is a block diagram illustrating a configuration example of the image feature synthesis moving image generation apparatus 20 in the system of FIG. FIG. 4 is a functional block diagram of the image feature synthesis moving image generating apparatus 20 of FIG. FIG. 5 is a schematic diagram illustrating an example of the irradiation direction of virtual light in the embossing process. FIG. 6 is a schematic diagram illustrating an example of a filter coefficient in the embossing process. FIG. 7 is a schematic diagram illustrating an example of the embossing process.

図1に例示されるように、画像特徴合成動画生成システムは、クライアント10と、画像特徴合成動画生成装置20とを備えている。ここで、クライアント10及び画像特徴合成動画生成装置20は、ネットワーク30を介して通信可能に接続されている。   As illustrated in FIG. 1, the image feature synthesis movie generation system includes a client 10 and an image feature synthesis movie generation device 20. Here, the client 10 and the image feature composition moving image generating apparatus 20 are connected to be communicable via the network 30.

クライアント10は、例えば、パーソナルコンピュータ、携帯情報端末、携帯電話機等の情報処理装置である。このクライアント10は、ネットワーク30を介して、画像(合成元画像及び合成対象画像)を画像特徴合成動画生成装置20に送信し、この画像特徴合成動画生成装置20で生成されて送信されてくる動画(画像特徴合成動画)を表示する。   The client 10 is, for example, an information processing apparatus such as a personal computer, a portable information terminal, or a mobile phone. The client 10 transmits an image (composition original image and composition target image) to the image feature composite video generation device 20 via the network 30, and the video generated and transmitted by the image feature composite video generation device 20. (Image feature composite animation) is displayed.

画像特徴合成動画生成装置20は、例えば、PCサーバやワークステーション等の情報処理装置である。この画像特徴合成動画生成装置20は、クライアント10からの画像の特徴を強調表示するための動画を生成し、ネットワーク30を介して、この動画をクライアント10に送信する。   The image feature synthesized moving image generating apparatus 20 is an information processing apparatus such as a PC server or a workstation. The image feature synthesis moving image generating apparatus 20 generates a moving image for highlighting the image feature from the client 10, and transmits the moving image to the client 10 via the network 30.

ネットワーク30は、例えば、インターネットやLAN(Local Area Network)等であり、クライアント10と画像特徴合成動画生成装置20とを通信可能に接続する。尚、ネットワーク30は、有線とすることもできるし、無線とすることもできる。   The network 30 is, for example, the Internet, a LAN (Local Area Network), or the like, and connects the client 10 and the image feature synthesis moving image generating apparatus 20 so as to communicate with each other. The network 30 can be wired or wireless.

尚、本実施の形態の合成元画像とは、例えば観測装置から得られ、特徴強調処理が施されていない画像等を意味する。
また、本実施の形態の合成対象画像とは、例えば、合成元画像との合成相手であるとともに、観測対象の特徴を強調するための方向性を有する特徴強調処理が施される前の画像等を意味する。
更に、本実施の形態の画像特徴合成動画とは、後述するように、前述した合成元画像及び合成対象画像に基づいて生成される動画を意味する。
In addition, the composition original image of the present embodiment means an image obtained from an observation apparatus and not subjected to feature enhancement processing, for example.
Further, the composition target image of the present embodiment is, for example, an image that is a compositing partner with the composition original image, and that has not been subjected to feature enhancement processing having a directionality for enhancing the characteristics of the observation target. Means.
Further, the image feature synthesis moving image of the present embodiment means a moving image generated based on the above-described composition source image and composition target image, as will be described later.

<<<クライアントの構成>>>
図2に例示されるように、クライアント10は、CPU(Central Processing Unit)40と、メモリ41と、記憶装置42と、表示インタフェース(I/F)43と、入力インタフェース(I/F)44と、通信インタフェース(I/F)45と、記録媒体読取装置46とを備えている。
<<< Client configuration >>>
As illustrated in FIG. 2, the client 10 includes a CPU (Central Processing Unit) 40, a memory 41, a storage device 42, a display interface (I / F) 43, and an input interface (I / F) 44. A communication interface (I / F) 45 and a recording medium reading device 46 are provided.

CPU40は、メモリ41に格納されたプログラムを実行することにより、クライアント10を統括制御し、クライアント10における様々な機能を実現する。メモリ41は、例えばRAM(Random Access Memory)等であり、プログラムやデータ等の一時的な記憶領域として用いられる。記憶装置42は、例えばハードディスク等の記憶領域であり、プログラムや様々なデータ等が格納される。表示インタフェース43は、ディスプレイ等の表示装置50に画像を表示させるためのビデオカード等のインタフェース装置である。   The CPU 40 executes a program stored in the memory 41 to control the client 10 and implement various functions in the client 10. The memory 41 is, for example, a RAM (Random Access Memory) or the like, and is used as a temporary storage area for programs and data. The storage device 42 is a storage area such as a hard disk, for example, and stores programs, various data, and the like. The display interface 43 is an interface device such as a video card for displaying an image on the display device 50 such as a display.

入力インタフェース44は、キーボード、マウス、各種デジタル機器等の入力装置51からデータを入力するためのUSB(Universal Serial Bus)やPS/2(Personal System/2)等のインタフェース装置である。通信インタフェース45は、ネットワーク30を介してデータの送受信を行うためのネットワークカード等のインタフェース装置である。記録媒体読取装置46は、CD−ROMやメモリカード等の記録媒体52に格納されたプログラムや各種データを読み取るためのCD−ROMドライブやメモリカードインタフェース等のインタフェース装置である。   The input interface 44 is an interface device such as USB (Universal Serial Bus) or PS / 2 (Personal System / 2) for inputting data from the input device 51 such as a keyboard, a mouse, and various digital devices. The communication interface 45 is an interface device such as a network card for transmitting and receiving data via the network 30. The recording medium reader 46 is an interface device such as a CD-ROM drive or a memory card interface for reading programs and various data stored in the recording medium 52 such as a CD-ROM or a memory card.

尚、クライアント10は、画像(合成元画像、合成対象画像)を、例えば、記録媒体52から読み取り、記憶装置42に格納することができる。また、クライアント10は、例えば、ネットワーク30を介して他の情報処理装置(不図示)から画像を取得することもできる。更に、クライアント10は、イメージスキャナやデジタルカメラ等を入力装置51として画像を取得することもできる。   The client 10 can read an image (combination original image, composition target image) from the recording medium 52 and store it in the storage device 42, for example. The client 10 can also acquire an image from another information processing apparatus (not shown) via the network 30, for example. Further, the client 10 can acquire an image using an image scanner, a digital camera, or the like as the input device 51.

<<<画像特徴合成動画生成装置の構成>>>
図3に例示されるように、画像特徴合成動画生成装置20は、CPU60と、メモリ61と、記憶装置62と、通信インタフェース63と、記録媒体読取装置64とを備えている。
<<< Configuration of image feature composition video generation device >>>
As illustrated in FIG. 3, the image feature synthesis moving image generating apparatus 20 includes a CPU 60, a memory 61, a storage device 62, a communication interface 63, and a recording medium reading device 64.

CPU60は、メモリ61に格納されたプログラムを実行することにより、画像特徴合成動画生成装置20を統括制御し、画像特徴合成動画生成装置20における様々な機能を実現する。メモリ61は、例えばRAM等であり、プログラムやデータ等の一時的な記憶領域として用いられる。記憶装置62は、例えばハードディスク等の記憶領域であり、プログラムや様々なデータ等が格納される。通信インタフェース63は、ネットワーク30を介してデータの送受信を行うためのネットワークカード等のインタフェース装置である。記録媒体読取装置64は、CD−ROMやメモリカード等の記録媒体53に格納されたプログラムや各種データを読み取るためのCD−ROMドライブやメモリカードインタフェース等のインタフェース装置である。   The CPU 60 executes the program stored in the memory 61, thereby controlling the image feature synthesized moving image generating apparatus 20 in an integrated manner and realizing various functions in the image feature synthesized moving image generating apparatus 20. The memory 61 is a RAM, for example, and is used as a temporary storage area for programs and data. The storage device 62 is a storage area such as a hard disk, and stores programs, various data, and the like. The communication interface 63 is an interface device such as a network card for transmitting and receiving data via the network 30. The recording medium reading device 64 is an interface device such as a CD-ROM drive or a memory card interface for reading programs and various data stored in the recording medium 53 such as a CD-ROM or a memory card.

図4に例示されるように、前述した画像特徴合成動画生成装置20は、エンボス画像生成部70と、エッジ強調画像生成部71と、画像特徴合成画像生成部(合成画像生成部)72と、画像特徴合成動画生成部(合成動画生成部)75と、特徴強調処理部76とを備えている。これらの機能ブロック70、71、72、75、76は、CPU60がメモリ61に格納されたプログラムを実行することにより実現される。   As illustrated in FIG. 4, the image feature synthesis moving image generation device 20 described above includes an embossed image generation unit 70, an edge enhanced image generation unit 71, an image feature synthesis image generation unit (synthetic image generation unit) 72, An image feature synthesized moving image generating unit (synthesized moving image generating unit) 75 and a feature enhancement processing unit 76 are provided. These functional blocks 70, 71, 72, 75, 76 are realized by the CPU 60 executing a program stored in the memory 61.

<エンボス画像生成部>
エンボス画像生成部70は、メモリ61から合成対象画像を読み出し、同合成対象画像に対して複数方向を光源とみなす複数のエンボス画像を生成する。生成された複数のエンボス画像はメモリ61に格納される。
<Embossed image generator>
The embossed image generation unit 70 reads out the compositing target image from the memory 61, and generates a plurality of embossed images that regard a plurality of directions as light sources for the compositing target image. The plurality of generated embossed images are stored in the memory 61.

エンボス画像生成部70は、図5に例示されるように、合成対象画像の北側を0度として右回りで45度ずつ角度をずらした8方向を照射方向として、8つのエンボス画像を生成できる。この場合、各照射方向におけるエンボス処理に用いられるフィルタ係数は、例えば、図6(a)乃至(h)に示した3×3の行列とすることができる。尚、図6(a)乃至(h)に示したフィルタ係数は一例であり、行列内の数値(重み)や行列のサイズを変更することも可能である。   As illustrated in FIG. 5, the embossed image generation unit 70 can generate eight embossed images with the irradiation direction as eight directions shifted by 45 degrees clockwise with the north side of the compositing target image as 0 degrees. In this case, the filter coefficient used for the embossing process in each irradiation direction can be, for example, a 3 × 3 matrix shown in FIGS. Note that the filter coefficients shown in FIGS. 6A to 6H are examples, and numerical values (weights) in the matrix and the size of the matrix can be changed.

エンボス画像生成部70におけるエンボス処理の一例を示す。本実施の形態では、合成対象画像の各画素の画像濃度値は、例えば8ビット(0乃至255)であるとする。図7に例示されるように、エンボス処理前の合成対象画像の一部を示す3×3の画素の中心の値が「18」、左上の値が「5」、右下の値が「135」であるとする。このとき、図6(d)に示したフィルタ係数を用いてエンボス処理を行うと、3×3の中心画素のエンボス処理後の値は、(−5+135)+128=258となる。但し、エンボス画像生成部70は、エンボス処理後の値が「255」を越えている場合は、画像濃度値が255以下となるように調整する。このようにして、合成対象画像の各画素に対してエンボス処理が行われる。   An example of the embossing process in the embossed image generation part 70 is shown. In the present embodiment, it is assumed that the image density value of each pixel of the synthesis target image is, for example, 8 bits (0 to 255). As illustrated in FIG. 7, the center value of a 3 × 3 pixel indicating a part of the synthesis target image before the embossing process is “18”, the upper left value is “5”, and the lower right value is “135”. ”. At this time, when emboss processing is performed using the filter coefficient shown in FIG. 6D, the value after emboss processing of the 3 × 3 center pixel is (−5 + 135) + 128 = 258. However, when the value after the embossing process exceeds “255”, the embossed image generation unit 70 adjusts the image density value to be 255 or less. In this way, the embossing process is performed on each pixel of the compositing target image.

<エッジ強調画像生成部>
エッジ強調画像生成部71は、メモリ61から合成対象画像を読み出し、同合成対象画像に対して複数方向のエッジ(所定の要素)をそれぞれ強調した複数のエッジ強調画像を生成する。生成された複数のエッジ強調画像はメモリ61に格納される。具体的には、複数方向のエッジの強調は、以下に例示するエッジ方向を強調するフィルタによって行なわれる。即ち、例えば、1次微分・差分型のPrewittフィルタや、1次微分・テンプレート型のRobinsonフィルタ等が適用可能である。
<Edge-enhanced image generator>
The edge-enhanced image generation unit 71 reads the synthesis target image from the memory 61, and generates a plurality of edge-enhanced images in which edges (predetermined elements) in a plurality of directions are enhanced with respect to the synthesis target image. The generated plurality of edge-enhanced images are stored in the memory 61. Specifically, edge enhancement in a plurality of directions is performed by a filter that emphasizes the edge direction exemplified below. That is, for example, a primary differential / difference type Prewitt filter, a primary differential / template type Robinson filter, and the like are applicable.

<画像特徴合成画像生成部>
画像特徴合成画像生成部72は、例えば、メモリ61から複数のエッジ強調画像を読み出し、これら複数のエッジ強調画像のそれぞれに対し、同メモリ61から読み出された合成元画像を合成して、複数の画像特徴合成画像を生成する。また、画像特徴合成画像生成部72は、例えば、メモリ61から複数のエンボス画像を読み出し、これら複数のエンボス画像のそれぞれに対し、同メモリ61から読み出された合成元画像を合成して、複数の画像特徴合成画像を生成する。以上により生成された複数の画像特徴合成画像はメモリ61に格納される。
<Image feature composite image generator>
For example, the image feature composite image generation unit 72 reads a plurality of edge-enhanced images from the memory 61, and synthesizes a combination original image read from the memory 61 with each of the plurality of edge-enhanced images. The image feature composite image is generated. In addition, the image feature composite image generation unit 72 reads, for example, a plurality of embossed images from the memory 61, and synthesizes a composite original image read from the memory 61 with each of the plurality of embossed images. The image feature composite image is generated. The plurality of image feature composite images generated as described above are stored in the memory 61.

<画像特徴合成動画生成部>
画像特徴合成動画生成部75は、メモリ61に格納された複数のエッジ強調画像を読み出し、これらのエッジ強調画像が連続的に切り替えて表示される画像特徴合成動画を生成する。また、画像特徴合成動画生成部75は、メモリ61に格納された複数のエンボス画像を読み出し、これらのエンボス画像が連続的に切り替えて表示される画像特徴合成動画を生成する。以上により生成された画像特徴合成動画は、メモリ61に格納される。
<Image feature synthesis movie generator>
The image feature synthesized moving image generating unit 75 reads a plurality of edge enhanced images stored in the memory 61 and generates an image feature synthesized moving image in which these edge enhanced images are continuously switched and displayed. In addition, the image feature synthesized moving image generating unit 75 reads a plurality of embossed images stored in the memory 61 and generates an image feature synthesized moving image in which these embossed images are continuously switched. The image feature synthesized moving image generated as described above is stored in the memory 61.

例えば、8方向を照射方向とする8つのエンボス画像の場合(図5参照)、8つのエンボス画像を例えば右回りに所定間隔で切り替えながら繰り返し表示する動画を画像特徴合成動画とすることができる。尚、画像特徴合成動画においてエンボス画像の切り替わる順序は右回りに限らず、左回りであってもよいし、ランダムであってもよい。また、エンボス画像の切り替わる間隔も可変とすることができる。   For example, in the case of eight embossed images having eight directions as irradiation directions (see FIG. 5), a moving image that repeatedly displays eight embossed images while switching them at a predetermined interval, for example, clockwise can be used as an image feature synthesized moving image. Note that the order in which the embossed images are switched in the image feature synthesized moving image is not limited to the clockwise direction, but may be the counterclockwise direction or may be random. Further, the interval at which the embossed image is switched can be made variable.

また、画像特徴合成動画では、照射方向が互いに180度をなす何れか2つのエンボス画像を切り替えながら繰り返し表示されるものであってもよい。図5を参照して説明すれば、例えば、照射方向が0度(北)及び180度(南)の2つのエンボス画像の間を北から南、南から北のように一方向に切り替え表示してもよいし、或いは、照射方向が45度(北東)及び225度(南西)の2つのエンボス画像の間を北東から南西、南西から北東のように一方向に切り替え表示してもよい。   In addition, in the image feature synthesis moving image, any two embossed images whose irradiation directions are 180 degrees may be repeatedly displayed while being switched. Referring to FIG. 5, for example, the display is switched between two embossed images whose irradiation directions are 0 degrees (north) and 180 degrees (south) in one direction, such as north to south and south to north. Alternatively, two embossed images having irradiation directions of 45 degrees (northeast) and 225 degrees (southwest) may be switched and displayed in one direction from northeast to southwest and southwest to northeast.

更に、前述した照射方向が互いに180度をなす何れか2つのエンボス画像の組を何れか2組選択して、前述した一方向の切り替え表示がこの2組について交互に行なわれるものであってもよい。図5を参照して説明すれば、例えば、照射方向が315度(北西)及び135度(南東)の2つのエンボス画像の第1組と、照射方向が45度(北東)及び225度(南西)の2つのエンボス画像の第2組とを選択し、第1組における北西から南東及び南東から北西の切り替え表示と、第2組における北東から南西及び南西から北東の切り替え表示とを交互に行なうような、たすきがけの切り替え表示であってもよい。   Further, any two embossed image sets whose irradiation directions are 180 degrees with respect to each other are selected, and the above-described one-way switching display is alternately performed for the two sets. Good. Referring to FIG. 5, for example, a first set of two embossed images having an irradiation direction of 315 degrees (northwest) and 135 degrees (southeast), and an irradiation direction of 45 degrees (northeast) and 225 degrees (southwest) ) To select the second set of embossed images, and alternately display the switching from northwest to southeast and southeast to northwest in the first set, and the switching display from northeast to southwest and southwest to northeast in the second set. Such a switching display may be used.

尚、以上は、画像特徴合成画像が、複数のエッジ方向に対応する複数のエッジ強調画像から構成されている場合でも同様である。   The same applies to the case where the image feature composite image is composed of a plurality of edge-enhanced images corresponding to a plurality of edge directions.

これにより、照射方向及びエッジ方向が反対側である画像どうしが切り替えられるため、後述する画像特徴の強調が向上する。   Thereby, since the images whose irradiation direction and edge direction are opposite to each other are switched, enhancement of image features described later is improved.

<特徴強調処理部>
特徴強調処理部76は、メモリ61から合成対象画像を読み出し、同合成対象画像に対してテクスチャ強調処理やエッジ強調処理等を施す。これらの特徴強調処理が施された合成対象画像は、メモリ61に格納される。具体的には、テクスチャ強調処理では、例えば、相関、分散、コントラスト、エントロピー等のテクスチャ(所定の要素)の特徴量が求められ、エッジ強調処理では、例えば、2次微分型のLaplacianフィルタ等が適用される。
<Feature enhancement processing section>
The feature enhancement processing unit 76 reads the synthesis target image from the memory 61, and performs texture enhancement processing, edge enhancement processing, and the like on the synthesis target image. The compositing target image that has been subjected to the feature enhancement processing is stored in the memory 61. Specifically, in the texture enhancement process, for example, a feature amount of a texture (predetermined elements) such as correlation, dispersion, contrast, and entropy is obtained. In the edge enhancement process, for example, a second-order differential Laplacian filter or the like is used. Applied.

<<<クライアントの画面>>>
図8及び図9を参照しつつ、クライアント10のディスプレイ(表示装置50)に表示される画面について説明する。尚、図8は、画像特徴合成動画を生成するための動画生成画面100の一例を示す模式図である。図9は、画像特徴合成動画を表示するための動画表示画面130の一例を示す模式図である。
<<< Client screen >>>
A screen displayed on the display (display device 50) of the client 10 will be described with reference to FIGS. FIG. 8 is a schematic diagram illustrating an example of a moving image generation screen 100 for generating an image feature synthetic moving image. FIG. 9 is a schematic diagram illustrating an example of a moving image display screen 130 for displaying an image feature synthesized moving image.

<動画生成画面>
図8に例示されるように、画像特徴合成動画を生成する際の条件等を入力するための動画生成画面100は、合成元画像入力エリア110と、合成対象画像入力エリア111と、動画生成条件選択エリア112と、動画生成ボタン113とに分かれている。尚、クライアント10の利用者は、例えば、マウス(入力装置51)を通じて画面上の各エリア110、111、112及びボタン113にカーソルを合わせた後、マウス及びキーボード(入力装置51)を通じて所定の入力をするようになっている。
<Video generation screen>
As illustrated in FIG. 8, a moving image generation screen 100 for inputting conditions and the like for generating an image feature combined moving image includes a combining source image input area 110, a combining target image input area 111, and a moving image generation condition. It is divided into a selection area 112 and a moving image generation button 113. For example, the user of the client 10 moves the cursor to each of the areas 110, 111, 112 and the button 113 on the screen through the mouse (input device 51), and then performs a predetermined input through the mouse and the keyboard (input device 51). It is supposed to do.

この動画生成画面100は、例えば、クライアント10がWebブラウザ等から画像特徴合成動画生成装置20の所定のURL(Uniform Resource Locator)を参照することによって画像特徴合成動画生成装置20から送信されてくるHTML(Hyper Markup Text Language)等により実現される。尚、画像特徴合成動画生成装置20にアクセスせずに、クライアント10内部のプログラムによって動画生成画面が起動されることとしてもよい。   The moving image generation screen 100 is, for example, HTML transmitted from the image feature composition moving image generation apparatus 20 when the client 10 refers to a predetermined URL (Uniform Resource Locator) of the image feature composition moving image generation apparatus 20 from a Web browser or the like. (Hyper Markup Text Language) etc. The moving image generation screen may be activated by a program inside the client 10 without accessing the image feature synthesis moving image generation apparatus 20.

合成元画像入力エリア110では、合成元画像の格納先(ファイルパス名等)が入力されるようになっている。また、合成元画像入力エリア110では、入力された合成元画像を、更に、RGB画像(R画像(赤色画像)、G画像(緑色画像)、及びB画像(青色画像))、単バンド画像、及びパンクロマチック画像の何れの状態とするかが選択されるようになっている。ここで、単バンド画像が選択された場合、更に、どのバンドの画像(例えば、R画像のみ)であるかが選択されるようになっている。   In the composition source image input area 110, the storage destination (file path name, etc.) of the composition source image is input. In the composition source image input area 110, the input composition source image is further converted into RGB images (R image (red image), G image (green image), and B image (blue image)), single band image, The panchromatic image and the panchromatic image are selected. Here, when a single band image is selected, which band image (for example, only an R image) is further selected.

合成対象画像入力エリア111は、更に、合成対象画像の源泉としての入力画像に係る情報を入力するための入力画像入力エリア111aと、入力画像に施される特徴強調処理の種類を入力するための特徴強調処理入力エリア111bとに分かれている。
入力画像入力エリア111aでは、入力画像が合成元画像であるか否かが選択されるようになっているとともに、入力画像が合成元画像以外の画像である(「その他」)と選択された場合の入力画像の格納先(ファイルパス名等)が入力されるようになっている。
特徴強調処理入力エリア111bでは、入力画像に特徴強調処理を施すか否かが選択されるようになっているとともに、入力画像に特徴強調処理を施す(「する」)と選択された場合の特徴強調処理の種類(例えば、テクスチャ強調処理やエッジ強調処理等)が選択されるようになっている。
The compositing target image input area 111 further includes an input image input area 111a for inputting information related to the input image as a source of the compositing target image, and a type of feature enhancement processing performed on the input image. It is divided into a feature enhancement processing input area 111b.
In the input image input area 111a, whether or not the input image is a composition source image is selected, and when the input image is selected as an image other than the composition source image ("other") The input image storage destination (file path name, etc.) is input.
In the feature enhancement processing input area 111b, whether or not to perform the feature enhancement processing on the input image is selected, and the features when the feature enhancement processing is selected on the input image ("Yes") are selected. The type of enhancement processing (for example, texture enhancement processing or edge enhancement processing) is selected.

動画生成条件選択エリア112は、更に、方向選択エリア112aと、フィルタ選択エリア112bと、表示順序選択エリア112cと、表示速度選択エリア112dとに分かれている。   The moving image generation condition selection area 112 is further divided into a direction selection area 112a, a filter selection area 112b, a display order selection area 112c, and a display speed selection area 112d.

方向選択エリア112aでは、合成対象画像にエンボス処理を施す際の照射方向が選択されるようになっているとともに、合成対象画像にエッジ強調処理を施す際のエッジ方向が選択されるようになっている。本実施の形態では、4方向、8方向、及び16方向の何れかが選択されるようになっている。
フィルタ選択エリア112bでは、合成対象画像に施される方向性を有する特徴強調処理の種類が選択されるようになっている。本実施の形態では、方向性を有する特徴強調処理として、パターンAのエンボス処理、パターンBのエンボス処理、パターンCのエンボス処理、Perwittフィルタによるエッジ強調処理、Robinsonフィルタによるエッジ強調処理、及びLaplacianフィルタによるエッジ強調処理の何れかが選択されるようになっている。ここで、パターンA乃至Cは、エンボス処理のための異なるフィルタ係数(行列のサイズや重み等)を表わしている。
表示順序選択エリア112cでは、画像特徴合成動画におけるエンボス画像及びエッジ強調画像の表示順序が選択されるようになっている。本実施の形態では、右回り、左回り、ランダム、一方向、たすきがけの何れかが選択されるようになっている。
表示速度選択エリア112dでは、画像特徴合成動画におけるエンボス画像及びエッジ強調画像の切り替わる速度が選択されるようになっている。本実施の形態では、4fps(flame per second)、8fps、16fpsの何れかが選択されるようになっている。
In the direction selection area 112a, the irradiation direction when the embossing process is performed on the compositing target image is selected, and the edge direction when the edge emphasizing process is performed on the compositing target image is selected. Yes. In the present embodiment, any one of the four directions, the eight directions, and the sixteen directions is selected.
In the filter selection area 112b, the type of feature enhancement processing having directionality applied to the synthesis target image is selected. In this embodiment, pattern embossing processing, pattern B embossing processing, pattern C embossing processing, edge emphasis processing using a Perwitt filter, edge emphasis processing using a Robinson filter, and Laplacian filter are used as feature emphasis processing having directionality. Any one of the edge enhancement processes is selected. Here, patterns A to C represent different filter coefficients (matrix size, weight, etc.) for emboss processing.
In the display order selection area 112c, the display order of the embossed image and the edge-enhanced image in the image feature composition moving image is selected. In the present embodiment, any one of clockwise, counterclockwise, random, one-way, and brushing is selected.
In the display speed selection area 112d, the speed at which the embossed image and the edge-enhanced image are switched in the image feature composition moving image is selected. In the present embodiment, any one of 4 fps (flame per second), 8 fps, and 16 fps is selected.

動画生成ボタン113は、前述した各エリア110乃至112で選択又は入力された情報を画像特徴合成動画生成装置20に送信するためのものである。   The moving image generation button 113 is used to transmit information selected or input in each of the above-described areas 110 to 112 to the image feature synthesis moving image generation apparatus 20.

<動画表示画面>
図9に例示されるように、画像特徴合成動画が表示される動画表示画面130は、画像特徴合成動画表示領域135を表示する。この動画表示画面130は、本実施の形態では、動画生成画面100の動画生成ボタン113が押下された後に画像特徴合成動画生成装置20から送信されてくるHTML等により実現される。つまり、この画像特徴合成動画表示領域135には、画像特徴合成動画生成装置20から送信されてくる動画が表示される。尚、画像特徴合成動画表示領域135に表示される動画は、例えばMacromedia Flash(登録商標)等により実現される。
<Movie display screen>
As illustrated in FIG. 9, the moving image display screen 130 on which the image feature combined moving image is displayed displays an image feature combined moving image display area 135. In this embodiment, the moving image display screen 130 is realized by HTML or the like transmitted from the image feature synthesis moving image generating device 20 after the moving image generation button 113 of the moving image generation screen 100 is pressed. In other words, in this image feature composite video display area 135, a video transmitted from the image feature composite video generation device 20 is displayed. The moving image displayed in the image feature synthesized moving image display area 135 is realized by, for example, Macromedia Flash (registered trademark).

===システムの動作===
図10乃至図13を参照しつつ、本実施の形態の画像特徴合成動画生成システムの動作例について説明する。
尚、図10は、画像特徴合成動画生成システムの処理手順の一例を示すフローチャートである。図11は、画像特徴合成動画生成装置20の処理手順の一例を示すフローチャートである。図12は、画像特徴合成動画生成処理のイメージ図である。図13は、画像特徴合成動画生成処理のもう一つのイメージ図である。
=== System behavior ===
An operation example of the image feature synthesis moving image generation system according to the present embodiment will be described with reference to FIGS. 10 to 13.
FIG. 10 is a flowchart illustrating an example of a processing procedure of the image feature synthesis moving image generation system. FIG. 11 is a flowchart illustrating an example of a processing procedure of the image feature synthesis moving image generating apparatus 20. FIG. 12 is an image diagram of the image feature synthesis moving image generation processing. FIG. 13 is another image diagram of the image feature synthesis moving image generation processing.

<<<画像特徴合成動画生成システムの動作>>>
図10に例示されるように、クライアント10では、合成元画像及び合成対象画像が選択される(S1001)。具体的には、動画生成画面100における、合成元画像入力エリア110と、合成対象画像入力エリア111の入力画像入力エリア111aとにおいて、合成元画像の格納先と、合成対象画像の源泉としての入力画像の格納先とがそれぞれ入力される。
<<< Operation of Image Feature Synthesis Movie Generation System >>>
As illustrated in FIG. 10, in the client 10, a composition source image and a composition target image are selected (S1001). Specifically, in the moving image generation screen 100, in the composition source image input area 110 and the input image input area 111a of the composition target image input area 111, the storage destination of the composition original image and the input as the source of the composition target image The image storage destination is input.

また、クライアント10では、合成対象画像の源泉としての入力画像への特徴強調処理に係る情報が選択される(S1002)。具体的には、動画生成画面100における合成対象画像入力エリア111の特徴強調処理入力エリア111bにおいて、合成対象画像の源泉としての入力画像に対する特徴強調処理に係る情報(施す・施さない・施すとした場合の特徴強調処理の種類)が入力される。   Further, the client 10 selects information related to the feature enhancement processing for the input image as the source of the compositing target image (S1002). Specifically, in the feature emphasis processing input area 111b of the compositing target image input area 111 on the moving image generation screen 100, information related to the feature emphasizing processing for the input image as the source of the compositing target image (applied / not applied / applied). Type of feature enhancement processing in the case).

更に、クライアント10では、画像特徴合成動画を生成するための動画生成条件が選択される(S1003)。具体的には、動画生成画面100における動画生成条件選択エリア112において、方向、フィルタ(エンボス・エッジ強調)、表示順序、及び表示速度が選択される。   Furthermore, in the client 10, a moving image generation condition for generating an image feature composite moving image is selected (S1003). Specifically, a direction, a filter (emboss / edge emphasis), a display order, and a display speed are selected in the moving image generation condition selection area 112 on the moving image generation screen 100.

動画生成画面100の動画生成ボタン113が押下されると、クライアント10は、入力又は選択された画像及び動画生成条件を、画像特徴合成動画生成装置20に送信する(S1004)。
画像特徴合成動画生成装置20は、クライアント10から送信されてくる画像及び動画生成条件を受信し(S1005)、メモリ61に格納する。
画像特徴合成動画生成装置20は、メモリ61から画像及び動画生成条件を読み出し、画像特徴合成動画の生成処理を実行し(S1006)、メモリ61に格納する。
画像特徴合成動画生成装置20は、メモリ61から画像特徴合成動画を読み出してクライアント10に送信する(S1007)。
クライアント10は、画像特徴合成動画生成装置20から送信されてくる画像特徴合成動画を受信し(S1008)、画像表示画面130の画像特徴合成動画表示領域135に動画を表示する(S1009)。
When the movie generation button 113 on the movie generation screen 100 is pressed, the client 10 transmits the input or selected image and the movie generation condition to the image feature synthesis movie generation device 20 (S1004).
The image feature composition moving image generating apparatus 20 receives the image and moving image generating conditions transmitted from the client 10 (S1005) and stores them in the memory 61.
The image feature synthesis moving image generation apparatus 20 reads the image and the movie generation conditions from the memory 61, executes the image feature synthesis movie generation processing (S1006), and stores them in the memory 61.
The image feature synthesized moving image generation apparatus 20 reads the image feature synthesized movie from the memory 61 and transmits it to the client 10 (S1007).
The client 10 receives the image feature synthesized moving image transmitted from the image feature synthesized movie generating apparatus 20 (S1008), and displays the movie in the image feature synthesized movie display area 135 of the image display screen 130 (S1009).

<<<画像特徴合成動画生成装置の動作>>>
図11乃至図13を参照しつつ、前述した画像特徴合成動画生成処理(S1006)について詳細に説明する。
<<< Operation of the image feature composition video generator >>>
With reference to FIGS. 11 to 13, the above-described image feature synthesis moving image generation processing (S1006) will be described in detail.

図11に例示されるように、画像特徴合成動画生成装置20は、メモリ61に格納された合成元画像、合成対象画像、及び動画生成条件を読み出し、これら指定された情報に応じて、以下述べる処理を実行する。   As illustrated in FIG. 11, the image feature synthesis moving image generation device 20 reads out a synthesis source image, a synthesis target image, and a video generation condition stored in the memory 61, and will be described below according to the designated information. Execute the process.

画像特徴合成動画生成装置20は、合成元画像152が、カラー画像、単バンド画像、及びパンクロマチック画像の何れに指定されているかを判別する(S1101)。もし、合成元画像152がカラー画像に指定されていると判別された場合(S1101:「カラー」)、R画像152R、G画像152G、及びB画像152Bが合成され(S1102、図12及び図13の処理C)、これにより得られたカラー画像170が合成元画像としてメモリ61に格納される。一方、合成元画像152が単バンド画像又はパンクロマチック画像に指定されていると判別された場合(S1101:「単バンド」、「パンクロマチック」)、合成元画像152は、同様に、指定された状態とされて、メモリ61に格納される。尚、メモリ61に合成元画像152としてカラー画像170が予め記憶されていることとしてもよい。   The image feature synthesis moving image generating apparatus 20 determines whether the synthesis source image 152 is designated as a color image, a single band image, or a panchromatic image (S1101). If it is determined that the composition source image 152 is designated as a color image (S1101: “color”), the R image 152R, the G image 152G, and the B image 152B are synthesized (S1102, FIGS. 12 and 13). Process C), and the color image 170 obtained thereby is stored in the memory 61 as a composition original image. On the other hand, when it is determined that the composition source image 152 is designated as a single band image or a panchromatic image (S1101: “single band”, “panchromatic”), the composition source image 152 is designated as well. And is stored in the memory 61. Note that the color image 170 may be stored in advance in the memory 61 as the composition source image 152.

また、画像特徴合成動画生成装置20は、合成対象画像150、151として、入力画像150に特徴強調処理を施してテクスチャ又はエッジ強調画像151とする、及び、入力画像150に特徴強調処理を施さない、の何れに指定されているかを判別する(S1103)。もし、入力画像150に特徴強調処理を施す旨が指定されていると判別された場合(S1103:「する」)、特徴強調処理部76は、入力画像150に特徴強調処理を施し(S1104、図12及び図13の処理A)、これにより得られたテクスチャ又はエッジ強調画像151を合成対象画像としてメモリ61に格納する。一方、入力画像150に特徴強調処理を施さない旨が指定されていると判別された場合(S1103:「しない」)、入力画像150が合成対象画像とされる(S1110)。   Further, the image feature synthesis moving image generating apparatus 20 performs the feature enhancement process on the input image 150 as the synthesis target images 150 and 151 to obtain the texture or edge enhancement image 151, and does not perform the feature enhancement process on the input image 150. , Which one is designated is discriminated (S1103). If it is determined that the input image 150 is designated to be subjected to feature enhancement processing (S1103: “Yes”), the feature enhancement processing unit 76 performs feature enhancement processing on the input image 150 (S1104, FIG. 12 and processing A) of FIG. 13, and the texture or edge-enhanced image 151 obtained thereby is stored in the memory 61 as a synthesis target image. On the other hand, when it is determined that it is specified that the feature enhancement processing is not performed on the input image 150 (S1103: “No”), the input image 150 is set as a synthesis target image (S1110).

更に、画像特徴合成動画生成装置20は、前述したステップS1104及びS1110のそれぞれに続いて、合成対象画像150、151に施される方向性を有する特徴強調処理がエンボス処理及びエッジ強調処理の何れに指定されているかを判別する(S1105及びS1111)。   Further, the image feature synthesis moving image generating apparatus 20 performs the feature enhancement processing having directionality applied to the synthesis target images 150 and 151 as either the embossing processing or the edge enhancement processing following each of the above-described steps S1104 and S1110. It is determined whether it is designated (S1105 and S1111).

<処理A+B1+C+D+E>
前述したように、合成元画像152が、R画像152R、G画像152G、及びB画像152Bを処理Cで合成したカラー画像170であり(S1101:「カラー」、S1102)、且つ、合成対象画像151が入力画像150を処理Aで特徴強調処理したテクスチャ又はエッジ強調画像151であり(S1103:「する」、S1104)、且つ、この合成対象画像151に施される方向性を有する特徴強調処理がエッジ強調処理である(S1105:「エッジ強調」)と指定されている場合、画像特徴合成動画生成装置20は、以下述べる処理を実行する。
<Process A + B1 + C + D + E>
As described above, the composition source image 152 is the color image 170 obtained by compositing the R image 152R, the G image 152G, and the B image 152B by the process C (S1101: “color”, S1102), and the composition target image 151 Is the texture or edge-enhanced image 151 obtained by performing the feature enhancement process on the input image 150 (S1103: “Yes”, S1104), and the feature enhancement process having directionality applied to the synthesis target image 151 is an edge. When it is designated as enhancement processing (S1105: “edge enhancement”), the image feature synthesis moving image generating apparatus 20 executes processing described below.

図11に例示されるように、エッジ強調画像生成部71は、メモリ61から読み出した合成対象画像151をエッジ強調処理して、例えば45度刻みの8方向に対応する8つのエッジ強調画像(モノクロ)160a乃至160h(これを「エッジ強調画像(モノクロ)160」と総称する)を生成し(S1106、図12の処理B1)、これらをメモリ61に格納する。   As illustrated in FIG. 11, the edge-enhanced image generation unit 71 performs edge-enhancement processing on the compositing target image 151 read from the memory 61, and, for example, eight edge-enhanced images (monochrome) corresponding to 8 directions in increments of 45 degrees. ) 160a to 160h (collectively referred to as “edge-enhanced image (monochrome) 160”) (S1106, process B1 in FIG. 12), and these are stored in the memory 61.

画像特徴合成画像生成部72は、メモリ61から読み出した8つのエッジ強調画像(モノクロ)160a乃至160hのそれぞれと、同メモリ61から読み出したカラー画像170とを合成して、8つの画像特徴合成画像(カラー)180a乃至180h(これを「画像特徴合成画像(カラー)180」と総称する)を生成し(図12の処理D)、続いて、画像特徴合成動画生成部75は、この画像特徴合成画像(カラー)180から、指定された表示順序及び表示速度に従って、画像特徴合成動画(カラー)190を生成する(図12の処理E)(以上、S1107)。この画像特徴合成動画(カラー)190は、メモリ61に格納される。   The image feature composite image generation unit 72 combines each of the eight edge-enhanced images (monochrome) 160a to 160h read from the memory 61 and the color image 170 read from the memory 61, so that eight image feature composite images are obtained. (Color) 180a to 180h (collectively referred to as “image feature composite image (color) 180”) are generated (process D in FIG. 12), and then the image feature composite video generation unit 75 performs this image feature composite. From the image (color) 180, an image feature synthesis moving image (color) 190 is generated in accordance with the designated display order and display speed (process E in FIG. 12) (hereinafter, S1107). This image feature synthesized moving image (color) 190 is stored in the memory 61.

図12の例示によれば、画像特徴合成動画(カラー)190では、例えば表示順序が右回り、表示速度が4fpsであるとすると、画像特徴合成画像(カラー)180a乃至180hが0度から順に右回りで1秒あたり4フレームの速度で切り替わりながら表示される。   According to the illustration of FIG. 12, in the image feature synthesized moving image (color) 190, for example, when the display order is clockwise and the display speed is 4 fps, the image feature synthesized images (color) 180a to 180h are sequentially rightward from 0 degrees. It is displayed while switching around at a rate of 4 frames per second.

<処理A+B2+C+D+E>
前述したように、合成元画像152が、R画像152R、G画像152G、及びB画像152Bを処理Cで合成したカラー画像170であり(S1101:「カラー」、S1102)、且つ、合成対象画像151が入力画像150を処理Aで特徴強調処理したテクスチャ又はエッジ強調画像151であり(S1103:「する」、S1104)、且つ、この合成対象画像151に施される方向性を有する特徴強調処理がエンボス処理である(S1105:「エンボス」)と指定されている場合、画像特徴合成動画生成装置20は、以下述べる処理を実行する。
<Process A + B2 + C + D + E>
As described above, the composition source image 152 is the color image 170 obtained by compositing the R image 152R, the G image 152G, and the B image 152B by the process C (S1101: “color”, S1102), and the composition target image 151 Is a texture or edge-enhanced image 151 obtained by performing feature enhancement processing on the input image 150 (S1103: “Yes”, S1104), and the feature enhancement processing having directionality applied to the synthesis target image 151 is embossed. When the process is designated (S1105: “emboss”), the image feature composition moving image generating apparatus 20 executes the process described below.

図11に例示されるように、エンボス画像生成部70は、メモリ61から読み出した合成対象画像151をエンボス処理して、例えば45度刻みの8方向に対応する8つのエンボス画像(モノクロ)161a乃至161h(これを「エンボス画像(モノクロ)161」と総称する)を生成し(S1108、図13の処理B2)、これらをメモリ61に格納する。   As illustrated in FIG. 11, the embossed image generation unit 70 embosses the compositing target image 151 read from the memory 61, and, for example, eight embossed images (monochrome) 161 a to 161 a corresponding to eight directions in 45 degrees increments. 161h (collectively referred to as “embossed image (monochrome) 161”) is generated (S1108, process B2 in FIG. 13), and stored in the memory 61.

画像特徴合成画像生成部72は、メモリ61から読み出した8つのエンボス画像(モノクロ)161a乃至161hのそれぞれと、同メモリ61から読み出したカラー画像170とを合成して、8つの画像特徴合成画像(カラー)181a乃至181h(これを「画像特徴合成画像(カラー)181」と総称する)を生成し(図13の処理D)、続いて、画像特徴合成動画生成部75は、この画像特徴合成画像(カラー)181から、指定された表示順序及び表示速度に従って、画像特徴合成動画(カラー)191を生成する(図13の処理E)(以上、S1109)。この画像特徴合成動画(カラー)191は、メモリ61に格納される。   The image feature synthesized image generation unit 72 synthesizes each of the eight embossed images (monochrome) 161a to 161h read from the memory 61 and the color image 170 read from the memory 61 to obtain eight image feature synthesized images ( (Color) 181a to 181h (collectively referred to as “image feature composite image (color) 181”) (process D in FIG. 13), and then the image feature composite video generation unit 75 generates the image feature composite image. From the (color) 181, an image feature synthesized moving image (color) 191 is generated in accordance with the designated display order and display speed (process E in FIG. 13) (hereinafter, S 1109). The image feature synthesized moving image (color) 191 is stored in the memory 61.

図13の例示によれば、画像特徴合成動画(カラー)191では、例えば表示順序が右回り、表示速度が4fpsであるとすると、画像特徴合成画像(カラー)181a乃至181hが0度から順に右回りで1秒あたり4フレームの速度で切り替わりながら表示される。   According to the illustration of FIG. 13, in the image feature synthesis moving image (color) 191, for example, when the display order is clockwise and the display speed is 4 fps, the image feature synthesis images (color) 181a to 181h are sequentially rightward from 0 degrees. It is displayed while switching around at a rate of 4 frames per second.

<処理A+B3+C+D+E>
前述したように、合成元画像152が、R画像152R、G画像152G、及びB画像152Bを処理Cで合成したカラー画像170であり(S1101:「カラー」、S1102)、且つ、合成対象画像150が入力画像150であり(S1103:「しない」、S1110)、且つ、この合成対象画像150に施される方向性を有する特徴強調処理がエンボス処理である(S1111:「エンボス」)と指定されている場合、画像特徴合成動画生成装置20は、以下述べる処理を実行する。
<Process A + B3 + C + D + E>
As described above, the composition source image 152 is the color image 170 obtained by compositing the R image 152R, the G image 152G, and the B image 152B by the process C (S1101: “color”, S1102), and the composition target image 150 Is the input image 150 (S1103: “No”, S1110), and the feature enhancement processing having directionality applied to the compositing target image 150 is designated as embossing processing (S1111: “embossing”). If so, the image feature synthesis moving image generating apparatus 20 executes the processing described below.

図11に例示されるように、エンボス画像生成部70は、メモリ61から読み出した合成対象画像150をエンボス処理して、例えば45度刻みの8方向に対応する8つのエンボス画像(モノクロ)161a乃至161hを生成し(S1112、図13の処理B3)、これらをメモリ61に格納する。   As illustrated in FIG. 11, the embossed image generation unit 70 embosses the compositing target image 150 read from the memory 61, for example, eight embossed images (monochrome) 161 a to 161 a corresponding to eight directions in 45 degrees increments. 161h is generated (S1112, process B3 in FIG. 13) and stored in the memory 61.

画像特徴合成画像生成部72は、メモリ61から読み出した8つのエンボス画像(モノクロ)161a乃至161hのそれぞれと、同メモリ61から読み出したカラー画像170とを合成して、8つの画像特徴合成画像(カラー)181a乃至181hを生成し(図13の処理D)、続いて、画像特徴合成動画生成部75は、この画像特徴合成画像(カラー)181から、指定された表示順序及び表示速度に従って、画像特徴合成動画(カラー)191を生成する(図13の処理E)(以上、S1113)。この画像特徴合成動画(カラー)191は、メモリ61に格納される。   The image feature synthesized image generation unit 72 synthesizes each of the eight embossed images (monochrome) 161a to 161h read from the memory 61 and the color image 170 read from the memory 61 to obtain eight image feature synthesized images ( Color) 181a to 181h (process D in FIG. 13), and then the image feature synthesis moving image generation unit 75 generates an image from the image feature synthesis image (color) 181 according to the designated display order and display speed. A feature synthesized moving image (color) 191 is generated (Processing E in FIG. 13) (S1113). The image feature synthesized moving image (color) 191 is stored in the memory 61.

<処理A+B4+C+D+E>
前述したように、合成元画像152が、R画像152R、G画像152G、及びB画像152Bを処理Cで合成したカラー画像170であり(S1101:「カラー」、S1102)、且つ、合成対象画像151が入力画像150であり(S1103:「しない」、S1110)、且つ、この合成対象画像150に施される方向性を有する特徴強調処理がエッジ強調処理である(S1111:「エッジ強調」)と指定されている場合、画像特徴合成動画生成装置20は、以下述べる処理を実行する。
<Process A + B4 + C + D + E>
As described above, the composition source image 152 is the color image 170 obtained by compositing the R image 152R, the G image 152G, and the B image 152B by the process C (S1101: “color”, S1102), and the composition target image 151 Is the input image 150 (S1103: “No”, S1110), and the feature enhancement processing having directionality applied to the synthesis target image 150 is designated as edge enhancement processing (S1111: “edge enhancement”). If it is, the image feature synthesis moving image generating apparatus 20 executes the processing described below.

図11に例示されるように、エッジ強調画像生成部71は、メモリ61から読み出した合成対象画像150をエッジ強調処理して、例えば45度刻みの8方向に対応する8つのエッジ強調画像(モノクロ)160a乃至160hを生成し(S1114、図12の処理B4)、これらをメモリ61に格納する。   As illustrated in FIG. 11, the edge-enhanced image generation unit 71 performs edge-enhancement processing on the compositing target image 150 read from the memory 61, for example, eight edge-enhanced images (monochrome) corresponding to 8 directions in 45 ° increments. ) 160a to 160h are generated (S1114, process B4 in FIG. 12), and these are stored in the memory 61.

画像特徴合成画像生成部72は、メモリ61から読み出した8つのエッジ強調画像(モノクロ)160a乃至160hのそれぞれと、同メモリ61から読み出したカラー画像170とを合成して、8つの画像特徴合成画像(カラー)180a乃至180hを生成し(図12の処理D)、続いて、画像特徴合成動画生成部75は、この画像特徴合成画像(カラー)180から、指定された表示順序及び表示速度に従って、画像特徴合成動画(カラー)190を生成する(図12の処理E)(以上、S1115)。この画像特徴合成動画(カラー)190は、メモリ61に格納される。   The image feature composite image generation unit 72 combines each of the eight edge-enhanced images (monochrome) 160a to 160h read from the memory 61 and the color image 170 read from the memory 61, so that eight image feature composite images are obtained. (Color) 180a to 180h are generated (Processing D in FIG. 12), and then the image feature synthesis moving image generation unit 75 generates the image feature synthesis image (color) 180 from the specified display order and display speed. An image feature synthesized moving image (color) 190 is generated (processing E in FIG. 12) (S1115 above). This image feature synthesized moving image (color) 190 is stored in the memory 61.

<同種画像及び異種画像>
前述した画像特徴合成動画生成処理(S1006)において、合成対象画像150、151は、合成元画像152と同一の画像(同一画像、同種画像)、合成元画像152と異なるが同画像152から得られる画像(同種画像)、及び合成元画像152と観測対象や観測手段等が異なるために同画像152からは得られない画像(異種画像)の何れであってもよい。ここで、観測対象は、対象物の他に例えば観測時期等も含み、観測手段は、観測装置の他に例えば観測波長等も含む。
<Same image and different image>
In the above-described image feature synthesis moving image generation processing (S1006), the synthesis target images 150 and 151 are obtained from the same image 152 as the synthesis source image 152 (the same image and the same image), but different from the synthesis source image 152. Any of the image (same kind image) and the image (heterogeneous image) that cannot be obtained from the same image 152 because the observation target, the observation means, and the like are different from the synthesis source image 152 may be used. Here, the observation target includes, for example, an observation period in addition to the target object, and the observation means includes, for example, an observation wavelength in addition to the observation apparatus.

前述した同種画像の例として、合成元画像152が、R画像152R、G画像152G、及びB画像152Bからなる画像であり、合成対象画像150、151が、R画像152Rである場合が挙げられる。   As an example of the same kind of image described above, there is a case where the composition source image 152 is an image including the R image 152R, the G image 152G, and the B image 152B, and the composition target images 150 and 151 are the R image 152R.

前述した異種画像の例として、合成元画像152及び合成対象画像150、151が、同一の観測対象を異なる観測手段で観測して得られた画像である場合や、異なる観測対象を同一の観測手段で観測して得られた画像である場合等が挙げられる。具体的には、合成元画像152及び合成対象画像150、151が同一対象物を異なる光学センサを通じて観測して得られた画像である場合、同一対象物に関して合成元画像152が光学センサ画像であり合成対象画像150、151がマイクロ波映像レーダ画像やハイパースペクトル画像等である場合、同一対象物に関して合成元画像152が光学センサ画像であり合成対象画像150、151がレーザスキャナ画像である場合、同一対象物に関して合成元画像152が光学センサ画像であり合成対象画像150、151が数値地形モデル(DTM:Digital Terrain Model)である場合、合成元画像152及び合成対象画像150、151が観測時期の異なる衛星画像である場合、合成元画像152及び合成対象画像150、151が計測時期の異なる検査・医療画像である場合等である。   As an example of the heterogeneous image described above, when the composition source image 152 and the composition target images 150 and 151 are images obtained by observing the same observation target with different observation means, or different observation targets are the same observation means. The case where it is the image obtained by observing in FIG. Specifically, when the composition source image 152 and the composition target images 150 and 151 are images obtained by observing the same object through different optical sensors, the composition source image 152 is an optical sensor image with respect to the same object. When the synthesis target images 150 and 151 are microwave video radar images, hyperspectral images, etc., the same is true when the synthesis source image 152 is an optical sensor image and the synthesis target images 150 and 151 are laser scanner images with respect to the same object. When the compositing source image 152 is an optical sensor image and the compositing target images 150 and 151 are digital terrain models (DTM: Digital Terrain Model), the compositing original image 152 and the compositing target images 150 and 151 have different observation times. In the case of a satellite image, the compositing source image 152 and the compositing target images 150 and 151 are displayed at the measurement time. , And the like if it is inspection and medical image to be.

<合成画像>
前述した画像特徴合成動画生成処理(S1006)のうちの処理D(図12及び図13)において、画像特徴合成画像(カラー)180、181の各画素の画素値をQ(i)とし、合成元画像(カラー)152の各画素の画素値をPとし、エッジ強調画像(モノクロ)160及びエンボス画像(モノクロ)161の各画素の画素値をE(i)とし、iをエッジ強調処理及びエンボス処理の方向を示す1乃至8の自然数とすると、画素値Q(i)は、例えば、画素値E(i)が128以上の場合には次式(1)によって求めることができ、画素値E(i)が128未満の場合には次式(2)によって求めることができる。
Q(i)=2×(P+E(i)−P×E(i)/255)−255 …(1)
Q(i)=P×E(i)×2/255 …(2)
<Composite image>
In the process D (FIGS. 12 and 13) in the image feature synthesized moving image generation process (S1006) described above, the pixel value of each pixel of the image feature synthesized image (color) 180, 181 is set to Q (i), and the synthesis source The pixel value of each pixel of the image (color) 152 is set to P, the pixel value of each pixel of the edge enhanced image (monochrome) 160 and the embossed image (monochrome) 161 is set to E (i), and i is edge enhanced processing and embossed processing. For example, when the pixel value E (i) is 128 or more, the pixel value Q (i) can be obtained by the following equation (1), and the pixel value E ( When i) is less than 128, it can be obtained by the following equation (2).
Q (i) = 2 × (P + E (i) −P × E (i) / 255) −255 (1)
Q (i) = P × E (i) × 2/255 (2)

===動画生成例===
図14乃至図19を参照しつつ、画像特徴合成動画の生成例について説明する。尚、本生成例では、エンボス処理における照射方向を45度刻みの8方向、動画におけるエンボス画像の表示される順序を右回りとしている。
=== Example of video generation ===
A generation example of an image feature synthesis moving image will be described with reference to FIGS. In this generation example, the irradiation direction in the embossing process is eight directions in 45 degree increments, and the display order of the embossed images in the moving image is clockwise.

<<<第1の例>>>
図14では、(a)は、衛星画像の合成元画像(カラー)152を例示し、(b)は、同衛星画像の合成対象画像としてのテクスチャ強調画像(モノクロ)151を例示している。尚、本例では、合成対象画像の源泉としての入力画像(カラー)150は、合成元画像(カラー)152と同一である。また、テクスチャ強調処理では、分散の特徴量が求められている。図14(a)及び図14(b)を比較すると、テクスチャ強調画像(モノクロ)151は、合成元画像(カラー)152の画像特徴を強調するものではあるが、同画像152の画質を維持するものではないことがわかる。
<<< First example >>>
In FIG. 14, (a) exemplifies a source image (color) 152 of a satellite image, and (b) exemplifies a texture enhanced image (monochrome) 151 as a synthesis target image of the satellite image. In this example, the input image (color) 150 as the source of the compositing target image is the same as the compositing original image (color) 152. Further, in the texture enhancement process, a dispersion feature amount is required. Comparing FIG. 14A and FIG. 14B, the texture-enhanced image (monochrome) 151 enhances the image characteristics of the composition source image (color) 152, but maintains the image quality of the image 152. It turns out that it is not a thing.

そこで、図15に例示されるように、本実施の形態の画像特徴合成動画生成装置20を用いて、図14(b)のテクスチャ強調画像(モノクロ)151に対し複数の照射方向を有するエンボス処理を施して複数のエンボス画像(モノクロ)161a乃至161hを生成する。続いて、図16に例示されるように、図15の複数のエンボス画像(モノクロ)161a乃至161hのそれぞれに、図14(a)の合成元画像(カラー)152を合成して、複数の画像特徴合成画像(カラー)181a乃至181hを生成する。   Therefore, as illustrated in FIG. 15, emboss processing having a plurality of irradiation directions with respect to the texture-enhanced image (monochrome) 151 in FIG. 14B using the image feature synthesis moving image generating apparatus 20 of the present embodiment. To generate a plurality of embossed images (monochrome) 161a to 161h. Subsequently, as illustrated in FIG. 16, the composite original image (color) 152 in FIG. 14A is combined with each of the plurality of embossed images (monochrome) 161a to 161h in FIG. Feature composite images (colors) 181a to 181h are generated.

図16の画像特徴合成画像(カラー)181a乃至181hでは、凹凸についての錯視が光の照射方向によって異なっている上に、各画像181a乃至181hの画質が図14(a)の合成元画像(カラー)152の画質を反映していることがわかる。よって、これらの画像特徴合成画像(カラー)181a乃至181hが連続的に切り替えられて表示されることにより、画像特徴合成動画(カラー)191(図17)では、合成元画像(カラー)152の画質が維持されつつ、擬似回転錯視の誘発によってテクスチャ強調画像(モノクロ)151の特徴が強調・先鋭化される。尚、図17は、画像特徴合成動画191を便宜上静止画として例示するものであり、実際の動的陰影変化を把握する上での単に一つの目安を与えるものである。   In the image feature composite images (colors) 181a to 181h in FIG. 16, the optical illusion about the unevenness differs depending on the light irradiation direction, and the image quality of each of the images 181a to 181h is the composite original image (color) in FIG. It can be seen that the image quality of 152 is reflected. Therefore, these image feature composite images (colors) 181a to 181h are continuously switched and displayed, so that in the image feature composite video (color) 191 (FIG. 17), the image quality of the composite original image (color) 152 is displayed. Is maintained, and the feature of the texture-enhanced image (monochrome) 151 is enhanced and sharpened by induction of the pseudo-rotational illusion. Note that FIG. 17 illustrates the image feature synthesis moving image 191 as a still image for convenience, and merely gives one standard for grasping an actual dynamic shadow change.

<<<第2の例>>>
図18では、(a)は、蟹を対象物とする合成元画像(カラー)152’を例示し、(b)は、その画像特徴合成動画(カラー)191’を例示している。尚、図18(b)は、画像特徴合成動画191’を便宜上静止画として例示するものであり、実際の動的陰影変化を把握する上での単に一つの目安を与えるものである。また、本例では、合成対象画像の源泉としての入力画像(カラー)150’は、合成元画像(カラー)152’と同一である。
<<< second example >>>
In FIG. 18, (a) exemplifies a composition original image (color) 152 ′ with a bag as an object, and (b) exemplifies the image feature composition moving image (color) 191 ′. Note that FIG. 18B illustrates the image feature synthesis moving image 191 ′ as a still image for convenience, and provides only one standard for grasping the actual dynamic shadow change. In this example, the input image (color) 150 ′ as the source of the compositing target image is the same as the compositing source image (color) 152 ′.

本実施の形態の画像特徴合成動画生成装置20を用いて、図18(a)の入力画像(カラー)150’に対しエッジ強調処理を施して合成対象画像としてのエッジ強調画像(モノクロ)を生成し、このエッジ強調画像(モノクロ)に対し複数の照射方向を有するエンボス処理を施して複数のエンボス画像(モノクロ)を生成し、これら複数のエンボス画像(モノクロ)のそれぞれに、図18(a)の合成元画像(カラー)152’を合成して複数の画像特徴合成画像(カラー)を生成する。尚、エッジ強調処理では、Sobelフィルタが適用されている。   Using the image feature synthesis moving image generation apparatus 20 of the present embodiment, edge enhancement processing is performed on the input image (color) 150 ′ in FIG. 18A to generate an edge enhancement image (monochrome) as a synthesis target image. Then, an embossing process having a plurality of irradiation directions is applied to the edge-enhanced image (monochrome) to generate a plurality of embossed images (monochrome). Each of the plurality of embossed images (monochrome) is shown in FIG. Are synthesized to generate a plurality of image feature synthesized images (colors). In the edge enhancement process, a Sobel filter is applied.

これら複数の画像特徴合成画像(カラー)が連続的に切り替えられて表示されることにより、画像特徴合成動画(カラー)191’では、合成元画像(カラー)152’の画質が維持されつつ、擬似回転錯視の誘発によってエッジ強調画像(モノクロ)の特徴が強調される。即ち、図18(b)では、蟹の毛等のエッジが強調されつつ、蟹の甲羅表面等を表わす画質が維持されていることがわかる。   The plurality of image feature composite images (colors) are continuously switched and displayed, so that in the image feature composite video (color) 191 ′, the image quality of the composition source image (color) 152 ′ is maintained, and the pseudo The feature of the edge-enhanced image (monochrome) is enhanced by inducing the rotation illusion. That is, in FIG. 18B, it is understood that the image quality representing the shell surface of the cocoon and the like is maintained while the edges of the cocoon hair and the like are emphasized.

<<<第3の例>>>
図19では、(a)は、コンクリート壁を対象物とする合成元画像(カラー)152”を例示し、(b)は、その画像特徴合成動画(カラー)191”を例示している。尚、図19(b)は、画像特徴合成動画191”を便宜上静止画として例示するものであり、実際の動的陰影変化を把握する上での単に一つの目安を与えるものである。また、本例では、合成対象画像の源泉としての入力画像(カラー)150”は、合成元画像(カラー)152”と同一である。
<<< Third example >>>
In FIG. 19, (a) exemplifies a composition original image (color) 152 ″ having a concrete wall as an object, and (b) illustrates the image feature composition moving image (color) 191 ″. Note that FIG. 19B illustrates the image feature synthesis moving image 191 ″ as a still image for convenience, and provides only one guide for grasping the actual dynamic shadow change. In this example, the input image (color) 150 ″ as the source of the composition target image is the same as the composition original image (color) 152 ″.

本実施の形態の画像特徴合成動画生成装置20を用いて、図19(a)の入力画像(カラー)150”に対しテクスチャ強調処理を施して合成対象画像としてのテクスチャ強調画像(モノクロ)を生成し、このテクスチャ強調画像(モノクロ)に対し複数の照射方向を有するエンボス処理を施して複数のエンボス画像(モノクロ)を生成し、これら複数のエンボス画像(モノクロ)のそれぞれに、図19(a)の合成元画像(カラー)152”を合成して複数の画像特徴合成画像(カラー)を生成する。尚、テクスチャ強調処理では、平均の特徴量が求められている。   Using the image feature synthesis moving image generation apparatus 20 of the present embodiment, a texture enhancement process (monochrome) is generated as a synthesis target image by performing a texture enhancement process on the input image (color) 150 ″ of FIG. Then, the texture emphasizing image (monochrome) is embossed with a plurality of irradiation directions to generate a plurality of embossed images (monochrome). Each of the plurality of embossed images (monochrome) is shown in FIG. Are synthesized to generate a plurality of image feature synthesized images (colors). In the texture enhancement process, an average feature amount is obtained.

これら複数の画像特徴合成画像(カラー)が連続的に切り替えられて表示されることにより、画像特徴合成動画(カラー)191”では、合成元画像(カラー)152”の画質が維持されつつ、擬似回転錯視の誘発によってテクスチャ強調画像(モノクロ)の特徴が強調される。即ち、図19(b)では、コンクリート壁のひび割れ等のエッジが強調されつつ、コンクリート壁の表面等を表わす画質が維持されていることがわかる。   The plurality of image feature synthesized images (colors) are continuously switched and displayed, so that the image feature synthesized moving image (color) 191 ″ maintains the image quality of the synthesis source image (color) 152 ″ while maintaining the image quality. The feature of the texture-enhanced image (monochrome) is enhanced by inducing the rotational illusion. That is, in FIG. 19B, it can be seen that the image quality representing the surface of the concrete wall and the like is maintained while the edges of the concrete wall such as cracks are emphasized.

以上、第1乃至第3の例では、テクスチャやエッジ等が強調された合成対象画像にエンボス処理を施し(図13の処理B2)、これと合成元画像とを合成して得られた画像特徴合成画像から生成された画像特徴合成動画について述べた。   As described above, in the first to third examples, the image feature obtained by embossing the image to be synthesized with the texture, the edge, etc. emphasized (processing B2 in FIG. 13) and synthesizing the synthesized image. An image feature synthesis video generated from a composite image was described.

同様に、合成対象画像にエッジ強調処理を施し(図12の処理B1、B4)、これと合成元画像とを合成して得られた画像特徴合成画像から生成された画像特徴合成動画についても、前述した第1乃至第3の例と同等の効果が得られる。即ち、画像特徴合成動画において、合成元画像の画質が維持されつつ、擬似回転錯視の誘発によって合成対象画像としてのエッジ強調画像の特徴が強調される。   Similarly, an image feature synthesis moving image generated from an image feature synthesis image obtained by performing edge enhancement processing on the synthesis target image (processing B1 and B4 in FIG. 12) and synthesizing this with the synthesis source image, The same effects as those of the first to third examples described above can be obtained. That is, in the image feature synthesis moving image, the feature of the edge-enhanced image as the synthesis target image is enhanced by inducing the pseudo-rotation illusion while maintaining the image quality of the synthesis source image.

===画質維持且つ特徴強調===
本実施の形態の画像特徴合成動画生成装置20は、少なくとも、合成対象画像150、151に対して複数方向のエッジをそれぞれ強調した複数のエッジ強調画像160を生成するエッジ強調画像生成部71と、複数のエッジ強調画像160と合成元画像152をそれぞれ合成した複数の合成画像(画像特徴合成画像180)を生成する合成画像生成部(画像特徴合成画像生成部72)と、複数の合成画像が連続的に切り替えて表示される合成動画(画像特徴合成動画190)を生成する合成動画生成部(画像特徴合成動画生成部75)とを備えていればよい。これにより、合成動画において、合成元画像152の画質が維持されつつ、擬似回転錯視の誘発によってエッジ強調画像160の特徴が強調される。
=== Image quality maintenance and feature enhancement ===
The image feature synthesis moving image generation apparatus 20 according to the present embodiment includes at least an edge-enhanced image generation unit 71 that generates a plurality of edge-enhanced images 160 obtained by emphasizing edges in a plurality of directions with respect to the synthesis target images 150 and 151. A composite image generation unit (image feature composite image generation unit 72) that generates a plurality of composite images (image feature composite image 180) obtained by combining the plurality of edge-enhanced images 160 and the composite original image 152, and the plurality of composite images are continuous. It is only necessary to include a synthesized moving image generating unit (image feature synthesized moving image generating unit 75) that generates a synthesized moving image (image feature synthesized moving image 190) to be switched and displayed. Thereby, in the synthesized moving image, the feature of the edge enhanced image 160 is enhanced by the induction of the pseudo-rotational illusion while maintaining the image quality of the synthesized original image 152.

また、前述した画像特徴合成動画生成装置20において、合成対象画像151は、所定の要素が強調された画像である。これにより、所定の要素が更に強調されるため、合成動画における画像強調・先鋭化がより向上する。   In the above-described image feature synthesis moving image generating apparatus 20, the synthesis target image 151 is an image in which a predetermined element is emphasized. Thereby, since a predetermined element is further emphasized, the image enhancement and sharpening in the synthesized moving image are further improved.

また、前述した画像特徴合成動画生成装置20において、所定の要素は、テクスチャ又はエッジである。これにより、合成元画像152におけるきめや粗さ等又は辺縁(エッジ)が更に強調されるため、合成動画における画像強調・先鋭化がより一層向上する。   In the above-described image feature synthesis moving image generating apparatus 20, the predetermined element is a texture or an edge. This further enhances the texture, roughness, etc., or the edges (edges) in the composite original image 152, thereby further improving image enhancement and sharpening in the composite moving image.

また、前述した画像特徴合成動画生成装置20において、合成対象画像150、151は、合成元画像152とは異なる画像であることとしてもよい。これにより、例えば、合成対象画像150、151の特徴がより際立つ。   In the above-described image feature synthesized moving image generating apparatus 20, the synthesis target images 150 and 151 may be images different from the synthesis source image 152. Thereby, for example, the characteristics of the compositing target images 150 and 151 are more conspicuous.

また、前述した画像特徴合成動画生成装置20において、合成対象画像150、151は、合成元画像152と同一の画像であることとしてもよい。これにより、例えば、合成対象画像150、151の特徴が判読し易くなる。   Further, in the above-described image feature synthesized moving image generating apparatus 20, the synthesis target images 150 and 151 may be the same images as the synthesis source image 152. Thereby, for example, the characteristics of the compositing target images 150 and 151 can be easily read.

また、前述した画像特徴合成動画生成装置20において、合成元画像152は、R画像152R、G画像152G、B画像152Bを含んで構成されることとしてもよい。これにより、合成動画において、画質の維持及び特徴の強調がより一層向上する。   In the above-described image feature synthesized moving image generating apparatus 20, the synthesis source image 152 may include an R image 152R, a G image 152G, and a B image 152B. Thereby, the maintenance of image quality and the enhancement of features are further improved in the synthesized moving image.

また、本実施の形態の画像特徴合成動画生成装置20は、少なくとも、所定の要素が強調された合成対象画像151に対して複数方向をそれぞれ光源とみなす複数のエンボス画像161を生成するエンボス画像生成部70と、複数のエンボス画像161と合成元画像152をそれぞれ合成した複数の合成画像(画像特徴合成画像181)を生成する合成画像生成部(画像特徴合成画像生成部72)と、複数の合成画像が連続的に切り替えて表示される合成動画(画像特徴合成動画191)を生成する合成動画生成部(画像特徴合成動画生成部75)とを備えていればよい。
これにより、合成動画において、合成元画像152の画質が維持されつつ、擬似回転錯視の誘発によってエンボス画像161の特徴が強調される。
In addition, the image feature synthesis moving image generation apparatus 20 according to the present embodiment generates an emboss image 161 that generates a plurality of emboss images 161 that regard at least a plurality of directions as light sources with respect to the synthesis target image 151 in which a predetermined element is emphasized. Unit 70, a composite image generation unit (image feature composite image generation unit 72) that generates a plurality of composite images (image feature composite image 181) by respectively combining the plurality of embossed images 161 and composite original image 152, and a plurality of composites What is necessary is just to provide the synthetic | combination moving image production | generation part (image feature synthetic | combination moving image generation part 75) which produces | generates the synthetic | combination moving image (image feature synthetic | combination moving image 191) by which an image is switched continuously.
Thereby, in the synthesized moving image, the characteristics of the embossed image 161 are enhanced by inducing the pseudo-rotational illusion while maintaining the image quality of the synthesized original image 152.

以上述べたように、本実施の形態の画像特徴合成動画生成装置20によれば、様々な組合せの合成元画像及び合成対象画像について、合成元画像の画質を維持しつつ合成対象画像の特徴が強調される。よって、同装置20は、例えば、土地被覆変化解析(環境変化分析)、鉱物探査(リニアメント解析)、防災(被災領域の分析把握)、医療画像分析、検査計測画像分析等に適用可能である。   As described above, according to the image feature synthesis moving image generating apparatus 20 of the present embodiment, for the synthesis source image and synthesis target image in various combinations, the characteristics of the synthesis target image are maintained while maintaining the image quality of the synthesis source image. To be emphasized. Therefore, the apparatus 20 can be applied to, for example, land cover change analysis (environment change analysis), mineral exploration (lineament analysis), disaster prevention (analysis and grasp of damaged area), medical image analysis, inspection measurement image analysis, and the like.

===その他の画像特徴合成動画生成処理===
図20乃至図24を参照しつつ、前述した画像特徴合成動画生成装置20によるその他の画像特徴合成動画生成処理について説明する。
尚、図20は、画像特徴合成動画を生成するためのその他の動画生成画面200の一例を示す模式図である。図21は、画像特徴合成動画生成システムのその他の処理手順の一例を示すフローチャートである。図22は、画像特徴合成動画生成装置20のその他の処理手順の一例を示すフローチャートである。図23は、その他の画像特徴合成動画生成処理のイメージ図である。図24(a)は、衛星画像の合成元画像251の一例を示す図であり、図24(b)は、同衛星画像の合成対象画像250の一例を示す図であり、図24(c)は、同衛星画像の画像特徴合成動画300の一例を示す図である。
=== Other image feature composition video generation processing ===
With reference to FIGS. 20 to 24, other image feature synthesis moving image generation processing by the above-described image feature synthesis moving image generation apparatus 20 will be described.
FIG. 20 is a schematic diagram illustrating an example of another moving image generation screen 200 for generating an image feature synthesized moving image. FIG. 21 is a flowchart illustrating an example of another processing procedure of the image feature synthesis moving image generation system. FIG. 22 is a flowchart illustrating an example of another processing procedure of the image feature synthesis moving image generating apparatus 20. FIG. 23 is an image diagram of other image feature synthesis moving image generation processing. FIG. 24A is a diagram showing an example of a satellite image synthesis source image 251, and FIG. 24B is a diagram showing an example of a synthesis target image 250 of the satellite image, and FIG. These are figures which show an example of the image feature synthetic animation 300 of the satellite image.

<<<クライアントのその他の画面>>>
図20に例示されるように、前述したクライアント10において、画像特徴合成動画を生成する際の条件等を入力するための動画生成画面200は、合成元画像入力エリア210と、合成対象画像入力エリア211と、動画生成条件選択エリア212と、動画生成ボタン213とに分かれている。
<<< Other client screens >>>
As illustrated in FIG. 20, in the client 10 described above, a moving image generation screen 200 for inputting conditions and the like when generating an image feature combined moving image includes a combining source image input area 210, a combining target image input area, and the like. 211, a moving image generation condition selection area 212, and a moving image generation button 213.

合成元画像入力エリア210では、合成元画像の格納先(ファイルパス名等)が入力されるようになっている。また、合成元画像入力エリア210では、入力された合成元画像を、更に、GB画像(R画像及びG画像)、RB画像(R画像及びG画像)、及びRG画像(R画像及びG画像)の何れの状態とするかが選択されるようになっている。
合成対象画像入力エリア211は、合成対象画像の格納先(ファイルパス名等)が入力されるようになっている。
In the composition source image input area 210, the storage destination (file path name, etc.) of the composition source image is input. Further, in the composition source image input area 210, the input composition source image is further divided into a GB image (R image and G image), an RB image (R image and G image), and an RG image (R image and G image). Which state is selected is selected.
In the compositing target image input area 211, a storage destination (file path name or the like) of the compositing target image is input.

動画生成条件選択エリア212は、更に、照射方向選択エリア212aと、エンボスパターン選択エリア212bと、表示順序選択エリア212cと、表示速度選択エリア212dとに分かれている。照射方向選択エリア212aでは、合成対象画像にエンボス処理を施す際の照射方向が選択されるようになっており、例えば、4方向、8方向、及び16方向の何れかが選択されるようになっている。エンボスパターン選択エリア212bでは、エンボス処理のための異なるフィルタ係数(行列のサイズや重み等)を表わす例えば3つのパターンのエンボス処理の何れかが選択されるようになっている。表示順序選択エリア212cでは、画像特徴合成動画におけるエンボス画像の表示順序が選択されるようになっており、例えば、右回り、左回り、ランダム、一方向、たすきがけの何れかが選択されるようになっている。表示速度選択エリア212dでは、画像特徴合成動画におけるエンボス画像の切り替わる速度が選択されるようになっており、例えば、4fps(flame per second)、8fps、16fpsの何れかが選択されるようになっている。
動画生成ボタン213は、前述した各エリア210乃至212で選択又は入力された情報を画像特徴合成動画生成装置20に送信するためのものである。
The moving image generation condition selection area 212 is further divided into an irradiation direction selection area 212a, an emboss pattern selection area 212b, a display order selection area 212c, and a display speed selection area 212d. In the irradiation direction selection area 212a, an irradiation direction at the time of embossing the composition target image is selected. For example, any one of four directions, eight directions, and sixteen directions is selected. ing. In the emboss pattern selection area 212b, one of, for example, three patterns of emboss processing representing different filter coefficients (matrix size, weight, etc.) for emboss processing is selected. In the display order selection area 212c, the display order of the embossed images in the image feature composition moving image is selected. For example, one of clockwise, counterclockwise, random, one-way, and marking is selected. It has become. In the display speed selection area 212d, the speed at which the embossed image is switched in the image feature composition moving image is selected. For example, any one of 4 fps (flame per second), 8 fps, and 16 fps is selected. Yes.
The moving image generation button 213 is used to transmit information selected or input in the above-described areas 210 to 212 to the image feature synthesis moving image generation apparatus 20.

<<<画像特徴合成動画生成システムのその他の動作>>>
図21に例示されるように、クライアント10では、合成元画像及び合成対象画像が選択される(S2001)。具体的には、動画生成画面200における合成元画像入力エリア210及び合成対象画像入力エリア211において、合成元画像の格納先及び合成対象画像の格納先がそれぞれ入力される。尚、合成元画像に関しては、更に、GB画像、RB画像、及びRG画像の何れかが選択される。
<<< Other features of the image feature composition video generation system >>>
As illustrated in FIG. 21, in the client 10, a composition source image and a composition target image are selected (S2001). Specifically, in the synthesis source image input area 210 and the synthesis target image input area 211 on the moving image generation screen 200, the storage destination of the synthesis source image and the storage destination of the synthesis target image are input. Note that any one of the GB image, the RB image, and the RG image is further selected for the composition source image.

また、クライアント10では、画像特徴合成動画を生成するための動画生成条件が選択される(S2002)。具体的には、動画生成画面200における動画生成条件選択エリア212において、照射方向、エンボスパターン、表示順序、及び表示速度が選択される。   In addition, the client 10 selects a moving image generation condition for generating an image feature composite moving image (S2002). Specifically, an irradiation direction, an emboss pattern, a display order, and a display speed are selected in the moving image generation condition selection area 212 on the moving image generation screen 200.

動画生成画面200の動画生成ボタン213が押下されると、クライアント10は、入力又は選択された画像及び動画生成条件を、画像特徴合成動画生成装置20に送信する(S2003)。
画像特徴合成動画生成装置20は、クライアント10から送信されてくる画像及び動画生成条件を受信し(S2004)、メモリ61に格納する。
画像特徴合成動画生成装置20は、メモリ61から画像及び動画生成条件を読み出し、画像特徴合成動画の生成処理を実行し(S2005)、メモリ61に格納する。
画像特徴合成動画生成装置20は、メモリ61から画像特徴合成動画を読み出してクライアント10に送信する(S2006)。
クライアント10は、画像特徴合成動画生成装置20から送信されてくる画像特徴合成動画を受信し(S2007)、前述した画像表示画面130の画像特徴合成動画表示領域135(図9参照)に動画を表示する(S2008)。
When the moving image generation button 213 on the moving image generation screen 200 is pressed, the client 10 transmits the input or selected image and the moving image generation condition to the image feature synthesis moving image generation apparatus 20 (S2003).
The image feature synthesis moving image generating apparatus 20 receives the image and moving image generation conditions transmitted from the client 10 (S2004) and stores them in the memory 61.
The image feature synthesis moving image generation apparatus 20 reads out the image and movie generation conditions from the memory 61, executes the image feature synthesis movie generation processing (S2005), and stores them in the memory 61.
The image feature synthesized moving image generation apparatus 20 reads the image feature synthesized movie from the memory 61 and transmits it to the client 10 (S2006).
The client 10 receives the image feature synthesized moving image transmitted from the image feature synthesized movie generating apparatus 20 (S2007), and displays the movie in the image feature synthesized movie display area 135 (see FIG. 9) of the image display screen 130 described above. (S2008).

<<<画像特徴合成動画生成装置のその他の動作>>>
図22乃至図24を参照しつつ、前述した画像特徴合成動画生成処理(S2005)について詳細に説明する。
図22に例示されるように、画像特徴合成動画生成装置20は、メモリ61に格納された合成元画像、合成対象画像、及び動画生成条件を読み出し、これら指定された情報に応じて、以下述べる処理を実行する。
画像特徴合成動画生成装置20は、合成元画像251が、GB画像、RB画像、及びRG画像の何れに指定されているかを判別する(S2101)。
<<< Other operations of the image feature composition video generator >>>
With reference to FIGS. 22 to 24, the above-described image feature synthesis moving image generation processing (S2005) will be described in detail.
As illustrated in FIG. 22, the image feature synthesis moving image generation apparatus 20 reads out a synthesis source image, a synthesis target image, and a video generation condition stored in the memory 61, and will be described below according to the designated information. Execute the process.
The image feature synthesis moving image generating apparatus 20 determines whether the synthesis source image 251 is designated as a GB image, an RB image, or an RG image (S2101).

<合成元画像GB/合成対象画像R>
合成元画像251がGB画像に指定されていると判別された場合(S2101:「GB」)、G画像及びB画像が合成され(S2102、図23の処理X)、これにより得られたGB画像270が合成元画像としてメモリ61に格納される。尚、メモリ61に合成元画像251として画像270が予め記憶されていることとしてもよい。
<Composition source image GB / Composition target image R>
When it is determined that the synthesis source image 251 is designated as a GB image (S2101: “GB”), the G image and the B image are synthesized (S2102, process X in FIG. 23), and the GB image obtained thereby 270 is stored in the memory 61 as a composition original image. Note that the image 270 may be stored in advance in the memory 61 as the composition source image 251.

前述したエンボス画像生成部70は、メモリ61から読み出した合成対象画像250のうちのR画像のみに対し例えば45度刻みの8方向に対応する8つのエンボス画像(モノクロ)260a乃至260h(これを「エンボス画像(モノクロ)260」と総称する)を生成し(S2103、図23の処理V)、これらをメモリ61に格納する。   The embossed image generation unit 70 described above applies eight embossed images (monochrome) 260a to 260h corresponding to eight directions in increments of 45 degrees, for example, only for the R image of the compositing target image 250 read out from the memory 61 (the " Embossed image (monochrome) 260 ”is generated (S2103, process V in FIG. 23), and these are stored in the memory 61.

また、このエンボス画像生成部70は、メモリ61から読み出した8つのエンボス画像(モノクロ)260a乃至260hのそれぞれと、同メモリ61から読み出したR画像の合成対象画像250とを合成して、8つのエンボス画像(カラー)280a乃至280h(これを「エンボス画像(カラー)280」と総称する)を生成する(S2104、図23の処理W)。   The embossed image generation unit 70 combines each of the eight embossed images (monochrome) 260a to 260h read from the memory 61 with the R image compositing target image 250 read from the memory 61 to obtain eight embossed images (monochrome) 260a to 260h. Embossed images (color) 280a to 280h (collectively referred to as “embossed image (color) 280”) are generated (S2104, process W in FIG. 23).

前述した画像特徴合成画像生成部72は、メモリ61から読み出した8つのエンボス画像(カラー)280a乃至280hのそれぞれと、同メモリ61から読み出したGB画像270とを合成して、8つの画像特徴合成画像(カラー)290a乃至290h(これを「画像特徴合成画像(カラー)290」と総称する)を生成し(図23の処理Y)、続いて、前述した画像特徴合成動画生成部75は、この画像特徴合成画像(カラー)290から、指定された表示順序及び表示速度に従って、画像特徴合成動画(カラー)300を生成する(図23の処理Z)(以上、S2105)。この画像特徴合成動画(カラー)300は、メモリ61に格納される。   The above-described image feature synthesis image generation unit 72 synthesizes each of the eight embossed images (colors) 280a to 280h read from the memory 61 and the GB image 270 read from the memory 61, thereby combining eight image feature synthesis. Images (colors) 290a to 290h (collectively referred to as “image feature composite image (color) 290”) are generated (processing Y in FIG. 23), and then the image feature composite video generation unit 75 described above performs this processing. An image feature synthesized moving image (color) 300 is generated from the image feature synthesized image (color) 290 in accordance with the designated display order and display speed (process Z in FIG. 23) (hereinafter, S2105). The image feature synthesized moving image (color) 300 is stored in the memory 61.

図23の例示によれば、画像特徴合成動画(カラー)300では、例えば表示順序が右回り、表示速度が4fpsであるとすると、画像特徴合成画像(カラー)290a乃至290hが0度から順に右回りで1秒あたり4フレームの速度で切り替わりながら表示される。   According to the illustration of FIG. 23, in the image feature synthesis moving image (color) 300, for example, if the display order is clockwise and the display speed is 4 fps, the image feature synthesis images (color) 290a to 290h It is displayed while switching around at a rate of 4 frames per second.

<合成元画像RB/合成対象画像G>
合成元画像がRB画像である場合も前述の場合と同様である。即ち、合成元画像251がRB画像に指定されていると判別された場合(S2101:「RB」)、R画像及びB画像が合成されて、RB画像の合成元画像251が生成される(S2106)。
エンボス画像生成部70は、G画像の合成対象画像250に対しエンボス画像(モノクロ)260a乃至260hを生成し(S2107)、更に、これらのエンボス画像(モノクロ)260a乃至260hのそれぞれと、G画像の合成対象画像250とを合成して、エンボス画像(カラー)280a乃至280hを生成する(S2108)。
画像特徴合成画像生成部72は、エンボス画像(カラー)280a乃至280hのそれぞれと、RB画像の合成元画像251とを合成して、画像特徴合成画像(カラー)290a乃至290hを生成し、続いて、画像特徴合成動画生成部75は、この画像特徴合成画像(カラー)290から、指定された表示順序及び表示速度に従って、画像特徴合成動画(カラー)300を生成する(以上、S2109)。
<Composition source image RB / Composition target image G>
The case where the composition source image is an RB image is the same as that described above. In other words, when it is determined that the composition source image 251 is designated as the RB image (S2101: “RB”), the R image and the B image are synthesized, and the composition source image 251 of the RB image is generated (S2106). ).
The embossed image generation unit 70 generates embossed images (monochrome) 260a to 260h for the G image synthesis target image 250 (S2107), and further, each of these embossed images (monochrome) 260a to 260h and the G image The embossed images (colors) 280a to 280h are generated by compositing with the compositing target image 250 (S2108).
The image feature composite image generation unit 72 combines the embossed images (colors) 280a to 280h with the composite image 251 of the RB images to generate image feature composite images (colors) 290a to 290h, and then The image feature synthesized moving image generating unit 75 generates an image feature synthesized moving image (color) 300 from the image feature synthesized image (color) 290 in accordance with the designated display order and display speed (S2109).

<合成元画像RG/合成対象画像B>
合成元画像がRG画像である場合も前述の場合と同様である。即ち、合成元画像251がRG画像に指定されていると判別された場合(S2101:「RG」)、R画像及びG画像が合成されて、RG画像の合成元画像251が生成される(S2110)。
エンボス画像生成部70は、B画像の合成対象画像250に対しエンボス画像(モノクロ)260a乃至260hを生成し(S2111)、更に、これらのエンボス画像(モノクロ)260a乃至260hのそれぞれと、B画像の合成対象画像250とを合成して、エンボス画像(カラー)280a乃至280hを生成する(S2112)。
画像特徴合成画像生成部72は、エンボス画像(カラー)280a乃至280hのそれぞれと、RG画像の合成元画像251とを合成して、画像特徴合成画像(カラー)290a乃至290hを生成し、続いて、画像特徴合成動画生成部75は、この画像特徴合成画像(カラー)290から、指定された表示順序及び表示速度に従って、画像特徴合成動画(カラー)300を生成する(以上、S2113)。
<Composition source image RG / Composition target image B>
The same applies to the case where the composition source image is an RG image. In other words, when it is determined that the composition source image 251 is designated as the RG image (S2101: “RG”), the R image and the G image are synthesized, and the composition source image 251 of the RG image is generated (S2110). ).
The embossed image generation unit 70 generates embossed images (monochrome) 260a to 260h for the B image synthesis target image 250 (S2111), and further, each of these embossed images (monochrome) 260a to 260h and the B image The embossed images (colors) 280a to 280h are generated by compositing with the compositing target image 250 (S2112).
The image feature composite image generation unit 72 combines the embossed images (colors) 280a to 280h with the composite image 251 of the RG image to generate image feature composite images (colors) 290a to 290h, and then The image feature synthesized moving image generating unit 75 generates an image feature synthesized moving image (color) 300 from the image feature synthesized image (color) 290 in accordance with the designated display order and display speed (S2113).

<同種画像及び異種画像>
前述した画像特徴合成動画生成処理(S2005)において、合成対象画像250は、合成元画像251から得られる画像(同種画像)、及び、合成元画像251と観測対象や観測手段等が異なるために同画像251からは得られない画像(異種画像)の何れであってもよい。ここで、観測対象は、対象物の他に例えば観測時期等も含み、観測手段は、観測装置の他に例えば観測波長等も含む。
特に異種画像の例として、合成元画像251及び合成対象画像250が観測時期の異なる衛星画像である場合、合成元画像251及び合成対象画像250が計測時期の異なる検査・医療画像である場合、同一対象物に関して合成元画像251が光学センサ画像であり合成対象画像250がマイクロ波映像レーダ画像やハイパースペクトル画像等である場合等が挙げられる。
この場合、画像特徴合成動画300では、合成透かし効果によって、合成元画像251及び合成対象画像250について画像間の変化箇所が強調されたり、バンド間の画像特徴が強調されたりする。
<Same image and different image>
In the above-described image feature synthesis moving image generation processing (S2005), the synthesis target image 250 is the same because the image obtained from the synthesis source image 251 (same type image) and the synthesis source image 251 are different from the observation target, observation means, and the like. Any of images (heterogeneous images) that cannot be obtained from the image 251 may be used. Here, the observation target includes, for example, an observation period in addition to the target object, and the observation means includes, for example, an observation wavelength in addition to the observation apparatus.
In particular, as examples of different types of images, when the synthesis source image 251 and the synthesis target image 250 are satellite images with different observation times, the same when the synthesis source image 251 and the synthesis target image 250 are examination / medical images with different measurement times. For example, the composition source image 251 is an optical sensor image and the composition target image 250 is a microwave video radar image, a hyperspectral image, or the like.
In this case, in the image feature synthesis moving image 300, due to the synthesis watermark effect, a change portion between images of the synthesis source image 251 and the synthesis target image 250 is emphasized, or an image feature between bands is emphasized.

<<<動画生成例>>>
図24では、(a)は、衛星画像のRGB画像の合成元画像(カラー)251を例示し、(b)は、同衛星画像のG画像の合成対象画像(モノクロ)250を例示している。
本実施の形態の画像特徴合成動画生成装置20を用いて、図24(b)のG画像の合成対象画像(モノクロ)250に対し複数の照射方向を有するエンボス処理を施して複数のエンボス画像(モノクロ)260a乃至260hを生成し、続いて、これら複数のエンボス画像(モノクロ)260a乃至260hのそれぞれに、G画像の合成対象画像(カラー)250を合成して、複数のエンボス画像(カラー)280a乃至280hを生成し、続いて、これら複数のエンボス画像(カラー)280a乃至280hのそれぞれに、RB画像の合成元画像251を合成して、複数の画像特徴合成画像(カラー)290a乃至290hを生成する。
<<< Example of video generation >>>
24A illustrates an original image (color) 251 of the RGB image of the satellite image, and FIG. 24B illustrates an image to be combined (monochrome) 250 of the G image of the satellite image. .
Using the image feature synthesis moving image generating apparatus 20 of the present embodiment, emboss processing having a plurality of irradiation directions is performed on the G image synthesis target image (monochrome) 250 in FIG. Monochrome) 260a to 260h are generated, and then a G image composition target image (color) 250 is synthesized with each of the plurality of embossed images (monochrome) 260a to 260h, and a plurality of embossed images (color) 280a are synthesized. Through 280h, and then, by combining the original image 251 of the RB image with each of the plurality of embossed images (colors) 280a through 280h, a plurality of image feature composite images (colors) 290a through 290h are generated. To do.

図24(c)の画像特徴合成動画(カラー)300では、複数の画像特徴合成画像(カラー)290a乃至290hが連続的に切り替えられて表示されることにより、合成元画像(カラー)251の画質が維持されつつ、合成透かし効果によって緑色の対象物に係る特徴が強調される。ここで、図24(c)は、画像特徴合成動画300を便宜上静止画として例示するものであり、実際の動的陰影変化を把握する上での単に一つの目安を与えるものである。   In the image feature synthesis moving image (color) 300 in FIG. 24C, a plurality of image feature synthesis images (color) 290a to 290h are continuously switched and displayed, whereby the image quality of the synthesis source image (color) 251 is displayed. Is maintained, and the feature of the green object is emphasized by the composite watermark effect. Here, FIG. 24C exemplifies the image feature synthesis moving image 300 as a still image for convenience, and provides only one standard for grasping an actual dynamic shadow change.

このように、画像合成に伴う透かし効果が得られることから、合成元画像及び合成対象画像の組合せによって、新たな合成画像を創出する可能性が生じる。従って、画像特徴合成動画生成装置20は、画像特徴の分析支援、デザイン、広告等の画像合成・表示等に適用できる。
尚、本生成例では、エンボス処理における照射方向を45度刻みの8方向、動画におけるエンボス画像の表示される順序を右回りとしている。
As described above, since the watermark effect associated with the image synthesis is obtained, there is a possibility of creating a new synthesized image by combining the synthesis source image and the synthesis target image. Therefore, the image feature synthesis moving image generation apparatus 20 can be applied to image feature analysis support, image synthesis / display of design, advertisement, and the like.
In this generation example, the irradiation direction in the embossing process is eight directions in 45 degree increments, and the display order of the embossed images in the moving image is clockwise.

===その他の実施の形態===
前述した実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。
=== Other Embodiments ===
The above-described embodiment is intended to facilitate understanding of the present invention, and is not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and the present invention includes equivalents thereof.

例えば、前述した実施の形態においては、クライアント10を用いた構成としたが、クライアント10を用いず、画像特徴合成動画生成装置20において、画像の選択、動画生成条件の入力、動画の表示等が行われることとしてもよい。   For example, in the above-described embodiment, the client 10 is used. However, without using the client 10, the image feature synthesis moving image generating apparatus 20 can select an image, input a moving image generation condition, display a moving image, and the like. It may be performed.

画像特徴合成動画生成システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of an image feature synthetic | combination moving image production | generation system. 図1のシステムにおけるクライアントの構成例を示すブロック図である。It is a block diagram which shows the structural example of the client in the system of FIG. 図1のシステムにおける画像特徴合成動画生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image characteristic synthetic | combination moving image production | generation apparatus in the system of FIG. 図3の画像特徴合成動画生成装置の機能ブロック図である。It is a functional block diagram of the image feature synthetic | combination moving image production | generation apparatus of FIG. エンボス処理における仮想光の照射方向の一例を示す模式図である。It is a schematic diagram which shows an example of the irradiation direction of the virtual light in an embossing process. エンボス処理におけるフィルタ係数の一例を示す模式図である。It is a schematic diagram which shows an example of the filter coefficient in an embossing process. エンボス処理の一例を示す模式図である。It is a schematic diagram which shows an example of an embossing process. 動画生成画面の一例を示す模式図である。It is a schematic diagram which shows an example of a moving image production | generation screen. 動画表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of a moving image display screen. 画像特徴合成動画生成システムの処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of an image feature synthetic | combination animation production | generation system. 画像特徴合成動画生成装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of an image feature synthetic | combination moving image production | generation apparatus. 画像特徴合成動画生成処理のイメージ図である。It is an image figure of an image feature synthetic | combination animation production | generation process. 画像特徴合成動画生成処理のもう一つのイメージ図である。It is another image figure of an image characteristic synthetic | combination animation production | generation process. (a)は、衛星画像の合成元画像の一例を示す図であり、(b)は、(a)の合成対象画像の一例を示す図である。(A) is a figure which shows an example of the synthetic | combination original image of a satellite image, (b) is a figure which shows an example of the synthetic | combination object image of (a). 図14(b)の合成対象画像のエンボス画像の一例を示す図である。It is a figure which shows an example of the embossed image of the synthetic | combination target image of FIG.14 (b). 図14(a)の合成元画像と図15のエンボス画像との画像特徴合成画像の一例を示す図である。It is a figure which shows an example of the image feature synthetic image of the synthetic | combination original image of Fig.14 (a), and the embossed image of FIG. 図16の画像特徴合成画像から生成された画像特徴合成動画(但し静止画)の一例を示す図である。It is a figure which shows an example of the image characteristic synthetic | combination moving image (however, still image) produced | generated from the image characteristic synthetic | combination image of FIG. (a)は、蟹の合成元画像の一例を示す図であり、(b)は、(a)の画像特徴合成動画(但し静止画)の一例を示す図である。(A) is a figure which shows an example of the synthetic | combination original image of a camellia, (b) is a figure which shows an example of the image characteristic synthetic | combination moving image (however, still image) of (a). (a)は、コンクリート壁の合成元画像の一例を示す図であり、(b)は、(a)の画像特徴合成動画(但し静止画)の一例を示す図である。(A) is a figure which shows an example of the synthetic | combination original image of a concrete wall, (b) is a figure which shows an example of the image characteristic synthetic | combination moving image (however, still image) of (a). その他の動画生成画面の一例を示す模式図である。It is a schematic diagram which shows an example of another moving image production | generation screen. 画像特徴合成動画生成システムのその他の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the other process sequence of an image feature synthetic | combination moving image production | generation system. 画像特徴合成動画生成装置のその他の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the other process sequence of an image feature synthetic | combination moving image production | generation apparatus. その他の画像特徴合成動画生成処理のイメージ図である。It is an image figure of other image feature synthetic animation production processing. (a)は、衛星画像の合成元画像の一例を示す図であり、(b)は、(a)の合成対象画像の一例を示す図であり、(c)は、(a)及び(b)の画像特徴合成動画の一例を示す図である。(A) is a figure which shows an example of the synthetic | combination original image of a satellite image, (b) is a figure which shows an example of the synthetic | combination target image of (a), (c) is (a) and (b ) Is a diagram illustrating an example of an image feature synthesis moving image.

符号の説明Explanation of symbols

10 クライアント
20 画像特徴合成動画生成装置
30 ネットワーク
40 CPU
41 メモリ
42 記憶装置
43 表示インタフェース
44 入力インタフェース
45 通信インタフェース
46 記録媒体読取装置
50 表示装置
51 入力装置
52 記録媒体
53 記録媒体
60 CPU
61 メモリ
62 記憶装置
63 通信インタフェース
64 記録媒体読取装置
70 エンボス画像生成部
71 エッジ強調画像生成部
72 画像特徴合成画像生成部
75 画像特徴合成動画生成部
76 特徴強調処理部
100、200 動画生成画面
110、210 合成元画像入力エリア
111、211 合成対象画像入力エリア
111a 入力画像入力エリア
111b 特徴強調処理選択エリア
112、212 動画生成条件選択エリア
112a 方向選択エリア
112b フィルタ選択エリア
112c、212c 表示順序選択エリア
112d、212d 表示速度選択エリア
113 動画生成ボタン
130 動画表示画面
135 画像特徴合成動画表示領域
150、150’、150” 合成対象画像、入力画像
151 合成対象画像、テクスチャ強調画像、エッジ強調画像
152 合成元画像
152R R画像
152G G画像
152B B画像
160、160a乃至160h エッジ強調画像
161、161a乃至161h エンボス画像
170 合成元画像、カラー画像
180、181、180a乃至180h、181a乃至181h 画像特徴合成画像
190、191、191’、191” 画像特徴合成動画
212a 照射方向選択エリア
212b エンボスパターン選択エリア
250 合成対象画像、R画像
251 合成元画像
260、260a乃至260h エンボス画像
270 合成元画像、GB画像
280、280a乃至280h エンボス画像
290、290a乃至290h 画像特徴合成画像
300 画像特徴合成動画
10 Client 20 Image Feature Synthetic Movie Generation Device 30 Network 40 CPU
41 Memory 42 Storage Device 43 Display Interface 44 Input Interface 45 Communication Interface 46 Recording Medium Reading Device 50 Display Device 51 Input Device 52 Recording Medium 53 Recording Medium 60 CPU
61 Memory 62 Storage Device 63 Communication Interface 64 Recording Medium Reading Device 70 Embossed Image Generation Unit 71 Edge Enhanced Image Generation Unit 72 Image Feature Composite Image Generation Unit 75 Image Feature Composite Movie Generation Unit 76 Feature Enhancement Processing Units 100 and 200 Movie Generation Screen 110 , 210 Composition source image input area 111, 211 Composition target image input area 111a Input image input area 111b Feature enhancement processing selection area 112, 212 Movie generation condition selection area 112a Direction selection area 112b Filter selection area 112c, 212c Display order selection area 112d , 212d Display speed selection area 113 Movie generation button 130 Movie display screen 135 Image feature synthesis movie display area 150, 150 ', 150 "Synthesis target image, input image 151 Synthesis target image, texture enhanced image, edge strength Tone image 152 Composition original image 152R R image 152G G image 152B B image 160, 160a to 160h Edge-enhanced images 161, 161a to 161h Embossed image 170 Composition original image, color images 180, 181, 180a to 180h, 181a to 181h Composite image 190, 191, 191 ′, 191 ″ Image feature composite video 212a Irradiation direction selection area 212b Emboss pattern selection area 250 Composite target image, R image 251 Composite original image 260, 260a to 260h Emboss image 270 Composite original image, GB image 280, 280a to 280h Embossed image 290, 290a to 290h Image feature composite image 300 Image feature composite video

Claims (11)

合成対象画像に対して複数方向のエッジをそれぞれ強調した複数のエッジ強調画像を生成するエッジ強調画像生成部と、
前記複数のエッジ強調画像と合成元画像をそれぞれ合成した複数の合成画像を生成する合成画像生成部と、
前記複数の合成画像が連続的に切り替えて表示される合成動画を生成する合成動画生成部と、
を備えたことを特徴とする画像特徴合成動画生成装置。
An edge-enhanced image generation unit that generates a plurality of edge-enhanced images in which edges in a plurality of directions are respectively enhanced with respect to the synthesis target image;
A composite image generation unit that generates a plurality of composite images obtained by combining the plurality of edge-enhanced images and the composite original image,
A synthesized moving image generating unit for generating a synthesized moving image in which the plurality of synthesized images are continuously switched and displayed;
An image feature synthesis moving image generating apparatus comprising:
前記合成対象画像は、所定の要素が強調された画像であることを特徴とする請求項1に記載の画像特徴合成動画生成装置。   The image feature synthesis moving image generating apparatus according to claim 1, wherein the synthesis target image is an image in which a predetermined element is emphasized. 前記所定の要素は、テクスチャ又はエッジであることを特徴とする請求項2に記載の画像特徴合成動画生成装置。   The image feature synthesis moving image generating apparatus according to claim 2, wherein the predetermined element is a texture or an edge. 前記合成対象画像は、前記合成元画像とは異なる画像であることを特徴とする請求項1乃至3の何れかに記載の画像特徴合成動画生成装置。   4. The image feature synthesis moving image generating apparatus according to claim 1, wherein the synthesis target image is an image different from the synthesis source image. 前記合成対象画像は、前記合成元画像と同一の画像であることを特徴とする請求項1乃至3の何れかに記載の画像特徴合成動画生成装置。   4. The image feature synthesis moving image generating apparatus according to claim 1, wherein the synthesis target image is the same image as the synthesis source image. 前記合成元画像は、赤色画像、緑色画像、青色画像を含んで構成されることを特徴とする請求項1乃至5の何れかに記載の画像特徴合成動画生成装置。   6. The image feature composition moving image generating apparatus according to claim 1, wherein the composition original image includes a red image, a green image, and a blue image. 合成対象画像に対して複数方向のエッジをそれぞれ強調した複数のエッジ強調画像を生成し、
前記複数のエッジ強調画像と合成元画像をそれぞれ合成した複数の合成画像を生成し、
前記複数の合成画像が連続的に切り替えて表示される合成動画を生成する、
ことを特徴とする画像特徴合成動画生成方法。
Generate a plurality of edge-enhanced images that emphasize edges in multiple directions with respect to the compositing target image,
Generating a plurality of combined images obtained by combining the plurality of edge-enhanced images and the original image,
Generating a synthesized moving image in which the plurality of synthesized images are continuously switched and displayed;
An image feature synthesis moving image generation method characterized by the above.
コンピュータに、
合成対象画像に対して複数方向のエッジをそれぞれ強調した複数のエッジ強調画像を生成する手順と、
前記複数のエッジ強調画像と合成元画像をそれぞれ合成した複数の合成画像を生成する手順と、
前記複数の合成画像が連続的に切り替えて表示される合成動画を生成する手順と、
を実行させるためのプログラム。
On the computer,
A procedure for generating a plurality of edge-enhanced images in which edges in a plurality of directions are respectively enhanced with respect to the synthesis target image;
Generating a plurality of synthesized images obtained by synthesizing the plurality of edge-enhanced images and the source image;
A procedure for generating a synthesized moving image in which the plurality of synthesized images are continuously switched and displayed;
A program for running
所定の要素が強調された合成対象画像に対して複数方向をそれぞれ光源とみなす複数のエンボス画像を生成するエンボス画像生成部と、
前記複数のエンボス画像と合成元画像をそれぞれ合成した複数の合成画像を生成する合成画像生成部と、
前記複数の合成画像が連続的に切り替えて表示される合成動画を生成する合成動画生成部と、
を備えたことを特徴とする画像特徴合成動画生成装置。
An embossed image generating unit that generates a plurality of embossed images in which a plurality of directions are regarded as light sources with respect to the compositing target image in which predetermined elements are emphasized;
A composite image generating unit that generates a plurality of composite images obtained by combining the plurality of embossed images and the original image;
A synthesized moving image generating unit for generating a synthesized moving image in which the plurality of synthesized images are continuously switched and displayed;
An image feature synthesis moving image generating apparatus comprising:
所定の要素が強調された合成対象画像に対して複数方向をそれぞれ光源とみなす複数のエンボス画像を生成し、
前記複数のエンボス画像と合成元画像をそれぞれ合成した複数の合成画像を生成し、
前記複数の合成画像が連続的に切り替えて表示される合成動画を生成する、
ことを特徴とする画像特徴合成動画生成方法。
Generating a plurality of embossed images in which a plurality of directions are regarded as light sources with respect to a compositing target image in which a predetermined element is emphasized;
Generating a plurality of synthesized images obtained by synthesizing the plurality of embossed images and the source image;
Generating a synthesized moving image in which the plurality of synthesized images are continuously switched and displayed;
An image feature synthesis moving image generation method characterized by the above.
コンピュータに、
所定の要素が強調された合成対象画像に対して複数方向をそれぞれ光源とみなす複数のエンボス画像を生成する手順と、
前記複数のエンボス画像と合成元画像をそれぞれ合成した複数の合成画像を生成する手順と、
前記複数の合成画像が連続的に切り替えて表示される合成動画を生成する手順と、
を実行させるためのプログラム。
On the computer,
A procedure for generating a plurality of embossed images in which a plurality of directions are regarded as light sources with respect to a compositing target image in which predetermined elements are emphasized,
Generating a plurality of synthesized images obtained by synthesizing the plurality of embossed images and the source image;
A procedure for generating a synthesized moving image in which the plurality of synthesized images are continuously switched and displayed;
A program for running
JP2008311278A 2008-12-05 2008-12-05 Image feature synthesis video generation device, image feature synthesis video generation method, and program Active JP5246770B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008311278A JP5246770B2 (en) 2008-12-05 2008-12-05 Image feature synthesis video generation device, image feature synthesis video generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008311278A JP5246770B2 (en) 2008-12-05 2008-12-05 Image feature synthesis video generation device, image feature synthesis video generation method, and program

Publications (2)

Publication Number Publication Date
JP2010134768A true JP2010134768A (en) 2010-06-17
JP5246770B2 JP5246770B2 (en) 2013-07-24

Family

ID=42345994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008311278A Active JP5246770B2 (en) 2008-12-05 2008-12-05 Image feature synthesis video generation device, image feature synthesis video generation method, and program

Country Status (1)

Country Link
JP (1) JP5246770B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203847A (en) * 2011-03-28 2012-10-22 Tokyo Univ Of Science Picture quality improvement image generation device, picture quality improvement method for image and program
JP2013242784A (en) * 2012-05-22 2013-12-05 Tokyo Univ Of Science Moving image visibility quantification apparatus, and moving image visibility quantification method and program
JP2014132433A (en) * 2012-12-07 2014-07-17 Canon Inc Image creating device and image creating method
KR101746853B1 (en) * 2010-11-30 2017-06-13 엘지디스플레이 주식회사 Image processing unit and display device using the same, and image processing method
WO2019058633A1 (en) * 2017-09-25 2019-03-28 株式会社Screenホールディングス Image processing method, image processing device, and inspection method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07244724A (en) * 1994-03-04 1995-09-19 Alps Shiya:Kk Method and device for map generation
JPH09135385A (en) * 1995-11-11 1997-05-20 Sony Corp Image conversion device
JP2008015606A (en) * 2006-07-03 2008-01-24 Tokyo Univ Of Science Image interpretation support moving image generation method, program, and image interpretation support moving image generation equipment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07244724A (en) * 1994-03-04 1995-09-19 Alps Shiya:Kk Method and device for map generation
JPH09135385A (en) * 1995-11-11 1997-05-20 Sony Corp Image conversion device
JP2008015606A (en) * 2006-07-03 2008-01-24 Tokyo Univ Of Science Image interpretation support moving image generation method, program, and image interpretation support moving image generation equipment

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101746853B1 (en) * 2010-11-30 2017-06-13 엘지디스플레이 주식회사 Image processing unit and display device using the same, and image processing method
JP2012203847A (en) * 2011-03-28 2012-10-22 Tokyo Univ Of Science Picture quality improvement image generation device, picture quality improvement method for image and program
JP2013242784A (en) * 2012-05-22 2013-12-05 Tokyo Univ Of Science Moving image visibility quantification apparatus, and moving image visibility quantification method and program
JP2014132433A (en) * 2012-12-07 2014-07-17 Canon Inc Image creating device and image creating method
WO2019058633A1 (en) * 2017-09-25 2019-03-28 株式会社Screenホールディングス Image processing method, image processing device, and inspection method

Also Published As

Publication number Publication date
JP5246770B2 (en) 2013-07-24

Similar Documents

Publication Publication Date Title
Xu et al. Hidden message in a deformation-based texture
JP5246770B2 (en) Image feature synthesis video generation device, image feature synthesis video generation method, and program
JP4316571B2 (en) Image synthesis by guided interpolation
TW201040877A (en) Image processing device and method thereof
TW201207441A (en) Method of creating random pattern
JP2020532816A (en) How to modify raytracing samples after rendering and before rasterization
JP2007041196A (en) Device and method for processing image, and computer program
Dinesha et al. Uncertainty visualization using HDR volume rendering
JP5769295B2 (en) Image quality improved image generating apparatus, image quality improving method, and program
CN106503174B (en) Scene visualization method and system based on network three-dimensional modeling
Inglis et al. Generating Op art lines
JP6021053B2 (en) Video visibility quantification device, video visibility quantification method, and program
Parah et al. Data hiding in color images: a high capacity data hiding technique for covert communication
JP2018028710A (en) Image generator, image generating method, and program
JP5655550B2 (en) Image processing apparatus, image processing method, and program
JP4868509B2 (en) Image interpretation support movie generation method, program, and image interpretation support movie generation device
Abrons et al. Postdigital materiality
CN109529349B (en) Image drawing method and device, computing equipment and storage medium
EP2962290B1 (en) Relaying 3d information by depth simulation using 2d pixel displacement
RU2523980C2 (en) Method and system for displaying set of multimedia objects on 3d display
JP6295608B2 (en) Image processing apparatus, image processing method, and program
JP2011182366A (en) Image processing method, image processing device, and image processing program
Kothari et al. Video watermarking in spatial domain
Bregovic et al. Display-specific light-field analysis
CN105912561A (en) Network release method, network release system and network release device for panoramic images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130404

R150 Certificate of patent or registration of utility model

Ref document number: 5246770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250