JP2005327314A - Image display method and device - Google Patents

Image display method and device Download PDF

Info

Publication number
JP2005327314A
JP2005327314A JP2005201869A JP2005201869A JP2005327314A JP 2005327314 A JP2005327314 A JP 2005327314A JP 2005201869 A JP2005201869 A JP 2005201869A JP 2005201869 A JP2005201869 A JP 2005201869A JP 2005327314 A JP2005327314 A JP 2005327314A
Authority
JP
Japan
Prior art keywords
image
display
processing
movement
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005201869A
Other languages
Japanese (ja)
Other versions
JP4137923B2 (en
Inventor
Toshio Endo
利生 遠藤
Mitsuaki Fukuda
充昭 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2005201869A priority Critical patent/JP4137923B2/en
Publication of JP2005327314A publication Critical patent/JP2005327314A/en
Application granted granted Critical
Publication of JP4137923B2 publication Critical patent/JP4137923B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display method which displays a large number of retrieval object images at high speed in a three-dimensional space, with intelligible image expression, and by which user's eyes are hardly tired. <P>SOLUTION: The image display method includes: processing for reading a plurality of pieces of image data and arrangement information of each image in the three-dimensional space; viewpoint setting/transfer processing in a space for specifying setting/transfer of viewpoints in the space; processing for calculating simplified two-dimensional arrangement expressing an image data original form as a two-dimensional image converted by parallel magnifying projection processing for performing parallel movement processing corresponding to directions of the respective images and magnifying/reducing processing corresponding to size of the respective images on the basis of relation between the arrangement information of each image and the viewpoint information in the space; display image generation processing for generating a display image according to the simplified two-dimensional arrangement; and processing for displaying the display image. The image expression is made intelligible by guide display of a multi-resolution composite image, a segmented image and a background image, fatigue of the eyes is evaluated and minimized on the basis of optical flow. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像を見やすくディスプレイ上に高速表示する方式に関する。特に、多量の画像の3次元空間上への高速表示方法、画像のズームやスクロールで目が疲れない表示方法に関する。例えば、電子美術館システムや目視による画像検索(以下、ブラウジング検索)システムなどに適用できる。   The present invention relates to a method for easily displaying an image on a display at high speed. In particular, the present invention relates to a high-speed display method for a large amount of images in a three-dimensional space, and a display method in which eyes are not tired by zooming or scrolling images. For example, the present invention can be applied to an electronic art museum system or a visual image search (hereinafter referred to as browsing search) system.

マルチメディア情報化時代を迎え、コンピュータのディスプレイ上に画像を表示する機会が増大している。インターネットの進展とともに、所望の画像情報を簡単にかつ確実に探し出す技術の重要性が増している。インターネット上でテキストを検索対象とする場合には、キーワードによる絞り込みが有効であり、検索サイトとして実用化されている。しかし、画像を代表とするマルチメディア素材を検索対象とする場合においては、キーワードの利用や素材情報の自動抽出はいまだ研究段階であり、現状では検索結果として多数の候補を提示して人間に判断してもらうブラウジング検索が広く利用されている。このブラウジング検索を効率化する技術は重要なキーテクノロジーとなっている。   In the multimedia information age, opportunities to display images on computer displays are increasing. With the progress of the Internet, the importance of techniques for easily and reliably searching for desired image information is increasing. When searching for text on the Internet, narrowing down by keywords is effective and has been put to practical use as a search site. However, when searching for multimedia materials represented by images, the use of keywords and the automatic extraction of material information are still in the research stage. At present, many candidates are presented as search results and judged by humans. Browsing search is widely used. This technology for improving browsing search is an important key technology.

一方、個人あるいはオフィス環境においても、コンピュータ内に保存されているマルチメディアデータの量は年々増大しており、ここでも所望のデータを探し出したり、効率的に閲覧する技術が重要となっている。従来技術におけるインターネット等の画像データを検索する場合の一般的な処理の流れは概ね次のようになる。   On the other hand, even in an individual or office environment, the amount of multimedia data stored in a computer is increasing year by year, and a technique for finding desired data or browsing efficiently is also important here. A general processing flow for searching image data such as the Internet in the prior art is roughly as follows.

まず、利用者が所望のデータを絞り込むため、キーワード等による絞り込み検索サイト等を利用して、キーワード等である程度検索対象を限定する。次に、色の分布などの画像特徴を利用して、もう少し検索対象を限定する。さらに、上記絞り込みによりある程度絞り込んだ検索対象をディスプレイ上に表示して、利用者が目視によりブラウジング検索を行なう。   First, in order to narrow down the desired data by the user, the search target is limited to some extent by using a keyword or the like by using a search search site by keyword or the like. Next, the search target is further limited using image features such as color distribution. Further, the search target narrowed down to some extent by the above narrowing is displayed on the display, and the user conducts browsing search visually.

従って、画像を対象としたブラウジング検索には次の特徴があると考えられる。   Therefore, it is considered that the browsing search for the image has the following characteristics.

第1の特徴は、ブラウジング検索のため表示対象となる画像データの個数はかなり多く、数百〜数千になりうるということである。表示対象は巨大な母集団の中から選ばれることとなり、どの要素が選ばれるかは、表示直前の絞り込み操作によって定められ、表示の前処理にはあまり時間を掛けられない場合が多い。第2の特徴は、絞り込み処理を行なうためには、一度は母集団をコンピュータに読み込む必要があるので、表示対象は検索を行なうコンピュータの記憶装置に格納されていると仮定できるということである。ブラウジング検索でなく、利用者個人が管理する多量の画像の閲覧を行う場合においても、表示対象にはこれらの性質があると考えられる。   The first feature is that the number of image data to be displayed for browsing search is quite large and can be several hundred to several thousand. The display target is selected from a huge population, and which element is selected is determined by a narrowing operation immediately before display, and it often takes a little time for display preprocessing. The second feature is that in order to perform the narrowing-down process, it is necessary to read the population once into the computer, so that it can be assumed that the display object is stored in the storage device of the computer that performs the search. Even when browsing a large number of images managed by individual users instead of browsing search, it is considered that the display target has these properties.

また、多量の画像を表示する際には以下の条件が要求される。   Further, the following conditions are required when displaying a large amount of images.

第1の条件は、表示画像に十分な視認性が得られることである。ただし、何が表示されているかが利用者に分かる程度で良く、精密な精細表示は別途行えばよいので、一覧表示においては表示の精密さはそれほど間われない。   The first condition is that sufficient visibility is obtained for the display image. However, it is sufficient that the user knows what is being displayed, and precise fine display only needs to be performed separately. Therefore, display precision is not so limited in list display.

第2の条件は、表示画像の一覧性である。表示画像間に一覧性が確保されると、多量の画像についてどこまで目視確認したかという判断が容易になり、また、画像間の比較が容易になるという利点が得られる。   The second condition is a list of display images. If the listing property is ensured between the display images, it is easy to determine how far a large number of images have been visually confirmed, and it is possible to easily compare the images.

第3の条件は、表示画像の操作性である。多量の画像があるので、表示画像のスクロールやズーム等の操作が十分高速に行えることが要求される。また、操作性が向上すると検索作業を続けてもあまり疲れないという利点も得られる。   The third condition is the operability of the display image. Since there are a large number of images, it is required that operations such as scrolling and zooming the display image can be performed at a sufficiently high speed. Further, when the operability is improved, there is an advantage that even if the search operation is continued, the user is not tired.

ブラウジング検索が行える表示方式として、従来用いられてきた代表的な方式は以下のものがある。   As display methods capable of browsing search, typical methods conventionally used include the following.

従来の第1のブラウジング検索方式は、画像を縮小して表示する方式(特開昭62-248376)である。表示対象となる複数の画像を縮小した画像(サムネイル画像)を作成して、ディスプレイ画面上に配置する。この方式によれば、どこまで見たかが分かりやすいという利点がある。ただし、表示画像の枚数が多くなるにつれて個々の画像を小さくする必要があるため、画像の細部が見えなくなり分かりにくくなる欠点がある。   The first conventional browsing search method is a method (Japanese Patent Laid-Open No. 62-248376) for displaying an image in a reduced size. An image (thumbnail image) obtained by reducing a plurality of images to be displayed is created and placed on the display screen. According to this method, there is an advantage that it is easy to understand how far it has been seen. However, since it is necessary to reduce the size of each image as the number of display images increases, there is a drawback that the details of the image cannot be seen and are difficult to understand.

従来の第2のブラウジング検索方式は、ページに分割して表示する方式である。この方式では、表示画像の縮小は行なわない、または、ある程度の縮小率に留めて表示画像の大きさをある程度確保し、これら表示画像をディスプレイの画面1ページに収まる分量ずつ分けて複数ぺージに編集して、各ページを順番に表示する方式である。個々の画像が分かりやすくなる利点はあるが、一覧性に欠け、どこまで見たかの判断が容易ではなく、また、表示画像間での比較が困難になるという欠点がある。   The conventional second browsing search method is a method of dividing and displaying pages. In this method, the display image is not reduced, or the size of the display image is secured to some extent while maintaining a certain reduction ratio, and the display image is divided into a plurality of pages by the amount that fits on one page of the display screen. This is a method of editing and displaying each page in turn. Although there are advantages in that individual images are easy to understand, there is a drawback in that the list is lacking, it is not easy to determine how far the images have been viewed, and comparison between display images is difficult.

従来の第3のブラウジング検索方式は、スクロールして表示する方式である。仮想的な大きな画面に一覧表示できるように配置し、実際のディスプレイへの表示処理においては、その仮想大画面の一部としてディスプレイ1枚分のエリアが表示されるようなスクロール機能を持たせるものである。この方式によれば、上記第2のブラウジング検索方式であるぺージ分割方式よりは、他の画像との比較が行ないやすくなるが、まだ十分とは言えるものではない。   A conventional third browsing search method is a method of scrolling and displaying. Arranged so that a list can be displayed on a virtual large screen, and in the display processing on the actual display, a scroll function is provided so that an area of one display is displayed as a part of the virtual large screen It is. According to this method, it becomes easier to compare with other images than the page division method, which is the second browsing search method, but it is still not sufficient.

従来の第4のブラウジング検索方式は、仮想3次元空間内に配置して表示する方式である。この方式は、仮想的な3次元空間内に各表示画像を仮想的に配置する。その仮想3次元空間内で視点を移動できる機能を持たせる。視点が個々の画像に近づくと、その画像がズームして表示される。我々の3次元空間の把握能力により、どこまで見たかという判断や他の画像との比較が行ないやすく、また、個々の画像の視認性も確保することができ、比較的分かりやすくなるという利点がある。公知例として、特開平9-259130号がある。これは、情報を階層的に配置してブラウジング検索するという技術を開示している。   The conventional fourth browsing search method is a method of arranging and displaying in a virtual three-dimensional space. In this method, each display image is virtually arranged in a virtual three-dimensional space. A function for moving the viewpoint in the virtual three-dimensional space is provided. As the viewpoint approaches each individual image, the image is zoomed and displayed. Our ability to grasp 3D space makes it easy to judge how far you have seen and to compare with other images, and also to ensure the visibility of individual images. . There is JP-A-9-259130 as a known example. This discloses a technique of hierarchically arranging information and performing a browsing search.

この従来技術の仮想3次元空間内に配置して表示する方式は、ディスプレイ(投影面)上の表示画面を得るために、中心投影(透視投影)を用いて3次元物体をディスプレイに投影している。この中心投影とは、図22のように、3次元物体表面上の点とディスプレイ上の点を以下の関係で結び付けるものである。視線方向をZ軸とし、ディスプレイを例えば、Z=1の位置に置き、投影中心と3次元物体表面上の1点を結んだ線分がディスプレイと交わる点を対応点とする。ディスプレイを置くZの値は1以外の任意の値を用いることができる。3次元物体表面上の点の座標を(X、Y、Z)とすると、対応するディスプレイ上の点の座標(x、y)はx=X/Z、y=Y/Zとなる。原理的には、3次元物体表面上のすべての画素を対応するディスプレイ上の点に描くことで、3次元表示が実現できる。ディスプレイは画素から構成されているので、実際にはディスプレイの各画素に対して上記の対応関係に基づいて色を割り当てていく処理になる。この中心投影によれば、投影中心から人間が仮想3次元空間に配置された3次元物体を目視した場合の見た目に近い、臨場感ある表示画面を得ることができる。   In this conventional technique of displaying in a virtual three-dimensional space, a three-dimensional object is projected onto a display using central projection (perspective projection) in order to obtain a display screen on the display (projection plane). Yes. This central projection, as shown in FIG. 22, connects the points on the surface of the three-dimensional object and the points on the display in the following relationship. The line-of-sight direction is the Z axis, the display is placed at, for example, Z = 1, and the point where the line segment connecting the projection center and one point on the surface of the three-dimensional object intersects the display is the corresponding point. Any value other than 1 can be used as the value of Z on which the display is placed. If the coordinates of the point on the surface of the three-dimensional object are (X, Y, Z), the coordinates (x, y) of the corresponding point on the display are x = X / Z and y = Y / Z. In principle, three-dimensional display can be realized by drawing all pixels on the surface of the three-dimensional object at corresponding points on the display. Since the display is composed of pixels, the process is actually a process of assigning a color to each pixel of the display based on the above correspondence. According to this central projection, it is possible to obtain a realistic display screen that is close to the appearance when a human views a three-dimensional object placed in a virtual three-dimensional space from the projection center.

従来技術では、この中心投影を用いて、各画像を仮想3次元空間に配置して空間内に設定された視点から表示する場合、図22の投影中心が、視点となり、当該視点位置から仮想3次元空間内に配置された各画像を目視した場合の見た目に近い、臨場感ある表示画面を得ることができる。   In the prior art, when each image is arranged in a virtual three-dimensional space and displayed from a viewpoint set in the space using this central projection, the projection center in FIG. A realistic and realistic display screen can be obtained when each image arranged in the dimensional space is viewed.

従って、表示対象画像の枚数が比較的多い場合には、ブラウジング検索としては、3次元的に表示する方式が優れているが、この方式には以下のような問題があった。   Therefore, when the number of display target images is relatively large, a three-dimensional display method is excellent as a browsing search, but this method has the following problems.

第1の問題は、3次元表示は、2次元表示と比較して計算量が増大し、表示処理に時間がかかってしまうという問題である。3次元空間表示処理は、特に、多量の画像をディスプレイに表示すると、表示速度が低下して使いにくくなってしまう。視点移動によりブラウジング検索を行なうため、移動に伴う滑らかな表示が必要となるが、表示速度が低下すると移動が滑らかに行なうことができなくなり、使い勝手が非常に低下してしまう。   The first problem is that the three-dimensional display increases the amount of calculation compared to the two-dimensional display, and takes a long time for display processing. In the three-dimensional space display process, in particular, when a large amount of images are displayed on the display, the display speed is lowered and it becomes difficult to use. Since a browsing search is performed by moving the viewpoint, smooth display is required in accordance with the movement. However, if the display speed is reduced, the movement cannot be performed smoothly, and the usability is greatly reduced.

第2の問題は、視点移動中は個々の画像の内容が分かりにくいという問題である。仮想3次元空間内を視点移動している場合は、視点移動速度が速くなると、高速移動している画像の内容は把握しづらくなってしまう。また、仮想3次元空間内の視点移動なので、各画像に対する視野角の関係上、画像が歪んで表示され、さらに、その歪みが視点移動により変化するため、画像内容を直感的に把握しづらい場合がある。   The second problem is that it is difficult to understand the contents of individual images during viewpoint movement. When the viewpoint is moved in the virtual three-dimensional space, if the viewpoint movement speed is increased, it is difficult to grasp the contents of the image moving at a high speed. In addition, because the viewpoint is moved in a virtual three-dimensional space, the image is displayed with distortion due to the viewing angle with respect to each image, and the distortion changes due to the movement of the viewpoint. There is.

第3の問題は、多数の小さい画像を仮想的な3次元空間に配置しても、3次元的に見えにくいという問題である。立体的な奥行きを把握しづらく、どちらかと言うと、大きさの異なる画像が2次元的に配置されているように見えてしまう。この場合は3次元空間に配置した意味がなく、むしろ多少の混乱を招くおそれもある。   The third problem is that even if a large number of small images are arranged in a virtual three-dimensional space, it is difficult to see them three-dimensionally. It is difficult to grasp the three-dimensional depth. If anything, images with different sizes appear to be arranged two-dimensionally. In this case, there is no point in arranging in a three-dimensional space, and there is a risk of causing some confusion.

第4の問題は、視点移動処理を繰り返すと利用者の目が疲れ、使い勝手を低下させてしまうという問題である。利用者は仮想3次元空間内を移動する画像の内容を把握するため、画像の移動に伴って目の視点(注目点)を移動する必要があり、この視点移動が目の疲労の要因の一つとなっている。   The fourth problem is that if the viewpoint movement process is repeated, the user's eyes become tired and the usability is reduced. In order to grasp the contents of the image moving in the virtual three-dimensional space, the user needs to move the eye viewpoint (attention point) as the image moves, and this viewpoint movement is one of the causes of eye fatigue. It has become one.

本発明は、上記問題点に鑑み、検索対象となる画像を仮想3次元空間内に仮想的に配置して表示する画像表示方法において、仮想3次元空間内に多量の検索対象画像を高速に表示処理ができ、かつ、仮想3次元空間内での視点移動速度を速くしても画像内容が把握しやすい画像表示方法を提供することを目的とする。また、仮想3次元空間内での画像の配置位置が直感的に把握しやすい画像表現技術による画像表示方法を提供することを目的とする。さらに、仮想3次元空間内での視点移動を行なっても利用者の目が疲れにくい画像表示方法を提供することを目的とする。   In view of the above problems, the present invention provides an image display method for displaying an image to be searched virtually arranged in a virtual three-dimensional space, and displays a large amount of search target images in the virtual three-dimensional space at high speed. An object of the present invention is to provide an image display method capable of processing and easily grasping the image contents even if the viewpoint moving speed in the virtual three-dimensional space is increased. It is another object of the present invention to provide an image display method based on an image expression technique that makes it easy to intuitively grasp the arrangement position of an image in a virtual three-dimensional space. It is another object of the present invention to provide an image display method in which a user's eyes are not tired even when the viewpoint is moved in a virtual three-dimensional space.

上記の検索対象となる画像を3次元空間内に高速に表示するという目的を達成するために、本発明の画像表示方法は、仮想3次元空間内に画像を配置して高速表示する画像表示方法であって、1枚以上の画像の画像データを読み込む処理と、各画像の仮想3次元空間内での配置情報を読み込む処理と、仮想3次元空間内の視点位置と視線方向のパラメータにより空間内視点の設定・移動を指定する空間内視点設定・移動処理と、各画像の仮想3次元空間内での配置情報と空間内視点情報の関係を基にして、読み込んだ画像データ原形を、空間内視点から見た各画像の方向に対応した平行移動処理と大きさに対応した拡大・縮小処理とを行なう平行拡大投影処理によって変換し、空間内視点から見える各画像の2次元的配置を、原画像の相似形画像の2次元的配置として表現する簡略化2次元的配置を求める処理と、求められた各画像の簡略化2次元的配置に従って、読み込んだ画像データを処理して表示画像を生成する表示画像生成処理と、生成された表示画像を表示装置上に表示する処理を備えたことを特徴とする。   In order to achieve the object of displaying an image to be searched at high speed in a three-dimensional space, the image display method of the present invention is an image display method for arranging and displaying an image in a virtual three-dimensional space. A process for reading image data of one or more images, a process for reading arrangement information of each image in the virtual three-dimensional space, and a parameter in the virtual three-dimensional space based on the viewpoint position and line-of-sight direction parameters. Based on the viewpoint setting / movement processing in the space that specifies the setting / movement of the viewpoint and the relationship between the placement information of each image in the virtual three-dimensional space and the viewpoint information in the space, The two-dimensional arrangement of each image seen from the viewpoint in the space is converted by parallel enlargement projection processing that performs parallel movement processing corresponding to the direction of each image viewed from the viewpoint and enlargement / reduction processing corresponding to the size. Image similarity Processing for obtaining a simplified two-dimensional arrangement expressed as a two-dimensional arrangement of images and display image generation for processing a read image data and generating a display image according to the obtained simplified two-dimensional arrangement of each image And a process for displaying the generated display image on a display device.

さらに、上記平行拡大投影処理を利用した表示処理に加え、遠距離画像過剰縮小投影処理、小画像省略処理、遠距離画像省略処理、近距離画像省略処理、はみ出し画像省略処理、隠れ判定の効率処理などの画像表示高速化技術を組み合わせて用いることができる。   Further, in addition to the display processing using the parallel enlargement projection processing, the far-distance image over-reduction projection processing, the small image omission processing, the far-distance image omission processing, the near-distance image omission processing, the overhang image omission processing, and the hiding determination efficiency processing It is possible to use a combination of image display speed-up techniques such as

上記方法により、平行拡大投影処理による簡略化2次元的配置を用いて、仮想3次元空間内に多量の検索対象画像を高速に表示処理ができる。   By the above method, a large amount of search target images can be displayed at high speed in a virtual three-dimensional space using a simplified two-dimensional arrangement by parallel enlargement projection processing.

上記の検索対象となる画像を3次元空間内に分かりやすい表現により高速に表示するという目的を達成するために、本発明の画像表示方法は、仮想3次元空間内に画像を配置して表示する画像表示方法であって、画像データが1つ以上の解像度の画像データの組からなる多解像度画像データであり、1枚以上の画像の1つ以上の解像度の画像データを読み込む画像データ読み込み処理と、各画像の仮想3次元空間内での配置情報を読み込む処理と、仮想3次元空間内の視点位置と視線方向のパラメータにより空間内視点の設定・移動を指定する空間内視点設定・移動処理と、各画像の仮想3次元空間内での配置情報と空間内視点情報の関係を基にした投影処理によって、空間内視点から見える各画像の位置、向き、大きさの2次元的配置を求める処理と、求められた2次元的配置に従って読み込んだ多解像度画像データのうちの1つ以上の解像度画像データを選択して表示画像に書き込み、表示画像を生成する表示画像生成処理と、生成された表示画像を表示装置上に表示する処理を備えたことを特徴とする。   In order to achieve the object of displaying the search target image in a three-dimensional space at high speed with easy-to-understand expression, the image display method of the present invention arranges and displays an image in a virtual three-dimensional space. An image display method, wherein the image data is multi-resolution image data composed of a set of image data having one or more resolutions, and an image data reading process for reading one or more resolution image data of one or more images A process for reading the arrangement information of each image in the virtual three-dimensional space, and a viewpoint setting / moving process in the space that specifies setting / movement of the viewpoint in the space by the viewpoint position and the line-of-sight direction parameter in the virtual three-dimensional space; Then, the projection processing based on the relationship between the arrangement information of each image in the virtual three-dimensional space and the viewpoint information in the space obtains a two-dimensional arrangement of the position, orientation, and size of each image seen from the viewpoint in the space. And a display image generation process for selecting one or more resolution image data from among the multi-resolution image data read in accordance with the obtained two-dimensional arrangement and writing it to the display image to generate the display image. And a process for displaying the displayed image on a display device.

また、検索対象となる画像を3次元空間内に分かりやすい表現により表示するための本発明の画像表示方法として、1枚以上の画像の画像データを読み込む処理と、各画像の仮想3次元空間内での配置情報を読み込む処理と、仮想3次元空間内の視点位置と視線方向のパラメータにより空間内視点の設定・移動を指定する空間内視点設定・移動処理と、各画像の仮想3次元空間内での配置情報と空間内視点情報の関係を基にした投影処理によって、空間内視点から見える前記各画像の位置、向き、大きさの2次元的配置を求める処理と、求められた2次元的配置に従って、読み込んだ画像データから2次元的配置の画像の大きさの領域分だけ切り出した切り出し画像データを表示画像に書き込んで表示画像を生成する表示画像生成処理と、生成された表示画像を表示装置上に表示する処理を備えたことを特徴とする。   In addition, as an image display method of the present invention for displaying an image to be searched in an easy-to-understand expression in a three-dimensional space, a process of reading image data of one or more images, and a virtual three-dimensional space of each image Processing to read the placement information in the space, the viewpoint setting / movement process in which the setting / movement of the viewpoint in the space is specified by the parameters of the viewpoint position and the line-of-sight direction in the virtual three-dimensional space, and the virtual three-dimensional space of each image A process for obtaining a two-dimensional arrangement of the position, orientation, and size of each image viewed from the viewpoint in space by a projection process based on the relationship between the arrangement information in the image and the viewpoint information in the space, and the obtained two-dimensional A display image generation process for generating a display image by writing into the display image cut-out image data cut out from the read image data by an area of the size of the image of the two-dimensional arrangement according to the arrangement; Display image, characterized in that it comprises a process of displaying on the display device.

さらに、多解像度画像合成表示処理、重要領域切出し表示処理に加え、省略時の代替表示処理、視点移動可能範囲の限定処理、特定画像の強調表示処理、座標軸等の表示処理、画像の枠付表示処理、画像配置拡張処理などの画像表現技術を組み合わせて用いることができる。   Furthermore, in addition to multi-resolution image composition display processing and important area extraction display processing, alternative display processing when omitted, processing for limiting the range of viewpoint movement, highlight display processing for specific images, display processing for coordinate axes, etc., display with frame of image It is possible to use a combination of image expression techniques such as processing and image layout expansion processing.

上記方法により、多解像度合成画像や切り出し画像などを用いて、利用者に分かりやすい仮想3次元空間内への多量の画像表示に適した画像表現を行なうことができる。   By the above method, it is possible to perform image representation suitable for displaying a large amount of images in a virtual three-dimensional space that is easy for the user to use, using a multi-resolution composite image, a cut-out image, or the like.

上記仮想3次元空間内に配置された各画像の配置位置を分かりやすくするという目的を達成するために、本発明の画像表示方法は、仮想3次元空間内に画像を配置して表示する画像表示方法であって、1枚以上の画像の画像データを読み込む処理と、各画像の仮想3次元空間内での配置情報を読み込む処理と、仮想3次元空間に背景として仮想的に存在する背景画像の画像データを読み込む処理と、背景画像の仮想3次元空間内での配置情報を読み込む処理と、仮想3次元空間内の視点位置と視線方向のパラメータにより空間内視点の設定・移動を指定する空間内視点設定・移動処理と、各画像および背景画像の仮想3次元空間内での配置情報と空間内視点情報の関係を基にした投影処理によって、空間内視点から見える各画像および背景画像の位置、向き、大きさの2次元的配置を求める処理と、求められた各画像および背景画像の2次元的配置に従って、読み込んだ画像データおよび背景画像データを処理して表示画像を生成する表示画像生成処理と、生成された表示画像を表示装置上に表示する処理を備えたことを特徴とする。   In order to achieve the object of making the arrangement position of each image arranged in the virtual three-dimensional space easy to understand, the image display method of the present invention provides an image display in which an image is arranged and displayed in the virtual three-dimensional space. A method of reading image data of one or more images, a process of reading arrangement information of each image in a virtual three-dimensional space, and a background image virtually existing as a background in the virtual three-dimensional space A process for reading image data, a process for reading arrangement information of a background image in a virtual three-dimensional space, and a setting and movement of a viewpoint in the space by parameters of the viewpoint position and the line-of-sight direction in the virtual three-dimensional space Each image and background image that can be viewed from the viewpoint in space by the viewpoint setting / moving process and the projection processing based on the relationship between the arrangement information of each image and background image in the virtual three-dimensional space and the viewpoint information in space. Display for generating a display image by processing the read image data and background image data in accordance with the processing for obtaining the two-dimensional arrangement of the position, orientation, and size of the image, and the two-dimensional arrangement of each obtained image and background image An image generation process and a process for displaying the generated display image on a display device are provided.

上記方法により、仮想3次元空間内に配置位置を分かりやすくするためのガイドとなる背景物体画像を表示することができ、各画像の仮想3次元空間内での位置が分かりやすく表現することができる。   By the above method, it is possible to display a background object image serving as a guide for making the arrangement position easy to understand in the virtual three-dimensional space, and to express the position of each image in the virtual three-dimensional space in an easy-to-understand manner. .

上記利用者の目が疲れない画像表示方法を提供するという目的を達成するために本発明の画像表示方法は、画像を移動させながら表示する画像表示方法であって、画像データを読み込む処理と、画像の移動方法を指定する移動パラメータを読み込む処理と、前記読み込まれた画像データと移動パラメータに基づいて、時間的に隣接するフレームの表示画像間で定まるオプティカルフローと各画像の各画素の実際の動きとの違いである視点移動誤差を低減し、かつ、時間的に隣接するフレーム間での画像の移動量を増加するように、前記移動パラメータまたは画像データの少なくとも一方を調整する移動パラメータ・画像データ調整処理と、前記調整された移動パラメータ・画像データに従って、前記読み込んだ画像データを処理して表示画像を生成する表示画像生成処理と、前記生成された表示画像を表示装置上に表示する処理を備えたことを特徴とする。   In order to achieve the object of providing an image display method in which the user's eyes are not tired, the image display method of the present invention is an image display method for displaying an image while moving it, and a process of reading image data; Based on the read image data and the movement parameter, a process for reading a movement parameter for designating an image movement method, an optical flow determined between display images of adjacent frames in time, and an actual pixel of each image A movement parameter / image that adjusts at least one of the movement parameter and the image data so as to reduce a viewpoint movement error that is a difference from movement and to increase an image movement amount between temporally adjacent frames. In accordance with data adjustment processing and the adjusted movement parameter / image data, the read image data is processed to display a display image. A display image generation processing to be generated, characterized by comprising a process of displaying on the display device a display image that is generated.

上記方法により、本発明の画像表示処理の移動パラメータの最適化処理方法を用い、オプティカルフローを基にして移動パラメータを最適化して、ブラウジング検索や閲覧を行なう利用者の目の疲れを抑えることができる画像表示を行なうことができる。   By the above method, the movement parameter optimization processing method of the image display process of the present invention is used, and the movement parameter is optimized based on the optical flow to suppress eye fatigue of the user who performs browsing search and browsing. The possible image display can be performed.

本発明の画像表示処理の3次元表示処理高速化技術によれば、平行拡大投影処理による簡略化2次元的配置を用いて、仮想3次元空間内に多量の検索対象画像を高速に表示処理ができる。   According to the three-dimensional display processing speed-up technology for image display processing of the present invention, a large amount of search target images can be displayed at high speed in a virtual three-dimensional space using a simplified two-dimensional arrangement by parallel enlargement projection processing. it can.

また、本発明の画像表示処理の3次元画像表現技術によれば、多解像度合成画像や切り出し画像などを用いて、利用者に分かりやすい仮想3次元空間内への多量の画像表示に適した画像表現を行なうことができる。   Further, according to the three-dimensional image expression technique of the image display processing of the present invention, an image suitable for displaying a large amount of images in a virtual three-dimensional space that is easy for the user to understand using a multi-resolution composite image, a cut-out image, or the like. Can express.

また、本発明の画像表示処理の背景画像を用いた3次元空間表現技術によれば、仮想3次元空間内に配置位置を分かりやすくするためのガイドとなる背景物体画像を表示することができ、各画像の仮想3次元空間内での位置が分かりやすく表現することができる。   Further, according to the 3D space expression technology using the background image of the image display processing of the present invention, it is possible to display a background object image serving as a guide for making the arrangement position easy to understand in the virtual 3D space, The position of each image in the virtual three-dimensional space can be easily expressed.

また、本発明の画像表示処理の移動パラメータの最適化処理技術によれば、オプティカルフローを基にして移動パラメータを最適化して、ブラウジング検索や閲覧を行なう利用者の目の疲れを抑えることができる画像表示処理を行なうことができる。   Further, according to the movement parameter optimization processing technology of the image display processing of the present invention, it is possible to optimize the movement parameter based on the optical flow and to suppress eye fatigue of the user who performs browsing search and browsing. Image display processing can be performed.

本発明の画像表示方法の実施形態について図面を参照しつつ説明する。   An embodiment of an image display method of the present invention will be described with reference to the drawings.

本発明の画像表示方法は、以下の本発明の基本技術を1つ以上組み合わせて3次元仮想空間内に画像を表示するものである。   The image display method of the present invention displays an image in a three-dimensional virtual space by combining one or more of the following basic techniques of the present invention.

第1の基本技術は、多量の画像表示に最適化した3次元表示処理高速化技術である。この3次元表示処理高速化技術として、本発明において新しく複数の表示処理高速化技術が開示されており、それらは任意に組み合わせて用いることができる。後述するように、平行拡大投影処理を利用した表示処理、遠距離画像過剰縮小投影処理、小画像省略処理、遠距離画像省略処理、近距離画像省略処理、はみ出し画像省略処理、隠れ判定の効率処理などの画像表示高速化技術を組み合わせて用いる。これら画像表示高速化技術は、下記の実施形態1において詳しく後述する。   The first basic technique is a three-dimensional display processing speed-up technique optimized for displaying a large amount of images. As the three-dimensional display processing speed-up technology, a plurality of display processing speed-up technologies are newly disclosed in the present invention, and they can be used in any combination. As will be described later, display processing using parallel enlargement projection processing, long-distance image over-reduction projection processing, small image omission processing, long-distance image omission processing, short-distance image omission processing, protruding image omission processing, and hiding determination efficiency processing In combination with image display speed-up technology. These image display speed-up techniques will be described in detail later in the first embodiment.

第2の基本技術は、多量の画像表示に最適化した3次元画像表現技術である。この3次元画像表現技術として、本発明において新しく複数の画像表現技術が開示されており、それらは任意に組み合わせて用いることができる。後述するように、多解像度画像合成表示処理、重要領域切出し表示処理、省略時の代替表示処理、視点移動可能範囲の限定処理、特定画像の強調表示処理、座標軸等の表示処理、画像の枠付表示処理、画像配置拡張処理などの画像表現技術を組み合わせて用いる。これら画像表現技術は、下記の実施形態2において詳しく後述する。   The second basic technique is a three-dimensional image expression technique optimized for displaying a large amount of images. As this three-dimensional image expression technique, a plurality of image expression techniques are newly disclosed in the present invention, and they can be used in any combination. As described later, multi-resolution image composition display processing, important area cut-out display processing, alternative display processing at the time of omission, processing for limiting the range of viewpoint movement, highlight display processing for specific images, display processing for coordinate axes, etc., image frame attachment A combination of image representation techniques such as display processing and image layout expansion processing is used. These image expression techniques will be described in detail later in the second embodiment.

第3の基本技術は、背景画像を用いた3次元空間表現技術である。この背景画像を用いた3次元空間表現技術は、下記の実施形態3において詳しく後述する。   The third basic technique is a three-dimensional space expression technique using a background image. The three-dimensional space expression technique using the background image will be described later in detail in Embodiment 3 below.

第4の基本技術は、移動パラメータの最適化処理技術である。本技術は、オプティカルフローを基にして移動パラメータを最適化して目の疲れを抑えるものである。この移動パラメータの最適化処理技術は、下記の実施形態4において詳しく後述する。   The fourth basic technique is a movement parameter optimization processing technique. This technique optimizes movement parameters based on optical flow to suppress eye fatigue. This movement parameter optimization processing technique will be described in detail later in a fourth embodiment.

なお、上記した本発明の3次元表示処理高速化技術、3次元画像表現技術、背景画像を用いた3次元空間表現技術、移動パラメータの最適化処理技術は、画像表示処理を向上させる技術として、それぞれ独立して適用することが可能であり、また、任意に組み合わせて用いることができる。   In addition, the above-described three-dimensional display processing speed-up technology of the present invention, three-dimensional image representation technology, three-dimensional space representation technology using a background image, and movement parameter optimization processing technology are technologies for improving image display processing. Each can be applied independently, and can be used in any combination.

以下の説明では、画像とディスプレイという用語を以下の意味で使用する。これは、表示方式においては標準的に用いられているものである。画像とは、画素と呼ばれる小さい長方形の領域を2次元的に敷き詰めた配列である。画素の個数が多い画像を高解像度あるいは大きい画像、画素の個数が少ない画像を低解像度あるいは小さい画像と呼ぶ。各画素には、いくつかの数値の組によって色(ここでは明度も含めている)を設定することができる。数値の組と色の対応方法の1例として、RGB表現方式がある。RGB表現方式で各色成分を8ビットで表現する場合、最も明るい白は、例えば、(255,255,255)になる。   In the following description, the terms image and display are used in the following sense. This is a standard used in the display method. An image is an array in which small rectangular areas called pixels are two-dimensionally spread. An image with a large number of pixels is called a high resolution or large image, and an image with a small number of pixels is called a low resolution or small image. Each pixel can be set in color (including lightness here) by a set of several numerical values. As an example of a method of associating a set of numerical values and colors, there is an RGB expression method. When each color component is expressed by 8 bits in the RGB expression method, the brightest white is, for example, (255, 255, 255).

また、ディスプレイとは、物理的には利用者が見ることができる表示装置である。コンピュータ内の特別なメモリに値を書き込むことで、ディスプレイの対応する箇所に対応する色を表示させることができる。従って、表示方式においては1つの特別な画像と見なすことができる。本発明では、ディスプレイをこの意味で用いる。   A display is a display device that can be physically viewed by a user. By writing a value to a special memory in the computer, it is possible to display a color corresponding to a corresponding portion of the display. Therefore, it can be regarded as one special image in the display method. In the present invention, a display is used in this sense.

以下、本発明の画像表示方法を実現する基本技術を説明する。   The basic technique for realizing the image display method of the present invention will be described below.

(実施形態1)
実施形態1は、本発明の画像表示方法の基本技術の1つである、多量の画像表示に最適化した3次元表示処理高速化技術である。
(Embodiment 1)
The first embodiment is a three-dimensional display processing speed-up technique optimized for a large amount of image display, which is one of the basic techniques of the image display method of the present invention.

本発明の多量の画像表示に最適化した3次元表示処理高速化技術の1つとしてまず、平行拡大投影による簡略化2次元的配置に従った画像生成処理について説明する。   As one of the three-dimensional display processing speed-up techniques optimized for displaying a large amount of images according to the present invention, first, image generation processing according to a simplified two-dimensional arrangement by parallel enlargement projection will be described.

従来技術において説明したように、従来技術の中心投影を用いれば、空間内視点を投影中心とし、仮想3次元空間内に配置された各画像を目視した場合の見た目に近い、臨場感ある表示画面を得ることができる。   As described in the prior art, if the central projection of the prior art is used, a display screen with a realistic sensation that is close to the appearance when each image arranged in the virtual three-dimensional space is viewed with the viewpoint in space as the projection center Can be obtained.

しかし、従来技術で述べたように、表示処理速度の問題など様々な問題を招いてしまう。本発明では、中心投影を用いず、ブラウジング検索や閲覧処理において十分である簡略化した変換画像を得られる投影方法を用いる。   However, as described in the prior art, various problems such as a problem of display processing speed are caused. In the present invention, a projection method capable of obtaining a simplified converted image that is sufficient in browsing search and browsing processing is used without using central projection.

一般の3次元物体は配置角度によって様々な方向を向く可能性があるが、ブラウジング検索や閲覧では、表示されている各画像が何であるかを分かりやすくすることが優先されるので、各画像が視線方向に対して正対するように表示すれば良い。各画像の向きをこのように定めると、例えば、長方形の画像はディスプレイ上でも長方形に表示される。つまり、ディスプレイ上のある位置を中心として、原画像を拡大・縮小処理、回転処理した変換画像が表示される。ここで外形は原画像の原形と変らないものとなる。特に、各画像の画素の方向(隣接画素を結んだ直線の方向)がディスプレイの画素の方向と平行になる場合、つまり、長方形の画像データがディスプレイに対して傾きがなく、正対している場合には、回転処理は不要となる。また、天地左右を考慮した場合でも、回転角度は90度の倍数(0度、90度、180度、270度)になる。実際のブラウジング検索や閲覧においては、各画像をこのように表示して検索、閲覧することが多く、また、その表示によりブラウジング検索や閲覧という目的を十分に果たす。   A general three-dimensional object may face various directions depending on the arrangement angle. However, in browsing search and browsing, priority is given to making it easy to understand what each displayed image is. What is necessary is just to display so that it may face with respect to a gaze direction. When the orientation of each image is determined in this way, for example, a rectangular image is displayed in a rectangular shape on the display. That is, a converted image obtained by enlarging / reducing and rotating the original image around a certain position on the display is displayed. Here, the outer shape is the same as the original shape of the original image. In particular, when the pixel direction of each image (the direction of the straight line connecting adjacent pixels) is parallel to the display pixel direction, that is, when the rectangular image data faces the display without any inclination. In this case, the rotation process is not necessary. Even when the top and bottom are considered, the rotation angle is a multiple of 90 degrees (0 degrees, 90 degrees, 180 degrees, and 270 degrees). In actual browsing search and browsing, each image is often displayed and searched and browsed in this way, and the display sufficiently fulfills the purpose of browsing search and browsing.

そこで、本発明では、仮想3次元空間内に配置する画像のディスプレイへの投影を求めるにあたり、各画像の仮想3次元空間内での配置と空間内視点情報の関係を基にして、画像データに対して、空間内視点から見た各画像の方向に対応した平行移動処理、空間内視点から見た各画像の大きさに対応した拡大・縮小処理のみを行なう平行拡大投影処理によって投影変換する。この平行拡大投影処理として、天地左右を考慮した90度の倍数の回転処理を含めることもできる。   Therefore, in the present invention, when obtaining a projection of an image to be arranged in the virtual three-dimensional space on the display, the image data is converted based on the relationship between the arrangement of each image in the virtual three-dimensional space and the in-space viewpoint information. On the other hand, projection conversion is performed by parallel translation processing corresponding to the direction of each image viewed from the in-space viewpoint and parallel enlargement projection processing that performs only enlargement / reduction processing corresponding to the size of each image viewed from the in-space viewpoint. As this parallel enlargement projection processing, a rotation processing of a multiple of 90 degrees in consideration of the vertical direction can be included.

この平行拡大投影処理によれば、空間内視点から見える各画像の2次元的配置が、原画像の相似形画像の2次元的配置として表現された簡略化2次元的配置を求めることができる。この平行拡大投影処理による簡略化2次元的配置を用いた表示処理は、原画像データの平行移動処理、拡大・縮小処理、90度の倍数の回転処理だけなので、一般の中心投影処理や任意角度の回転処理よりも高速に実行することができる。このように、画像データの原形の相似形の画像書き込みフレームの表示面への2次元的配置を求めて当該画像書き込みフレームに対して原画像データを用いて表示画像を書き込む場合の処理計算量は小さく高速処理が可能となる。   According to this parallel enlargement projection process, a simplified two-dimensional arrangement in which the two-dimensional arrangement of each image seen from the viewpoint in space is expressed as the two-dimensional arrangement of the similar image of the original image can be obtained. Since the display processing using the simplified two-dimensional arrangement by the parallel enlargement projection processing is only the translation processing of the original image data, the enlargement / reduction processing, and the rotation processing of a multiple of 90 degrees, the general central projection processing and arbitrary angle It can be executed at higher speed than the rotation process. In this way, the amount of processing calculation in the case of obtaining a two-dimensional arrangement on the display surface of an image writing frame similar to the original shape of the image data and writing the display image using the original image data to the image writing frame is as follows. Small and fast processing is possible.

本発明は、仮想3次元空間に配置された画像が、空間内視点から見た実際の目視の状態にかかわらず、平行拡大投影変換のみにより、ブラウジング検索や閲覧に十分な簡略化した2次元的配置による表示画像を表示することにより、投影処理および表示処理を簡素化し、処理を高速化するものである。   The present invention is a simplified two-dimensional image that is sufficiently simplified for browsing search and browsing by only parallel enlargement projection transformation, regardless of the actual visual state viewed from the viewpoint in the space. By displaying the display image by arrangement, the projection processing and the display processing are simplified and the processing speed is increased.

なお、画像から3次元情報を求める処理を研究するコンピュータビジョンの分野では、中心投影の近似として、弱透視投影(weak perspective
projection)や平行透視投影(paraperspective
projection)が用いられている。これらは、ディスプレイと各画像が仮想3次元空間内で平行になる場合には、中心投影と一致する。そうでない場合であっても、各画像の画素の方向がディスプレイの画素の方向と平行になれば、弱透視投影と平行拡大投影は一致する。従って、本発明の平行拡大投影は、任意の3次元配置に対して平行移動処理、拡大・縮小処理、90度の倍数の回転処理で投影を行えるように、弱透視投影を一般化した投影法であると言える。
In the field of computer vision, which studies the process of obtaining three-dimensional information from images, weak perspective projection (weak perspective projection) is used as an approximation of central projection.
projection and paraperspective
projection) is used. These coincide with the central projection when the display and each image are parallel in the virtual three-dimensional space. Even if this is not the case, if the direction of the pixels of each image is parallel to the direction of the pixels of the display, the weak perspective projection and the parallel magnified projection match. Therefore, the parallel magnified projection of the present invention is a projection method that generalizes weak perspective projection so that projection can be performed with respect to an arbitrary three-dimensional arrangement by translation processing, enlargement / reduction processing, and rotation processing of a multiple of 90 degrees. It can be said that.

この本発明の平行拡大投影処理の基本的流れを図1のフローチャートにより詳しく説明する。   The basic flow of the parallel enlargement projection processing of the present invention will be described in detail with reference to the flowchart of FIG.

まず、画像中から代表点を決定する(ステップS101)。表示対象となる各画像毎に1つの代表点を定める。代表点は例えば重心とする。   First, representative points are determined from the image (step S101). One representative point is determined for each image to be displayed. The representative point is, for example, the center of gravity.

次に、代表点のディスプレイ上での対応点を決定する(ステップS102)。ステップS101で定めた代表点と空間内視点を結んだ線分がディスプレイを通る点(x0、y0)を代表点のディスプレイ上での対応点と定める。   Next, the corresponding point on the display of the representative point is determined (step S102). The point (x0, y0) where the line segment connecting the representative point determined in step S101 and the viewpoint in space passes through the display is determined as the corresponding point on the display of the representative point.

次に、画像全体の拡大・縮小率を決定する(ステップS103)。ここでは、ステップS102で定めた代表点のZの値Z0の逆数を画像全体の拡大・縮小率とする。   Next, the enlargement / reduction ratio of the entire image is determined (step S103). Here, the reciprocal of the Z value Z0 of the representative point determined in step S102 is set as the enlargement / reduction ratio of the entire image.

次に、各軸の拡大・縮小率を決定する(ステップS104)。この各軸の拡大・縮小率は以下のように決定する。まず、画像上に直交する座標系u,vを導入する。このu,v座標系の原点は代表点とする。u、v方向の単位ベクトル(画素間隔長さ)のXYZ座標系での成分表示を(uX,uY,uZ)、(vX,vY,vZ)とする。このとき、|uX|≧|vX|ならば、u軸をuX倍してX軸に対応づけ、v軸をvY倍してY軸に対応づける。つまり、画像上で(u,v)という点をXYZ座標系で(uXu,vYv,Zo)という点に対応付ける。逆に、|uX|<|vX|ならば、v軸をvX倍してX軸に対応付け。u軸をuY倍してY軸に対応づける。   Next, the enlargement / reduction ratio of each axis is determined (step S104). The enlargement / reduction ratio of each axis is determined as follows. First, orthogonal coordinate systems u and v are introduced on the image. The origin of this u, v coordinate system is a representative point. Component display in the XYZ coordinate system of unit vectors (pixel interval lengths) in the u and v directions is (uX, uY, uZ) and (vX, vY, vZ). At this time, if | uX | ≧ | vX |, the u axis is multiplied by uX and associated with the X axis, and the v axis is multiplied by vY and associated with the Y axis. That is, the point (u, v) on the image is associated with the point (uXu, vYv, Zo) in the XYZ coordinate system. Conversely, if | uX | <| vX |, the v-axis is multiplied by vX and associated with the X-axis. The u axis is multiplied by uY to correspond to the Y axis.

次に、画像の各画素の対応付け処理を行なう(ステップS105)。画像の各画素(u,v)は、各軸の拡大・縮小率を掛けてX、Y軸での値に変換し、更に画像全体の拡大・縮小率を掛ける。これをδx、δyとする。画素が対応するディスプレイ上の画素は(x0+δx、y0+δy)となる。ただし、各軸の拡大・縮小率を上記以外の値に定義することも可能である。例えば(u2X+u2Y)1/2、(v2X+v2Y)1/2でもよい。本発明は、拡大・縮小率の定義の詳細には限定されず、適用することが可能である。   Next, a process for associating each pixel of the image is performed (step S105). Each pixel (u, v) of the image is multiplied by the enlargement / reduction ratio of each axis to be converted to a value on the X and Y axes, and further multiplied by the enlargement / reduction ratio of the entire image. These are set as δx and δy. The pixel on the display to which the pixel corresponds is (x0 + δx, y0 + δy). However, it is possible to define the enlargement / reduction ratio of each axis to a value other than the above. For example, (u2X + u2Y) 1/2 or (v2X + v2Y) 1/2 may be used. The present invention is not limited to the details of the definition of the enlargement / reduction ratio, and can be applied.

以上が、本発明の平行拡大投影処理の基本的流れである。   The above is the basic flow of the parallel enlargement projection processing of the present invention.

次に、投影する画像が長方形の場合を例として、平行拡大投影を用いて長方形画像のディスプレイへの投影計算処理の例を図2のフローチャートに示す。   Next, taking the case where the image to be projected is a rectangle as an example, a flowchart of FIG. 2 shows an example of a projection calculation process on a display of a rectangular image using parallel enlargement projection.

まず、平行拡大投影処理する各画像を視線方向で見て遠い順に並べ、この順列の先頭の画像を選択する(ステップS201)。   First, images to be subjected to parallel enlargement projection processing are arranged in order of distance from the viewing direction, and the first image in this permutation is selected (step S201).

次に、図1のフローチャートのステップS101に示したように、画像中から代表点を決定し、図1のフローチャートのステップS102に示したように、ディスプレイ上に投影される画像の代表点を計算し、さらに4つの頂点の対応点も計算する(ステップS202)。選択された画像の代表点の座標値から、拡大・縮小率を求め、4頂点の座標値からディスプレイ上に投影される長方形の4頂点の座標(X1,Y1)、(X1+w1,Y1)、(X1,Y1+h1)、(X1+w1,Y1+h1)を求める。   Next, as shown in step S101 of the flowchart of FIG. 1, representative points are determined from the image, and as shown in step S102 of the flowchart of FIG. 1, the representative points of the image projected on the display are calculated. Further, corresponding points of the four vertices are also calculated (step S202). The enlargement / reduction ratio is obtained from the coordinate value of the representative point of the selected image, and the coordinates (X1, Y1), (X1 + w1, Y1), (X1 + w1, Y1), (4) of the rectangle projected onto the display from the coordinate values of the four vertices. X1, Y1 + h1) and (X1 + w1, Y1 + h1) are obtained.

次に、処理対象となる画素を初期化する(ステップS203)。ここでは、処理対象とするディスプレイ上の画素(i,j)を、(X1、Y1)に設定する。   Next, the pixel to be processed is initialized (step S203). Here, the pixel (i, j) on the display to be processed is set to (X1, Y1).

次に、対応する画像の画素を計算する(ステップS204)。ディスプレイ上の画素(i,j)に対応する画像上の画素(I,J)を求める。   Next, corresponding image pixels are calculated (step S204). The pixel (I, J) on the image corresponding to the pixel (i, j) on the display is obtained.

次に、画像上の画素の色をディスプレイ上の画素へ複写する(ステップS205)。ここでは画像上の画素(I,J)の色をディスプレイ上の画素(i,j)に複写する。   Next, the color of the pixel on the image is copied to the pixel on the display (step S205). Here, the color of the pixel (I, J) on the image is copied to the pixel (i, j) on the display.

次に、処理対象画素を移動させる。まず、X軸方向への移動を行なう。iを1つ増加することにより処理対象画素をX軸方向に1つ隣の画素とする(ステップS206)。もし、i=X1+w1+1となったら(ステップS207:Y)、X軸方向について長方形の画像範囲を超えたことを意味するので、処理対象画素のX座標を左端に戻し、次にY軸方向への移動を行なう。つまり、i=X1に戻し、jを1つ増加する(ステップS208)。もし、j=Y1+h+1となったら(ステップS209:Y)、Y軸方向について長方形の画像範囲を超えたことを意味するので、長方形の画像範囲全体に渡り、画素を処理対象とし終わったので、次の画像選択の処理ステップS201に戻ることとなる。   Next, the processing target pixel is moved. First, movement in the X-axis direction is performed. By increasing i by one, the pixel to be processed is set to the next pixel in the X-axis direction (step S206). If i = X1 + w1 + 1 (step S207: Y), it means that the rectangular image range has been exceeded in the X-axis direction, so that the X coordinate of the pixel to be processed is returned to the left end, and then in the Y-axis direction. Move. That is, i is returned to X1, and j is increased by 1 (step S208). If j = Y1 + h + 1 (step S209: Y), this means that the rectangular image range has been exceeded in the Y-axis direction, and the pixel has been processed over the entire rectangular image range. The process returns to the image selection processing step S201.

次に、ステップS207においてi=X1+ω1+1には至っていない場合(ステップS207:N)、またはステップS209においてj=Y1+h+1には至っていない場合(ステップS209:N)、ステップS204に戻り、再び、対応する画像の画素の計算、画像上の画素の色のディスプレイ上の画素への複写(ステップS205)を行う。   Next, if i = X1 + ω1 + 1 has not been reached in step S207 (step S207: N), or if j = Y1 + h + 1 has not been reached in step S209 (step S209: N), the process returns to step S204, and the corresponding image again. The pixel is calculated and the color of the pixel on the image is copied to the pixel on the display (step S205).

上記のステップS204〜ステップS209の処理を繰り返し、ステップS209においてj=Y1+h+1には至った場合(ステップS209:Y)、列の次の画像が残っているか確認し、残っている場合(ステップS210:Y)、ステップS201に戻り、上記処理を繰り返す。   When the processing from step S204 to step S209 is repeated and j = Y1 + h + 1 is reached in step S209 (step S209: Y), it is confirmed whether or not the next image in the column remains (step S210: Y) Returning to step S201, the above process is repeated.

選択される画像が残っていない場合(ステップS210:N)、処理を終了する。ここで選択される画像が残っていない場合とは、選択した画像の代表点が視点位置の後ろ側(Z<0)になる場合を含む。   If there remains no image to be selected (step S210: N), the process ends. Here, the case where the selected image does not remain includes the case where the representative point of the selected image is behind the viewpoint position (Z <0).

以上が、長方形画像の画像データに対して平行拡大投影を用いてディスプレイ上の2次元的配置画像を求める処理の流れの例である。   The above is an example of the flow of processing for obtaining a two-dimensional arrangement image on a display using parallel enlargement projection for image data of a rectangular image.

図3に、本発明の平行拡大投影処理による簡略化2次元的配置を用いた表示画像の例と、従来技術の中心投影処理による2次元表示画像の例を示す。ここでは、原画像は長方形画像である。図3(a)に示すように、本発明の平行拡大投影処理による簡略化2次元的配置を用いた表示画像の例では、表示画像において各画像は、原形の長方形画像を平行移動処理、拡大・縮小処理、回転処理のみの相似形画像となっており、高速に表示処理が可能である。図3(b)の従来技術の中心投影処理による2次元表示画像の例では、仮想3次元空間内において各画像は空間内視点からの目視に近い画像を得られているが、画像処理量が大きく、高速の表示処理が困難となっている。   FIG. 3 shows an example of a display image using a simplified two-dimensional arrangement by parallel expansion projection processing of the present invention and an example of a two-dimensional display image by central projection processing of the prior art. Here, the original image is a rectangular image. As shown in FIG. 3 (a), in the example of the display image using the simplified two-dimensional arrangement by the parallel enlargement projection processing of the present invention, each image in the display image is a translation processing and enlargement of the original rectangular image.・ Similar images with only reduction processing and rotation processing, and display processing is possible at high speed. In the example of the two-dimensional display image by the center projection processing of the prior art in FIG. 3B, each image is obtained in the virtual three-dimensional space, and an image close to visual observation from the viewpoint in the space is obtained. Large and high-speed display processing is difficult.

次に、本発明の第2の3次元表示処理高速化技術を説明する。   Next, the second 3D display processing speed-up technology of the present invention will be described.

第2の3次元表示処理高速化技術は、多解像度画像を利用した3次元表示処理高速化技術である。上記の平行拡大投影処理による簡略化2次元的配置を用いた表示画像処理と組み合わせることにより3次元表示処理の高速化に寄与できる。なお、この多解像度画像を利用した3次元画像表示処理は、実施形態2において後述するように、多量の画像表示に最適化した3次元画像表現技術という観点からも用いることができる。本実施形態1では、3次元表示処理高速化技術としての側面について述べる。   The second 3D display processing speed-up technology is a 3D display processing speed-up technology using multi-resolution images. By combining with the display image processing using the simplified two-dimensional arrangement by the parallel enlargement projection processing, it is possible to contribute to speeding up the three-dimensional display processing. Note that the three-dimensional image display processing using the multi-resolution image can be used from the viewpoint of a three-dimensional image expression technique optimized for a large amount of image display as described later in the second embodiment. In the first embodiment, aspects as a three-dimensional display processing speed-up technology will be described.

表示対象となる画像の枚数は膨大であるため、すべてを読み込んで主記憶に載せるには、膨大な読み込み時間と記憶容量が必要となる。   Since the number of images to be displayed is enormous, enormous reading time and storage capacity are required to read all the images and place them in the main memory.

表示対象となる画像を仮想3次元空間内に配置する場合、遠方に存在する画像は小さく表示され、低い解像度であっても十分である場合が多い。このように、空間内視点からの距離や、画像の表示サイズに応じて解像度を調整することができる。縮小された画像を用いることで、表示の高速化、省メモリ化が実現できる。この性質を利用し、本発明の多解像度画像を利用する3次元表示処理高速化技術は、表示対象となる画像に対し、解像度の異なる複数の画像データを用意しておき、2次元表示画像として書き込む際に、空間内視点からの距離や、画像の表示サイズに応じた解像度に最も近い解像度の画像データを選択し、当該画像データを利用して画像表示処理を行なうものである。   When an image to be displayed is arranged in a virtual three-dimensional space, an image existing far away is displayed small, and even a low resolution is often sufficient. Thus, the resolution can be adjusted according to the distance from the viewpoint in space and the display size of the image. By using a reduced image, display speed can be increased and memory can be saved. Using this property, the three-dimensional display processing speed-up technology using a multi-resolution image of the present invention prepares a plurality of image data with different resolutions for an image to be displayed as a two-dimensional display image. When writing, image data having a resolution closest to the resolution according to the distance from the viewpoint in space or the display size of the image is selected, and image display processing is performed using the image data.

図4に多解像度画像を用いた表示画像の生成例を示す。図4のように原画像データからサイズの異なる複数の多解像度画像データを用意する。ここでは、画像の内容は、サイズに合わせて単純に拡大縮小を事前に行なっている。投影処理の結果、画像書き込みフレームの位置とサイズが決まった後、多解像度画像のうち当該画像書き込みフレームに対して最も近いサイズを持つものを選択し、必要に応じて拡大縮小の微調整を行なって書き込む。   FIG. 4 shows an example of generating a display image using a multi-resolution image. As shown in FIG. 4, a plurality of multi-resolution image data having different sizes are prepared from the original image data. Here, the contents of the image are simply scaled in advance according to the size. After determining the position and size of the image writing frame as a result of the projection process, select the multi-resolution image having the closest size to the image writing frame, and make fine adjustments as necessary. Write.

このように、階層化された多解像度画像から適切な解像度の画像データを選択することにより、画像データ量を低減することができ、計算量が減り、表示処理を高速化することが可能となる。   As described above, by selecting image data with an appropriate resolution from the multi-resolution images that are hierarchized, the amount of image data can be reduced, the amount of calculation can be reduced, and the display processing can be speeded up. .

次に、用いる多解像度画像データについて説明する。この多解像度画像を利用した3次元表示処理高速化技術で用いる多解像度画像は、1つ以上の異なる解像度による画像データを組として用意すれば良く、画像データ容量が異なれば良い。もっとも単純な多解像度画像データとしては、原画像データに対して、画素データを空間的に均等に間引いた低解像度画像を複数生成したものが挙げられる。また、実施形態2で後述するような、重要な局所領域の解像度を高く保ち、他の領域の解像度を低くした合成画像による多解像度画像データや、原画像から重要な局所領域のみを切り出す切り出し画像による多解像度画像データなども挙げることができる。このように、本発明の多解像度画像を用いた3次元表示処理高速化技術に用いられる多解像度画像データはその内容に限定されない。   Next, multiresolution image data to be used will be described. The multi-resolution image used in the three-dimensional display processing speed-up technology using the multi-resolution image may be prepared as a set of image data having one or more different resolutions, and the image data capacity may be different. The simplest multi-resolution image data includes a plurality of low-resolution images in which pixel data is thinned out spatially and uniformly with respect to the original image data. Further, as described later in the second embodiment, multi-resolution image data based on a composite image in which the resolution of an important local region is kept high and the resolution of other regions is lowered, or a cut-out image that cuts out only an important local region from an original image The multi-resolution image data by can also be mentioned. Thus, the multi-resolution image data used in the three-dimensional display processing speed-up technology using the multi-resolution image of the present invention is not limited to the content.

この多解像度画像を利用する画像表示処理において、本発明は、さらに以下の3次元表示処理高速化技術を開示する。   In the image display processing using this multi-resolution image, the present invention further discloses the following three-dimensional display processing speed-up technology.

第1は、多解像度画像データのメモリへの読み込みの調整処理である。   The first is adjustment processing for reading multi-resolution image data into the memory.

この多解像度画像データ組をまとめて読み込む処理とするか、多解像度画像のうち、表示される解像度が決まった後、該当する解像度の画像データのみを読み込む処理とするかを調整する処理である。つまり、多解像度画像データ読み込み処理において、その読み込み処理の時点が表示画像生成処理の前であり、読み込む画像の多解像画像データの組すべてを読み込む処理とするか、読み込み処理の時点が表示画像生成処理において1つの解像度画像データを選択された時点であり、読み込む画像の多解像画像データのうち選択された解像度画像データのみ読み込む処理のいずれかを選択する処理である。   This is a process for adjusting whether to read this multi-resolution image data set collectively or to read only the image data of the corresponding resolution after the resolution to be displayed is determined among the multi-resolution images. In other words, in the multi-resolution image data reading process, the time of the reading process is before the display image generation process, and the process of reading all the sets of multi-resolution image data of the image to be read is performed. This is the time when one resolution image data is selected in the generation process, and is a process for selecting one of the processes for reading only the selected resolution image data among the multi-resolution image data of the image to be read.

このように、両者のいずれか処理の選択を可能とすることにより、メモリ容量と表示速度間のバランスが取れるようになる。もし、多解像度画像データの読み込みに利用できるメモリが十分ある場合は、前者のように多解像度画像データのセットをまとめて読み込んでおく処理を選択することができ、利用できるメモリが十分でない場合は、後者のように、用いられる解像度が決まった時点で該当する解像度の画像データを読み込む処理とすれば良い。   Thus, by making it possible to select either of the processes, the memory capacity and the display speed can be balanced. If there is enough memory available for reading multi-resolution image data, you can select the processing to read a set of multi-resolution image data as in the former, and if there is not enough available memory As in the latter case, the image data having the corresponding resolution may be read when the resolution to be used is determined.

第2は、読み込んだ多解像度画像データのメモリからの削除の調整処理である。   The second is an adjustment process for deleting the read multi-resolution image data from the memory.

読み込み処理によってメモリ上に読み込まれた多解像度画像データを消去する処理も調整することが可能である。   It is also possible to adjust the process of erasing the multi-resolution image data read into the memory by the reading process.

不要となった多解像度画像データをメモリから削除する画像データ削除処理は、画像データ記録容量がメモリ中に設定された容量を越えた時点で不要となっている画像データを削除する処理か、表示画像生成処理において1つの解像度画像データが選択された時点で他の解像度画像データを削除する処理のいずれかを選択できるものとする。   The image data deletion process that deletes unnecessary multi-resolution image data from the memory is a process that deletes unnecessary image data when the image data recording capacity exceeds the capacity set in the memory. It is assumed that at the time when one resolution image data is selected in the image generation process, one of processes for deleting other resolution image data can be selected.

第3は、ブラウジング検索においては、表示前の処理に時間を掛けられないことが多いが、表示可能性のある母集団の要素すべてに対してあらかじめ処理を行っておく処理は可能である。表示対象は母集団のごく一部であるので、ランダムアクセスが効率的に行えるように画像データを1つのファイルにまとめて構造化しておくことで、表示前あるいは表示時の画像データ読み込み処理を高速化できる。   Thirdly, in the browsing search, it is often difficult to spend time on the process before display, but it is possible to perform the process in advance for all elements of the population that can be displayed. Since the display target is only a small part of the population, image data can be read quickly before or during display by organizing the image data into a single file so that random access can be performed efficiently. Can be

第4は、最大の解像度を指定された値までに制限する処理である。ブラウジング検索に用いる画像としては、過剰に高解像度の画像データは処理速度の低下を招くので、データ量が大きすぎる原画像は表示には使用しない。   The fourth is processing for limiting the maximum resolution to a specified value. As an image used for browsing search, excessively high-resolution image data causes a reduction in processing speed, so an original image having an excessively large data amount is not used for display.

第5は、解像度変換の際に、ディスプレイの色表現方法や深さ(1画素あたりのデータ量)への変換も同時に行うことで、表示時の解像度変換処理を省略する処理である。例えば、最近のパソコンでは16ビット(RGB各5ビット)の色表現を用いることができる。RGB各8ビットのデータを16ビットに変換すれば、表示時の変換処理の省略だけでなく、データ量の削減や表示速度の向上も期待できる。   Fifth, the resolution conversion process at the time of display is omitted by simultaneously converting the display color expression method and depth (data amount per pixel) at the time of resolution conversion. For example, a recent personal computer can use 16-bit (RGB each 5 bits) color expression. If the RGB 8-bit data is converted to 16 bits, not only the conversion process at the time of display is omitted, but also a reduction in data amount and an increase in display speed can be expected.

以上が、多解像度画像を利用した3次元表示処理高速化技術である。   The above is the technology for speeding up the three-dimensional display process using multi-resolution images.

次に、本発明の第3の3次元表示処理高速化技術を説明する。   Next, the third 3D display processing speed-up technique of the present invention will be described.

本発明の第3の3次元表示処理高速化技術は、遠距離画像過剰縮小投影処理技術である。この遠距離画像過剰縮小投影処理技術とは、空間内視点から見た仮想3次元空間内に配置された各画像の大きさに応じて、原画像データを拡大・縮小する処理において、各画像の仮想3次元空間内での配置情報と前記空間内視点情報の関係から決まる空間内視点と各画像との距離に比例した縮小率よりも大きい縮小率を適用し、各画像の大きさをさらに縮小する処理である。つまり、仮想3次元空間内で、画像が遠く離れていれば離れている程、縮小率を大きくして過剰に縮小投影処理する技術である。   The third three-dimensional display processing speed-up technology of the present invention is a long-distance image excessive reduction projection processing technology. This far-distance image over-reduction projection processing technique is a process for enlarging / reducing the original image data according to the size of each image arranged in the virtual three-dimensional space viewed from the viewpoint in space. Applying a reduction ratio larger than the reduction ratio proportional to the distance between the viewpoint in the space determined from the relationship between the arrangement information in the virtual three-dimensional space and the viewpoint information in the space and each image, further reducing the size of each image It is processing to do. That is, in the virtual three-dimensional space, the farther away the image, the larger the reduction ratio and the excessive reduction projection processing.

遠距離画像過剰縮小投影処理の例は、各画像と空間内視点との距離に応じた拡大・縮小処理計算の際に、代表点の奥行き座標値のZ0で割る代りに例えば、Z02で割る。この処理により、距離の二乗に比例して縮小率が定められるので、視点から遠い画像は過剰に縮小されることとなり、後述する小画像省略処理により画像書きこみが効率的に省略されることとなり、表示処理が高速化される。   In the example of the far-distance image excessive reduction projection processing, when the enlargement / reduction processing is calculated according to the distance between each image and the viewpoint in the space, for example, instead of dividing by the depth coordinate value Z0 of the representative point, it is divided by Z02. By this process, the reduction ratio is determined in proportion to the square of the distance, so that an image far from the viewpoint is excessively reduced, and image writing is efficiently omitted by the small image omission process described later. , Display processing is speeded up.

本発明の第4の3次元表示処理高速化技術は、小画像省略処理である。この小画像省略処理は、表示画像生成処理における、各画像の画像データの書き込み処理において、各画像の2次元的配置上での大きさに閾値を設けておき、大きさが当該閾値以下であれば、画像自体の書き込み処理を省略する処理である。省略される画像データは、投影計算が省略されるので画像処理量を低減することができ、高速表示が可能となる。   The fourth 3D display processing speed-up technology of the present invention is a small image omission process. In the small image omission processing, a threshold is provided for the size of each image on the two-dimensional arrangement in the image data writing processing of the display image generation processing, and the size is equal to or smaller than the threshold. For example, this is a process of omitting the writing process of the image itself. Since the projection calculation is omitted for the omitted image data, the amount of image processing can be reduced, and high-speed display is possible.

本発明の第5の3次元表示処理高速化技術は、遠距離画像省略処理である。この遠距離画像省略処理は、仮想3次元空間内において、空間内視点から一定以上遠くに存在する画像の書き込みを省略する処理である。この遠距離画像省略処理の例としては、各画像の奥行きの座標値と空間内視点との差、つまり、空間内視点から各画像までの距離について、ある遠距離閾値を設けておき、空間内視点からの距離が当該遠距離閾値を超えている画像は遠距離画像として、画像自体の書き込み処理を省略する。省略される画像データは、投影計算が省略されるので画像処理量を低減することができ、高速表示が可能となる。   The fifth 3D display processing speed-up technology of the present invention is a long-distance image omission processing. This long-distance image omission processing is processing for omitting writing of an image that exists farther than a certain distance from the in-space viewpoint in the virtual three-dimensional space. As an example of this long-distance image omission processing, a certain long-distance threshold is provided for the difference between the depth coordinate value of each image and the in-space viewpoint, that is, the distance from the in-space viewpoint to each image. An image whose distance from the viewpoint exceeds the long distance threshold is regarded as a long distance image, and the writing process of the image itself is omitted. Since the projection calculation is omitted for the omitted image data, the amount of image processing can be reduced, and high-speed display is possible.

本発明の第6の3次元表示処理高速化技術は、近距離画像省略処理である。この近距離画像省略処理は、空間内視点に対してかなり近い画像の表示を省略する処理である。ブラウジング検索や閲覧の過程において、仮想3次元空間内を移動してゆき、検索の結果、興味がないと判った画像は、詳しい画像表示の処理は行なわず、仮想3次元空間の奥などに存在する他の画像をブラウジングするため、さらに奥方向などに進む。その際、空間内視点は、興味がない画像の近辺を通過して行くので、距離が近く、大きく表示されることとなる。このような画像は検索においては興味がないので大きく表示するのは無駄であり、画像書き込みを省略しても差し支えない。そこで、近距離画像省略処理として、空間内視点に対してかなり近い画像を当該興味の無くなった画像とみなすことにより表示を省略する。近距離画像省略処理の例としては、空間内視点から各画像までの距離について、近距離閾値を設けておき、空間内視点からの距離が当該近距離閾値より小さい画像は近距離画像として、画像自体の書き込み処理を省略する。書き込みが省略される画像データは、投影計算が省略されるので画像処理量を低減することができ、高速表示が可能となる。   The sixth 3D display processing speed-up technology of the present invention is a short-range image omission processing. This short distance image omission processing is processing for omitting display of an image that is quite close to the in-space viewpoint. During browsing and browsing, images that move in the virtual three-dimensional space and are found to be uninteresting as a result of the search are not displayed in detail, but exist in the virtual three-dimensional space. In order to browse other images, the process proceeds further in the back direction. At that time, since the in-space viewpoint passes through the vicinity of the uninteresting image, the distance is close and displayed large. Since such an image is not interested in retrieval, it is useless to display it large, and image writing may be omitted. Therefore, as near-field image omission processing, display is omitted by regarding an image that is quite close to the in-space viewpoint as an image that has lost interest. As an example of the short distance image omission processing, a short distance threshold is provided for the distance from the in-space viewpoint to each image, and an image whose distance from the in-space viewpoint is smaller than the near distance threshold is set as a near-field image. The writing process of itself is omitted. Since image data for which writing is omitted does not require projection calculation, the amount of image processing can be reduced, and high-speed display is possible.

本発明の第7の3次元表示処理高速化技術は、はみ出し画像省略処理である。このはみ出し画像省略処理は、表示画像生成処理における画像データの書き込み処理において、一定以上周辺にあり表示エリアからはみ出した画像は書き込みを省略する処理である。ここで、はみ出し画像省略処理の例としては、仮想3次元空間内に配置された各画像の方向に対する閾値を設け、当該閾値以内の方向に存在する画像は表示画像に書き込み、当該閾値外の方向、つまり、一定以上周辺に存在する画像は、枠線のみを書き込み、画像自体の書き込み処理を省略する。ここで、画像の方向の例として、空間内視点から見た画像の中心の方向、空間内視点から見た画像の明るさで重み付けした重心の方向、定めた代表点を採用することできる。この画像方向が設定範囲外にあるか否かの判断方法は、画像の代表点の2次元的配置位置が表示画像の定められた範囲外にあるか否かで判断する方法も含む。ここで、通常のCGにおけるクリッピング処理であれば、画像のうちディスプレイ内にある部分の画像は表示するのが普通であるが、本発明のはみ出し画像省略処理によれば、書き込み省略する画像は画像全体の書き込みを省略する。ブラウジング検索や回覧においては代表点が見えない画像は表示しない方が妥当であると考えられる。本発明のはみ出し画像省略処理によれば、書き込みが省略される画像データは、投影計算が省略されるので画像処理量を低減することができ、高速表示が可能となる。   The seventh three-dimensional display processing speed-up technology of the present invention is a protruding image omission processing. This protruding image omission processing is processing for omitting writing of an image that is located at a certain distance or more and protrudes from the display area in the image data writing processing in the display image generation processing. Here, as an example of the protruding image omission processing, a threshold is set for the direction of each image arranged in the virtual three-dimensional space, and an image existing in a direction within the threshold is written in the display image, and the direction outside the threshold is set. In other words, for an image that is present around a certain distance, only the frame line is written, and the writing process of the image itself is omitted. Here, as an example of the image direction, the direction of the center of the image viewed from the in-space viewpoint, the direction of the center of gravity weighted by the brightness of the image viewed from the in-space viewpoint, and a predetermined representative point can be employed. The method for determining whether or not the image direction is outside the set range includes a method for determining whether or not the two-dimensional arrangement position of the representative point of the image is outside the predetermined range of the display image. Here, in the case of normal CG clipping processing, it is normal to display an image of a portion of the image in the display. However, according to the protruding image omission processing of the present invention, an image to be omitted is an image. The whole writing is omitted. In browsing search and circulation, it is considered appropriate not to display an image in which the representative point is not visible. According to the protruding image omission processing of the present invention, the image data that is not written is omitted from the projection calculation, so that the amount of image processing can be reduced and high-speed display is possible.

本発明の第8の3次元表示処理高速化技術は、隠れ判定の効率処理である。ブラウジング検索や回覧においては、視点に最も近い画像がディスプレイ上でかなり広い表示面積を占める事が多いので、遠距離に存在する画像が、近距離に存在する画像により完全に隠されている場合がある。当該場合において完全に隠されている画像の投影処理を省略することで表示の高速化が図れる。   The eighth 3D display processing speed-up technology of the present invention is an efficiency process for hiding determination. In browsing search and circulation, the image closest to the viewpoint often occupies a considerably large display area on the display, so that an image existing at a long distance may be completely hidden by an image existing at a short distance. is there. In this case, the display speed can be increased by omitting the projection process of the completely hidden image.

次に、本実施形態1で説明した本発明の3次元表示処理高速化技術を適用した装置構成例を示す。図5は、本発明の3次元表示処理高速化技術を適用した装置構成例である。図5に示すように、画像入力部10、配置情報入力部20、空間内視点設定・移動処理部30、投影処理部40、表示画像生成部50、表示部60を備えている。   Next, an apparatus configuration example to which the three-dimensional display processing speed-up technology of the present invention described in the first embodiment is applied will be shown. FIG. 5 shows an apparatus configuration example to which the three-dimensional display processing speed-up technology of the present invention is applied. As shown in FIG. 5, an image input unit 10, an arrangement information input unit 20, an in-space viewpoint setting / movement processing unit 30, a projection processing unit 40, a display image generation unit 50, and a display unit 60 are provided.

画像入力部10により、画像データを読み込む。配置情報入力部20により、各画像の仮想3次元空間内での配置情報を読み込む。空間内視点設定・移動処理部30により、仮想3次元空間内の視点位置と視線方向のパラメータにより空間内視点の設定・移動を指定する。投影処理部40により、各画像の仮想3次元空間内での配置情報と空間内視点情報の関係を基にして、画像データ原形に対して上記実施形態1に示した平行拡大投影処理などの投影処理を実行し、空間内視点から見える各画像の簡略化2次元的配置を求める。表示画像生成部50により、得られた簡略化2次元的配置に基づいて各画像を2次元表示画像として書き込む。表示部60により生成した2次元表示画像を表示する。   Image data is read by the image input unit 10. The arrangement information input unit 20 reads arrangement information of each image in the virtual three-dimensional space. The in-space viewpoint setting / movement processing unit 30 designates setting / movement of the in-space viewpoint based on the viewpoint position and the line-of-sight direction parameters in the virtual three-dimensional space. Based on the relationship between the arrangement information of each image in the virtual three-dimensional space and the in-space viewpoint information, the projection processing unit 40 projects the image data original form such as the parallel enlargement projection process described in the first embodiment. A process is executed to obtain a simplified two-dimensional arrangement of each image that can be seen from the viewpoint in space. The display image generation unit 50 writes each image as a two-dimensional display image based on the obtained simplified two-dimensional arrangement. The two-dimensional display image generated by the display unit 60 is displayed.

以上、本発明の3次元表示処理高速化技術によれば、仮想3次元空間内に多量の検索対象画像を高速に表示処理ができる。なお、上記に説明した3次元表示処理高速化技術は、任意に組み合わせて利用することができる。   As described above, according to the three-dimensional display processing speed-up technology of the present invention, a large amount of search target images can be displayed at high speed in the virtual three-dimensional space. Note that the three-dimensional display processing speed-up technology described above can be used in any combination.

(実施形態2)
実施形態2は、本発明の画像表示方法の第2の基本技術である多量の画像表示に最適化した3次元画像表現技術である。多解像度画像合成表示処理、重要領域切出し表示処理、省略時の代替表示処理、視点移動可能範囲の限定処理、特定画像の強調表示処理、座標軸等の表示処理、画像の枠付表示処理、画像配置拡張処理などの画像表現技術を説明する。なお、それらは任意に組み合わせて用いることができる。
(Embodiment 2)
The second embodiment is a three-dimensional image expression technique optimized for a large amount of image display, which is the second basic technique of the image display method of the present invention. Multi-resolution image composition display processing, important area cut-out display processing, alternative display processing at the time of omission, processing for limiting the range of viewpoint movement, highlight processing for specific images, display processing for coordinate axes, display processing with image frames, image layout An image expression technique such as expansion processing will be described. In addition, they can be used in any combination.

本発明の第1の画像表現技術は、多解像度合成画像を利用した3次元画像表現技術である。   The first image expression technique of the present invention is a three-dimensional image expression technique using a multi-resolution composite image.

画像を仮想3次元空間に配置して表示する処理において、高速化処理のため、多解像度画像データを用いる場合がある。各画像に対して、解像度の異なる複数の画像データを1セットとした多解像度画像データを生成しておき、表示の際、その大きさに応じて適切な解像度の画像を選択して表示する処理を行う。   In the process of arranging and displaying an image in a virtual three-dimensional space, multi-resolution image data may be used for high-speed processing. Processing for generating multi-resolution image data in which a plurality of image data having different resolutions is set for each image, and selecting and displaying an image with an appropriate resolution according to the size at the time of display I do.

画像サイズに合わせて単に縮小した多解像度画像を用いた表示例は実施形態1の図4に示した。しかし、図4に示したような画像のサイズに合わせて縮小した多解像度画像を用いれば、解像度が低い画像データは、縮小されるにつれ、内容を目視で認識することが困難となってくる。仮想3次元空間には、多量の画像の表示が想定され、多くの画像は小さく表示されるので、一覧性を持たせて多くの画像を認識することが難しいものとなっている。   A display example using a multi-resolution image simply reduced in accordance with the image size is shown in FIG. However, if a multi-resolution image reduced in accordance with the image size as shown in FIG. 4 is used, it becomes difficult to visually recognize the contents of the image data having a low resolution as the image data is reduced. Since a large amount of images are assumed to be displayed in the virtual three-dimensional space, and many images are displayed in a small size, it is difficult to recognize many images with a list.

そこで、本発明は、以下の多解像度合成画像を用いた、ブラウジング検索には適した3次元画像表現技術を提供する。   Therefore, the present invention provides a three-dimensional image expression technique suitable for browsing search using the following multi-resolution composite image.

多解像度合成画像とは、原画像のうち、検索利用者にとり、重要な領域部分、画像の内容を端的に表わす領域部分を部分的に抜き出して当該領域部分を高解像度画像部分としてその大きさを大きく維持し、原画像の他の部分を低解像度画像として省略し、両者領域部分を合成して1枚の合成画像としたものである。ただし、高解像度といっても原画像の解像度は越えない。   A multi-resolution composite image is a part of an original image that is important for a search user and is used to extract an important area part and an area part that expresses the contents of the image. It is kept large, the other part of the original image is omitted as a low-resolution image, and both area parts are combined into a single composite image. However, the high resolution does not exceed the resolution of the original image.

多解像度画像データの生成処理は、原画像を複数の部分領域に分け、指定された部分領域のみを取り出す処理と、生成する各解像度画像の大きさに合わせた各画像書き込みフレームを生成する処理と、各画像書き込みフレームの大きさに合わせて、取り出した部分領域の大きさをできるだけ大きく維持して各画像書き込みフレームの対応位置に書き込む処理と、各画像書き込みフレームの未書き込み部分にはデータ書き込みを省略して1枚の合成画像データを生成する処理を備える。   The multi-resolution image data generation process includes dividing the original image into a plurality of partial areas, extracting only the specified partial area, and generating each image writing frame according to the size of each resolution image to be generated. In accordance with the size of each image writing frame, the size of the extracted partial area is maintained as large as possible, and writing to the corresponding position of each image writing frame, and data writing is performed on the unwritten portion of each image writing frame. A process of omitting and generating one piece of composite image data is provided.

上記処理により生成した多解像度合成画像の例を図6に示す。図6に示すように、図6の原画像の「薔薇」という中央部分が重要部分として判断され、多解像度合成画像において、この領域部分が大きく維持されている。図4の単なる縮小画像より、図6の多解像度合成画像の方が目視による情報量が多く、ブラウジング検索や閲覧に適したものとなっていることが分かる
ここで、検索利用者にとって重要な領域部分や、画像の内容を端的に表わす領域部分が原画像のうちどの部分であるかを決定する必要がある。その判断方法の例としては、第1には、人手により判断して高解像度で表現する部分を指定しても良い。また、例えば、指定された部分領域のみを取り出す処理として、原画像を複数の部分領域のうち、画像データの微分値が設定値より大きい部分領域を指定するものとすることができる。この画素の微分により重要部分を判断する処理の例を図7のフローチャートに示す。
An example of a multi-resolution composite image generated by the above processing is shown in FIG. As shown in FIG. 6, the central portion “rose” of the original image in FIG. 6 is determined as an important portion, and this region portion is largely maintained in the multi-resolution composite image. It can be seen that the multi-resolution composite image of FIG. 6 has a larger amount of visual information than the reduced image of FIG. 4 and is suitable for browsing search and browsing. It is necessary to determine which portion of the original image is the portion or the region portion that directly represents the content of the image. As an example of the determination method, first, it is possible to specify a portion to be expressed with high resolution by manual determination. Further, for example, as a process of extracting only the designated partial area, a partial area in which the differential value of the image data is larger than a set value among a plurality of partial areas can be designated as the original image. An example of processing for determining an important part by the differentiation of the pixel is shown in the flowchart of FIG.

まず、注目領域の初期化を行なう(ステップS701)。現在の注目領域を画像左上端に設定する。最大値を与える領域を記録する変数を用意する。   First, the attention area is initialized (step S701). The current attention area is set at the upper left corner of the image. Prepare a variable to record the area that gives the maximum value.

次に、注目画素の初期化を行なう(ステップS702)。現在の注目画素を現在の注目領域の左上端に設定する。微分の和を記録する変数Sumを0に設定する。   Next, the target pixel is initialized (step S702). The current pixel of interest is set at the upper left corner of the current region of interest. A variable Sum for recording the sum of derivatives is set to zero.

次に、画素値の微分計算を実行する(ステップS703)。現在の注目画素において、上下左右との画素の値の差の絶対値(あるいは2乗和)を計算する。RGB別に計算する。これらをSumに加える。   Next, differential calculation of the pixel value is executed (step S703). For the current pixel of interest, the absolute value (or sum of squares) of the difference in pixel value between the top, bottom, left and right is calculated. Calculate separately for RGB. Add these to the Sum.

次に、注目画素の移動を行なう。ここでは、注目画素をX軸方向に1つ隣の画素とする(ステップS704)。現在の注目画素が注目領域の右端の座標を越えた場合には(ステップS705:Y)、注目画素を注目領域のY軸方向に1つ下の左端の画素とする(ステップS706)。もし、現在の注目画素が注目領域の右端かつ下端の座標を越えた場合(ステップS707:Y)は、注目領域の全画素について微分計算が終わったことを意味するのでステップS708に進む。   Next, the target pixel is moved. Here, the pixel of interest is the pixel adjacent to the X-axis direction (step S704). If the current pixel of interest exceeds the coordinates of the right edge of the region of interest (step S705: Y), the pixel of interest is set to the pixel at the left end one level down in the Y-axis direction of the region of interest (step S706). If the current pixel of interest exceeds the coordinates of the right edge and the lower edge of the region of interest (step S707: Y), it means that the differential calculation has been completed for all pixels of the region of interest, and the process proceeds to step S708.

現在の注目画素が注目領域の右端でない(ステップS705:N)か、または現在の注目画素が注目領域の右端かつ下端ではない場合(ステップS707:N)、移動後の注目画素において再度ステップS703の微分計算を行う。   If the current pixel of interest is not the right edge of the region of interest (step S705: N), or if the current pixel of interest is not the right edge and the lower edge of the region of interest (step S707: N), the pixel of interest after the movement is again in step S703. Perform differential calculation.

注目画素が注目領域の下端の座標を越えた場合(ステップS707:Y)は、微分値の和Sumと閾値との比較を実行する(ステップS708)。微分の和Sumが、閾値よりも大きい場合には、現在の注目領域を記録する。   When the pixel of interest exceeds the coordinates of the lower end of the region of interest (step S707: Y), the sum of the differential values Sum is compared with the threshold value (step S708). When the sum of differentiation Sum is larger than the threshold value, the current attention area is recorded.

次に、未処理の注目領域が残っているか否かを調べ、残っている場合(ステップS709:Y)、注目領域を他の領域、例えば、右に隣接する画像領域に移動する。画像の右端の場合には1段下の左端の画像領域に移動する。   Next, it is checked whether or not an unprocessed attention area remains. If it remains (step S709: Y), the attention area is moved to another area, for example, an image area adjacent to the right. In the case of the right end of the image, it moves to the image region at the left end one step down.

次の注目領域において微分値を計算するため、ステップS702に戻る。   In order to calculate the differential value in the next region of interest, the process returns to step S702.

もし、未処理の注目領域が残っていない場合(ステップS709:N)、処理を終了する。   If no unprocessed attention area remains (step S709: N), the process ends.

上記図7のフローチャートに示した処理により、画像領域のうち、閾値よりも大きい微分値を持つ画像領域を指定することができる。   By the processing shown in the flowchart of FIG. 7, an image region having a differential value larger than the threshold value can be specified among the image regions.

以上が、本発明の第1の画像表現技術の多解像度合成画像を利用した3次元画像表現技術によれば、画像を低解像度の小さい画像を表示する場合でも、ブラウジング検索に適した情報量を多く含む多解像度合成画像を得ることができる。   As described above, according to the three-dimensional image representation technology using the multi-resolution composite image of the first image representation technology of the present invention, even when displaying a low-resolution small image, the amount of information suitable for browsing search is increased. A multi-resolution composite image including many can be obtained.

次に、本発明の第2の画像表現技術は、重要領域切り出し表示処理を利用した3次元画像表現技術である。この重要領域切り出し表示処理は、上記の多解像度合成画像を利用した表示処理と同様、ブラウジング検索には適したものである。   Next, the second image expression technique of the present invention is a three-dimensional image expression technique using important area cutout display processing. This important area cut-out display process is suitable for browsing search, similar to the display process using the multi-resolution composite image.

切り出し画像とは、生成する各解像度画像の大きさに合わせた各画像書き込みフレームに対して、原画像のうち、検索利用者にとり、重要な領域部分、画像の内容を端的に表わす領域部分を中心として抜き出して書き込んだもので、原画像の一部が重要部分を中心に切り出したものとなる。   A cut-out image is an important area for the search user in the original image for each image writing frame that matches the size of each resolution image to be generated. As a result, a part of the original image is cut out centering on the important part.

この処理により生成した重要領域切り出し画像の例を図8に示す。図8に示すように、切り出し画像は、原画像の「薔薇」という中央部分を重要領域として、小さい画像書き込みフレームに切り出したものとなっている。切り出し画像は、原画像の部分画像であるが、「薔薇」という重要部分が効率良く表わされており、ブラウジング検索や閲覧に適したものとなっていることが分かる。   An example of an important area cutout image generated by this processing is shown in FIG. As shown in FIG. 8, the cut-out image is cut out into a small image writing frame with the central portion “rose” of the original image as an important region. The cut-out image is a partial image of the original image, but an important part “rose” is efficiently represented, and it can be seen that the clipped image is suitable for browsing search and browsing.

重要な領域部分や、画像の内容を端的に表わす領域部分が原画像のうちどの部分であるかは、多解像度合成画像生成処理の場合と同様、例えば、原画像の部分領域のうち画像データの微分値が最も大きい部分領域であると決定することができる。   As in the case of the multi-resolution composite image generation processing, which part of the original image is an important area part or an area part that expresses the content of the image is the part of the original image. It can be determined that the partial region has the largest differential value.

次に、本発明の第3の画像表現技術は、画像書き込みを省略する場合の代替表示処理である。   Next, the third image expression technique of the present invention is an alternative display process when image writing is omitted.

本発明の3次元表示処理高速化技術における、小画像省略処理や、遠距離画像省略処理が実行される場合、書き込みを省略する画像全体あるいは画像部分に対して、書き込む画像の代りの代替図形(例えば白色の四角形)あるいは画像の題名などの文字列を代りに表示する。代替表示される代替画像は、データ量の少ないものとすれば、表示処理の計算量は少なくて済むので、表示処理速度の低下を招くことがない。   When the small image omission processing or the long-distance image omission processing is executed in the three-dimensional display processing speed-up technology of the present invention, an alternative graphic (instead of the image to be written) is written for the entire image or image portion to be written. For example, a character string such as a white square) or an image title is displayed instead. Assuming that the substitute image to be alternatively displayed has a small amount of data, the calculation amount of the display process can be reduced, so that the display processing speed is not reduced.

この代替表示処理を用いた画像表現技術によれば、表示処理速度をあまり低下させることなく、各画像の仮想3次元空間内での配置を分かりやすくするという効果がある。   According to the image expression technique using this alternative display process, there is an effect that the arrangement of each image in the virtual three-dimensional space can be easily understood without significantly reducing the display processing speed.

次に、本発明の第4の画像表現技術は、空間内視点の移動可能範囲の限定処理である。   Next, the fourth image expression technique of the present invention is a process for limiting the movable range of the in-space viewpoint.

空間内視点の移動可能範囲の限定処理とは、空間内視点は、マウス等によるポインティングデバイス等により空間内視点を移動することができるが、この移動可能範囲をあらかじめ設定しておき、視点移動の際にその範囲に収まるように制限する処理である。   The process of limiting the range of movement of the viewpoint in the space is that the viewpoint in the space can be moved by using a pointing device such as a mouse. This is a process of restricting to be within the range.

このように、空間内視点の移動範囲を限定することにより、空間内視点が画像が配置されていない場所へ誤って移動してしまうなど、ブラウジング検索利用者に混乱を招くような表示が防止できる。   In this way, by limiting the movement range of the in-space viewpoint, it is possible to prevent a display that causes confusion for the browsing search user, such as the in-space viewpoint being erroneously moved to a place where no image is arranged. .

次に、本発明の第5の画像表現技術は、特定画像の強調表示処理である。ブラウジング検索や閲覧において、現在注目している特定領域にある画像についての表示を見やすく強調するものである。さらに、他の領域にある画像は注目度が低いとしてむしろ表示の様子を弱める処理も可能である。   Next, a fifth image expression technique of the present invention is a highlight display process for a specific image. In browsing search and browsing, the display of the image in the specific region currently focused on is emphasized in an easy-to-see manner. Furthermore, it is possible to reduce the appearance of images in other areas because the degree of attention is low.

ここで、特定画像とは、ディスプレイの中央付近に存在する画像や、マウスなどのポインタの近辺にある画像とすることができる。これら領域を現在注目している画像とみなす。また、ここで強調表示処理の例としては、当該特定領域の画像明度を明るくし、当該特定領域から離れるに従って次第に明度を暗く表示する処理を挙げることができる。また他には、特定領域の画像は鮮明に表示し、特定画像から離れるに従って次第にぼかし処理を行なって表示する。   Here, the specific image may be an image existing near the center of the display or an image near a pointer such as a mouse. These areas are regarded as an image of current attention. Further, as an example of the highlighting process, there can be mentioned a process of increasing the image brightness of the specific area and displaying the brightness gradually darker as the distance from the specific area increases. In addition, the image of the specific area is clearly displayed, and gradually blurred as the distance from the specific image is displayed.

このように、特定画像の強調表示処理による画像表現技術によれば、特定領域にある画像だけに注意を促すことができ、検索効率や見易さを高めることが可能となる。   As described above, according to the image expression technique based on the highlight display process of the specific image, it is possible to call attention only to the image in the specific area, and it is possible to improve the search efficiency and the visibility.

ここで、画像のぼかし処理の例を図9のフローチャートを参照しつつ説明する。   Here, an example of image blurring processing will be described with reference to the flowchart of FIG.

一般には、ぼかし処理は、ぼかし度合いを定める空間定数をパラメータとして持つ空間フィルタと画像データとの畳み込み演算で処理することが多い。空間フィルタの例としては、例えばガウシャンf(X,Y)=exp(−(X2+Y2)/2σ2)/2πσ2がある。この場合には、σが空間定数であり、この程度の凹凸までぼかされる。空間フィルタと画像データとの畳み込み演算は、例えば、以下のように計算する。フィルタ処理を行なう画像を入力画像Iで表している。   In general, the blurring process is often performed by a convolution operation between a spatial filter having a spatial constant that determines a blurring degree as a parameter and image data. An example of the spatial filter is Gaussian f (X, Y) = exp (− (X 2 + Y 2) / 2σ 2) / 2πσ 2. In this case, σ is a spatial constant, and this degree of unevenness is blurred. The convolution operation between the spatial filter and the image data is calculated as follows, for example. An image to be filtered is represented by an input image I.

まず、注目画素の初期化を行なう(ステップS901)。注目画素(x,y)を画像左上に置く。出力画像を用意する。   First, the target pixel is initialized (step S901). The target pixel (x, y) is placed on the upper left of the image. Prepare an output image.

次に、総和計算パラメータを初期化する(ステップS902)。計算総和を記憶する総和計算パラメータSumを0に設定して初期化する。総和を求める画素(u,v)を画像左上に設定する。   Next, the sum calculation parameter is initialized (step S902). The sum calculation parameter Sum for storing the calculation sum is set to 0 and initialized. The pixel (u, v) for which the sum is obtained is set at the upper left of the image.

次に、空間フィルタとの積を計算する(ステップS903)。総和画素を(u,v)平行移動した画素の値と空間フィルタとの積I(u,v)f(u−x,v−y)を計算して、総和計算パラメータSumに加える。この演算はRGB別に行なう。   Next, the product with the spatial filter is calculated (step S903). The product I (u, v) f (ux, vy) of the value of the pixel obtained by translating the summed pixel by (u, v) and the spatial filter is calculated and added to the sum calculation parameter Sum. This calculation is performed separately for RGB.

次に、総和画素を移動する。総和画素(u,v)をX軸方向に1つ右の画素とする(ステップS904)。現在の総和画素が注目領域右端の座標を越えた場合には(ステップS905:Y)、総和画素を注目領域のY軸方向に1つ下の左端の画素とする(ステップS906)。もし、現在の総和画素が右端かつ下端にある場合(ステップS907:Y)は、空間フィルタと画像データとの畳み込み演算が終了したとしてステップS908に進む。   Next, the total pixel is moved. The sum pixel (u, v) is set to the right one pixel in the X-axis direction (step S904). When the current sum pixel exceeds the coordinates of the right end of the attention area (step S905: Y), the sum pixel is set as the left end pixel one lower in the Y-axis direction of the attention area (step S906). If the current sum pixel is at the right end and the lower end (step S907: Y), the process proceeds to step S908, assuming that the convolution operation between the spatial filter and the image data has been completed.

現在の総和画素が注目領域の右端の座標を越えていない(ステップS905:N)か、または現在の総和画素が下端の座標を越えていない場合(ステップS907:N)、移動後の総和画素と空間フィルタとの積を再度計算する(ステップS903)。総和画素(u,v)が右端かつ下端の座標を越えた場合(ステップS907:Y)は、総和計算パラメータSumを注目画素(x,y)の出力画像の値として書き込みを行う(ステップS908)。   If the current sum pixel does not exceed the right end coordinate of the region of interest (step S905: N), or if the current sum pixel does not exceed the lower end coordinate (step S907: N), The product with the spatial filter is calculated again (step S903). When the sum pixel (u, v) exceeds the coordinates of the right end and the lower end (step S907: Y), the sum calculation parameter Sum is written as the value of the output image of the pixel of interest (x, y) (step S908). .

次に、未処理の注目画素(x,y)が残っているか否かを調べ、残っている場合(ステップS909:Y)、次の注目画素に移動するため(x,y)を1つ右に移動する。右端の場合には1段下の左端に移動する。再度総和計算を行なうため、ステップS901に戻る。   Next, it is checked whether or not an unprocessed target pixel (x, y) remains, and if it remains (step S909: Y), (x, y) is moved right by one to move to the next target pixel. Move to. In the case of the right end, it moves to the left end one step down. In order to perform the sum calculation again, the process returns to step S901.

未処理の注目画素(x,y)が残っていない場合(ステップS909:N)、処理を終了する。   If no unprocessed pixel of interest (x, y) remains (step S909: N), the process is terminated.

以上が、ぼかし処理の流れの例である。   The above is an example of the flow of blurring processing.

なお、空間定数σを注目画素に応じて変化させることも可能であり、特定画像の強調表示処理が可能となる。   Note that the spatial constant σ can be changed according to the pixel of interest, and a specific image can be highlighted.

次に、本発明の第5の画像表現技術は、座標軸等の表示処理である。   Next, a fifth image expression technique of the present invention is a display process of coordinate axes and the like.

仮想3次元空間内に配置された画像を表示する場合、画像とは別に座標軸等の3次元物体を表示することにより、利用者にとり仮想3次元空間の把握が容易となる。特に本発明の平行拡大投影による簡略化2次元的配置を用いた表示画像生成処理を用いている場合、仮想3次元空間の把握を容易とする上で有効な画像表現技術である。座標軸をさらに強調するため、座標軸に強調色を付すことも可能である。また、仮想3次元空間内での奥行きに応じて座標軸の色を変化させることも可能であり、この座標軸の色変化により仮想3次元空間の奥行きの把握が容易になる。   When displaying an image arranged in a virtual three-dimensional space, displaying a three-dimensional object such as coordinate axes separately from the image makes it easy for the user to grasp the virtual three-dimensional space. In particular, when a display image generation process using a simplified two-dimensional arrangement by parallel enlargement projection according to the present invention is used, this is an effective image expression technique for facilitating the understanding of a virtual three-dimensional space. In order to further emphasize the coordinate axes, it is possible to add an emphasis color to the coordinate axes. In addition, the color of the coordinate axis can be changed according to the depth in the virtual three-dimensional space, and the depth of the virtual three-dimensional space can be easily grasped by the color change of the coordinate axis.

次に、本発明の第6の画像表現技術は、画像の枠付表示処理である。   Next, a sixth image expression technique of the present invention is an image framed display process.

画像の枠付表示処理とは、仮想3次元空間内に配置された画像を表示する場合、各画像に一定の幅(あるいは距離に応じて大きさを変化させてもよい)の枠を付けるという画像表現処理である。ここでさらに各画像枠を強調するために画像枠に色を付けることも可能である。さらに、仮想3次元空間内での奥行きに応じて画像枠の色を変化させることで、仮想3次元空間の奥行きの把握を容易にすることもできる。   Image framed display processing means that when displaying an image arranged in a virtual three-dimensional space, a frame having a certain width (or the size may be changed according to the distance) is attached to each image. Image representation processing. Here, in order to further emphasize each image frame, it is possible to add a color to the image frame. Furthermore, the depth of the virtual three-dimensional space can be easily grasped by changing the color of the image frame according to the depth in the virtual three-dimensional space.

次に、本発明の第7の画像表現技術は、画像配置拡張処理である。
この画像配置拡張処理とは、空間内視点からの距離に応じて、各画像のX、Yの値をディスプレイの中心から遠ざかる方向に補正移動する処理である。つまり、ディスプレイの中心方向に重なり合って存在する各画像の重なり具合を緩和して、それらを上下左右に広げて配置するので、見易くなる。
Next, a seventh image expression technique of the present invention is an image arrangement expansion process.
This image layout expansion process is a process of correcting and moving the X and Y values of each image in a direction away from the center of the display in accordance with the distance from the viewpoint in space. In other words, the degree of overlapping of the images that overlap in the center direction of the display is alleviated, and they are spread out vertically and horizontally so that it is easy to see.

次に、本実施形態2で説明した本発明の3次元画像表現技術を適用した装置構成例を示す。図10は、本発明の3次元画像表現技術を適用した装置構成例である。図10に示すように、画像入力部10a、配置情報入力部20、空間内視点設定・移動処理部30、投影処理部40、表示画像生成部50、表示部60を備えている。画像入力部10aは、多解像度画像生成部11を備えている。   Next, an apparatus configuration example to which the three-dimensional image expression technology of the present invention described in the second embodiment is applied will be described. FIG. 10 shows an example of an apparatus configuration to which the three-dimensional image expression technique of the present invention is applied. As shown in FIG. 10, an image input unit 10a, an arrangement information input unit 20, an in-space viewpoint setting / movement processing unit 30, a projection processing unit 40, a display image generation unit 50, and a display unit 60 are provided. The image input unit 10 a includes a multi-resolution image generation unit 11.

本実施形態2では、画像入力部10aにより画像データを読み込み、多解像度画像生成部11により多解像度画像を生成する。もちろん、外部において生成された多解像度画像の組を読み込むことも可能である。配置情報入力部20により画像の3次元配置情報を読み込む。空間内視点設定・移動処理部30により、仮想3次元空間内の視点位置と視線方向のパラメータにより空間内視点の設定・移動を指定する。投影処理部40により、各画像の仮想3次元空間内での配置情報と空間内視点情報の関係を基にした投影処理によって、空間内視点から見える各画像の2次元的配置を求める。   In the second embodiment, image data is read by the image input unit 10a, and a multi-resolution image is generated by the multi-resolution image generation unit 11. Of course, it is also possible to read a set of multi-resolution images generated externally. The arrangement information input unit 20 reads the three-dimensional arrangement information of the image. The in-space viewpoint setting / movement processing unit 30 designates setting / movement of the in-space viewpoint based on the viewpoint position and the line-of-sight direction parameters in the virtual three-dimensional space. The projection processing unit 40 obtains a two-dimensional arrangement of each image seen from the viewpoint in space by a projection process based on the relationship between the arrangement information of each image in the virtual three-dimensional space and the viewpoint information in the space.

表示画像生成部50は、2次元的配置に従って該当する解像度の画像を選択して表示画像に書き込む。また、上記実施形態2で説明した多解像度合成画像や、切り出し画像など各種3次元画像表現技術を用いて表示画像に書き込む。生成した表示画像を表示処理部60により表示する。   The display image generation unit 50 selects an image with a corresponding resolution in accordance with the two-dimensional arrangement and writes it in the display image. In addition, the display image is written using various three-dimensional image expression techniques such as the multi-resolution composite image and the cut-out image described in the second embodiment. The generated display image is displayed by the display processing unit 60.

以上、本発明の3次元画像表現技術によれば、仮想3次元空間内への多量の画像表示に適した画像表現を行なうことができる。なお、上記に説明した3次元画像表現技術は、任意に組み合わせて利用することができる。   As described above, according to the three-dimensional image representation technique of the present invention, image representation suitable for displaying a large amount of images in the virtual three-dimensional space can be performed. Note that the three-dimensional image representation techniques described above can be used in any combination.

(実施形態3)
第3の基本技術は、背景画像を用いた3次元空間表現技術である。
(Embodiment 3)
The third basic technique is a three-dimensional space expression technique using a background image.

この背景画像を用いた3次元空間表現技術は、各画像が配置されている仮想3次元空間に対して空間内での位置を把握するガイドとなる背景物を背景画像を用いて示す技術である。   The three-dimensional space expression technique using the background image is a technique that uses a background image to indicate a background object that serves as a guide for grasping the position in the space with respect to the virtual three-dimensional space in which each image is arranged. .

仮想的な3次元空間に多数の画像を配置して表示しても、背景物が何もない例えば白色背景、黒色背景では、3次元的空間として把握しづらいという欠点がある。この問題を解決するため、自分の事務所、部屋等の見慣れたシーンを撮影して表示時に背景として用いる。見慣れたシーンを手がかりにして各画像の配置を把握できるため、どこに何があるかが分かりやすくなる。自分の部屋のコタツの周りにすべてのものを置く感覚でブラウジング検索や閲覧が行えるようになる。覚えやすくする観点からは、利用者自らが配置を決めることが望ましいと思われる。   Even if a large number of images are arranged and displayed in a virtual three-dimensional space, there is a drawback that it is difficult to grasp as a three-dimensional space, for example, a white background or a black background without any background objects. In order to solve this problem, a familiar scene such as one's office or room is photographed and used as a background when displayed. Since it is possible to grasp the arrangement of each image using a familiar scene as a clue, it is easy to understand what is located. Browsing search and browsing can be done just like putting everything around your room. From the viewpoint of making it easier to remember, it is desirable that the user decides the arrangement himself.

背景とする背景画像を得る方法としては、カメラを回転させながらシーンを何回か撮影し、それらの画像を張り合わせてパノラマ画像を作る技術が知られている。パノラマ画像から、マウス等の操作によって一部分を切り出してディスプレイに表示することで、シーンを見回すという効果を出すことができる。   As a method for obtaining a background image as a background, a technique is known in which a scene is photographed several times while rotating a camera, and a panoramic image is created by combining these images. By cutting out a part from the panorama image by a mouse operation or the like and displaying it on the display, an effect of looking around the scene can be obtained.

なお、このパノラマ画像上の特定の個所に対して特定の機能を対応させるように設定することも可能であり、例えばパノラマ画像上の当該箇所をクリックすると、特定の動作(別のパノラマ画像の表示実行やメール発信等のコマンドの実行)を行うように設定することができる。   It is also possible to set a specific function to correspond to a specific location on the panoramic image. For example, when a location on the panoramic image is clicked, a specific operation (display of another panoramic image is performed). (Execution and execution of commands such as mail transmission).

背景画像を背景に用いた3次元表現技術としてさらに以下の処理を開示する。   The following processing is further disclosed as a three-dimensional expression technique using a background image as a background.

第1は、仮想3次元空間内での画像の配置を利用者に行わせる。これは、画像が配置されている位置の覚えやすさを高めるとともに、背景となる実写画像と各画像の対応付けが行ないやすくなる。   First, the user arranges images in a virtual three-dimensional space. This enhances the ease of remembering the position where the image is arranged, and makes it easy to associate the actual image as the background with each image.

第2は、シーンを撮影した映像に基づいて、シーンを3次元化する。この実写画像から被写物体を3次元表示する技術自体は公知技術を用いれば良い。この処理により、パノラマ画像の作成処理を自動化する。   Second, the scene is three-dimensionalized based on the video of the scene. A known technique may be used as the technique for displaying the object to be three-dimensionally from the actual photographed image. With this process, the panorama image creation process is automated.

第3は、撮影されるシーンを特定環境(例えばオフィス)に限定し、当該特定環境に存在する物体に関する情報を格納した辞書を利用する。特定環境に限定することにより、シーンに現れる背景物体は限られてくるので、特定環境に存在する物体に関する情報を持つ辞書を用意することが可能となる。当該辞書には、特定環境に存在する物体について実写写真もしくはCGデータを多数用意しておく。空間内視点の移動があった場合や、ブラウジング検索の絞り込みで大写しの画像が必要となった場合には、辞書中の画像データを画像表示処理に利用することができる。   Third, a scene to be photographed is limited to a specific environment (for example, an office), and a dictionary storing information about objects existing in the specific environment is used. By limiting to the specific environment, the background objects appearing in the scene are limited, so that it is possible to prepare a dictionary having information on objects existing in the specific environment. In the dictionary, a number of live-action photographs or CG data are prepared for objects existing in a specific environment. When there is a movement of the viewpoint in space, or when a large image is required for narrowing down the browsing search, the image data in the dictionary can be used for image display processing.

第4は、実写画像からパノラマ画像を生成するにあたり、球や円筒面等の既知形状に実写画像を張り合わせる。このように既知形状を用いることにより実写画像の張り合わせ処理が簡単になり、パノラマ画像生成が簡単になる。   Fourth, when a panoramic image is generated from a real image, the real image is pasted to a known shape such as a sphere or a cylindrical surface. By using the known shape in this way, the process of joining the photographed images is simplified, and panorama image generation is simplified.

次に、本実施形態3で説明した本発明の背景画像を用いた3次元空間表現技術を適用した装置構成例を示す。図11は、本発明の背景画像を用いた3次元空間表現技術を適用した装置構成例である。図11に示すように、画像入力部10、配置情報入力部20、背景画像入力部70、空間内視点設定・移動処理部30、投影処理部40、表示画像生成部50、表示部60を備えている。   Next, an apparatus configuration example to which the three-dimensional space expression technology using the background image of the present invention described in the third embodiment is applied will be described. FIG. 11 shows an apparatus configuration example to which the three-dimensional space expression technology using the background image of the present invention is applied. As shown in FIG. 11, an image input unit 10, an arrangement information input unit 20, a background image input unit 70, an in-space viewpoint setting / movement processing unit 30, a projection processing unit 40, a display image generation unit 50, and a display unit 60 are provided. ing.

画像入力部10により、画像データを読み込む。配置情報入力部20により、各画像の仮想3次元空間内での配置情報を読み込む。背景画像入力部70により、仮想3次元空間に背景として仮想的に存在する背景画像の画像データを読み込む。空間内視点設定・移動処理部30により、仮想3次元空間内の視点位置と視線方向のパラメータにより空間内視点の設定・移動を指定する。投影処理部40により、各画像および背景画像の仮想3次元空間内での配置情報と空間内視点情報の関係を基にした投影処理によって、空間内視点から見える各画像および背景画像の2次元的配置を求める。表示画像生成部50により、各画像および背景画像の2次元的配置に従って、読み込んだ画像データおよび背景画像データを処理して2次元表示画像を生成する。表示部60により生成した2次元表示画像を表示する。   Image data is read by the image input unit 10. The arrangement information input unit 20 reads arrangement information of each image in the virtual three-dimensional space. The background image input unit 70 reads image data of a background image that virtually exists as a background in the virtual three-dimensional space. The in-space viewpoint setting / movement processing unit 30 designates setting / movement of the in-space viewpoint based on the viewpoint position and the line-of-sight direction parameters in the virtual three-dimensional space. The projection processing unit 40 performs a two-dimensional view of each image and background image viewed from the viewpoint in space by a projection process based on the relationship between the arrangement information of each image and background image in the virtual three-dimensional space and the viewpoint information in space. Ask for placement. The display image generation unit 50 processes the read image data and background image data according to the two-dimensional arrangement of each image and background image to generate a two-dimensional display image. The two-dimensional display image generated by the display unit 60 is displayed.

以上、本発明の背景画像を用いた3次元空間表現技術によれば、各画像の仮想3次元空間内での位置が分かりやすく表現することができる。なお、上記に説明した3次元画像表現技術は、任意に組み合わせて利用することができる。   As described above, according to the three-dimensional space expression technique using the background image of the present invention, the position of each image in the virtual three-dimensional space can be expressed in an easily understandable manner. Note that the three-dimensional image representation techniques described above can be used in any combination.

(実施形態4)
第4の基本技術は、移動パラメータの最適化処理技術である。本技術は、オプティカルフローを基にして移動パラメータを最適化して目の疲れを抑えるものである。
(Embodiment 4)
The fourth basic technique is a movement parameter optimization processing technique. This technique optimizes movement parameters based on optical flow to suppress eye fatigue.

ディスプレイに画像を表示する場合、利用者の操作によるズームやスクロールなど表示内容が移動・変更を受けることが多い。この際に、表示内容の移動速度等の移動パラメータが不適切であると目が疲れるという問題が発生する。本技術は、移動パラメータを最適化して目の疲れを抑えるものである。本技術は、多数の画像の3次元表示処理高速化技術、3次元画像表現技術、背景画像を用いた3次元空間表現技術とは独立に用いることができ、ズームやスクロールなど動きを伴う任意の画像表示に対して適用できる。   When an image is displayed on a display, display contents such as zoom and scroll by a user's operation are often moved or changed. At this time, if the moving parameters such as the moving speed of the display contents are inappropriate, the eyes are tired. The present technology optimizes movement parameters to suppress eye fatigue. This technology can be used independently of the technology for speeding up the three-dimensional display processing of a large number of images, the three-dimensional image representation technology, and the three-dimensional space representation technology using the background image. Applicable to image display.

ズームやスクロールは、ディスプレイ上の各画素での画素値の移動として表すことができる。この様子を図12に示す。3次元表示における他の移動方法も、基本的にはこのように各画素での画素値の移動という形で表すことができる。この画素値移動の仕方を修正することで、目の疲れを抑えることを考える。   Zooming and scrolling can be expressed as movement of pixel values at each pixel on the display. This is shown in FIG. Other movement methods in the three-dimensional display can be basically expressed in the form of movement of pixel values in each pixel as described above. It is considered to suppress eye fatigue by correcting the method of moving the pixel value.

まず、目の疲れをコンピュータで扱えるようにモデル化する。一般的なコンピュータ等の表示装置は、インタレース方式、ノンインタレース方式とも表示フレームを次々書き換える方式である。表示内容を書き換えずに連続的変化させるものではなく、表示内容は一定の時間間隔で更新される。いま、図13に示したように、表示内容のうちある1点に注目した場合、ディスプレイ上では図13に示したような軌跡を描いて移動する。   First, we model that eyestrain can be handled by a computer. A general display device such as a computer rewrites a display frame one after another in both an interlace method and a non-interlace method. The display content is not continuously changed without being rewritten, and the display content is updated at regular time intervals. Now, as shown in FIG. 13, when attention is paid to a certain point in the display content, the display moves on the display as shown in FIG.

人間の目は3次元物体を2次元の網膜に投影して認識を行っている。運動する物体は、網膜上で明度分布の滑らかな変化を引き起こす。明度分布の時間的変化と空間的変化の比から、投影面上での投影像の動き(以下、オプティカルフローという)を求めることができる。図14はオプティカルフローの概念を表したものである。いま、左側が明るく右側が暗い1枚の画像が、ディスプレイ上で右方向に移動している場合を想定すると、明度分布の空間的変化Ixは負の数になる。一方、明度分布の時間的変化Itと単位時間当りの移動量dは正の数になり、これらの間には−Ix=It/dの関係が成立する。つまり、図13中に示した三角形が相似になる。ここで、dがオプティカルフローと定義されるものである。上記のオプティカルフローdの算出は、移動幅の範囲で明度分布が直線関係にあると見なすことのできる場合である。従って、移動幅は十分小さい必要がある。移動幅が大きくなるにつれて実際の動きとの誤差は大きくなる。ただし、実際には明度変化を求める前に投影像をぼかす処理が行われて明度分布の細かな変化の影響を受けないようになっていると考えられている。   The human eye recognizes a three-dimensional object by projecting it onto a two-dimensional retina. A moving object causes a smooth change in the brightness distribution on the retina. From the ratio between the temporal change and the spatial change of the brightness distribution, the movement of the projected image on the projection plane (hereinafter referred to as optical flow) can be obtained. FIG. 14 shows the concept of optical flow. Assuming that one image is bright on the left side and dark on the right side, the spatial change Ix of the lightness distribution is a negative number. On the other hand, the temporal change It of the lightness distribution and the movement amount d per unit time are positive numbers, and the relationship of −Ix = It / d is established between them. That is, the triangle shown in FIG. 13 is similar. Here, d is defined as an optical flow. The calculation of the optical flow d is performed when the brightness distribution can be regarded as having a linear relationship within the range of the movement width. Therefore, the movement width needs to be sufficiently small. As the movement width increases, the error from the actual movement increases. However, in actuality, it is considered that the process of blurring the projected image is performed before obtaining the change in brightness so as not to be affected by the fine change in the brightness distribution.

人間の目は、このオプティカルフローに基づいて眼球運動を発生させ物体の追跡を行っていると考えられている。この働きのおかげで、多少、本を動かしても文字を読み取ることができる。なお、本節では、画素の値のうち明度(RGBの平均値あるいは最大値)だけに注目してオプティカルフローを求めるモデルで説明を行なうが、RGBを個別に求めて平均するようなモデルを用いてもよい。また、オプテイカルフローの算出法には様々な改良が行なわれているが、本発明はオプテイカルフローの算出方法自体には限定されない。   It is thought that the human eye is tracking an object by generating eye movement based on this optical flow. Thanks to this function, the characters can be read even if the book is moved somewhat. In this section, we will focus on only the lightness (average value or maximum value of RGB) of the pixel values, and explain it using a model that obtains optical flow, but use a model that obtains and averages RGB individually. Also good. Although various improvements have been made to the optical flow calculation method, the present invention is not limited to the optical flow calculation method itself.

一方、似た形状の2つの物体を少し離して交互に見えるようにすると、1つの物体が動いているように知覚される。例えば、電車の踏み切りのランプの点滅で明かりが動いているように見える。この場合には、オプテイカルフローは求められない(存在しない)が、形状が似ている個所の対応を取ることで動きを知覚していると考えられる。人間の目は、これら2つの方法で動きを知覚していると言える。ディスプレイ上で表示を行う場合においても同様であり、一回の描画での移動幅が十分小さい場合には、オプテイカルフローを求めて動きを知覚すると考えられる。移動幅が大きくなるに従って、オプティカルフローは求めにくくなり、明度変化から算出される値が実際の動きとずれてくる。オプティカルフローが求められる移動幅の上限は、表示対象の複雑さに依存するが概ね表示内容の基本単位(文字画像ならば1文字、絵ならば線幅や構成図形)程度の大きさであると見なすことができる。算出される動きが実際の動きと異なる場合、当該物体の目視追跡を続行するには眼球運動後に形状の対応を取って視覚上での位置補正を行う必要がある。本発明の移動パラメータ最適化技術では、この視覚上での位置補正が目の疲れを生むと考える。   On the other hand, when two objects having similar shapes are separated from each other so that they appear alternately, it is perceived that one object is moving. For example, it seems that the light is moving by the blinking of the railroad crossing lamp. In this case, the optical flow is not obtained (does not exist), but it is considered that the movement is perceived by taking the correspondence of the parts having similar shapes. It can be said that the human eye perceives movement in these two ways. The same applies to the case of displaying on the display. If the movement width in one drawing is sufficiently small, it is considered that the motion is perceived by obtaining the optical flow. As the movement width increases, the optical flow becomes difficult to obtain, and the value calculated from the change in brightness shifts from the actual movement. The upper limit of the movement width for which optical flow is required depends on the complexity of the display target, but is generally about the size of the basic unit of the display content (one character for a character image, line width or constituent figure for a picture). Can be considered. When the calculated motion is different from the actual motion, it is necessary to correct the position on the eye by matching the shape after the eye movement in order to continue visual tracking of the object. In the movement parameter optimization technique of the present invention, it is considered that this visual position correction causes eye fatigue.

上記考え方に従い、目の疲労度を(数1)で定義する。   In accordance with the above concept, the degree of eye fatigue is defined by (Equation 1).

[数1]
目の疲労度=描画回数*注目点におけるオプティカルフローの誤差
ただし、注目点は求められるとは限らないので、注目点が一意に決まらない場合は、ディスプレイ中央付近やディスプレイ全体でのオプテイカルフロー平均値との誤差で近似する。また、移動速度がある程度大きい領域でのオプテイカルフローの平均値を用いることも有効である。なお、移動幅が大きくオプティカルフローが求められない場合には、上記オプティカルフローの誤差は設定した最大値を取るものと考えれば良い。従って、オプテイカルフローの誤差と一回の描画による移動幅の関係は図15のように表される。
[Equation 1]
Eye fatigue = Number of times of drawing * Optical flow error at the point of interest However, since the point of interest is not always required, if the point of interest is not uniquely determined, the optical flow average near the center of the display or the entire display Approximate by error with value. It is also effective to use an average value of optical flows in a region where the moving speed is somewhat high. If the movement width is large and an optical flow cannot be obtained, it can be considered that the error of the optical flow takes a set maximum value. Accordingly, the relationship between the error in the optical flow and the movement width by one drawing is expressed as shown in FIG.

図13で示したように、表示内容の1点を固定し、その点における単位時間あたりの描画回数をn=1/s(sは描画間隔の時間)とし、移動速度をvとすると、1回の描画でのオプティカルフローとなる移動幅dは、d=v/nで表される。図15で示したように、移動幅dの誤差は、移動幅dが小さいときd2に比例するような関数になると考えられるので、単位時間あたりの目の疲労度は、nd2に比例する。これは、v2/n=vdに等しいので、目の疲労度を下げるには、移動速度が一定ならば描画回数を増やすか、移動速度または移動幅を小さくする必要がある。一方、移動幅dがかなり大きい場合には、オプテイカルフローの誤差はほぼ一定になるので、描画回数が少ないほど目の疲労度は小さくなる。   As shown in FIG. 13, if one point of display content is fixed, the number of times of drawing per unit time at that point is n = 1 / s (s is the time of drawing interval), and the moving speed is v, 1 The movement width d, which is an optical flow in one drawing, is expressed by d = v / n. As shown in FIG. 15, since the error of the movement width d is considered to be a function proportional to d2 when the movement width d is small, the degree of eye fatigue per unit time is proportional to nd2. Since this is equal to v2 / n = vd, it is necessary to increase the number of times of drawing or decrease the moving speed or moving width if the moving speed is constant in order to reduce the eye fatigue. On the other hand, when the movement width d is considerably large, the optical flow error is substantially constant, so that the eye fatigue becomes smaller as the number of times of drawing decreases.

一方、単位時間あたりに新しく提示できる面積(以下、情報の量)は、移動速度vに比例する。これはndに等しい。従って、描画回数や移動幅を小さくすると提示できる情報の量が減少してしまう。目の疲労度と情報の量はこのようなトレードオフの関係となっているため、最適な移動パラメータを評価するために以下の(数2)に示す評価関数を導入する。表示対象の移動を行う際に、移動速度や一回の移動幅を変更できるならば、この評価関数を最小化するような値に設定することで、最適な移動を決定することができる。   On the other hand, the area that can be newly presented per unit time (hereinafter, the amount of information) is proportional to the moving speed v. This is equal to nd. Therefore, the amount of information that can be presented decreases if the number of times of drawing or the movement width is reduced. Since the degree of eye fatigue and the amount of information have such a trade-off relationship, an evaluation function shown in the following (Equation 2) is introduced in order to evaluate the optimum movement parameter. If the movement speed and the single movement width can be changed when moving the display object, the optimum movement can be determined by setting the evaluation function to a value that minimizes the evaluation function.

[数2]
表示の不適切さ=目の疲労度−情報の量
上記(数2)式で定義される「表示の不適切さ」の簡単な性質をまとめておく。
[Equation 2]
Inappropriate display = fatigue of eyes−amount of information The simple properties of “inappropriate display” defined by the above equation (2) are summarized.

第1の性質は、移動速度vが一定のときは、情報の量は一定なので、適切な表示は目の疲労度を下げるものである。これは移動幅dが小さい場合には移動幅dをより小さくし、大きく場合にはより大きくするものになる。   The first property is that when the moving speed v is constant, the amount of information is constant, so that an appropriate display reduces the degree of eye fatigue. When the movement width d is small, the movement width d is made smaller, and when it is larger, the movement width d is made larger.

第2の性質は、描画回数nが一定のときは、移動幅dが小さい場合には、nd2−ndの形の最小化となるので、最適な移動幅dを求めることが可能となる。移動幅dが大きい場合には、大きいほどよいということになる。   The second property is that when the number of times of drawing n is constant, if the moving width d is small, the nd2-nd form is minimized, so that the optimal moving width d can be obtained. When the movement width d is large, the larger the better.

また、移動パラメータである移動速度vや移動幅dを調整する他に、表示内容自体を変更して、目の疲れない最適な表示を行うこともできる。この場合には、元の表示内容からあまり逸脱しないように、以下の(数3)に示す評価関数を導入し、これを最小化するように表示内容を変更する。   In addition to adjusting the movement speed v and the movement width d, which are movement parameters, it is also possible to change the display content itself so as to perform optimal display without eye strain. In this case, an evaluation function shown in the following (Equation 3) is introduced so as not to deviate so much from the original display content, and the display content is changed so as to minimize it.

[数3]
表示の不適切さ=元の表示内容との違い+目の疲労度−情報の量
元の表示内容との違いを図る尺度としては、例えば画素毎の明度差の2乗平均を用いる。(数3)の評価関数は、移動速度vや移動幅dを変更せず、表示内容だけを変更する場合にも用いることができる。
[Equation 3]
Inappropriate display = difference from original display content + eye fatigue level−amount of information As a measure for the difference from the original display content, for example, a square average of brightness difference for each pixel is used. The evaluation function of (Equation 3) can also be used when only the display content is changed without changing the moving speed v and the moving width d.

表示内容自体を変更して、目の疲れない最適な表示を行う処理の例を、図16のフローチャートを参照しつつ説明する。   An example of a process for changing the display content itself and performing optimal display without eye strain will be described with reference to the flowchart of FIG.

まず、表示内容と移動パラメータを記憶する変数を初期化する(ステップS1601)。前回と今回の表示内容と各点における移動パラメータを記憶する領域を用意する。   First, variables for storing display contents and movement parameters are initialized (step S1601). An area for storing the previous and current display contents and movement parameters at each point is prepared.

次に、移動パラメータを読み込む(ステップS1602)。もし各点での移動パラメータが指定されている場合には、当該指定された移動パラメータを読み込む。指定されていない場合には、前回の移動パラメータを設定する。   Next, the movement parameter is read (step S1602). If the movement parameter at each point is designated, the designated movement parameter is read. If not specified, the previous movement parameter is set.

次に、表示内容を読み込む(ステップS1603)。もし、今回の表示内容が指定されている場合には、当該指定された表示内容を読み込む。指定されていない場合には、前回の表示内容と移動パラメータに従って表示内容を移動する。   Next, the display content is read (step S1603). If the current display content is designated, the designated display content is read. If not specified, the display contents are moved according to the previous display contents and movement parameters.

次に、オプティカルフローを計算する(ステップS1604)。前回の表示内容と今回の表示内容から、オプティカルフローを算出する。必要ならば、前処理として画像をぼかす。   Next, an optical flow is calculated (step S1604). The optical flow is calculated from the previous display content and the current display content. If necessary, the image is blurred as preprocessing.

次に、評価関数の計算されたオプティカルフローと表示パラメータから、(数3)に示した表示の不適切さを表す評価関数の値を計算する(ステップS1605)。   Next, the value of the evaluation function indicating the inappropriateness of display shown in (Equation 3) is calculated from the calculated optical flow of the evaluation function and the display parameters (step S1605).

次に、評価関数の値を評価する。評価関数の値が十分小さい場合、例えば設定した閾値以下の場合(ステップS1606:Y)には、表示が不適切ではないとして、今回処理する変更後の表示内容をディスプレイに表示する処理とする。ステップS1609に進む。   Next, the value of the evaluation function is evaluated. When the value of the evaluation function is sufficiently small, for example, when the value is equal to or less than the set threshold value (step S1606: Y), the display content after the change to be processed this time is displayed on the display, assuming that the display is not inappropriate. The process proceeds to step S1609.

そうでない場合には(ステップS1606:N)、読み込んだ移動パラメータを変更する(ステップS1607)。移動パラメータの変更が可能な場合には、各点の移動パラメータを微少に変化させる。変化量は例えば定められた大きさ分だけ増加あるいは減少させる。   If not (step S1606: N), the read movement parameter is changed (step S1607). If the movement parameter can be changed, the movement parameter of each point is slightly changed. For example, the amount of change is increased or decreased by a predetermined amount.

次に、変更後の移動パラメータに従って表示内容を変更する(ステップS1608)。移動パラメータが変更された場合には、それに従って表示内容を移動する。なお、表示内容の変更が可能な場合には、各画素の明度を微少に変化させてから、表示内容を移動する。変化は例えば定められた大きさだけ増加あるいは減少させる。再度オプティカルフローを計算する(ステップS1604)。   Next, the display content is changed according to the changed movement parameter (step S1608). When the movement parameter is changed, the display content is moved accordingly. When the display content can be changed, the display content is moved after the brightness of each pixel is changed slightly. The change is increased or decreased by a predetermined amount, for example. The optical flow is calculated again (step S1604).

表示処理を続行する場合は(ステップS1609:Y)、ステップS1602に戻り、ステップS1602からステップS1608の処理を繰り返し、オプティカルフローの再計算を行なう。表示処理を続行しない場合は(ステップS1609:N)、処理を終了する。   When the display process is to be continued (step S1609: Y), the process returns to step S1602, the processes from step S1602 to step S1608 are repeated, and the optical flow is recalculated. If the display process is not continued (step S1609: N), the process ends.

なお、上記図16に示した処理はかなり時間がかかるので、簡便な処理として、移動パラメータの変更を行わず表示内容だけを多少修正する以下の図17のフローチャートに示す処理方式も可能である。   Since the process shown in FIG. 16 takes a considerable amount of time, as a simple process, the processing method shown in the flowchart of FIG. 17 described below in which only the display content is slightly modified without changing the movement parameter is also possible.

まず、表示内容と移動パラメータを記憶する変数を初期化する(ステップS1701)。前回と今回の表示内容と各点における移動パラメータを記憶する領域を用意する。   First, variables for storing display contents and movement parameters are initialized (step S1701). An area for storing the previous and current display contents and movement parameters at each point is prepared.

次に、移動パラメータを読み込む(ステップS1702)。もし各点での移動パラメータが指定されている場合には、当該指定された移動パラメータを読み込む。指定されていない場合には、前回の移動パラメータを設定する。   Next, the movement parameter is read (step S1702). If the movement parameter at each point is designated, the designated movement parameter is read. If not specified, the previous movement parameter is set.

次に、表示内容を読み込む(ステップS1703)。もし、今回の表示内容が指定されている場合には、当該指定された表示内容を読み込む。指定されていない場合には、前回の表示内容と移動パラメータに従って表示内容を移動する。   Next, the display content is read (step S1703). If the current display content is designated, the designated display content is read. If not specified, the display contents are moved according to the previous display contents and movement parameters.

次に、表示内容の合成を行なう(ステップS1704)。移動パラメータの各点の移動幅をオプティカルフローとするような表示内容を合成する。例えば、明度分布からオプティカルフローを求める処理の代わりに、オプティカルフローと明度分布の空間的変換から明度分布の時間的を求める処理に変更することで実現できる。   Next, display contents are synthesized (step S1704). The display content is synthesized such that the movement width of each point of the movement parameter is an optical flow. For example, instead of the process of obtaining the optical flow from the lightness distribution, the process can be realized by changing from the spatial conversion of the optical flow and the lightness distribution to the process of obtaining the time of the lightness distribution.

次に、表示内容を修正する(ステップS1705)。ステップS1704で合成された表示内容に基づいて、今回の表示内容を修正する。例えば、両者の平均を用いる。修正された表示内容をディスプレイに表示する。   Next, the display content is corrected (step S1705). Based on the display content synthesized in step S1704, the current display content is corrected. For example, the average of both is used. The corrected display content is displayed on the display.

表示を続行する場合は(ステップS1706:Y)、ステップS1702に戻り、ステップS1702からステップS1705の処理を繰り返し、オプティカルフローの再計算を行なう。表示を続行しない場合は(ステップS1706:N)、処理を終了する。   If the display is to be continued (step S1706: Y), the process returns to step S1702, the processing from step S1702 to step S1705 is repeated, and the optical flow is recalculated. If the display is not continued (step S1706: N), the process ends.

以上が、目の疲れない最適な表示を行う処理の流れである。   The above is the flow of processing for optimal display without eye fatigue.

ここで、オプテイカルフローを算出する前に、画像をどの程度ばかすかを決める必要がある。画像をぼかす処理は、ほかす程度を定める空間定数をパラメータとして持つような空間フィルタとの畳み込み演算で実現することが可能である。   Here, before calculating the optical flow, it is necessary to determine how much the image is to be blurred. The process of blurring the image can be realized by a convolution operation with a spatial filter having a spatial constant that determines the degree of extrapolation as a parameter.

空間フィルタには、例えばガウシャンがある。画像をぼかすフィルタの空間定数は、例えば以下のように定めることができる。   An example of the spatial filter is Gaussian. The spatial constant of the filter that blurs the image can be determined as follows, for example.

第1は、指定された値を用いる方式である。表示画像の大きさで調整することが可能である。   The first is a method using designated values. It is possible to adjust by the size of the display image.

第2は、表示対象が文字画像のように構造が判明している場合は、画像中の基本単位(例えば文字の高さ)の値を用いる方式である。もし、文字の高さが指定されていない場合は、画像処理に基づいて文字の高さを推定する。文字の高さの推定は、例えば、水平方向に明度を加算して、1次元のヒストグラムを作成し、ヒストグラムの周期を求めることにより実行することができる。   The second is a method in which the value of the basic unit (for example, the height of the character) in the image is used when the structure of the display object is known like a character image. If the character height is not specified, the character height is estimated based on image processing. The estimation of the character height can be executed by, for example, adding a lightness in the horizontal direction to create a one-dimensional histogram and obtaining the period of the histogram.

以上のモデル化では、個人差は考慮されていなかったが、評価関数の各項(元の表示内容との違い、目の疲労度、情報の量)に加える重みを変えることで個人差に対応することができる。例えば、以下の図18のフローチャートに示す処理により行う。   In the above modeling, individual differences were not taken into account, but it was possible to cope with individual differences by changing the weight applied to each item of the evaluation function (difference from the original display content, eye fatigue, amount of information). can do. For example, this is performed by the processing shown in the flowchart of FIG.

まず、画像中の基本単位が判明しているいくつかのサンプルを利用者に提示する(ステップS1801)。   First, some samples whose basic units in the image are known are presented to the user (step S1801).

次に、利用者は、移動パラメータを調節して最も読みやすい値に設定する(ステップS1802)。この移動パラメータを調整・設定する方法として、いくつかのサンプルとなる移動パラメータで読み取りテスト(あるいは読み取りゲーム)を行い、その正答率から移動パラメータを定める方法も可能である。例えば、正答率が悪化し始めたパラメータとすることができる。   Next, the user adjusts the movement parameter and sets it to the most readable value (step S1802). As a method for adjusting and setting the movement parameter, a method is also possible in which a reading test (or reading game) is performed with a number of movement parameters serving as samples, and the movement parameter is determined from the correct answer rate. For example, it can be a parameter whose correct answer rate starts to deteriorate.

次に、評価関数の各項を各移動パラメータに対して個別に計算し、利用者が設定した移動パラメータ値で和が最小となるように、各項の重みを調節する(ステップS1803)。   Next, each term of the evaluation function is individually calculated for each movement parameter, and the weight of each term is adjusted so that the sum is minimized with the movement parameter value set by the user (step S1803).

以上の処理により、個人差を考慮し、評価関数の各項に加える重みを変えることができる。   With the above processing, the weight applied to each term of the evaluation function can be changed in consideration of individual differences.

次に、本実施形態4で説明した本発明の移動パラメータの最適化処理技術を適用した装置構成例を示す。図19は、本発明の3次元表示処理高速化技術を適用した装置構成例である。図19に示すように、画像入力部10、移動パラメータ入力部80、移動パラメータ・画像データ調整処理90、表示画像生成部50、表示部60を備えている。   Next, an apparatus configuration example to which the movement parameter optimization processing technology of the present invention described in the fourth embodiment is applied will be described. FIG. 19 shows an apparatus configuration example to which the three-dimensional display processing speed-up technology of the present invention is applied. As shown in FIG. 19, an image input unit 10, a movement parameter input unit 80, a movement parameter / image data adjustment process 90, a display image generation unit 50, and a display unit 60 are provided.

画像入力部10により、画像データを読み込む。移動パラメータ入力部80により、画像の移動方法を指定する移動パラメータを読み込む。移動パラメータ・画像データ調整処理90は、読み込まれた画像データと移動パラメータに基づいてオプティカルフローと各画像の各画素の実際の動きとの違いである視点移動誤差を低減し、かつ、時間的に隣接するフレーム間での画像の移動量を増加するように移動パラメータまたは画像データの少なくとも一方を調整する。移動パラメータのみの調整も可能であり、画像データのみの調整も可能であり、移動パラメータおよび画像データの両者を調整することも可能である。表示画像生成部50により、調整された移動パラメータ・画像データに従って、読み込んだ画像データを処理して2次元表示画像を生成する。表示部60により生成した2次元表示画像を表示する。   Image data is read by the image input unit 10. The movement parameter input unit 80 reads a movement parameter that specifies an image movement method. The movement parameter / image data adjustment processing 90 reduces the viewpoint movement error, which is the difference between the optical flow and the actual movement of each pixel of each image, based on the read image data and the movement parameter, and temporally. At least one of the movement parameter and the image data is adjusted so as to increase the movement amount of the image between adjacent frames. Only the movement parameter can be adjusted, only the image data can be adjusted, and both the movement parameter and the image data can be adjusted. The display image generation unit 50 processes the read image data according to the adjusted movement parameter / image data to generate a two-dimensional display image. The two-dimensional display image generated by the display unit 60 is displayed.

次に、本発明の移動パラメータの最適化処理技術を3次元仮想空間内に配置された画像の画像表示に適用した場合の例を説明する。   Next, an example in which the movement parameter optimization processing technique of the present invention is applied to image display of an image arranged in a three-dimensional virtual space will be described.

図20は、本発明の3次元仮想空間内に配置された画像の画像表示に本発明の移動パラメータの最適化処理技術を適用した場合の装置構成例である。図20に示すように、画像入力部10、配置情報入力部20、移動パラメータ算出部81、空間内視点設定・移動処理部30、移動パラメータ・画像データ調整処理90、投影処理部40、表示画像生成部50、表示部60を備えている。   FIG. 20 shows an example of the apparatus configuration when the moving parameter optimization processing technique of the present invention is applied to the image display of an image arranged in the three-dimensional virtual space of the present invention. As shown in FIG. 20, the image input unit 10, the arrangement information input unit 20, the movement parameter calculation unit 81, the in-space viewpoint setting / movement processing unit 30, the movement parameter / image data adjustment processing 90, the projection processing unit 40, the display image A generation unit 50 and a display unit 60 are provided.

画像入力部10により、画像データを読み込む。配置情報入力部20により、各画像の仮想3次元空間内での配置情報を読み込む。空間内視点設定・移動処理部30により、仮想3次元空間内の視点位置と視線方向のパラメータにより空間内視点の設定・移動を指定する。移動パラメータ算出部81により、画像の移動方法を指定する移動パラメータを算出する。移動パラメータ・画像データ調整処理90は、読み込まれた画像データと移動パラメータに基づいてオプティカルフローと各画像の各画素の実際の動きとの違いである視点移動誤差を低減し、かつ、時間的に隣接するフレーム間での画像の移動量を増加するように移動パラメータまたは画像データの少なくとも一方を調整する。移動パラメータのみの調整も可能であり、画像データのみの調整も可能であり、移動パラメータおよび画像データの両者を調整することも可能である。投影処理部40により、調整された移動パラメータおよび画像データ、更に、各画像の仮想3次元空間内での配置情報と空間内視点情報の関係を基にした投影処理によって、空間内視点から見える各画像の2次元的配置を求める。表示画像生成部50により、各画像の2次元的配置と調整された移動パラメータ・画像データに従って、読み込んだ画像データを処理して2次元表示画像を生成する。表示部60により生成した2次元表示画像を表示する。   Image data is read by the image input unit 10. The arrangement information input unit 20 reads arrangement information of each image in the virtual three-dimensional space. The in-space viewpoint setting / movement processing unit 30 designates setting / movement of the in-space viewpoint based on the viewpoint position and the line-of-sight direction parameters in the virtual three-dimensional space. The movement parameter calculation unit 81 calculates a movement parameter that specifies an image movement method. The movement parameter / image data adjustment processing 90 reduces the viewpoint movement error, which is the difference between the optical flow and the actual movement of each pixel of each image, based on the read image data and the movement parameter, and temporally. At least one of the movement parameter and the image data is adjusted so as to increase the movement amount of the image between adjacent frames. Only the movement parameter can be adjusted, only the image data can be adjusted, and both the movement parameter and the image data can be adjusted. Each of the movement parameters and image data adjusted by the projection processing unit 40, and each of the images viewed from the in-space viewpoint by the projection processing based on the relationship between the arrangement information of each image in the virtual three-dimensional space and the in-space viewpoint information. A two-dimensional arrangement of images is obtained. The display image generation unit 50 processes the read image data according to the two-dimensional arrangement of each image and the adjusted movement parameter / image data to generate a two-dimensional display image. The two-dimensional display image generated by the display unit 60 is displayed.

以上、本発明の移動パラメータの最適化処理技術によれば、オプティカルフローを基にして移動パラメータを最適化して、ブラウジング検索や閲覧を行なう利用者の目の疲れを抑えることができる。   As described above, according to the movement parameter optimization processing technology of the present invention, it is possible to optimize the movement parameters based on the optical flow to suppress eyestrain of the user who performs browsing search and browsing.

(実施形態5)
本発明の画像表示方法および装置は、上記実施形態に説明した処理を実現する処理ステップを記述したプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することにより、各種コンピュータを用いて構築することができる。本発明の画像表示方法および装置を実現する処理ステップを備えたプログラムを記録した記録媒体は、図21に図示した記録媒体の例に示すように、CD−ROM102やフレキシブルディスク103等の可搬型記録媒体101だけでなく、ネットワーク上にある記録装置内の記録媒体100や、コンピュータのハードディスクやRAM等の記録媒体105のいずれであっても良く、プログラム実行時には、プログラムはコンピュータ104上にローディングされ、主メモリ上で実行される。
(Embodiment 5)
The image display method and apparatus of the present invention can be constructed using various computers by recording and providing a program describing processing steps for realizing the processing described in the above-described embodiment on a computer-readable recording medium. Can do. As shown in the example of the recording medium shown in FIG. 21, the recording medium on which the program having the processing steps for realizing the image display method and apparatus of the present invention is recorded is a portable recording medium such as a CD-ROM 102 or a flexible disk 103. Not only the medium 101 but also any of the recording medium 100 in the recording apparatus on the network and the recording medium 105 such as a computer hard disk or RAM, and when the program is executed, the program is loaded on the computer 104, Runs on main memory.

なお、上記した本発明の3次元表示処理高速化技術、3次元画像表現技術、背景画像を用いた3次元空間表現技術、移動パラメータの最適化処理技術は、画像表示処理を向上させる技術として、それぞれ独立して適用することが可能であり、また、任意に組み合わせて用いることができる。   In addition, the above-described three-dimensional display processing speed-up technology of the present invention, three-dimensional image representation technology, three-dimensional space representation technology using a background image, and movement parameter optimization processing technology are technologies for improving image display processing. Each can be applied independently, and can be used in any combination.

以上の説明および特許請求の範囲に記載した事項に関して更に以下の項を開示する。
(1) すべての画像の向きが表示画面と直交し、すべての画像が表示画面に対して正面を向くように前記各画像の配置情報が設定された請求項1に記載の画像表示方法。
(2) すべての画像の画素の方向が表示画面の画素の方向と平行になるように前記各画像の配置情報が設定された請求項1に記載の画像表示方法。
(3) 前記平行拡大投影処理における、前記空間内視点から見た各画像の大きさに対応した拡大・縮小処理において、前記各画像の仮想3次元空間内での配置情報と前記空間内視点情報の関係から決まる空間内視点と各画像との距離に比例した縮小率よりも大きい縮小率を適用し、遠く離れていれば離れている程、縮小率を大きくして過剰に縮小投影処理する遠距離画像過剰縮小投影処理を加えた上記(2)に記載の画像表示方法。
(4) 前記表示画像生成処理における、各画像の簡略化2次元的配置に従った画像データの書きこみ処理において、
前記簡略化2次元的配置で示された各画像の方向が設定値範囲外であれば、画像の書き込み処理を省略する請求項1に記載の画像表示方法。
(5) 表示画像上の明るさの分布を設定する処理を備え、
前記表示画像生成処理における、各画像の簡略化2次元的配置に従った画像データの書きこみ処理において、前記設定された表示画像上の明るさの分布に従った画像明度により画像の書き込み処理を行なう請求項1に記載の画像表示方法。(6) 表示画像上の画像のぼかし分布を設定する処理を備え、
前記表示画像生成処理における、各画像の簡略化2次元的配置に従った画像データの書きこみ処理において、前記設定された表示画像上のぼかし分布に従った画像のぼかし処理を伴う画像の書き込み処理を行なう請求項1に記載の画像表示方法。
(7) 表示画像上の色分布を設定する処理を備え、
前記表示画像生成処理における、各画像の簡略化2次元的配置に従った画像データの書きこみ処理において、前記設定された表示画像上の色分布に従って、画像の枠線に色を付す処理を伴う画像の書き込み処理を行なう請求項1に記載の画像表示方法。
The following items are further disclosed with respect to the matters described in the above description and claims.
(1) The image display method according to claim 1, wherein the arrangement information of each image is set so that the orientation of all the images is orthogonal to the display screen and all the images face the front with respect to the display screen.
(2) The image display method according to claim 1, wherein the arrangement information of each image is set so that the pixel directions of all the images are parallel to the pixel directions of the display screen.
(3) In the enlargement / reduction process corresponding to the size of each image viewed from the in-space viewpoint in the parallel enlargement projection process, arrangement information of each image in the virtual three-dimensional space and the in-space viewpoint information Apply a reduction ratio larger than the reduction ratio proportional to the distance between the in-space viewpoint and each image determined from the relationship, and the farther away, the larger the reduction ratio and the excessive reduction projection processing The image display method according to (2), wherein a distance image excessive reduction projection process is added.
(4) In the writing process of the image data according to the simplified two-dimensional arrangement of each image in the display image generation process,
The image display method according to claim 1, wherein if the direction of each image indicated by the simplified two-dimensional arrangement is out of a set value range, the image writing process is omitted.
(5) A process for setting the brightness distribution on the display image is provided.
In the display image generation process, in the image data writing process according to the simplified two-dimensional arrangement of each image, the image writing process is performed with the image brightness according to the brightness distribution on the set display image. The image display method according to claim 1 to be performed. (6) A process for setting the blur distribution of the image on the display image is provided.
In the display image generation process, in the image data writing process according to the simplified two-dimensional arrangement of each image, the image writing process accompanied with the blurring process of the image according to the set blur distribution on the display image The image display method according to claim 1.
(7) A process for setting the color distribution on the display image is provided.
In the writing process of the image data according to the simplified two-dimensional arrangement of each image in the display image generation process, a process of adding a color to the frame of the image according to the set color distribution on the display image is accompanied. The image display method according to claim 1, wherein an image writing process is performed.

本発明の実施形態1の平行拡大投影処理の基本的流れを示す示すフローチャートThe flowchart which shows the basic flow of the parallel expansion projection process of Embodiment 1 of this invention. 本発明の実施形態1の平行拡大投影を用いて長方形画像のディスプレイへの投影計算処理の例を示すフローチャートThe flowchart which shows the example of the projection calculation process to the display of a rectangular image using the parallel expansion projection of Embodiment 1 of this invention. 本発明の実施形態1の平行拡大投影処理による簡略化2次元的配置を用いた表示画像の例と、従来技術の中心投影処理による2次元表示画像の例を示す図The figure which shows the example of the display image using the simplified two-dimensional arrangement | positioning by parallel expansion projection processing of Embodiment 1 of this invention, and the example of the two-dimensional display image by center projection processing of a prior art 多解像度画像を用いた表示画像の生成例を示す図The figure which shows the example of a production | generation of the display image using a multi-resolution image 本発明の実施形態1の3次元表示処理高速化技術を適用した装置構成例を示す図The figure which shows the example of an apparatus structure to which the three-dimensional display process speed-up technique of Embodiment 1 of this invention is applied. 本発明の処理により生成した多解像度合成画像の例を示す図The figure which shows the example of the multi-resolution composite image produced | generated by the process of this invention 本発明の実施形態2の多解像度画像生成処理における微分により重要部分を判断する処理の流れを示すフローチャートThe flowchart which shows the flow of the process which judges an important part by differentiation in the multi-resolution image generation process of Embodiment 2 of this invention. 本発明の処理により生成した切り出し画像の例を示す図The figure which shows the example of the cut-out image produced | generated by the process of this invention 本発明の実施形態2の画像ぼかし処理の流れを示すフローチャートThe flowchart which shows the flow of the image blurring process of Embodiment 2 of this invention. 本発明の実施形態2の3次元画像表現技術を適用した装置構成例を示す図The figure which shows the apparatus structural example to which the three-dimensional image representation technique of Embodiment 2 of this invention is applied. 本発明の実施形態3の背景画像を用いた背景画像を用いた3次元空間表現技術を適用した装置構成例を示す図The figure which shows the apparatus structural example to which the three-dimensional space expression technique using the background image using the background image of Embodiment 3 of this invention is applied. ズーム、スクロールによるディスプレイ上の各画素での画素値の移動の様子を示す図Diagram showing how pixel values move at each pixel on the display by zooming and scrolling 表示内容のうちある1点に注目した場合のディスプレイ上で描かれる軌跡を示した図The figure which showed the locus drawn on the display when paying attention to one point in the display contents オプティカルフローの概念を表した図Diagram showing the concept of optical flow オプテイカルフローの誤差と一回の描画による移動幅の関係を説明する図The figure explaining the relation between the error of the optical flow and the movement width by one drawing 表示内容自体を変更して、目の疲れない最適な表示を行う処理の流れを示すフローチャートFlowchart showing the flow of processing to change the display content itself and perform optimal display without eye strain 移動パラメータの変更を行わず表示内容だけを多少修正する場合の処理の流れを示すフローチャートFlowchart showing the flow of processing when only the display content is slightly modified without changing the movement parameter 個人差を考慮した評価関数の各項に加える重みを設定する処理の流れを示すフローチャートFlow chart showing the flow of processing for setting weights to be added to each term of the evaluation function considering individual differences 本発明の実施形態4の移動パラメータの最適化処理技術を適用した装置構成例を示す図The figure which shows the example of an apparatus structure to which the optimization processing technique of the movement parameter of Embodiment 4 of this invention is applied. 本発明の移動パラメータの最適化処理技術を仮想3次元空間の画像表示に適用した場合の装置構成例を示す図The figure which shows the apparatus structural example at the time of applying the optimization processing technique of the movement parameter of this invention to the image display of virtual three-dimensional space 本発明の画像表示処理方法を実現するコンピュータ処理プログラムを記録した記録媒体の例を示す図The figure which shows the example of the recording medium which recorded the computer processing program which implement | achieves the image display processing method of this invention 従来技術の中心投影による3次元空間内に存在する3次元物体をディスプレイ上に投影する様子を示す図The figure which shows a mode that the three-dimensional object which exists in the three-dimensional space by the center projection of a prior art is projected on a display.

符号の説明Explanation of symbols

10 画像入力部
20 配置情報入力部
30 空間内視点設定・移動処理部
40 投影処理部
50 表示画像生成処理部
60 表示部
70 背景画像入力部
80 移動パラメータ入力部
81 移動パラメータ算出部
90 移動パラメータ・画像データ調整処理部
100 回線先のハードディスク等の記録媒体
101 CD−ROMやフレキシブルディスク等の可搬型記録媒体
102 CD−ROM
103 フレキシブルディスク
104 コンピュータ
105 コンピュータ上のRAM/ハードディスク等の記録媒体
DESCRIPTION OF SYMBOLS 10 Image input part 20 Arrangement information input part 30 In-space viewpoint setting / movement processing part 40 Projection processing part 50 Display image generation processing part 60 Display part 70 Background image input part 80 Movement parameter input part 81 Movement parameter calculation part 90 Movement parameter Image data adjustment processing unit 100 Recording medium such as hard disk at line destination 101 Portable recording medium such as CD-ROM and flexible disk 102 CD-ROM
103 flexible disk 104 computer 105 recording medium such as RAM / hard disk on computer

Claims (5)

画像を移動させながら表示する画像表示方法であって、
画像データを読み込む処理と、
画像の移動方法を指定する移動パラメータを読み込む処理と、
前記読み込まれた画像データと移動パラメータに基づいて、時間的に隣接するフレームの表示画像間で定まるオプティカルフローと各画像の各画素の実際の動きとの違いである視点移動誤差を低減し、かつ、時間的に隣接するフレーム間での画像の移動量を増加するように、前記移動パラメータまたは画像データの少なくとも一方を調整する移動パラメータ・画像データ調整処理と、
前記調整された移動パラメータ・画像データに従って、前記読み込んだ画像データを処理して表示画像を生成する表示画像生成処理と、
前記生成された表示画像を表示装置上に表示する処理を備えたことを特徴とする画像表示方法。
An image display method for displaying images while moving them,
Processing to read image data,
Processing to read the movement parameters that specify how to move the image,
Based on the read image data and movement parameters, a viewpoint movement error, which is a difference between an optical flow determined between display images of temporally adjacent frames and an actual movement of each pixel of each image, and A movement parameter / image data adjustment process for adjusting at least one of the movement parameter and the image data so as to increase the amount of movement of the image between temporally adjacent frames;
Display image generation processing for generating a display image by processing the read image data according to the adjusted movement parameter / image data;
An image display method comprising a process of displaying the generated display image on a display device.
前記移動パラメータ・画像データ調整処理が、重み付けされた前記視点移動誤差と、重みづけされた前記画像の移動量の負数とを加算した量を評価関数とし、当該評価関数を最小にするように、移動パラメータおよび画像データを調整する請求項1に記載の画像表示方法。   The movement parameter / image data adjustment processing uses the weighted viewpoint movement error and a weighted negative amount of the moving amount of the image as an evaluation function, and minimizes the evaluation function, The image display method according to claim 1, wherein the movement parameter and the image data are adjusted. 前記評価関数の重み付けを設定・調整する重み調整処理を備え、
前記重み調整処理が、利用者に調整テスト用の画像を提示しつつ、前記空間内視点設定・移動処理により前記空間内視点を移動させ、利用者にとって視点移動誤差が小さく、かつ、画像移動量の大きくなるよう、利用者自身が前記移動パラメータの調整重みと前記画像データ調整の重みを設定する処理である請求項2に記載の画像表示方法。
A weight adjustment process for setting / adjusting the weight of the evaluation function;
While the weight adjustment process presents an image for adjustment test to the user, the viewpoint in the space is moved by the viewpoint setting / movement process in the space, the viewpoint movement error is small for the user, and the amount of image movement The image display method according to claim 2, wherein the user himself / herself sets an adjustment weight for the movement parameter and a weight for the image data adjustment so as to increase the value.
画像を移動させながら表示する画像表示装置であって、
画像データを読み込む画像入力部と、
画像の移動方法を指定する移動パラメータを読み込む移動パラメータ入力部と、
前記読み込まれた画像データと移動パラメータに基づいて、時間的に隣接するフレームの表示画像間で定まるオプティカルフローと各画像の各画素の実際の動きとの違いである視点移動誤差を低減し、かつ、時間的に隣接するフレーム間での画像の移動量を増加するように、前記移動パラメータまたは画像データの少なくとも一方を調整する移動パラメータ・画像データ調整処理部と、
前記調整された移動パラメータ・画像データに従って、前記読み込んだ画像データを処理して表示画像を生成する表示画像生成処理部と、
前記生成された表示画像を表示装置上に表示する表示部を備えたことを特徴とする画像表示装置。
An image display device that displays an image while moving it,
An image input unit for reading image data;
A movement parameter input section for reading movement parameters for specifying the movement method of the image;
Based on the read image data and movement parameters, a viewpoint movement error, which is a difference between an optical flow determined between display images of temporally adjacent frames and an actual movement of each pixel of each image, and A movement parameter / image data adjustment processing unit that adjusts at least one of the movement parameter or the image data so as to increase the amount of movement of the image between frames that are temporally adjacent;
A display image generation processing unit that processes the read image data to generate a display image according to the adjusted movement parameter / image data;
An image display device comprising a display unit for displaying the generated display image on a display device.
画像を移動させて表示する画像表示方法を実現する処理プログラムを記録したコンピュータ読み取り可能な記憶媒体であって、
画像データを読み込む処理ステップと、
画像の移動方法を指定する移動パラメータを読み込む処理ステップと、
前記読み込まれた画像データと移動パラメータに基づいて、時間的に隣接するフレームの表示画像間で定まるオプティカルフローと各画像の各画素の実際の動きとの違いである視点移動誤差を低減し、かつ、時間的に隣接するフレーム間での画像の移動量を増加するように、前記移動パラメータまたは画像データの少なくとも一方を調整する移動パラメータ・画像データ調整処理ステップと、
前記移動パラメータ・画像データ調整処理に従って、前記読み込んだ画像データを処理して表示画像を生成する表示画像生成処理ステップと、
前記生成された表示画像を表示装置上に表示する処理ステップとをコンピュータに実行させるための処理プログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
A computer-readable storage medium storing a processing program for realizing an image display method for moving and displaying an image,
Processing steps to read image data;
A processing step for reading a movement parameter for specifying an image moving method;
Based on the read image data and movement parameters, a viewpoint movement error, which is a difference between an optical flow determined between display images of temporally adjacent frames and an actual movement of each pixel of each image, and A movement parameter / image data adjustment processing step for adjusting at least one of the movement parameter and the image data so as to increase an amount of movement of the image between temporally adjacent frames;
A display image generation processing step of generating a display image by processing the read image data according to the movement parameter / image data adjustment processing;
A computer-readable recording medium having recorded thereon a processing program for causing a computer to execute a processing step of displaying the generated display image on a display device.
JP2005201869A 2005-07-11 2005-07-11 Image display method and apparatus Expired - Fee Related JP4137923B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005201869A JP4137923B2 (en) 2005-07-11 2005-07-11 Image display method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005201869A JP4137923B2 (en) 2005-07-11 2005-07-11 Image display method and apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001543686A Division JP3718472B2 (en) 1999-12-06 1999-12-06 Image display method and apparatus

Publications (2)

Publication Number Publication Date
JP2005327314A true JP2005327314A (en) 2005-11-24
JP4137923B2 JP4137923B2 (en) 2008-08-20

Family

ID=35473559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005201869A Expired - Fee Related JP4137923B2 (en) 2005-07-11 2005-07-11 Image display method and apparatus

Country Status (1)

Country Link
JP (1) JP4137923B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007174317A (en) * 2005-12-22 2007-07-05 Fuji Xerox Co Ltd Image processor and program
JP2007299330A (en) * 2006-05-02 2007-11-15 Sony Computer Entertainment Inc Image display device and its control method and program
WO2011039904A1 (en) * 2009-09-29 2011-04-07 株式会社ソニー・コンピュータエンタテインメント Panoramic image display device and panoramic image display method
JP2012190124A (en) * 2011-03-09 2012-10-04 Seiko Epson Corp Display control method, display device, and electronic apparatus
JP2013519125A (en) * 2009-09-25 2013-05-23 トムソン ライセンシング Equipment and method for grid navigation
CN107145086A (en) * 2017-05-17 2017-09-08 上海青研科技有限公司 A kind of Eye-controlling focus device and method for exempting from calibration
CN113646752A (en) * 2019-03-27 2021-11-12 多玩国株式会社 VR live broadcast distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of VR original photograph data

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4661580B2 (en) * 2005-12-22 2011-03-30 富士ゼロックス株式会社 Image processing apparatus and program
JP2007174317A (en) * 2005-12-22 2007-07-05 Fuji Xerox Co Ltd Image processor and program
JP2007299330A (en) * 2006-05-02 2007-11-15 Sony Computer Entertainment Inc Image display device and its control method and program
JP2013519125A (en) * 2009-09-25 2013-05-23 トムソン ライセンシング Equipment and method for grid navigation
US9037972B2 (en) 2009-09-25 2015-05-19 Thomson Licensing Apparatus and method for grid navigation
WO2011039904A1 (en) * 2009-09-29 2011-04-07 株式会社ソニー・コンピュータエンタテインメント Panoramic image display device and panoramic image display method
JP2011076249A (en) * 2009-09-29 2011-04-14 Sony Computer Entertainment Inc Device and method for displaying panoramic image
US9251561B2 (en) 2009-09-29 2016-02-02 Sony Corporation Apparatus and method for displaying panoramic images
US10298839B2 (en) 2009-09-29 2019-05-21 Sony Interactive Entertainment Inc. Image processing apparatus, image processing method, and image communication system
JP2012190124A (en) * 2011-03-09 2012-10-04 Seiko Epson Corp Display control method, display device, and electronic apparatus
CN107145086A (en) * 2017-05-17 2017-09-08 上海青研科技有限公司 A kind of Eye-controlling focus device and method for exempting from calibration
CN107145086B (en) * 2017-05-17 2023-06-16 上海青研科技有限公司 Calibration-free sight tracking device and method
CN113646752A (en) * 2019-03-27 2021-11-12 多玩国株式会社 VR live broadcast distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of VR original photograph data
CN113646752B (en) * 2019-03-27 2024-04-19 多玩国株式会社 VR live broadcast distribution system, distribution server, control method for distribution server, computer-readable storage medium for distribution server program, and processing method for VR original photograph data

Also Published As

Publication number Publication date
JP4137923B2 (en) 2008-08-20

Similar Documents

Publication Publication Date Title
JP3718472B2 (en) Image display method and apparatus
CN112074865B (en) Generating and displaying blur in an image
US8478026B2 (en) Method and system for transparency adjustment and occlusion resolution for urban landscape visualization
US7995078B2 (en) Compound lenses for multi-source data presentation
JP4341408B2 (en) Image display method and apparatus
US7486302B2 (en) Fisheye lens graphical user interfaces
US8350872B2 (en) Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US9129367B2 (en) Navigating digital images using detail-in-context lenses
US8031206B2 (en) Method and system for generating pyramid fisheye lens detail-in-context presentations
US20070097109A1 (en) Method and system for generating detail-in-context presentations in client/server systems
JP4137923B2 (en) Image display method and apparatus
US20070165050A1 (en) Method and system for geographically-based and time-based online advertising
WO2012033768A2 (en) Efficient information presentation for augmented reality
US20150286364A1 (en) Editing method of the three-dimensional shopping platform display interface for users
US10453271B2 (en) Automated thumbnail object generation based on thumbnail anchor points
US20110069086A1 (en) Detail-in-Context Presentations in Client/Server Systems
EP2816521A1 (en) Editing method of the three-dimensional shopping platform display interface for users
CN115155062A (en) Information processing method, information processing device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080529

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080604

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees