JP6168630B2 - Image selection display method and apparatus - Google Patents

Image selection display method and apparatus Download PDF

Info

Publication number
JP6168630B2
JP6168630B2 JP2016129449A JP2016129449A JP6168630B2 JP 6168630 B2 JP6168630 B2 JP 6168630B2 JP 2016129449 A JP2016129449 A JP 2016129449A JP 2016129449 A JP2016129449 A JP 2016129449A JP 6168630 B2 JP6168630 B2 JP 6168630B2
Authority
JP
Japan
Prior art keywords
image
focused position
display
storage unit
focused
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016129449A
Other languages
Japanese (ja)
Other versions
JP2016201812A5 (en
JP2016201812A (en
Inventor
岳史 藤田
岳史 藤田
Original Assignee
ヴイアールアイ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴイアールアイ株式会社 filed Critical ヴイアールアイ株式会社
Priority to JP2016129449A priority Critical patent/JP6168630B2/en
Publication of JP2016201812A publication Critical patent/JP2016201812A/en
Publication of JP2016201812A5 publication Critical patent/JP2016201812A5/ja
Application granted granted Critical
Publication of JP6168630B2 publication Critical patent/JP6168630B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像選択表示方法および装置に係り、特に、同一の対象を表示する画像であって、フォーカス位置(焦点位置)が異なる複数の画像から画像を選択するものに関する。   The present invention relates to an image selection display method and apparatus, and more particularly to an image that displays the same object and that selects an image from a plurality of images with different focus positions (focus positions).

この種の従来例として、特許文献1がある。特許文献1では、1回のレリーズ操作に応じて焦点位置を多段階または無段階に変更し、変更された互いに異なる複数の焦点位置における被写体像について画像データを生成し、これにより、撮影後において合焦範囲を任意に変更可能としている。   There exists patent document 1 as a prior art example of this kind. In Patent Document 1, the focal position is changed in multiple steps or steplessly according to one release operation, and image data is generated for the changed subject images at a plurality of different focal positions. The focusing range can be changed arbitrarily.

特開2003−143461号公報JP 2003-143461 A

本発明では、同一の対象を表示する画像であって、ピントの合っている位置が異なる複数の画像から、人の生体信号に応じて画像を選択し表示できるようにすることを課題とする。   It is an object of the present invention to select and display an image according to a person's biological signal from a plurality of images that display the same target and are in different positions.

この課題を解決するため、本発明では、以下の構成を採っている。   In order to solve this problem, the present invention adopts the following configuration.

本発明では、人が見るという行為において視神経に伝達される値を生体信号として取得し、この生体信号に基づいて、カメラ写真またはCG画像上の位置座標またはオブジェクトにフォーカスされた画像を検索し表示する。
また、本発明では、脳でイメージしたオブジェクトを脳波等の生体信号により特定し、当該生体信号に基づいて、そのオブジェクトにフォーカスされた画像を検索し表示する。
In the present invention, a value transmitted to the optic nerve in the act of human viewing is acquired as a biological signal, and based on this biological signal, a position coordinate on a camera photograph or CG image or an image focused on an object is retrieved and displayed. To do.
In the present invention, an object imaged in the brain is specified by a biological signal such as an electroencephalogram, and an image focused on the object is searched and displayed based on the biological signal.

ここで、本発明は、カメラ写真だけでなくCG画像も対象とする。カメラ写真の場合、画像上のフォーカスされた位置座標またはオブジェクトは、その写真を撮影した時の光学系のフォーカス位置に応じて異なる。フォーカス位置は、焦点位置、ピント位置、フォーカス距離とも呼ばれる。一方、CG画像の場合、画像上のフォーカスされた位置座標またはオブジェクトとは、ぼけて表示される部分とシャープに表示される部分とを含む画像においてシャープに表示される部分の位置座標またはオブジェクトをいうものとする。画像上のフォーカスされた位置座標とは、画像平面内のピクセル位置を表す座標であり、複数の座標によって特定される矩形範囲を含むものとする。   Here, the present invention targets not only camera photographs but also CG images. In the case of a camera photograph, the focused position coordinates or object on the image differ depending on the focus position of the optical system when the photograph is taken. The focus position is also called a focus position, a focus position, and a focus distance. On the other hand, in the case of a CG image, the focused position coordinate or object on the image is the position coordinate or object of a portion displayed sharply in an image including a portion displayed blurred and a portion displayed sharply. It shall be said. The focused position coordinate on the image is a coordinate representing a pixel position in the image plane, and includes a rectangular range specified by a plurality of coordinates.

本発明によれば、同一の対象を表示する画像であって、ピントの合っている位置が異なる複数の画像から、人の生体信号に応じて画像を選択し表示することができる。   ADVANTAGE OF THE INVENTION According to this invention, it is an image which displays the same object, Comprising: An image can be selected and displayed according to a human biosignal from the several image from which the position which focused is different.

本発明の第1実施形態による構成図。The block diagram by 1st Embodiment of this invention. 本発明の第2実施形態による構成図。The block diagram by 2nd Embodiment of this invention. 図2の画像記憶手段に格納されるデータの構造図。FIG. 3 is a structural diagram of data stored in the image storage means of FIG. 2. 本発明の第3実施形態による構成図。The block diagram by 3rd Embodiment of this invention. 本発明の第4実施形態による構成図。The block diagram by 4th Embodiment of this invention. 本発明の第5実施形態による構成図。The block diagram by 5th Embodiment of this invention. 本発明の第6実施形態による構成図。The block diagram by 6th Embodiment of this invention.

[第1実施形態]
以下、本発明の第1実施形態を説明する。図1は第1実施形態である画像選択表示システムの構成図である。図1において、画像記憶手段1は、複数の画像iを記憶している。各画像iは、同一の対象を表示する画像であるが、各画像毎にピントの合っている位置が異なっている。例えば、同じ室内の様子を表示する複数の画像であるが、一の画像では、手前に見えるテーブルにピントが合っており、他の一の画像では、奥に見えるソファにピントが合っている、という具合である。ここでいう「ピントの合っている位置」とは、画像平面内のピントが合っている位置を意味し、ピクセルの座標によって特定される位置である。このピントの合っている位置を「フォーカスされた位置」と呼ぶことにする。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described. FIG. 1 is a configuration diagram of an image selection display system according to the first embodiment. In FIG. 1, the image storage unit 1 stores a plurality of images i. Each image i is an image displaying the same object, but the focused position is different for each image. For example, there are multiple images that show the same room, but one image is in focus on the table in front, and the other image is in focus on the sofa in the back. That's it. The “in-focus position” here means a position in focus in the image plane, and is a position specified by the coordinates of the pixel. This in-focus position is referred to as a “focused position”.

ただし、画像データiは光学系を通じて撮影された写真画像に限らず、コンピュータによって制作されたCG(Computer Graphics)画像でもよい。この場合、フォーカスされた位置とは、対象がぼけて表示される部分に対し、対象がシャープに表示される部分の位置をいうものとする。   However, the image data i is not limited to a photographic image taken through an optical system, but may be a CG (Computer Graphics) image produced by a computer. In this case, the focused position refers to the position of the portion where the target is displayed sharply with respect to the portion where the target is displayed blurred.

また、画像iは、独立した静止画に限らず、動画のフレームでもよい。同一の対象を表示する映像であって、フォーカスされた位置の異なる複数の映像は、各フレームごとに、複数の画像iの組を持つと考えられる。   Further, the image i is not limited to an independent still image, and may be a moving image frame. A plurality of images that display the same target and have different focused positions are considered to have a set of a plurality of images i for each frame.

以上説明した画像iには、各画像iごとに、フォーカスされた位置p1のデータが関連付けられている。例えば、テーブルにフォーカスされた画像iには、そのテーブルに対応するピクセルの位置座標が、フォーカスされた位置p1として関連付けられる。同様に、ソファにフォーカスされた画像iには、そのソファに対応するピクセルの位置座標が、フォーカスされた位置p1として関連付けられる。ここで、フォーカスされた位置は、ピクセルの一点の座標で表してもよいが、複数のピクセルの座標によって特定される座標範囲とする。ここでは、フォーカスされた位置p1は、対角にある2点のピクセル座標によって特定される矩形範囲とする。中心点と半径によって特定される円の範囲をフォーカスされた位置としてもよい。   The image i described above is associated with the data of the focused position p1 for each image i. For example, the position coordinate of the pixel corresponding to the table is associated with the image i focused on the table as the focused position p1. Similarly, the position coordinate of the pixel corresponding to the sofa is associated with the image i focused on the sofa as the focused position p1. Here, the focused position may be represented by the coordinates of one point of the pixel, but is a coordinate range specified by the coordinates of a plurality of pixels. Here, the focused position p1 is a rectangular range specified by the pixel coordinates of two diagonal points. A range of a circle specified by the center point and the radius may be a focused position.

画像記憶手段1は、以上説明した画像iの画像データとフォーカスされた位置p1のデータとを各画像ごとに関連付けて記憶している。以下、同一の対象を表示する複数の画像iの組を「画像セット」と呼ぶことにする。   The image storage means 1 stores the image data of the image i described above and the data of the focused position p1 in association with each image. Hereinafter, a set of a plurality of images i displaying the same object is referred to as an “image set”.

また、図1に示す画像選択表示システムは、画像記憶手段1から読み出された画像iを表示する画像表示手段3と、この画像表示手段3に表示された画像iを見る者の画像平面上での視線の座標を入力する視線座標演算手段2とを有する。更に、この視線座標演算手段2から入力された視線の座標と前記フォーカスされた位置p1とが適合する画像iを画像記憶手段1から読み出して画像表示手段3に表示する処理を繰り返す制御手段4を備えている。   Further, the image selection display system shown in FIG. 1 includes an image display means 3 for displaying an image i read from the image storage means 1, and an image plane of a person who views the image i displayed on the image display means 3. And a line-of-sight coordinate calculation means 2 for inputting the coordinates of the line of sight at. Further, the control means 4 for repeating the process of reading out from the image storage means 1 and displaying on the image display means 3 an image i in which the coordinates of the line of sight input from the line-of-sight coordinate calculation means 2 match the focused position p1. I have.

視線座標演算手段2は、例えば、人の眼球運動量や脳波等に基づいて求めた画像平面上での視線の座標(注視点座標)を制御手段4に入力する。ここにいう画像平面とは、画像表示手段3に表示されている画像の画像平面である。この種の公知技術としては、特許第3201333号公報、特開平5−333995号公報、特開平9−34631号公報、特開弊9−211557号公報などがある。視線位置入力手段2から入力する視線位置座標の有効値は、前記画像平面のピクセルの縦座標および横座標の範囲内とする。   The line-of-sight coordinate calculation means 2 inputs, for example, the coordinates of the line of sight (gaze point coordinates) on the image plane obtained based on the amount of human eyeball movement, brain waves, etc. The image plane here is an image plane of an image displayed on the image display means 3. Known techniques of this type include Japanese Patent No. 3201333, Japanese Patent Application Laid-Open No. 5-333395, Japanese Patent Application Laid-Open No. 9-34631, Japanese Patent Application Laid-Open No. 9-21557, and the like. The effective value of the line-of-sight position coordinate input from the line-of-sight position input means 2 is within the range of the ordinate and abscissa of the pixel on the image plane.

画像表示手段3は、画像データに基づく画像を表示できる装置であればよい。例えば、液晶ディスプレイモニタである。   The image display means 3 may be any device that can display an image based on image data. For example, a liquid crystal display monitor.

制御手段4は、制御回路または制御プログラムを実行するプロセッサである。制御手段4は、視線座標演算手段2から入力される視線の位置座標を取得し、この位置座標とフォーカスされた位置p1とが適合する画像iのデータを画像記憶手段1から検索し、検索できた画像iのデータを画像記憶手段1から読み出す(視線座標マッチングS1)。次いで、制御手段4は、読み出した画像iのデータに基づく画像を画像表示手段3に表示する(適合画像表示S2)。このとき、画像を見る者にとっては、自己の視線を注いでいる位置でシャープな対象像を目にし、その周囲ではボケた対象像として見える。制御手段4は、以上のS1およびS2の処理を繰り返す。そうすると、見る者が視線を動かすことにより、その視線の動きに合わせて対象像のシャープに見える部分も移動する。   The control means 4 is a processor that executes a control circuit or a control program. The control unit 4 can acquire the position coordinates of the line of sight input from the line-of-sight coordinate calculation unit 2, and can search the image storage unit 1 for data of the image i in which this position coordinate and the focused position p1 are matched. Data of the obtained image i is read from the image storage means 1 (line-of-sight coordinate matching S1). Next, the control unit 4 displays an image based on the read data of the image i on the image display unit 3 (compatible image display S2). At this time, a person who sees the image sees a sharp target image at a position where the user's line of sight is poured, and appears as a blurred target image around the target image. The control means 4 repeats the above processes S1 and S2. Then, when the viewer moves his / her line of sight, the sharply visible portion of the target image moves in accordance with the movement of the line of sight.

このように、本実施形態によれば、画像を見る者が視線を動かしながら画像を見ると、常に視線を注いでいる位置にフォーカスされた画像が表示される。   As described above, according to the present embodiment, when a person viewing the image looks at the image while moving his / her line of sight, the focused image is displayed at a position where the line of sight is always poured.

[第2実施形態]
次に、本発明の第2実施形態を説明する。図2は、第2実施形態の構成図である。図2に示す画像選択表示システムでは、画像記憶手段1が、同一の対象を表示する前述の画像セットを、光学系の絞り値(画像の明るさ)毎に複数記憶している。また、画像を見る者(以下適宜「ユーザ」と呼ぶ)の選択により絞り値を選択する条件選択手段5を有する。そして、制御手段4は、条件選択手段5からの入力信号に応じて選択された絞り値に対応する画像セットから画像の読み出しを行う。本実施形態において、画像セットに含まれる複数の画像iは、カメラによって光学系を通じて撮影された写真画像または動画のフレーム画像であるとする。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. FIG. 2 is a configuration diagram of the second embodiment. In the image selection display system shown in FIG. 2, the image storage means 1 stores a plurality of the above-described image sets for displaying the same object for each aperture value (image brightness) of the optical system. Further, it has condition selection means 5 for selecting an aperture value by selection of a person who views the image (hereinafter referred to as “user” as appropriate). Then, the control unit 4 reads an image from the image set corresponding to the aperture value selected according to the input signal from the condition selection unit 5. In the present embodiment, it is assumed that the plurality of images i included in the image set are photographic images or moving image frame images taken by the camera through the optical system.

また、画像記憶手段1は、同一の対象(被写体)を撮影した画像セットを光学系の焦点距離(対象の大きさ)毎に複数記憶している。条件選択手段5は、画像を見る者の意思により焦点距離を選択する機能も備える。そして、制御手段4は、条件選択手段5からの入力信号に応じて選択された焦点距離に対応する画像セットから画像の読み出しを行う。その他の構成は第1実施形態と同一である。   Further, the image storage unit 1 stores a plurality of image sets obtained by photographing the same target (subject) for each focal length (target size) of the optical system. The condition selection means 5 also has a function of selecting the focal length according to the intention of the person viewing the image. Then, the control unit 4 reads an image from the image set corresponding to the focal length selected according to the input signal from the condition selection unit 5. Other configurations are the same as those of the first embodiment.

これを更に詳述すると、本実施形態において、画像記憶手段1に記憶されるデータの構造は例えば図3のようになっている。画像記憶手段1には、焦点位置と、画像iと、フォーカスされた位置p1と、絞り値と、焦点距離とが関連付けて記憶されている。この例では、太枠で囲った3行ごとに一組の画像セットを構成している。画像セットは、同一の被写体を焦点位置を変えながら撮影した一組みの画像の束である。この画像セットが複数記憶されており、各画像セットが、絞り値と焦点距離の異なる設定により撮影されている。「焦点位置」は撮影時の光学系の焦点位置を1〜3の指数で示している。例示の便宜上、焦点位置を3点だけ示したが、実際には、焦点位置を無段階に変化させて多数の画像を撮影することが好ましい。「画像i」は、撮影毎に異なる画像データとなるため、i(1)〜i(18)のそれぞれ異なる符号で示した。「フォーカスされた位置p1」のデータは、前述したように画像平面内のピントが合っている位置を表しており、光学系の焦点距離が異なる場合は、被写体の画角が異なることから、画像平面内のフォーカスされる位置も異なるものと想定し、p1(1)〜p1(9)の異なる符号を付した。一方、光学系の絞り値が違っても焦点距離が同じ場合は、フォーカスされる位置もほぼ同一であろうと想定し、i(10)〜i(18)の画像についてもフォーカスされた位置をp1(1)〜p1(9)とした。「絞り値」は1または2の指数で異なる値を示した。もっと多くの絞り値において、画像セットの撮影を行うことが望ましい。「焦点距離」は1〜3の指数で異なる値を示した。もっと多くの焦点距離において、画像セットの撮影を行うことが望ましい。ここで、「焦点距離」は「ズーム倍率」に置き換えてもよい。この図3に示したものは例示にすぎない。焦点位置の数、絞り値の数、焦点距離の数は、この例に限らない。例えば、焦点距離は無段階にズームしながら多数の画像を撮影してもよい。   More specifically, in this embodiment, the structure of data stored in the image storage means 1 is as shown in FIG. 3, for example. The image storage means 1 stores a focal position, an image i, a focused position p1, an aperture value, and a focal length in association with each other. In this example, one image set is configured for every three rows surrounded by a thick frame. The image set is a bundle of a set of images obtained by photographing the same subject while changing the focal position. A plurality of image sets are stored, and each image set is photographed with different settings of the aperture value and the focal length. “Focus position” indicates the focal position of the optical system at the time of photographing with an index of 1 to 3. For convenience of illustration, only three focal positions are shown. However, in practice, it is preferable to capture a large number of images by changing the focal position steplessly. Since “image i” is different image data for each photographing, i (1) to i (18) are indicated by different symbols. As described above, the data of “focused position p1” represents the position in focus in the image plane, and when the focal length of the optical system is different, the angle of view of the subject is different. Assuming that the focused position in the plane is also different, different symbols p1 (1) to p1 (9) are attached. On the other hand, if the focal lengths are the same even if the aperture values of the optical system are different, it is assumed that the focused positions will be substantially the same, and the focused positions of the images i (10) to i (18) are set to p1. (1) to p1 (9). “Aperture value” indicated a different value with an index of 1 or 2. It is desirable to take a set of images at more aperture values. “Focal distance” showed different values with an index of 1 to 3. It is desirable to take image sets at more focal lengths. Here, “focal length” may be replaced with “zoom magnification”. The one shown in FIG. 3 is merely an example. The number of focal positions, the number of aperture values, and the number of focal lengths are not limited to this example. For example, a large number of images may be taken while zooming steplessly.

条件選択手段5としては幾つかの構成が考えられるが、一つは、物理的な入力装置をユーザが手動操作し、絞り値および焦点距離の選択信号を入力することが考えられる。また、ユーザの生体信号により絞り値および焦点距離の選択信号を入力する構成が考えられる。例えば、脳波により車両の運転を制御できる事例が知られており、同様にユーザの脳波により絞り値および焦点距離の選択信号を入力するように条件選択手段5を構成することが可能である。   There are several possible configurations for the condition selection means 5, but one is that the user manually operates a physical input device and inputs selection signals for the aperture value and focal length. Further, a configuration in which an aperture value and a focal length selection signal are input by a user's biological signal is conceivable. For example, there is known an example in which driving of a vehicle can be controlled by an electroencephalogram. Similarly, the condition selection means 5 can be configured to input a selection signal of an aperture value and a focal length by the user's electroencephalogram.

制御手段4は、条件選択手段5からの入力信号に応じて選択された絞り値および焦点距離の値を条件パラメータとして記憶部に保持する。そして、視線座標マッチング処理S1においては、条件パラメータを満たす画像セットの中から視線の位置座標とフォーカスされた位置p1とが適合する画像を読み出して画像表示手段3に表示する。例えば、条件パラメータとして、絞り値1、焦点距離2が指定されていれば、図3の上から2番目の画像セットの中から画像iの読み出しを行う。   The control unit 4 holds the aperture value and the focal length value selected according to the input signal from the condition selection unit 5 in the storage unit as condition parameters. In the line-of-sight coordinate matching processing S1, an image in which the position coordinates of the line of sight match the focused position p1 is read from the image set satisfying the condition parameters and displayed on the image display unit 3. For example, if the aperture value 1 and the focal length 2 are designated as the condition parameters, the image i is read out from the second image set from the top in FIG.

このようにしても第1実施形態と同一の作用効果を奏するほか、絞り値や焦点距離を選択しながら画像を見ることができる。   Even if it does in this way, besides having the same operation effect as a 1st embodiment, an image can be seen, selecting an aperture value and a focal length.

ここで、本実施形態では、絞り値と焦点距離の両方を選択できる構成としたが、どちらか一方だけとしてもよい。   Here, in the present embodiment, both the aperture value and the focal length can be selected, but only one of them may be selected.

[第3実施形態]
次に、本発明の第3実施形態を図4に基づいて説明する。図4は、第3実施形態の構成図である。この図4に示す画像選択表示システムは、前述の実施形態における画像記憶手段1とは別に画像iを記憶する第1画像記憶手段6を備えている。本実施形態において、前述の画像記憶手段1は第2画像記憶手段1とする。第1画像記憶手段6と第2画像記憶手段1との間には、フォーカスされた位置の判定手段7を設ける。フォーカスされた位置の判定手段7は、第1画像記憶手段6から画像iを読み出し、読み出した画像iの画像平面内においてフォーカスされた位置p1を判定し、判定した位置p1を画像iに関連付けて第2の画像記憶手段1に格納する。その他の構成は第1実施形態と同一である。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to FIG. FIG. 4 is a configuration diagram of the third embodiment. The image selection display system shown in FIG. 4 includes a first image storage unit 6 that stores an image i separately from the image storage unit 1 in the above-described embodiment. In the present embodiment, the above-described image storage unit 1 is the second image storage unit 1. A focused position determination unit 7 is provided between the first image storage unit 6 and the second image storage unit 1. The focused position determination means 7 reads the image i from the first image storage means 6, determines the focused position p1 in the image plane of the read image i, and associates the determined position p1 with the image i. The image is stored in the second image storage unit 1. Other configurations are the same as those of the first embodiment.

第1画像記憶手段6に格納される画像iは、第1実施形態において画像記憶手段1に格納される画像iと同一である。フォーカスされた位置の判定手段7は、各画像iの画像平面内においてフォーカスされた位置p1を判定し、各画像iとフォーカスされた位置p1とを関連付けて第2画像記憶手段1に格納する。   The image i stored in the first image storage unit 6 is the same as the image i stored in the image storage unit 1 in the first embodiment. The focused position determination unit 7 determines the focused position p1 in the image plane of each image i, and associates each image i with the focused position p1 and stores it in the second image storage unit 1.

フォーカスされた位置の判定手段7が位置p1を判定する方法には、幾つか考えられる。
一つは、画像iをモニタに表示し、物理的な入力装置、例えばポインティングデバイスにより、人が目視により画像iのフォーカスされた位置p1を指定する方法が考えられる。
また、画像の部分がボケているか否かの判定は、その部分と周囲との色の差(周囲の色と大きく違うほどくっきりしているか否か)により判定できることが一般的に知られている。その際、フーリエ変換を用いるが、コンピュータ処理によりFFT(Fast Fourier Transform:高速フーリエ変換)アルゴリズムでスペクトルを分析する。フォーカスされた位置の判定手段7は、このFFTアルゴリズムを用いて画像i内でフォーカスされた位置p1を自動的に判定するように構成してもよい。FFTによるボケの判定は、画像をマトリクス領域に区分した各領域毎に行ってもよい。又は、画像に含まれるオブジェクトの輪郭抽出処理を行い、輪郭を抽出できたオブジェクトについて、そのオブジェクトの画像平面内の座標を対象としてボケの判定を行ってもよい。
There are several possible methods for the focused position determination means 7 to determine the position p1.
One is a method in which the image i is displayed on a monitor, and a person designates the focused position p1 of the image i by visual observation using a physical input device such as a pointing device.
Also, it is generally known that whether or not a part of an image is blurred can be determined by a color difference between the part and the surrounding area (whether or not the image is sharply different from the surrounding color). . At that time, Fourier transform is used, but the spectrum is analyzed by an FFT (Fast Fourier Transform) algorithm by computer processing. The focused position determination means 7 may be configured to automatically determine the focused position p1 in the image i using this FFT algorithm. The determination of blur by FFT may be performed for each area obtained by dividing an image into matrix areas. Alternatively, the outline extraction process of the object included in the image may be performed, and the blur may be determined for the object for which the outline has been extracted with respect to the coordinates in the image plane of the object.

このようにしても第1実施形態と同一の効果を奏するほか、画像iとフォーカスされた位置p1とを関連付けた情報を生成することができる。
ここで、第2実施形態のように、画像iにカメラで撮影した場合の絞り値および焦点距離を関連付ける場合は、第1画像記憶手段6に画像iのデータを格納する時点で、予め絞り値および焦点距離の値を関連付けて格納しておけばよい。
Even if it does in this way, besides having the same effect as a 1st embodiment, the information which linked image i and focused position p1 can be generated.
Here, as in the second embodiment, when associating the aperture value and the focal length when captured with the camera with the image i, the aperture value is stored in advance when the data of the image i is stored in the first image storage unit 6. And the value of the focal length may be stored in association with each other.

また、本実施形態では、フォーカスされた位置の判定手段7を第2画像記憶手段1の前段に設け、第2画像記憶手段1に格納する画像iとフォーカスされた位置p1との関連付けを事前に生成する構成としたが、判定手段7の機能を制御手段4に持たせ、制御手段4が視線座標マッチング処理S1を行う際に都度、各画像iのフォーカスされた位置p1を判定する構成としてもよい。   Further, in the present embodiment, the focused position determination means 7 is provided in the preceding stage of the second image storage means 1, and the association between the image i stored in the second image storage means 1 and the focused position p1 is made in advance. Although the configuration is such that the function of the determination unit 7 is provided in the control unit 4 and the control unit 4 performs the line-of-sight coordinate matching processing S1, the configuration in which the focused position p1 of each image i is determined is performed. Good.

[第4実施形態]
次に、本発明の第4実施形態を説明する。図5は、第4実施形態の構成図である。図5に示す画像選択表示システムは、第1画像記憶手段5に格納する画像iを撮影するための撮像装置Cを備えている。その他の構成は第3実施形態と同一である。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. FIG. 5 is a configuration diagram of the fourth embodiment. The image selection display system shown in FIG. 5 includes an imaging device C for capturing an image i stored in the first image storage means 5. Other configurations are the same as those of the third embodiment.

撮像装置Cは、撮影光学系と、この光学系を通った光を受光する撮像素子と、これら光学系と撮像素子との間に位置するシャッター機構と、光学系およびシャッター機構を駆動する駆動部とを備えている。また、駆動部の動作を制御する制御部と、この制御部に指示を入力する操作部と、各種情報を表示する表示部とを備えている。   The imaging apparatus C includes an imaging optical system, an imaging element that receives light that has passed through the optical system, a shutter mechanism that is positioned between the optical system and the imaging element, and a drive unit that drives the optical system and the shutter mechanism. And. In addition, a control unit that controls the operation of the drive unit, an operation unit that inputs an instruction to the control unit, and a display unit that displays various types of information are provided.

制御部は、操作部の操作によりシャッターボタンが押されると、駆動部を駆動して撮影光学系のフォーカス位置を一端部から他端部まで無段階に変化させながら、同時にシャッター機構を駆動して被写体を連写する(以下これを「無段階フォーカス撮影」と呼ぶ)。そして、連写により得た多数の画像iを第1画像記憶手段6に格納する。この一回の撮影の間は光学系の絞り値と焦点距離は固定し、各画像iには撮影時の絞り値と焦点距離の値とを関連付けて格納する。一回の撮影が終わると、制御部は、光学系の絞り値と焦点距離との組み合わせを変更しながら、無段階フォーカス撮影を繰り返し実行する。絞り値は、撮影装置Cが選択を許容するすべての絞り値について順次選択することが好ましい。また、焦点距離は、光学系が許容する範囲で焦点距離を無段階に変化させることが好ましい。   When the shutter button is pressed by the operation of the operation unit, the control unit drives the drive unit to drive the shutter mechanism at the same time while continuously changing the focus position of the photographing optical system from one end to the other end. The subject is continuously shot (hereinafter referred to as “stepless focus shooting”). Then, a large number of images i obtained by continuous shooting are stored in the first image storage means 6. During this single shooting, the aperture value and focal length of the optical system are fixed, and the aperture value and focal length value at the time of shooting are stored in association with each image i. When one shooting is finished, the control unit repeatedly executes stepless focus shooting while changing the combination of the aperture value and the focal length of the optical system. It is preferable that the aperture value is sequentially selected for all aperture values that the photographing apparatus C allows selection. Further, it is preferable that the focal length is changed steplessly within a range allowed by the optical system.

このようにしても第3実施形態と同一の効果を奏するほか、画像の撮影から画像セットの生成までを自動的に実行することができる。ここで、第1画像記憶手段6は、撮像装置Cの筺体内に収納されていてもよい。画像記憶手段1,6はデータを記憶できるメモリ媒体であれば種類を問わない。また、上記の説明は静止画を連写する構成を前提として記述したが、静止画を連写する代わりに動画を撮影し、撮影した動画の各フレームを各画像iとする構成にしてもよい。   Even if it does in this way, besides having the same effect as a 3rd embodiment, from photography of an image to generation of an image set can be performed automatically. Here, the first image storage unit 6 may be housed in the housing of the imaging apparatus C. The image storage means 1 and 6 are not limited as long as they are memory media capable of storing data. In addition, the above description has been described on the assumption that the still image is continuously shot. However, instead of continuously shooting still images, a moving image may be shot, and each frame of the shot moving image may be set as each image i. .

[第5実施形態]
次に、本発明の第5実施形態を図6に基づいて説明する。本実施形態において、画像記憶手段1には、画像iのデータと、フォーカスされた位置p2のデータとが関連付けられて、画像ごとに格納されている。本実施形態において、画像iは、複数のオブジェクトを表示する画像であり、そのうちの或るオブジェクトにフォーカスされている。つまり画像iは、フォーカスされたオブジェクトをシャープに表示し、その周囲や他のオブジェクトをぼかして表示する画像となっている。オブジェクトとは、画像に表れる物品、生物やキャラクタ等である。そして、各画像iごとに、フォーカスされたオブジェクトが異なっており、よって、各画像iごとに、フォーカスされた位置p2が異なっている。ただし、各画像iは、第1実施形態等と同様に、同一の対象を表示する画像である。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described with reference to FIG. In the present embodiment, the image storage unit 1 stores the data of the image i and the data of the focused position p2 in association with each image. In the present embodiment, the image i is an image displaying a plurality of objects, and is focused on a certain object among them. That is, the image i is an image in which the focused object is displayed sharply and its surroundings and other objects are blurred. An object is an article, a creature, a character, or the like that appears in an image. The focused object is different for each image i. Therefore, the focused position p2 is different for each image i. However, each image i is an image that displays the same target as in the first embodiment.

フォーカスされた位置p2は、フォーカスされたオブジェクトの画像平面内での位置を表す。本実施形態において、フォーカスされた位置p2は、フォーカスされたオブジェクトの画像平面内での位置をピクセルの座標範囲で表したデータである。   The focused position p2 represents the position of the focused object in the image plane. In the present embodiment, the focused position p2 is data representing the position of the focused object in the image plane in the pixel coordinate range.

制御手段4は、視線座標演算手段2から入力された注視点の座標が、フォーカスされた位置p2の座標範囲に含まれる画像iのデータを画像記憶手段1から読み出す。これによると、注視点にあるオブジェクトにフォーカスされた画像iが読み出される(視線オブジェクトマッチングS11)。   The control means 4 reads out the data of the image i from which the coordinates of the gazing point input from the line-of-sight coordinate calculation means 2 are included in the coordinate range of the focused position p2 from the image storage means 1. According to this, the image i focused on the object at the gazing point is read (line-of-sight object matching S11).

その他の構成は、第1実施形態と同一である。本実施形態によれば、視線を動かしながら画像を見ると、常に視線を注いでいるオブジェクトにフォーカスされた画像が表示される。   Other configurations are the same as those of the first embodiment. According to the present embodiment, when an image is viewed while moving the line of sight, the image focused on the object that is always pouring the line of sight is displayed.

[第6実施形態]
次に、本発明の第6実施形態を図7に基づいて説明する。本実施形態において、画像記憶手段1には、画像iのデータと、脳波パターンp3のデータとが関連付けられて、画像ごとに記憶されている。各画像iは前述した第5実施形態と同一であり、複数のオブジェクトを表示する画像であって、画像ごとに異なるオブジェクトにフォーカスされている。脳波パターンp3は、画像を見る者がオブジェクトを脳にイメージした際に発生する脳波をパターン化したデータである。オブジェクトをイメージした際に発生する脳波のパターンは、イメージするオブジェクトによって異なる。そこで、ある画像iにおいてフォーカスされたオブジェクトと同じオブジェクトをイメージした際に発生した脳波のパターンp3をデータ化し、当該画像iに関連付けて記憶させておく。同様に、他の画像iについても、それぞれフォーカスされたオブジェクトに対応する脳波パターンp3を関連付けて記憶させておく。
[Sixth Embodiment]
Next, a sixth embodiment of the present invention will be described with reference to FIG. In the present embodiment, the image storage means 1 stores image i data and electroencephalogram pattern p3 data in association with each other. Each image i is the same as that in the fifth embodiment described above, and is an image displaying a plurality of objects, and each image is focused on a different object. The electroencephalogram pattern p3 is data obtained by patterning an electroencephalogram generated when an image viewer images an object on the brain. The electroencephalogram pattern generated when an object is imaged differs depending on the object to be imaged. Therefore, the electroencephalogram pattern p3 generated when an image of the same object as the focused object in an image i is imaged and stored in association with the image i. Similarly, for other images i, the electroencephalogram pattern p3 corresponding to the focused object is stored in association with each other.

制御手段4には、脳波パターン生成手段12を接続する。脳波パターン生成手段12は、オブジェクトを脳にイメージした者から生体信号としての脳波信号を取得し、取得した脳波信号をパターン化して制御手段4に入力する。脳波信号のパターン化には、画像記憶手段1に格納された脳波パターンp3を生成するのと同一のアルゴリズムを用いる。例えば、脳波信号を高速フーリエ変換し、周波数領域での特徴量のパターンをデータ化することが考えられる。   An electroencephalogram pattern generation means 12 is connected to the control means 4. The electroencephalogram pattern generation means 12 acquires an electroencephalogram signal as a biological signal from a person who images the object on the brain, patterns the acquired electroencephalogram signal, and inputs the pattern to the control means 4. For patterning the electroencephalogram signal, the same algorithm as that for generating the electroencephalogram pattern p3 stored in the image storage means 1 is used. For example, it is conceivable to perform a fast Fourier transform on an electroencephalogram signal and convert a feature amount pattern into data in the frequency domain.

画像表示手段3に表示された画像に含まれるオブジェクトを、見る者が脳にイメージすると、そのオブジェクトのイメージに対応する脳波パターンが、脳波パターン生成手段12から制御手段4に入力される。制御手段4は、脳波パターン生成手段12から入力された脳波パターンと一致または類似する脳波パターンp3を関連付けられた画像iを画像記憶手段1から検索する(脳波オブジェクトマッチングS21)。この結果、該当する画像iを検索できた場合は、当該画像iを画像記憶手段1から読み出して、画像表示手段3に画像iを表示する(適合画像表示S2)。これによると、見る者が脳にイメージしたオブジェクトにフォーカスされた画像が、画像表手段3に表示される。   When a viewer images an object included in the image displayed on the image display unit 3 on the brain, an electroencephalogram pattern corresponding to the image of the object is input from the electroencephalogram pattern generation unit 12 to the control unit 4. The control unit 4 searches the image storage unit 1 for an image i associated with an electroencephalogram pattern p3 that matches or is similar to the electroencephalogram pattern input from the electroencephalogram pattern generation unit 12 (electroencephalogram object matching S21). As a result, if the corresponding image i can be searched, the image i is read from the image storage means 1 and displayed on the image display means 3 (applicable image display S2). According to this, an image focused on the object imaged on the brain by the viewer is displayed on the image table means 3.

制御手段4が、S21およびS2の処理を繰り返すことにより常に、見る者が脳にイメージしたオブジェクトにフォーカスされた画像が画像表示手段3に表示される。   When the control means 4 repeats the processes of S21 and S2, an image focused on the object imaged by the viewer on the brain is always displayed on the image display means 3.

本発明は、以上説明した各実施形態の構成に限られない。また、上述した各実施形態の構成を組み合わせて実施することも可能である。   The present invention is not limited to the configuration of each embodiment described above. It is also possible to combine the configurations of the above-described embodiments.

1 画像記憶手段、第2画像記憶手段
2 視線座標演算手段
3 画像表示手段
4 制御手段
5 条件選択手段
6 第1画像記憶手段
7 フォーカスされた位置の判定手段
C 撮像装置
i 画像
p1,p2 フォーカスされた位置
p3 フォーカスオブジェクト脳波パターン
DESCRIPTION OF SYMBOLS 1 Image memory | storage means, 2nd image memory | storage means 2 Eye-gaze coordinate calculating means 3 Image display means 4 Control means 5 Condition selection means 6 1st image storage means 7 Focused position determination means C Imaging device i Image p1, p2 Focused P3 focus object brain wave pattern

Claims (6)

同一の対象を表示する画像であって当該画像毎にフォーカスされた位置が異なり当該フォーカスされた位置を比較的シャープに表示すると共にその周囲を比較的ぼかして表示する複数の画像を画像セットとして予め記憶すると共に、前記画像毎に前記フォーカスされた位置を表す座標を予め関連付けて記憶する画像記憶部と、
前記画像を見る者の当該画像平面における注視点座標を取得し、当該注視点座標と前記フォーカスされた位置の座標とが適合する画像を前記画像セットから選択し前記画像記憶部から読み出し、画像表示部に表示させる動作を、繰り返し実行する制御部とを備え、
前記画像毎にフォーカスされた位置は、画像に表示されるオブジェクトの位置に関わらない、画像選択表示装置。
A plurality of images that display the same target, differ in the focused position for each image, display the focused position relatively sharply, and display relatively blurred surroundings as an image set in advance. An image storage unit that stores and stores in advance the coordinates representing the focused position for each image;
The gaze point coordinates on the image plane of the person viewing the image are acquired, an image in which the gaze point coordinate and the coordinate of the focused position are matched is selected from the image set, read out from the image storage unit, and displayed. A control unit that repeatedly executes an operation to be displayed on the unit,
An image selection display device in which a focused position for each image is independent of a position of an object displayed on the image.
前記画像セットは、無段階フォーカス撮影により得た複数の画像を含む、請求項1に記載の画像選択表示装置。The image selection display device according to claim 1, wherein the image set includes a plurality of images obtained by stepless focus photographing. 前記画像記憶部が、前記画像セットを絞り値毎に複数記憶し、前記制御部は、入力信号に応じて選択される絞り値を取得し、当該絞り値が対応する前記画像セットから前記画像を選択し前記画像記憶部から読み出す、請求項1又は2に記載の画像選択表示装置。 The image storage unit stores a plurality of the image sets for each aperture value, and the control unit obtains an aperture value selected according to an input signal, and the image from the image set corresponding to the aperture value. the selected read out from the image storage unit, the image selection display device according to claim 1 or 2. 前記画像記憶部が、前記画像セットを焦点距離毎に複数記憶し、前記制御部は、入力信号に応じて選択される焦点距離を取得し、当該焦点距離が対応する前記画像セットから前記画像を選択し前記画像記憶部から読み出す、請求項1乃至3のいずれか1項に記載の画像選択表示装置。 The image storage unit stores a plurality of the image sets for each focal length, and the control unit obtains a focal length selected according to an input signal, and the image from the image set corresponding to the focal length. the selected read out from the image storage unit, the image selection display device according to any one of claims 1 to 3. 同一の対象を表示する画像であって当該画像毎にフォーカスされた位置が異なり当該フォーカスされた位置を比較的シャープに表示すると共にその周囲を比較的ぼかして表示する複数の画像を画像セットとして予め記憶すると共に、前記画像毎に前記フォーカスされた位置を表す座標を予め関連付けて記憶する画像記憶部、を用いる画像選択表示方法であって、
前記画像を見る者の当該画像平面における注視点座標を取得するステップと、当該注視点座標と前記フォーカスされた位置の座標とが適合する画像を前記画像セットから選択し前記画像記憶部から読み出し画像表示部に表示させるステップとを繰り返し実行し、
前記画像毎にフォーカスされた位置は、画像に表示されるオブジェクトの位置に関わらない、画像選択表示方法。
A plurality of images that display the same target, differ in the focused position for each image, display the focused position relatively sharply, and display relatively blurred surroundings as an image set in advance. An image selection and display method using an image storage unit that stores and stores in advance the coordinates representing the focused position for each image.
The step of acquiring the gaze point coordinates on the image plane of the person viewing the image, and selecting an image in which the gaze point coordinate and the coordinate of the focused position are matched from the image set, and reading the image from the image storage unit Repeatedly executing the step of displaying on the display unit,
An image selection display method in which the focused position for each image is independent of the position of an object displayed on the image.
同一の対象を表示する画像であって当該画像毎にフォーカスされた位置が異なり当該フォーカスされた位置を比較的シャープに表示すると共にその周囲を比較的ぼかして表示する複数の画像を画像セットとして予め記憶すると共に、前記画像毎に前記フォーカスされた位置を表す座標を予め関連付けて記憶する画像記憶部、を用いる画像選択表示プログラムであって、
前記画像を見る者の当該画像平面における注視点座標を取得する処理と、当該注視点座標と前記フォーカスされた位置の座標とが適合する画像を前記画像セットから選択し前記画像記憶部から読み出し画像表示部に表示させる処理とをプロセッサに繰り返し実行させ、
前記画像毎にフォーカスされた位置は、画像に表示されるオブジェクトの位置に関わらない、画像選択表示プログラム。
A plurality of images that display the same target, differ in the focused position for each image, display the focused position relatively sharply, and display relatively blurred surroundings as an image set in advance. An image selection display program using an image storage unit that stores and stores in advance the coordinates representing the focused position for each image,
An image in which the process of acquiring the gazing point coordinates on the image plane of the person viewing the image and the gazing point coordinates and the coordinates of the focused position are selected is selected from the image set, and is read from the image storage unit. The processing to be displayed on the display unit is repeatedly executed by the processor,
An image selection display program in which the focused position for each image is independent of the position of an object displayed on the image.
JP2016129449A 2016-06-29 2016-06-29 Image selection display method and apparatus Active JP6168630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016129449A JP6168630B2 (en) 2016-06-29 2016-06-29 Image selection display method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016129449A JP6168630B2 (en) 2016-06-29 2016-06-29 Image selection display method and apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011105261A Division JP2012238088A (en) 2011-05-10 2011-05-10 Method and device for selecting and displaying image

Publications (3)

Publication Number Publication Date
JP2016201812A JP2016201812A (en) 2016-12-01
JP2016201812A5 JP2016201812A5 (en) 2017-06-29
JP6168630B2 true JP6168630B2 (en) 2017-07-26

Family

ID=57423108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016129449A Active JP6168630B2 (en) 2016-06-29 2016-06-29 Image selection display method and apparatus

Country Status (1)

Country Link
JP (1) JP6168630B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3442270B2 (en) * 1997-11-25 2003-09-02 株式会社ナムコ Image generating apparatus and information storage medium
JPH11232480A (en) * 1998-02-09 1999-08-27 Cec:Kk High-speed plotting method

Also Published As

Publication number Publication date
JP2016201812A (en) 2016-12-01

Similar Documents

Publication Publication Date Title
US10928622B2 (en) Medical image processing apparatus, medical image processing method, and medical observation system
US9967475B2 (en) Head-mounted displaying of magnified images locked on an object of interest
CN104918572B (en) For the video capture of surgical operation and the digital display circuit of display
US9330477B2 (en) Surgical stereo vision systems and methods for microsurgery
JP6908039B2 (en) Image processing equipment, image processing methods, programs, and image processing systems
US20140240666A1 (en) Ocular fundus information acquisition device, method and program
JP5822545B2 (en) Image processing apparatus, image processing apparatus control method, and program
US20180081162A1 (en) Microscopy system, microscopy method, and computer-readable recording medium
JP5813309B2 (en) Shooting system
JP2015026880A (en) Imaging apparatus
US20180081161A1 (en) Microscopy system, microscopy method, and computer-readable recording medium
JP2012238088A (en) Method and device for selecting and displaying image
WO2016157923A1 (en) Information processing device and information processing method
CN104679226B (en) Contactless medical control system, method and Medical Devices
JP6168630B2 (en) Image selection display method and apparatus
JP2013078382A (en) Panoramic image producing program
US20230244307A1 (en) Visual assistance
WO2019049595A1 (en) Image processing device, image processing method, and image processing program
JP6221452B2 (en) Image processing apparatus, image display apparatus, and imaging apparatus
EP3806457A1 (en) Medical image processing apparatus
Hild et al. Interacting with target tracking algorithms in a gaze-enhanced motion video analysis system
JP5754878B2 (en) Ophthalmic device and method of operating the same
JP2018019422A (en) Image processing apparatus, image display apparatus, and imaging apparatus
JP2006071746A (en) Superimposing type image observing device
JPWO2019198189A1 (en) Microscope device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170622

R150 Certificate of patent or registration of utility model

Ref document number: 6168630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250