JP2023038203A - Display device, display method, program and image projection system - Google Patents

Display device, display method, program and image projection system Download PDF

Info

Publication number
JP2023038203A
JP2023038203A JP2022206039A JP2022206039A JP2023038203A JP 2023038203 A JP2023038203 A JP 2023038203A JP 2022206039 A JP2022206039 A JP 2022206039A JP 2022206039 A JP2022206039 A JP 2022206039A JP 2023038203 A JP2023038203 A JP 2023038203A
Authority
JP
Japan
Prior art keywords
image
display
fish
organisms
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022206039A
Other languages
Japanese (ja)
Other versions
JP7375901B2 (en
Inventor
寛樹 吉原
Hiroki Yoshihara
拓也 生駒
Takuya Ikoma
聡 田端
Satoshi Tabata
錬 松山
Ren Matsuyama
直之 伊藤
Naoyuki Ito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2022206039A priority Critical patent/JP7375901B2/en
Publication of JP2023038203A publication Critical patent/JP2023038203A/en
Application granted granted Critical
Publication of JP7375901B2 publication Critical patent/JP7375901B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Projection Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device and the like that can preferably present a content image associated with a living creature to an observer.
SOLUTION: A display device 1 comprises: an acquisition unit that acquires picked-up images obtained by picking up images of a plurality of living creatures; a recognition unit that recognizes a living creature group composed of the same kind of living creatures from the picked-up images; a content acquisition unit that acquires a content image related to the living creature group; a determination unit that determines a display position of the content image on a display surface which is provided between the plurality of living creatures and an observer on the basis of a recognition position of the living creature group; and a display unit that displays the content image on the display surface on the basis of the determined display position. The picked-up images are moving images, and the recognition unit extracts feature points corresponding to living creatures from a first image and a second image continuing in time series in the moving images, detects movement of the living creatures on the basis of the difference between coordinate values of the feature points extracted from the first image and the second image, and recognizes the living creature group on the basis of the movement of the plurality of living creatures.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、表示装置、表示方法、プログラム及び画像投影システムに関する。 The present invention relates to a display device, display method, program, and image projection system.

背景が透けて見える透過型のプロジェクタスクリーン、あるいは透過型ディスプレイを用いて、スクリーン又はディスプレイの背後にあるオブジェクトに関連する画像を提示する手法が提案されている。例えば特許文献1では、水族館の水槽の内部にプロジェクタを設置し、観測者(鑑賞者)が水槽内部を観察するためのガラス窓等のような水槽の透過壁に透過型スクリーンを設けた水槽映像表示装置が開示されている。特許文献1によれば、水槽外部に設置したカメラで水槽内を撮像し、撮像した画像から水槽内を遊泳する魚を認識して、プロジェクタによりスクリーン中の適切な位置に魚の説明等の画像を表示する。 It has been proposed to use transmissive projector screens, or transmissive displays, with a see-through background to present images related to objects behind the screen or display. For example, in Patent Document 1, a projector is installed inside a water tank of an aquarium, and a transparent screen is provided on a transparent wall of the water tank such as a glass window for an observer (viewer) to observe the inside of the tank. A display device is disclosed. According to Patent Document 1, a camera installed outside the aquarium captures an image of the inside of the aquarium, the fish swimming in the aquarium is recognized from the captured image, and an image such as an explanation of the fish is displayed at an appropriate position on the screen by a projector. indicate.

特開2005-338115号公報JP-A-2005-338115

しかしながら、例えば水族館の水槽を考えた場合に、一の水槽内に複数の魚が遊泳している。従って、複数の魚が群れを成して遊泳しているような場合において、個々の魚毎に説明等の画像を表示した場合、各魚に対応する画像が重なって肝心の魚が観測者に見えない虞がある。 However, when considering a tank of an aquarium, for example, a plurality of fishes are swimming in one tank. Therefore, when a plurality of fish are swimming in a school, and an image such as an explanation is displayed for each individual fish, the images corresponding to each fish are superimposed so that the important fish is not visible to the observer. There is a possibility that it cannot be seen.

一つの側面では、観測者に対して生物に関するコンテンツ画像を好適に提示することができる表示装置等を提供することを目的とする。 An object of one aspect of the present invention is to provide a display device or the like capable of suitably presenting a content image related to living things to an observer.

一つの側面では、表示装置は、複数の生物を撮像した撮像画像を取得する取得部と、前記撮像画像から、同種類の前記生物から成る生物群を、前記生物群の画像特徴量を学習した学習済みモデルに基づき認識する認識部と、前記生物群に関するコンテンツ画像を取得するコンテンツ取得部と、前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面における前記コンテンツ画像の表示位置を決定する決定部と、決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する表示部とを備えることを特徴とする。 In one aspect, a display device includes an acquisition unit that acquires captured images obtained by imaging a plurality of organisms, and from the captured images, an organism group composed of the organisms of the same type, and an image feature amount of the organism group are learned. a recognition unit that recognizes based on a trained model; a content acquisition unit that acquires a content image related to the group of organisms; and a display surface provided between the plurality of organisms and an observer based on the recognized position of the group of organisms. and a display unit for displaying the content image on the display surface based on the determined display position.

一つの側面では、観測者に対して生物に関するコンテンツ画像を好適に提示することができる。 In one aspect, it is possible to preferably present a content image related to living things to an observer.

画像表示システムの構成例を示す模式図である。1 is a schematic diagram showing a configuration example of an image display system; FIG. PCの構成例を示すブロック図である。It is a block diagram which shows the structural example of PC. ラベルDBのレコードレイアウトの一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a record layout of a label DB; FIG. ラベル画像の表示例を示す説明図である。FIG. 4 is an explanatory diagram showing a display example of a label image; ラベル画像の表示位置の変更処理に関する説明図である。FIG. 10 is an explanatory diagram relating to processing for changing the display position of a label image; ラベル画像の表示態様の変更処理に関する説明図である。FIG. 10 is an explanatory diagram relating to processing for changing the display mode of a label image; PCが実行する処理手順の一例を示すフローチャートである。4 is a flow chart showing an example of a processing procedure executed by a PC; 実施の形態2に係る魚群認識処理に関する説明図である。FIG. 11 is an explanatory diagram of fish school recognition processing according to Embodiment 2; 実施の形態2に係るラベル追跡処理に関する説明図である。FIG. 11 is an explanatory diagram regarding label tracking processing according to Embodiment 2; 実施の形態2に係るPCが実行する処理手順の一例を示すフローチャートである。10 is a flow chart showing an example of a processing procedure executed by a PC according to Embodiment 2; 実施の形態3に係る魚群認識処理に関する説明図である。FIG. 11 is an explanatory diagram relating to fish school recognition processing according to Embodiment 3; 実施の形態3に係るPCが実行する処理手順の一例を示すフローチャートである。10 is a flow chart showing an example of a processing procedure executed by a PC according to Embodiment 3; 実施の形態4に係るスクリーンの構成例を示す説明図である。FIG. 13 is an explanatory diagram showing a configuration example of a screen according to Embodiment 4; 実施の形態4に係るPCが実行する処理手順の一例を示すフローチャートである。FIG. 12 is a flow chart showing an example of a processing procedure executed by a PC according to Embodiment 4; FIG. 実施の形態5に係るラベル画像の表示例を示す説明図である。FIG. 13 is an explanatory diagram showing a display example of a label image according to Embodiment 5; 実施の形態5に係るPCが実行する処理手順の一例を示すフローチャートである。FIG. 13 is a flow chart showing an example of a processing procedure executed by a PC according to Embodiment 5; FIG. 実施の形態6に係る画像表示システムの構成例を示す模式図である。FIG. 12 is a schematic diagram showing a configuration example of an image display system according to Embodiment 6; 実施の形態6の概要を示す説明図である。FIG. 12 is an explanatory diagram showing an overview of Embodiment 6; 実施の形態6に係る画像出力装置が実行する処理手順の一例を示すフローチャートである。13 is a flow chart showing an example of a processing procedure executed by an image output device according to Embodiment 6; 上述した形態の画像出力装置の動作を示す機能ブロック図である。FIG. 3 is a functional block diagram showing the operation of the image output device of the form described above;

以下、本発明をその実施の形態を示す図面に基づいて詳述する。(実施の形態1) 図1は、画像表示システムの構成例を示す模式図である。本実施の形態では、水族館の水槽の一面を形成するガラス窓等の透過壁に透過型のスクリーン4(表示面)を設け、スクリーン4に、水槽内の魚を説明するためのラベル画像(コンテンツ画像)を表示する画像表示システム(画像投影システム)について説明する。画像表示システムは、画像出力装置(表示装置)1、カメラ2及びプロジェクタ3を有する。各装置はLAN(Local Area Network)等のネットワークによって通信接続されている。 Hereinafter, the present invention will be described in detail based on the drawings showing its embodiments. Embodiment 1 FIG. 1 is a schematic diagram showing a configuration example of an image display system. In the present embodiment, a transmissive screen 4 (display surface) is provided on a transmissive wall such as a glass window forming one surface of the aquarium tank, and a label image (contents) for describing the fish in the aquarium is provided on the screen 4. An image display system (image projection system) for displaying an image) will be described. The image display system has an image output device (display device) 1 , a camera 2 and a projector 3 . Each device is connected for communication by a network such as a LAN (Local Area Network).

画像出力装置1は、種々の情報処理、情報の送受信が可能な情報処理装置であり、例えばパーソナルコンピュータ、サーバ装置等の情報処理装置である。本実施の形態では情報処理装置1がパーソナルコンピュータであるものとし、以下では簡潔のためPC1と読み替える。PC1は、水槽内を遊泳する各種魚を説明するためのラベル画像をコンテンツとして記憶してあり、プロジェクタ3にラベル画像を出力し、スクリーン4に投影(表示)させる。なお、本実施の形態では説明の便宜上、哺乳類、軟体動物、節足動物のような魚類以外の生物であっても、水槽内の生物は「魚」と称する。 The image output device 1 is an information processing device capable of various types of information processing and transmission/reception of information, such as a personal computer and a server device. In the present embodiment, the information processing apparatus 1 is assumed to be a personal computer, which will be read as a PC 1 for the sake of simplicity. The PC 1 stores, as contents, label images for describing various fish swimming in the tank, outputs the label images to the projector 3 , and projects (displays) them on the screen 4 . In the present embodiment, for convenience of explanation, organisms in the aquarium are referred to as "fish" even if they are organisms other than fish, such as mammals, mollusks, and arthropods.

本実施の形態でPC1は、水槽を撮像した撮像画像をカメラ2から取得し、撮像画像から各種魚を認識し、認識した魚のラベル画像をスクリーン4の近傍箇所に投影するよう表示制御を行う。この場合にPC1は、水槽内で魚が単体で遊泳しているか、又は群れとなって遊泳しているかを識別する。群れ、すなわち魚群であると認識した場合、PC1は、魚群を構成する個々の魚に対してラベル画像を投影するのではなく、魚群全体で一のラベルを投影するように表示制御を行う。 In this embodiment, the PC 1 acquires a captured image of a water tank from the camera 2, recognizes various fish from the captured image, and performs display control so as to project a label image of the recognized fish on a location near the screen 4. In this case, the PC1 identifies whether the fish are swimming alone or in a group in the tank. When recognizing a school, that is, a school of fish, the PC 1 performs display control so as to project one label for the entire school of fish instead of projecting a label image for each fish constituting the school of fish.

カメラ2は、複数の魚が収容された水槽(空間)の内部を、観測者(鑑賞者)が水槽内を観察するためのガラス窓のような透過壁を介して撮像する撮像装置であり、例えば水族館の天井に設置されている。カメラ2は透過壁を介して水槽内部を撮像し、撮像した画像を動画像としてPC1に逐次送信する。 The camera 2 is an imaging device that images the inside of an aquarium (space) containing a plurality of fish through a transparent wall such as a glass window for an observer (viewer) to observe the inside of the aquarium. For example, it is installed on the ceiling of an aquarium. The camera 2 takes images of the inside of the water tank through the transparent wall, and sequentially transmits the captured images to the PC 1 as moving images.

プロジェクタ3は、ラベル画像を投影する投影装置である。プロジェクタ3は、スクリーン4を介して水槽から反対側の位置、つまり水槽外部に設置されており、透過壁に設けられたスクリーン4にラベル画像を投影する。特許文献1に記載の発明のように、水槽内部にプロジェクタを設置し、水槽内部から透過型スクリーンへ画像を投影した場合、水槽内を遊泳する魚によってラベル画像が遮光されてしまう虞がある。一方で、本実施の形態のように水槽内ではなく水槽外部にプロジェクタ3を設置することで、プロジェクタ3からの投影光が水槽内の魚によって遮光されてしまう事態を防止する。 The projector 3 is a projection device that projects a label image. The projector 3 is installed on the opposite side of the water tank through the screen 4, that is, outside the water tank, and projects the label image onto the screen 4 provided on the transparent wall. As in the invention described in Patent Document 1, when a projector is installed inside a water tank and an image is projected from the inside of the water tank onto a transmissive screen, there is a risk that the label image may be blocked by fish swimming in the water tank. On the other hand, by installing the projector 3 outside the water tank, not inside the water tank, as in the present embodiment, it is possible to prevent a situation in which the projected light from the projector 3 is blocked by the fish in the water tank.

スクリーン4は、水槽内の魚と観測者との間に位置する水槽の透過壁に設けられた透過型スクリーンであり、照射光を拡散させる透明スクリーンフィルムである。例えばスクリーン4は水槽の透過壁の全面に貼付されており、正面から照射(投影)された画像光を前方に反射して画像を形成する。 The screen 4 is a transmissive screen provided on the transmissive wall of the aquarium located between the fish in the aquarium and the observer, and is a transparent screen film that diffuses the irradiated light. For example, the screen 4 is affixed to the entire transparent wall of the water tank, and forms an image by reflecting forward image light projected (projected) from the front.

なお、本実施の形態ではプロジェクタ3及びスクリーン4を用いて画像を投影(表示)するものとして説明するが、プロジェクタ3及びスクリーン4に代えて、水槽の透過壁に透過型ディスプレイを設置してもよい。水槽の透過壁に透過型ディスプレイを設置し、P
C1が透過型ディスプレイに画像を表示する構成であっても、同様の効果を奏する。
In this embodiment, the projector 3 and the screen 4 are used to project (display) an image. However, instead of the projector 3 and the screen 4, a transmissive display may be installed on the transmissive wall of the water tank. good. A transmissive display is installed on the transmissive wall of the water tank, and P
Even if C1 is configured to display an image on a transmissive display, the same effect can be obtained.

図2は、PC1の構成例を示すブロック図である。PC1は、制御部11、主記憶部12、通信部13、表示部14、入力部15、補助記憶部16を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)等の演算処理装置を有し、補助記憶部16に記憶されたプログラムPを読み出して実行することにより、PC1に係る種々の情報処理、制御処理等を行う。主記憶部12は、RAM(Random Access Memory)等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための処理回路等を含み、外部と情報の送受信を行う。表示部14は液晶ディスプレイ等の表示装置であり、制御部11から与えられた画像を表示する。入力部15は、キーボード、マウス等の操作インターフェイスであり、操作入力を受け付ける。
FIG. 2 is a block diagram showing a configuration example of the PC1. The PC 1 includes a control section 11 , a main storage section 12 , a communication section 13 , a display section 14 , an input section 15 and an auxiliary storage section 16 .
The control unit 11 has an arithmetic processing unit such as one or more CPU (Central Processing Unit), MPU (Micro-Processing Unit), etc. By reading and executing the program P stored in the auxiliary storage unit 16, Various information processing, control processing, and the like relating to the PC 1 are performed. The main storage unit 12 is a temporary storage area such as a RAM (Random Access Memory), and temporarily stores data necessary for the control unit 11 to execute arithmetic processing. The communication unit 13 includes a processing circuit and the like for performing processing related to communication, and transmits and receives information to and from the outside. A display unit 14 is a display device such as a liquid crystal display, and displays an image given from the control unit 11 . The input unit 15 is an operation interface such as a keyboard and a mouse, and receives operation input.

補助記憶部16は大容量メモリ、ハードディスク等の不揮発性記憶領域であり、制御部11が処理を実行するために必要なプログラムP、その他のデータを記憶している。なお、補助記憶部16はPC1に接続された外部記憶装置であってもよい。補助記憶部16はラベルDB161、識別モデル162を記憶している。ラベルDB161は、スクリーン4に投影するコンテンツであるラベル画像のデータを格納したデータベースである。識別モデル162は、カメラ2が撮像した画像から水槽内の魚を識別するための識別用データであり、後述するように、例えば機械学習により構築された学習済みモデルである。 The auxiliary storage unit 16 is a non-volatile storage area such as a large-capacity memory or hard disk, and stores programs P and other data necessary for the control unit 11 to execute processing. The auxiliary storage unit 16 may be an external storage device connected to the PC1. Auxiliary storage unit 16 stores label DB 161 and identification model 162 . The label DB 161 is a database storing data of label images, which are contents to be projected on the screen 4 . The identification model 162 is identification data for identifying the fish in the aquarium from the image captured by the camera 2, and is a learned model constructed by machine learning, for example, as described later.

図3は、ラベルDB161のレコードレイアウトの一例を示す説明図である。ラベルDB161は、ID列、種類列、ラベル画像列を含む。ID列は、水槽内を遊泳する各魚を識別するためのIDを記憶している。種類列は、IDと対応付けて、各魚の種別を記憶している。ラベル画像列は、IDと対応付けて、各魚を観測者に案内するためのラベル画像を記憶している。 FIG. 3 is an explanatory diagram showing an example of the record layout of the label DB 161. As shown in FIG. The label DB 161 includes an ID column, a type column, and a label image column. The ID column stores an ID for identifying each fish swimming in the tank. The type column stores the type of each fish in association with the ID. The label image column stores label images for guiding each fish to the observer in association with the ID.

図4は、ラベル画像41の表示例を示す説明図である。図4では、カメラ2で撮像した画像から水槽中を遊泳する魚を認識し、認識した魚に関するラベル画像41を、魚を認識した位置近傍に表示する様子を概念的に図示している。図4に基づき、本実施の形態の概要について説明する。 FIG. 4 is an explanatory diagram showing a display example of the label image 41. As shown in FIG. FIG. 4 conceptually illustrates how a fish swimming in a tank is recognized from an image captured by the camera 2 and a label image 41 related to the recognized fish is displayed in the vicinity of the recognized position of the fish. Based on FIG. 4, the outline of this embodiment will be described.

まずPC1は、カメラ2から、スクリーン4が設けられた水槽の透過壁を介して撮像された画像を、動画像として逐次取得する。図4では、PC1が取得する動画像の1フレームを模式的に示してある。ここで、図4に示すように、水槽内には「マアジ」のように魚群を形成して遊泳する魚と、「ナンヨウマンタ」のように単体で遊泳する魚とが居るものとする。 First, the PC 1 successively acquires, as a moving image, images taken from the camera 2 through the transparent wall of the water tank provided with the screen 4 . FIG. 4 schematically shows one frame of a moving image acquired by the PC 1. As shown in FIG. Here, as shown in FIG. 4, it is assumed that there are fish such as "Japanese horse mackerel" swimming in a school and fish swimming alone such as "manta ray".

PC1は撮像画像から、水槽内を遊泳する各魚を認識する。ここでPC1は、個々の魚を認識するだけでなく、単体で遊泳する魚と、魚群を形成して遊泳する魚とを識別する。 The PC 1 recognizes each fish swimming in the tank from the captured image. Here, PC1 not only recognizes individual fish, but also distinguishes between fish swimming alone and fish swimming in groups.

例えばPC1は、予め補助記憶部16にセットされた識別モデル162を用いて、単体で遊泳する魚と、魚群を形成して遊泳する魚とを識別する。識別モデル162は、機械学習により構築された学習済みモデルであり、単体で遊泳する魚の画像特徴量と、同種類の複数の魚から成る魚群全体の画像特徴量とを学習した識別器である。例えば識別モデル162は、教師データから生成されたCNN(Convolution Neural Network)などであるが、機械学習の手法や識別器の構成は特に限定されない。識別モデル162は、他のニューラルネットワーク、SVM(Support Vector Machine)、ベイジアンネットワーク、決定木など、他のアルゴリズムに従って生成されたものであってもよい。例えば識別モデル162は、魚単体又は魚群全体を撮像した画像と、魚(単体又は魚群)の名称を指すラベル値とを対応付けた教師データに基づいて生成される。 For example, the PC 1 uses an identification model 162 set in advance in the auxiliary storage unit 16 to identify a fish swimming alone and a fish swimming in a school of fish. The discrimination model 162 is a learned model constructed by machine learning, and is a discriminator that has learned the image feature amount of a single swimming fish and the image feature amount of an entire school of fish consisting of a plurality of fish of the same type. For example, the discrimination model 162 is a CNN (Convolution Neural Network) generated from teacher data, but the machine learning method and the configuration of the discriminator are not particularly limited. The discriminative model 162 may be generated according to other algorithms such as other neural networks, SVMs (Support Vector Machines), Bayesian networks, and decision trees. For example, the identification model 162 is generated based on teacher data in which an image of an individual fish or an entire school of fish is associated with a label value indicating the name of the fish (individually or of the school of fish).

PC1は、カメラ2から取得した撮像画像を識別モデル162に入力し、撮像画像に含まれる物体を識別した識別結果を出力値として得る。これにより、図4において点線矩形枠で示すように、PC1は水槽内を遊泳する魚を、単体又は魚群を区別した上で認識する。 The PC 1 inputs the captured image acquired from the camera 2 to the identification model 162, and obtains the identification result of identifying the object included in the captured image as an output value. As a result, the PC 1 recognizes individual fish swimming in the water tank after distinguishing between individual fish and schools of fish, as indicated by the dotted rectangular frame in FIG. 4 .

PC1は、撮像画像中で各魚(単体又は魚群)を認識した認識位置に基づき、各魚に対応してスクリーン4に表示(投影)するラベル画像41の表示位置(投影位置)を決定する。例えば図4に示すように、PC1は、魚近傍にラベル画像41が表示されるように、魚を認識した位置の直下を表示位置として決定する。 The PC 1 determines the display position (projection position) of the label image 41 to be displayed (projected) on the screen 4 corresponding to each fish, based on the recognized position of each fish (single fish or school of fish) in the captured image. For example, as shown in FIG. 4, the PC 1 determines the display position immediately below the position where the fish is recognized so that the label image 41 is displayed near the fish.

PC1は、認識した魚に対応するラベル画像41をラベルDB161から読み出し、プロジェクタ3に出力して、水槽内の魚と観測者との間に設けられたスクリーン4に投影(表示)させる。ラベル画像41は魚の名称などであるが、名称以外の情報をラベル画像41に含めてもよい。また、ラベル画像41はテキストに限定されず、ピクチャ画像などであってもよい。 The PC 1 reads the label image 41 corresponding to the recognized fish from the label DB 161, outputs it to the projector 3, and projects (displays) it on the screen 4 provided between the fish in the tank and the observer. The label image 41 is the name of the fish, but the label image 41 may include information other than the name. Also, the label image 41 is not limited to text, and may be a picture image or the like.

上述の如く、水槽内の魚が魚群を形成して遊泳する場合に、PC1は魚群中の個々の魚に対してラベル画像41を表示するのではなく、魚群全体に対して一のラベル画像41を表示する。これにより、大量のラベル画像41がスクリーン4に映し出されることはなく、ラベル画像41が重なって魚が見えなくなる事態を回避することができる。 As described above, when the fish in the aquarium form a school of fish and swim, the PC 1 does not display the label image 41 for each individual fish in the school of fish, but displays one label image 41 for the entire school of fish. display. As a result, a large number of label images 41 are not displayed on the screen 4, and it is possible to avoid a situation where the label images 41 are overlapped and the fish cannot be seen.

図5は、ラベル画像41の表示位置の変更処理に関する説明図である。図5では、他の魚に重畳しないようにラベル画像41の表示位置を変更する様子を図示している。 上記ではPC1が水槽内の魚の近傍位置にラベル画像41を表示する旨を説明した。ここで、ラベル画像41が他の魚と重畳する場合、PC1は、非重畳となるようにラベル画像41の表示位置を変更する。 5A and 5B are explanatory diagrams related to the process of changing the display position of the label image 41. FIG. FIG. 5 illustrates how the display position of the label image 41 is changed so as not to overlap other fish. It has been described above that the PC 1 displays the label image 41 near the fish in the tank. Here, when the label image 41 is superimposed on another fish, the PC 1 changes the display position of the label image 41 so that it is not superimposed.

図5の例では図4の各種魚に加えて、「ジンベイザメ」が撮像範囲に含まれている。こ
の状態で図4と同様にラベル画像41を表示した場合、左上の「マアジ」のラベル画像41が図5の太い点線矩形枠の位置に表示されて「ジンベイザメ」に一部重なり、観測者に視認しにくくなる。
In the example of FIG. 5, in addition to the various fish shown in FIG. 4, a "whale shark" is included in the imaging range. In this state, when the label image 41 is displayed in the same manner as in FIG. 4, the upper left label image 41 of "maji" is displayed in the position of the thick dotted rectangular frame in FIG. becomes difficult to see.

撮像画像から各魚を認識し、ラベル画像41の表示位置を決定した後、PC1は各魚の位置とラベル画像41の表示位置とを比較して、ラベル画像41の表示位置が他の魚と重畳するか否かを判定する。ラベル画像41が重畳すると判定した場合、PC1は、ラベル画像41が非重畳なるように表示位置を変更する。図5の例では、PC1は、「マアジ」のラベル画像41を魚群の下側から上側に変更し、重畳を回避する。 After recognizing each fish from the captured image and determining the display position of the label image 41, the PC 1 compares the position of each fish with the display position of the label image 41 and determines that the display position of the label image 41 is superimposed on the other fish. determine whether or not to When determining that the label image 41 is superimposed, the PC 1 changes the display position so that the label image 41 is not superimposed. In the example of FIG. 5, the PC 1 changes the label image 41 of "Japanese horse mackerel" from the lower side of the school of fish to the upper side to avoid superimposition.

このように、ラベル画像41の表示位置を変更することで、ラベル画像41が重なって魚が見えなくなる事態を回避することができる。 By changing the display position of the label image 41 in this manner, it is possible to avoid a situation in which the label images 41 overlap and the fish cannot be seen.

なお、上記ではラベル画像41が魚と重畳するか否かに応じて表示位置を変更したが、本実施の形態はこれに限定されるものではない。例えばPC1は、撮像画像から認識した魚の位置がスクリーン4(表示面)の端(外縁)と重なる場合、スクリーン4中央にラベル画像41を寄せるよう表示位置を変更してもよい。 Although the display position of the label image 41 is changed depending on whether or not the label image 41 is superimposed on the fish, the present embodiment is not limited to this. For example, when the position of the fish recognized from the captured image overlaps with the edge (outer edge) of the screen 4 (display surface), the PC 1 may change the display position so as to bring the label image 41 closer to the center of the screen 4 .

例えば図5では、右端に「マアジ」の魚群が位置しているが、魚群の一部がスクリーン4の設置範囲から外れた形となっており、魚群がスクリーン4の端と重なっている。このような場合に、スクリーン4の範囲から外れた部分も含めて魚群全体を認識し、スクリーン4にラベル画像41を投影した場合、ラベル画像41がスクリーン4の範囲から外れて投影される虞がある。 For example, in FIG. 5 , a school of “Japanese horse mackerel” is located at the right end, but part of the school of fish is out of the installation range of the screen 4 , and the school of fish overlaps the edge of the screen 4 . In such a case, if the entire school of fish is recognized, including the portion outside the range of the screen 4, and the label image 41 is projected onto the screen 4, there is a risk that the label image 41 will be projected outside the range of the screen 4. be.

そこでPC1は、例えば撮像画像から認識した魚(魚群)の認識位置がスクリーン4の端(外縁)と重畳するか否かを判定し、重畳すると判定した場合、スクリーン4(表示面)の設置範囲に含まれるようラベル画像41の表示位置を中央寄りに変更する。これにより、スクリーン4の端に位置する魚に関しても、適切な位置にラベル画像41を表示することができる。 Therefore, for example, the PC 1 determines whether or not the recognition position of the fish (school of fish) recognized from the captured image overlaps with the end (outer edge) of the screen 4. , the display position of the label image 41 is changed toward the center. As a result, the label image 41 can be displayed at an appropriate position even for the fish positioned at the edge of the screen 4 .

図6は、ラベル画像41の表示態様の変更処理に関する説明図である。図6では、撮像画像から認識した魚群の規模に応じてラベル画像41の表示態様を変更する様子を図示している。 図4及び図5では、いずれの魚に対しても同様にラベル画像41を表示する様子を図示した。しかし、例えば水槽が大規模なものであり、水槽内に遊泳する魚群も大規模なものとなった場合、大規模な魚群に対して他の魚と同様にラベル画像41を表示しても、観測者が気づきにくい、あるいは視認しづらい虞がある。 6A and 6B are explanatory diagrams related to the processing for changing the display mode of the label image 41. FIG. FIG. 6 illustrates how the display mode of the label image 41 is changed according to the size of the school of fish recognized from the captured image. 4 and 5 show how the label image 41 is similarly displayed for any fish. However, for example, if the tank is large and the school of fish swimming in the tank is also large, even if the label image 41 is displayed for the large school of fish in the same way as for other fish, It may be difficult for an observer to notice or visually recognize.

そこでPC1は、撮像画像から魚群を認識した場合、魚群の規模を判定する。例えばPC1は、撮像画像に占める魚群の認識範囲(図6の点線矩形枠)の大小に応じて規模を判定する。あるいはPC1は、魚群を形成する魚の数に応じて規模を判定してもよい。 Therefore, when the PC 1 recognizes the school of fish from the captured image, it determines the scale of the school of fish. For example, the PC 1 determines the scale according to the size of the recognition range (dotted rectangular frame in FIG. 6) of the school of fish occupying the captured image. Alternatively, the PC 1 may determine the scale according to the number of fish forming the school of fish.

所定規模以上の魚群であると判定した場合、PC1は、当該魚群に対応するラベル画像41の表示態様を変更する。例えばPC1は、当該魚群のラベル画像41を、他の魚(単体又は魚群)のラベル画像41よりも拡大して表示する。これにより、規模の大きな魚群であっても観測者がラベル画像41を容易に視認可能とする。 When the school of fish is determined to be of a predetermined size or larger, the PC 1 changes the display mode of the label image 41 corresponding to the school of fish. For example, the PC 1 displays the label image 41 of the fish school in a larger size than the label images 41 of other fish (single fish or fish school). This allows the observer to easily visually recognize the label image 41 even for a large school of fish.

なお、上記では規模の大きな魚群のラベル画像41を拡大するものとしたが、反対に他の魚のラベル画像41を縮小して、魚群のラベル画像41を相対的に強調してもよい。また、表示態様の変更は拡大又は縮小に限定されない。例えばPC1は、規模の大きな魚群に対しては複数箇所に同じラベル画像41を表示することで、観測者がいずれかのラベル画像41を見つけやすいようにしてもよい。このように、PC1は魚群の規模に応じてラベル画像41の表示態様を変更可能であればよく、その表示態様は特に限定されない。 In the above description, the label image 41 of the large school of fish is enlarged, but the label image 41 of the other fish may be reduced to relatively emphasize the label image 41 of the school of fish. Also, the change in display mode is not limited to enlargement or reduction. For example, the PC 1 may display the same label image 41 at multiple locations for a large school of fish so that the observer can easily find any one of the label images 41 . In this way, the PC 1 only needs to be able to change the display mode of the label image 41 according to the scale of the school of fish, and the display mode is not particularly limited.

図7は、PC1が実行する処理手順の一例を示すフローチャートである。図7に基づき、PC1が実行する処理内容について説明する。 PC1の制御部11は、水槽内(移動空間)を遊泳する複数の魚(生物)を撮像した撮像画像をカメラ2から取得する(ステップS11)。制御部11は、識別モデル162に基づき、撮像画像から魚を認識する処理を行う(ステップS12)。例えば上述の如く、識別モデル162は機械学習により構築された学習済みモデルであり、魚単体、及び魚群全体の画像特徴量を学習した識別器である。制御部11は、カメラ2から取得した撮像画像を識別器に入力し、水槽内を単独で遊泳する魚単体、及び水槽内を集団で遊泳する魚群を識別した識別結果を取得する。 FIG. 7 is a flowchart showing an example of a processing procedure executed by the PC1. Based on FIG. 7, the contents of processing executed by the PC 1 will be described. The control unit 11 of the PC 1 acquires, from the camera 2, captured images of a plurality of fish (creatures) swimming in the water tank (moving space) (step S11). Based on the identification model 162, the control unit 11 performs processing for recognizing fish from the captured image (step S12). For example, as described above, the discrimination model 162 is a learned model constructed by machine learning, and is a discriminator that has learned the image feature amount of a single fish and an entire school of fish. The control unit 11 inputs the captured image acquired from the camera 2 to the classifier, and acquires the identification result of identifying a single fish swimming alone in the tank and a group of fish swimming in the tank.

制御部11は、ステップS12の処理の結果、撮像画像から魚群を認識したか否かを判定する(ステップS13)。魚群を認識したと判定した場合(S13:YES)、制御部11は、当該魚群を認識した撮像画像中の認識位置に基づき、当該魚群に関するラベル画像をスクリーン4に表示(投影)する表示位置(投影位置)を決定する(ステップS14)。 As a result of the process of step S12, the control unit 11 determines whether or not a school of fish has been recognized from the captured image (step S13). If it is determined that a school of fish has been recognized (S13: YES), the control unit 11 displays (projects) a label image related to the school of fish on the screen 4 based on the recognition position in the captured image where the school of fish is recognized ( projection position) is determined (step S14).

制御部11は、ステップS12における認識結果に基づき、当該魚群が所定規模以上の魚群であるか否かを判定する(ステップS15)。例えば制御部11は、撮像画像に占める魚群の認識範囲、又は魚群を形成する魚の数などに応じて規模を判定する。所定規模以上の魚群であると判定した場合(S15:YES)、制御部11は、当該魚群のラベル画像の表示態様を変更する(ステップS16)。例えば制御部11は、ラベル画像の拡大表示、複数表示などを行う。 Based on the recognition result in step S12, the control unit 11 determines whether or not the school of fish is a school of fish of a predetermined size or larger (step S15). For example, the control unit 11 determines the scale according to the recognition range of the school of fish in the captured image, the number of fish forming the school of fish, or the like. If it is determined that the school of fish is larger than the predetermined size (S15: YES), the control unit 11 changes the display mode of the label image of the school of fish (step S16). For example, the control unit 11 performs enlarged display, multiple display, and the like of the label image.

ステップS16の処理を実行後、又はステップS13、S15でNOの場合、制御部11は、魚群として認識されてなかった他の魚、つまり単体で遊泳する魚に関して、当該魚を認識した撮像画像中の位置に基づき、当該魚に関するラベル画像をスクリーン4に表示
する表示位置を決定する(ステップS17)。
After executing the process of step S16 or in the case of NO in steps S13 and S15, the control unit 11 detects another fish that has not been recognized as a school of fish, that is, a fish swimming alone. , the display position for displaying the label image of the fish on the screen 4 is determined (step S17).

制御部11は、ステップS14又はS17で決定したラベル画像の表示位置が他の魚(単体又は魚群)と重畳するか否かを判定する(ステップS18)。重畳すると判定した場合(S18:YES)、制御部11は、ラベル画像が非重畳となるように表示位置を変更する(ステップS19)。 The control unit 11 determines whether or not the display position of the label image determined in step S14 or S17 overlaps with another fish (single fish or school of fish) (step S18). If it is determined to be superimposed (S18: YES), the control unit 11 changes the display position so that the label image is not superimposed (step S19).

ステップS19の処理を実行後、又はステップS18でNOの場合、制御部11は、ステップS12で認識した魚(単体又は魚群)のラベル画像をプロジェクタ3に出力し、ステップS14、S17等で定めた表示位置に投影(表示)する(ステップS20)。制御部11は、処理をステップS11に戻す。 After executing the process of step S19, or in the case of NO in step S18, the control unit 11 outputs the label image of the fish (single or school of fish) recognized in step S12 to the projector 3, and Project (display) at the display position (step S20). The control unit 11 returns the process to step S11.

以上より、本実施の形態1によれば、撮像画像から魚群を認識し、魚群単位でラベル画像41を表示する。これにより、魚群を形成する個々の魚毎にラベル画像41が表示されて肝心の魚に重なってしまう虞が低減され、観測者に対して生物に関するラベル画像41を好適に提示することができる。 As described above, according to the first embodiment, the school of fish is recognized from the captured image, and the label image 41 is displayed for each school of fish. This reduces the risk that the label image 41 will be displayed for each individual fish forming a school of fish and will overlap the important fish, and the label image 41 relating to the organism can be preferably presented to the observer.

また、本実施の形態1によれば、機械学習により構築された識別モデル162を用いて魚群を認識し、ラベル画像41を表示する。機械学習アルゴリズムを用いることで水槽内の魚を精度良く認識することができ、ラベル画像41をより好適に提示することができる。 Further, according to the first embodiment, the identification model 162 constructed by machine learning is used to recognize a school of fish and display the label image 41 . By using a machine learning algorithm, the fish in the tank can be recognized with high accuracy, and the label image 41 can be presented more appropriately.

また、本実施の形態1によれば、水槽の透過壁(観察面)に透過型のスクリーン4を設け、水槽の前方、つまり水槽外部からラベル画像41を投影(表示)する。従って、特許文献1に記載の映像表示装置のように水槽内部から画像を投影して魚に重なるような虞が少なく、ラベル画像41をより好適に提示することができる。 Further, according to the first embodiment, the transmissive screen 4 is provided on the transmissive wall (observation surface) of the water tank, and the label image 41 is projected (displayed) from the front of the water tank, that is, from the outside of the water tank. Therefore, unlike the video display device described in Patent Document 1, there is less risk that an image will be projected from the inside of the water tank and will overlap the fish, and the label image 41 can be presented more favorably.

また、本実施の形態1によれば、プロジェクタ3及びスクリーン4に代えて透過型ディスプレイを水槽の透過壁に設ける構成であってもよい。この場合でも、画像の重なりを回避してラベル画像41を好適に提示することができる。 Further, according to the first embodiment, instead of the projector 3 and the screen 4, a transmissive display may be provided on the transmissive wall of the water tank. Even in this case, the label image 41 can be preferably presented while avoiding image overlap.

また、本実施の形態1によれば、魚群の規模に応じてラベル画像41の表示態様を変更することで、観測者の便宜に供することができる。 Further, according to the first embodiment, by changing the display mode of the label image 41 according to the scale of the school of fish, it is possible to serve the convenience of the observer.

また、本実施の形態1によれば、他の魚と非重畳となるようにラベル画像41の表示位置を変更することで、ラベル画像41が魚に重なって見えなくなる事態をより効果的に防止することできる。 Further, according to the first embodiment, by changing the display position of the label image 41 so that it does not overlap with other fish, it is possible to more effectively prevent the label image 41 from overlapping the fish and becoming invisible. can do

(実施の形態2)
実施の形態1では、ディープラーニングの手法を用いて魚群の特徴を学習し、学習済みモデルを用いて魚群を認識する形態について説明した。本実施の形態では、オプティカルフロー等の手法を用いて個々の魚の動きを特定し、特定した個々の魚の動きから魚群を認識する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
図8は、実施の形態2に係る魚群認識処理に関する説明図である。図8Aでは、撮像画像から特徴点を抽出してオプティカルフローを算出し、水槽内を移動する物体(魚)の動きを検出する様子を図示している。図8Bでは、複数の物体の動きから魚群を認識する様子を図示している。図8に基づき、本実施の形態の概要を説明する。
(Embodiment 2)
In the first embodiment, the deep learning technique is used to learn the characteristics of a school of fish, and the learned model is used to recognize the school of fish. In the present embodiment, a method such as optical flow is used to identify the movement of each individual fish, and a form of recognizing a school of fish from the movement of each identified individual fish will be described. In addition, the same code|symbol is attached|subjected about the content which overlaps with Embodiment 1, and description is abbreviate|omitted.
FIG. 8 is an explanatory diagram of fish school recognition processing according to the second embodiment. FIG. 8A illustrates how feature points are extracted from a captured image, optical flow is calculated, and movement of an object (fish) moving in a water tank is detected. FIG. 8B illustrates how a school of fish is recognized from the movements of a plurality of objects. Based on FIG. 8, the outline of this embodiment will be described.

実施の形態1と同じく、PC1はカメラ2から水槽の撮像画像を動画像として逐次取得する。ここでPC1は、例えばオプティカルフローの手法を用い、動画像に含まれる各画像(フレーム)を比較することで水槽内を移動する物体の動きを特定する。 As in the first embodiment, the PC 1 sequentially acquires captured images of the water tank from the camera 2 as moving images. Here, the PC 1 uses, for example, an optical flow technique to identify the movement of the object moving in the water tank by comparing each image (frame) included in the moving image.

具体的には、PC1は動画像において時系列的に連続する2つの画像(第1及び第2の画像)それぞれから特徴点を抽出する。特徴点は、画像内の各画素の明るさ(輝度)から割り出される。PC1は、2つの画像の間での特徴点の座標値の差分を元に、特徴点の動きを表すベクトル値、つまりオプティカルフローを算出する。図8Aに、オプティカルフローが算出される様子を図示する。図8Aでは白抜き丸印が特徴点を、矢印がオプティカルフローに相当するベクトルを表す。 Specifically, the PC 1 extracts feature points from each of two images (first and second images) that are continuous in time series in the moving image. A feature point is calculated from the brightness (luminance) of each pixel in the image. The PC1 calculates a vector value representing the movement of the feature point, that is, the optical flow, based on the difference in the coordinate values of the feature points between the two images. FIG. 8A illustrates how the optical flow is calculated. In FIG. 8A, white circles represent feature points, and arrows represent vectors corresponding to optical flows.

PC1は、一又は複数の特徴点に対応するオプティカルフローから、水槽内を移動する個々の物体、つまり魚を検出する。例えば図8Aに示すように、PC1は近接する複数の特徴点に係るオプティカルフローが同一方向かつ同一速度のベクトル値を示す場合に、当該複数の特徴点を一の移動物体(魚)として検出する。なお、PC1は一の特徴点の動き(オプティカルフロー)から移動物体を検出してもよい。 PC1 detects individual objects, that is, fish, moving in the water tank from the optical flow corresponding to one or more feature points. For example, as shown in FIG. 8A, PC1 detects the plurality of feature points as one moving object (fish) when the optical flows associated with the plurality of adjacent feature points indicate vector values in the same direction and at the same speed. . Note that the PC 1 may detect a moving object from the motion (optical flow) of one feature point.

水槽内を移動する個々の物体の動きを検出した後、PC1は、複数の物体の動きを比較して、集団を形成して水槽内を移動する物体、つまり魚群を検出(認識)する。例えば図8Bに示すように、PC1は、所定範囲内に位置する複数の物体のオプティカルフローが略同一方向かつ略同一速度のベクトル値を示す場合に、当該複数の物体を魚群として検出する。 After detecting the movements of individual objects moving in the aquarium, the PC 1 compares the movements of a plurality of objects to detect (recognize) the objects forming a group and moving in the aquarium, that is, the school of fish. For example, as shown in FIG. 8B, PC1 detects a plurality of objects as a school of fish when the optical flows of a plurality of objects positioned within a predetermined range indicate vector values in substantially the same direction and at substantially the same speed.

PC1は、検出した魚群を構成する一の物体(魚)に対して画像認識を行い、何の魚の魚群であるかを特定する。PC1は他の魚(単体又は魚群)に対しても同様に画像認識を行い、何の魚であるかを特定する。PC1は、特定した各魚のラベル画像41をプロジェクタ3に出力し、各魚の近傍位置に投影させる。 The PC 1 performs image recognition on one object (fish) that constitutes the detected school of fish, and identifies what kind of school of fish it is. The PC 1 similarly performs image recognition on other fish (single fish or school of fish) to specify what kind of fish it is. The PC 1 outputs the label image 41 of each identified fish to the projector 3 and projects it at a position near each fish.

図9は、実施の形態2に係るラベル追跡処理に関する説明図である。図9では、検出した魚群の動きに合わせてラベル画像41を移動させる追跡表示を概念的に図示している。 上述の如く、PC1は水槽内の魚(単体又は魚群)の動きを検出する。PC1は、検出
した魚の動きから次にどこに移動するかを推定し、推定した位置にラベル画像41を移動させる追跡表示を行う。PC1は、魚の動きを表すオプティカルフローから移動方向及び移動速度を推定し、推定した方向及び速度に合わせてラベル画像41の表示位置を移動させるようにプロジェクタ3を制御する。このように、魚の動きを検出することで魚群を認識するだけでなく、ラベル画像41を好適な位置に移動させるよう表示制御を行うこともできる。
FIG. 9 is an explanatory diagram of label tracking processing according to the second embodiment. FIG. 9 conceptually illustrates a tracking display in which the label image 41 is moved in accordance with the detected movement of the school of fish. As described above, PC1 detects the movement of fish (single or school of fish) in the tank. The PC 1 estimates where the fish will move next from the detected movement of the fish, and performs tracking display by moving the label image 41 to the estimated position. The PC 1 estimates the moving direction and moving speed from the optical flow representing the movement of the fish, and controls the projector 3 to move the display position of the label image 41 according to the estimated direction and speed. In this way, by detecting the movement of fish, it is possible not only to recognize a school of fish, but also to perform display control so as to move the label image 41 to a suitable position.

図10は、実施の形態2に係るPC1が実行する処理手順の一例を示すフローチャートである。
カメラ2から撮像画像を取得した後(ステップS11)、PC1の制御部11は以下の処理を実行する。制御部11は、取得した撮像画像に含まれる特徴点を抽出する(ステップS201)。例えば制御部11は、撮像画素に含まれる各画素の明るさに応じて特徴点を抽出する。
FIG. 10 is a flow chart showing an example of a processing procedure executed by the PC 1 according to the second embodiment.
After acquiring the captured image from the camera 2 (step S11), the control section 11 of the PC 1 executes the following processes. The control unit 11 extracts feature points included in the captured image (step S201). For example, the control unit 11 extracts feature points according to the brightness of each pixel included in the imaging pixels.

制御部11は、動画像として逐次取得する画像のうち、時系列的に連続する2つの画像(第1及び第2の画像)それぞれから抽出した特徴点の座標値の差分に基づき、水槽内を移動する物体(魚)の動きを検出する(ステップS202)。例えば制御部11は、特徴点毎にオプティカルフローを算出し、近接する一又は複数の特徴点のオプティカルフローに基づき、個々の移動物体の動きを検出する。 The control unit 11 controls the inside of the water tank based on the difference in the coordinate values of the feature points extracted from each of the two images (first and second images) that are consecutive in time series among the images that are sequentially acquired as moving images. A movement of a moving object (fish) is detected (step S202). For example, the control unit 11 calculates the optical flow for each feature point, and detects the motion of each moving object based on the optical flow of one or more adjacent feature points.

制御部11は、検出した各物体の動きに基づき、複数の物体が集団で動いている否かを判定する(ステップS203)。集団で動いていると判定した場合(S203:YES)、制御部11は、集団を構成するいずれかの物体に対する画像認識を行い、魚の種別を特定する(ステップS204)。制御部11は処理をステップS14に移行する。 Based on the detected motion of each object, the control unit 11 determines whether or not a plurality of objects are moving as a group (step S203). If it is determined that the fish are moving in a group (S203: YES), the control unit 11 performs image recognition on any object that constitutes the group, and identifies the type of fish (step S204). The control unit 11 shifts the process to step S14.

ステップS16の処理を実行後、又はステップS203、S15でNOの場合、制御部11は、単体で動いている物体に対する画像認識を行い、魚の種別を特定する(ステップS205)。制御部11は処理をステップS17に移行する。 After executing the process of step S16, or in the case of NO in steps S203 and S15, the control unit 11 performs image recognition on an object that is moving alone and identifies the type of fish (step S205). The control unit 11 shifts the process to step S17.

ステップS19の処理を実行後、又はステップS18でNOの場合、制御部11はラベル画像41をプロジェクタ3に出力して投影(表示)させる(ステップS206)。この場合に制御部11は、ステップS202で検出した魚の動きに基づき、ラベル画像41に対応する魚(単体又は魚群)の移動方向及び移動速度を推定する。制御部11は、推定した移動方向及び移動速度に合わせてラベル画像41の表示位置を移動する追跡表示を行う。制御部11は処理をステップS11に戻す。 After executing the processing of step S19, or in the case of NO in step S18, the control unit 11 outputs the label image 41 to the projector 3 to project (display) it (step S206). In this case, the control unit 11 estimates the movement direction and movement speed of the fish (single fish or school of fish) corresponding to the label image 41 based on the movement of the fish detected in step S202. The control unit 11 performs tracking display in which the display position of the label image 41 is moved according to the estimated moving direction and moving speed. The control unit 11 returns the process to step S11.

以上より、本実施の形態2によれば、オプティカルフロー等の手法で魚の動きを検出し、検出した個々の魚の動きから魚群を検出する。これにより、学習済みモデルを持たない場合であっても魚群を認識してラベル画像41を提示することができる。 As described above, according to the second embodiment, the movement of fish is detected by a technique such as optical flow, and a school of fish is detected from the detected movement of each individual fish. As a result, it is possible to recognize the school of fish and present the label image 41 even if it does not have a trained model.

また、本実施の形態2によれば、検出した魚の動きからどこに移動するかを推定し、ラベル画像41の追跡表示を行うことができる。これにより、魚とラベル画像41との位置ずれを回避し、ラベル画像41を好適に提示することができる。 Further, according to the second embodiment, it is possible to estimate where the fish will move from the detected movement of the fish, and to track and display the label image 41 . As a result, positional deviation between the fish and the label image 41 can be avoided, and the label image 41 can be preferably presented.

(実施の形態3)
本実施の形態では、撮像画像から全ての魚を認識し、認識した各魚の位置関係から魚群を識別する形態について説明する。
図11は、実施の形態3に係る魚群認識処理に関する説明図である。実施の形態2では魚群を検出した後に個々の魚を特定する形態について述べたが、本実施の形態では先に個々の魚を特定し、特定した魚の位置関係から魚群を認識する。
(Embodiment 3)
In the present embodiment, an embodiment will be described in which all fish are recognized from a captured image and a school of fish is identified from the positional relationship of each recognized fish.
FIG. 11 is an explanatory diagram relating to fish school recognition processing according to the third embodiment. In the second embodiment, a form of identifying individual fish after detecting a school of fish was described, but in the present embodiment, individual fish are identified first, and the school of fish is recognized from the positional relationship of the identified fish.

具体的には、PC1は撮像画像に対する画像認識を行い、水槽内を遊泳する全ての魚を認識する。図11の例では、PC1は「マダライルカ」及び「ナンヨウマンタ」だけでなく、魚群を形成する4匹の「クロマグロ」に関しても、各個体を「クロマグロ」として認識する。 Specifically, the PC 1 performs image recognition on the captured image and recognizes all fish swimming in the tank. In the example of FIG. 11, the PC1 recognizes not only the "spotted dolphin" and the "manta ray" but also the four "bluefin tuna" forming a school of fish as "bluefin tuna".

その後、PC1は、複数の魚の種別及び位置関係から、同種別の複数の魚が形成する魚群を認識する。例えばPC1は、同種別かつ所定数以上の魚(個体)が所定範囲内に位置するか否かに応じて魚群を認識する。図11の例では、撮像画像の上側の画像領域に、種別が「クロマグロ」で共通する複数の魚が密集している。PC1は、当該複数の魚が所定範囲内に位置する場合、当該複数の魚を「クロマグロ」の魚群として認識する。 After that, the PC 1 recognizes a school of fish formed by a plurality of fish of the same species based on the species and positional relationship of the plurality of fish. For example, the PC 1 recognizes a school of fish depending on whether fish (individuals) of the same type and a predetermined number or more are located within a predetermined range. In the example of FIG. 11 , a plurality of fish having a common type of “bluefin tuna” are concentrated in the upper image area of the captured image. When the plurality of fish are located within a predetermined range, the PC 1 recognizes the plurality of fish as a school of "bluefin tuna".

図12は、実施の形態3に係るPC1が実行する処理手順の一例を示すフローチャートである。
カメラ2から撮像画像を取得した後(ステップS11)、PC1の制御部11は以下の処理を実行する。制御部11は撮像画像に対する画像認識を行い、水槽内の複数の魚全てをそれぞれ認識する(ステップS301)。制御部11は、認識した各魚の位置関係に基づき、複数の魚が魚群を形成しているか否かを判定する(ステップS302)。例えば上述の如く、制御部11は同種別かつ所定数以上の魚が所定範囲内に位置するか否かを判定することで、魚群を形成しているか否かを判定する。魚群を形成していると判定した場合(S302:YES)、制御部11は処理をステップS14に移行する。魚群を形成していないと判定した場合(S302:NO)、制御部11は処理をステップS17に移行する。
FIG. 12 is a flow chart showing an example of a processing procedure executed by the PC 1 according to the third embodiment.
After acquiring the captured image from the camera 2 (step S11), the control section 11 of the PC 1 executes the following processes. The control unit 11 performs image recognition on the captured image, and recognizes all of the plurality of fish in the tank (step S301). Based on the recognized positional relationship of each fish, the control unit 11 determines whether or not a plurality of fish form a school of fish (step S302). For example, as described above, the control unit 11 determines whether or not a school of fish is formed by determining whether or not a predetermined number or more of fish of the same type are located within a predetermined range. If it is determined that a school of fish is formed (S302: YES), the control section 11 shifts the processing to step S14. If it is determined that a school of fish is not formed (S302: NO), the control section 11 shifts the processing to step S17.

以上より、本実施の形態3によれば、撮像画像から全ての魚を認識し、認識した魚の種類、数、及び位置関係から魚群を識別してラベル画像41を表示する。これにより、観測者にラベル画像41を好適に提示することができる。 As described above, according to the third embodiment, all fish are recognized from the captured image, and the label image 41 is displayed by identifying the school of fish based on the type, number, and positional relationship of the recognized fish. Thereby, the label image 41 can be preferably presented to the observer.

(実施の形態4)
本実施の形態では、水槽の透過壁の一部領域にのみスクリーン4を設け、スクリーン4
が設けられている領域を魚が通過した場合のみラベル画像41を投影する形態について説明する。
図13は、実施の形態4に係るスクリーン4の構成例を示す説明図である。本実施の形態では、スクリーン4は水槽の透過壁の全面ではなく、一部領域にのみ設けられている。例えば図13に示すように、スクリーン4は、正面視において透過壁の左側半面に設けられている。
(Embodiment 4)
In this embodiment, the screen 4 is provided only in a partial region of the permeable wall of the water tank, and the screen 4
A form will be described in which the label image 41 is projected only when the fish passes through the area provided with .
FIG. 13 is an explanatory diagram showing a configuration example of the screen 4 according to the fourth embodiment. In this embodiment, the screen 4 is provided not on the entire surface of the transmission wall of the aquarium, but only on a partial area. For example, as shown in FIG. 13, the screen 4 is provided on the left half surface of the transmissive wall when viewed from the front.

なお、スクリーン4を設ける範囲は図13の例に限定されず、例えば右側半面、上側半面などに変更してもよい。また、透過壁全面に占めるスクリーン4の面積の割合も特に限定されない。 Note that the range in which the screen 4 is provided is not limited to the example shown in FIG. Moreover, the ratio of the area of the screen 4 to the entire surface of the transmission wall is not particularly limited.

PC1は、正面視においてスクリーン4が設けられた領域内を魚が通過した場合にのみ、ラベル画像41を投影(表示)する。例えばPC11は、図13に示すように撮像画像から水槽内の全ての魚(単体又は魚群)を認識する。その上でPC11は、スクリーン4の設置領域を通過する魚を特定する。例えばPC11は、各魚に対応するラベル画像41を投影(表示)した場合に、ラベル画像41の表示位置がスクリーン4の設置領域内であるか否かを判定する。スクリーン4の設置領域内であると判定した場合、PC1はプロジェクタ3を制御し、スクリーン4にラベル画像41を投影させる。 The PC 1 projects (displays) the label image 41 only when the fish passes through the area where the screen 4 is provided when viewed from the front. For example, the PC 11 recognizes all fish (single fish or a school of fish) in the tank from the captured image as shown in FIG. After that, the PC 11 identifies fish passing through the installation area of the screen 4 . For example, when projecting (displaying) the label image 41 corresponding to each fish, the PC 11 determines whether or not the display position of the label image 41 is within the installation area of the screen 4 . When the PC 1 determines that it is within the installation area of the screen 4 , the PC 1 controls the projector 3 to project the label image 41 onto the screen 4 .

図14は、実施の形態4に係るPC1が実行する処理手順の一例を示すフローチャートである。 ステップS19の処理を実行後、又はステップS18でNOの場合、PC1の制御部11は以下の処理を実行する。制御部11は、撮像画像の認識結果に基づき決定したラベル画像41の表示位置が、水槽の透過壁にスクリーン4が設けられた領域内であるか否かを判定する(ステップS401)。スクリーン4が設けられている領域内であると判定した場合(S401:YES)、制御部11はスクリーン4にラベル画像41を投影(表示)する(ステップS402)。ステップS402の処理を実行後、又はステップS401でNOの場合、制御部11は処理をステップS11に戻す。 FIG. 14 is a flow chart showing an example of a processing procedure executed by the PC 1 according to the fourth embodiment. After executing the processing of step S19, or in the case of NO in step S18, the control unit 11 of the PC 1 executes the following processing. The control unit 11 determines whether the display position of the label image 41 determined based on the recognition result of the captured image is within the area where the screen 4 is provided on the transparent wall of the water tank (step S401). When it is determined that it is within the area where the screen 4 is provided (S401: YES), the control unit 11 projects (displays) the label image 41 on the screen 4 (step S402). After executing the process of step S402, or in the case of NO in step S401, the control unit 11 returns the process to step S11.

なお、上記では水槽内の全ての魚を認識した上でスクリーン4の領域内を通過する魚を識別することにしたが、本実施の形態はこれに限定されるものではない。例えばカメラ2はスクリーン4が設けられた領域のみを撮像し、PC1が撮像範囲を絞った画像から魚を認識することで、スクリーン4の範囲内を通過する魚を識別するようにしてもよい。すなわちPC1は、スクリーン4が設けられた透過壁の一部領域に対応する撮像画像の画像領域から魚を認識し、スクリーン4にラベル画像41を投影可能であればよく、水槽内の全ての空間を撮像して全ての魚を認識することは必須ではない。 In the above description, all fish in the tank are recognized and then fish passing through the area of the screen 4 are identified, but the present embodiment is not limited to this. For example, the camera 2 may capture only the area where the screen 4 is provided, and the PC 1 may recognize the fish from the narrowed image, thereby identifying the fish passing within the range of the screen 4 . That is, the PC 1 only needs to be able to recognize the fish from the image area of the captured image corresponding to the partial area of the transparent wall provided with the screen 4, and project the label image 41 onto the screen 4. is not essential to recognize all fish by imaging.

以上より、本実施の形態4によれば、ラベル画像41の表示領域を水槽の透過壁の一部領域に絞ることもでき、実際の運用に合わせて柔軟な構成とすることができる。 As described above, according to the fourth embodiment, the display area of the label image 41 can be limited to a partial area of the transparent wall of the water tank, and a flexible configuration can be achieved according to the actual operation.

(実施の形態5)
本実施の形態では、観測者の位置に応じてラベル画像41の表示位置を決定する形態について説明する。
図15は、実施の形態5に係るラベル画像41の表示例を示す説明図である。図15では、観測者が居る位置に近づくようにラベル画像41の表示位置を制御する様子を概念的に図示している。
(Embodiment 5)
In this embodiment, a form will be described in which the display position of the label image 41 is determined according to the position of the observer.
FIG. 15 is an explanatory diagram showing a display example of the label image 41 according to the fifth embodiment. FIG. 15 conceptually illustrates how the display position of the label image 41 is controlled so as to approach the position of the observer.

本実施の形態でPC1は撮像画像から、水槽内の魚だけでなく、水槽内を観察する観測者を認識する。例えばカメラ2は、水槽内部と、観測者が位置する水槽正面の所定範囲とを撮像範囲として設定してあり、PC1は、カメラ2が当該撮像範囲を撮像した画像から水槽周囲に居る観測者を認識する。あるいはカメラ2を全方位カメラとして構成し、水槽が設置された水族館の部屋全体を撮像して、水槽正面に居る観測者を認識してもよい。あるいは、水槽内部を撮像するカメラ2と、水槽正面を撮像するカメラ2とを別々に設け、後者のカメラ2で撮像した画像から観測者を認識してもよい。 In this embodiment, the PC 1 recognizes not only the fish in the tank but also the observer observing the tank from the captured image. For example, the camera 2 is set with the inside of the tank and a predetermined range in front of the tank where the observer is positioned as an imaging range, and the PC 1 detects the observer around the tank from the image captured by the camera 2 in the imaging range. recognize. Alternatively, the camera 2 may be configured as an omnidirectional camera to capture an image of the entire aquarium room in which the aquarium is installed, and to recognize the observer in front of the aquarium. Alternatively, a camera 2 for imaging the inside of the aquarium and a camera 2 for imaging the front of the aquarium may be provided separately, and the observer may be recognized from the image captured by the latter camera 2 .

PC1は、撮像画像から認識した観測者の位置に応じてラベル画像41の表示位置を制御する。図15の例では、観測者が水槽の左右方向において略中央に位置している。この場合、PC1は、観測者が居ない場合と比較してラベル画像41が中央寄りに位置するように表示位置を制御する。図15の例では、PC1は右側に位置する「クロマグロ」、「ナンヨウマンタ」、「マアジ」のラベル画像41を左寄りにシフトし、左側に位置する「マアジ」、「マダライルカ」のラベル画像41は右寄りにシフトする。このように、PC1は観測者の位置にラベル画像41が近づくように表示位置を制御する。 The PC 1 controls the display position of the label image 41 according to the observer's position recognized from the captured image. In the example of FIG. 15, the observer is positioned substantially in the center of the water tank in the horizontal direction. In this case, the PC 1 controls the display position so that the label image 41 is positioned closer to the center than when there is no observer. In the example of FIG. 15, the PC 1 shifts the label images 41 of "bluefin tuna", "manta ray", and "great horse mackerel" located on the right side to the left, and shifts the label images 41 of "big horse mackerel" and "spotted dolphin" located on the left side to the left. shifts to the right. Thus, the PC 1 controls the display position so that the label image 41 approaches the observer's position.

上述の処理により、ラベル画像41が観測者にとって見やすい位置にシフトさせることができ、ラベル画像41をより好適に提示することができる。 By the above-described processing, the label image 41 can be shifted to a position that is easy for the observer to see, and the label image 41 can be presented more preferably.

図16は、実施の形態5に係るPC1が実行する処理手順の一例を示すフローチャートである。 カメラ2から撮像画像を取得した後(ステップS11)、PC1の制御部11は以下の処理を実行する。制御部11は、撮像画像から魚(単体又は魚群)を認識すると共に、水槽内を観察する観測者を認識する(ステップS501)。制御部11は処理をステップS13に移行する。 FIG. 16 is a flow chart showing an example of a processing procedure executed by the PC 1 according to the fifth embodiment. After acquiring the captured image from the camera 2 (step S11), the control section 11 of the PC 1 executes the following processes. The control unit 11 recognizes a fish (single fish or a school of fish) from the captured image, and also recognizes an observer observing the inside of the tank (step S501). The control unit 11 shifts the process to step S13.

撮像画像から魚群を認識したと判定した場合(S13:YES)、制御部11は、撮像画像から認識した魚群の位置と、観測者の位置とに基づき、魚群に対応するラベル画像41の表示位置を決定する(ステップS502)。例えば図15で説明したように、制御部11は、観測者が認識されなかった場合の表示位置から、観測者の位置にラベル画像41が近づくようにラベル画像41の表示位置を決定する。制御部11は処理をステップS15に移行する。 If it is determined that a school of fish has been recognized from the captured image (S13: YES), the control unit 11 adjusts the display position of the label image 41 corresponding to the school of fish based on the position of the school of fish recognized from the captured image and the position of the observer. is determined (step S502). For example, as described with reference to FIG. 15, the control unit 11 determines the display position of the label image 41 so that the label image 41 approaches the position of the observer from the display position when the observer is not recognized. The control unit 11 shifts the process to step S15.

ステップS16の処理を実行後、又はステップS13、S15でNOの場合、制御部11は、撮像画像から認識した単体の魚の位置と、観測者の位置とに基づき、単体で遊泳する魚のラベル画像41の表示位置を決定する(ステップS503)。具体的にはステップS502と同様に、制御部11はラベル画像41が観測者の位置に近づくように表示位置を決定する。制御部11は処理をステップS18に移行する。 After executing the process of step S16, or in the case of NO in steps S13 and S15, the control unit 11 generates a label image 41 of a single swimming fish based on the position of the single fish recognized from the captured image and the position of the observer. is determined (step S503). Specifically, similarly to step S502, the control unit 11 determines the display position so that the label image 41 approaches the position of the observer. The control unit 11 shifts the process to step S18.

以上より、本実施の形態5によれば、観測者の位置も考慮してラベル画像41の表示位置を決定することができ、ラベル画像41をより好適に提示することができる。 As described above, according to the fifth embodiment, the display position of the label image 41 can be determined in consideration of the position of the observer, and the label image 41 can be presented more preferably.

(実施の形態6)
実施の形態1では、水族館の水槽の透過壁にスクリーン4を設け、水槽内を遊泳する魚に関するラベル画像41をスクリーン4に投影(表示)する形態について説明した。本実施の形態では、サファリパークのように車両内から動物(生物)を観察する場合において、車両の窓を透過型ディスプレイ604として構成し、車両の窓にラベル画像41を表示する形態について説明する。 図17は、実施の形態6に係る画像表示システムの構成例を示す模式図である。本実施の形態に係る画像表示システムは、画像出力装置1、カメラ602、及び透過型ディスプレイ604を有する。画像出力装置1は、例えば実施の形態1と同様にパーソナルコンピュータとする構成のほか、ECU(Electronic Control Unit)等の車載機器として構成してもよい。
(Embodiment 6)
In the first embodiment, the screen 4 is provided on the transparent wall of the water tank of the aquarium, and the label image 41 related to the fish swimming in the water tank is projected (displayed) on the screen 4. FIG. In the present embodiment, when observing animals (creatures) from inside a vehicle, such as in a safari park, the window of the vehicle is configured as a transmissive display 604 and the label image 41 is displayed on the window of the vehicle. FIG. 17 is a schematic diagram illustrating a configuration example of an image display system according to Embodiment 6. FIG. The image display system according to this embodiment has an image output device 1 , a camera 602 and a transmissive display 604 . For example, the image output device 1 may be configured as a personal computer as in the first embodiment, or may be configured as an in-vehicle device such as an ECU (Electronic Control Unit).

カメラ602は、車両の周囲を撮像する撮像装置であり、例えば全方位カメラである。カメラ602は、車両の進行方向を前方とした場合に、前後左右に亘る360度の全方位を撮像する。なお、カメラ602を全方位カメラとせず、例えば車両の前部、後部、及び左右側部にそれぞれカメラ602を設け、複数のカメラ602で全方位を撮像する構成としてもよい。また、本実施の形態では透過型ディスプレイ604を車両側部の窓にのみ設けるため、カメラ602は全方位を撮像せず、車両の左右方向のみを撮像する構成としても良い。 The camera 602 is an imaging device that images the surroundings of the vehicle, such as an omnidirectional camera. The camera 602 captures omnidirectional 360-degree images from front to back, right to left, and the like when the direction of travel of the vehicle is forward. Instead of using an omnidirectional camera as the camera 602, for example, cameras 602 may be provided at the front, rear, and left and right sides of the vehicle, and a plurality of cameras 602 may be configured to capture images in all directions. Further, in the present embodiment, since the transmissive display 604 is provided only on the side windows of the vehicle, the camera 602 may be configured to image only the left and right directions of the vehicle instead of capturing images in all directions.

透過型ディスプレイ604は、有機EL(Electro Luminescence)ディスプレイ、液晶ディスプレイ等の表示装置であり、ラベル画像41等の表示オブジェクト以外の領域が透明な表示装置である。透過型ディスプレイ604は、例えば図17で示す車両側部の窓に設けられ、画像出力装置1から出力された画像を表示する。なお、透過型ディスプレイ604に代えて、実施の形態1と同様に透過型のスクリーン4を用いたプロジェクタ方式で車両側部の窓に画像を表示してもよい。透過型ディスプレイ604は車両の左右側部における複数の窓にそれぞれ設けられ、車両に乗車している観測者(サファリパークの入園者等)向けに画像を表示する。 The transmissive display 604 is a display device such as an organic EL (Electro Luminescence) display or a liquid crystal display, and is a display device in which areas other than display objects such as the label image 41 are transparent. The transmissive display 604 is provided, for example, on the side window of the vehicle shown in FIG. Instead of the transmissive display 604, a projector system using the transmissive screen 4 as in the first embodiment may be used to display an image on the vehicle side window. The transmissive displays 604 are provided in a plurality of windows on the left and right sides of the vehicle, respectively, and display images for observers (safari park visitors, etc.) riding in the vehicle.

なお、透過型ディスプレイ604は車両側部の窓だけでなく、車両の前後の窓に設けられてもよい。 Note that the transmissive display 604 may be provided not only on the side windows of the vehicle but also on the front and rear windows of the vehicle.

図18は、実施の形態6の概要を示す説明図である。図18では、カメラ602により車両周囲に存在する動物を撮像する様子を図示している。図18に基づき、本実施の形態の概要について説明する。
画像出力装置1はカメラ602から、車両の周囲を撮像した撮像画像を動画像として逐次取得する。上述の如く、カメラ602は全方位カメラであり、車両の周囲360度の全方位を撮像する。画像出力装置1は、全方位の撮像画像を取得すると共に、カメラ602による画像の撮像方位を示す方位情報を併せて取得する。例えば図18に示すように、カメラ602が車両の右方向を撮像した場合、撮像した画像を取得すると共に、当該画像が右方向を撮像した画像であることを示す方位情報を取得する。画像出力装置1は同様に、他の方位についても撮像画像を取得する。
FIG. 18 is an explanatory diagram showing an overview of the sixth embodiment. FIG. 18 illustrates how the camera 602 captures an image of an animal present around the vehicle. Based on FIG. 18, the outline of this embodiment will be described.
The image output device 1 sequentially acquires captured images of the surroundings of the vehicle from the camera 602 as moving images. As described above, the camera 602 is an omnidirectional camera and captures 360-degree omnidirectional images around the vehicle. The image output device 1 acquires an omnidirectional captured image, and also acquires direction information indicating the direction in which the image is captured by the camera 602 . For example, as shown in FIG. 18, when the camera 602 captures an image in the right direction of the vehicle, the captured image is acquired, and azimuth information indicating that the image is captured in the right direction is acquired. The image output device 1 similarly acquires captured images in other directions.

画像出力装置1は、取得した画像から、車両の周囲に存在する動物を認識する。例えば実施の形態1と同様に、画像出力装置1は予め動物の画像特徴量を学習した識別モデル162(識別器)を保持し、識別モデル162に撮像画像を入力することで動物の識別結果を取得する。これにより、画像出力装置1は撮像画像から車両周囲の動物を認識する。 The image output device 1 recognizes animals existing around the vehicle from the acquired images. For example, as in the first embodiment, the image output device 1 holds a discrimination model 162 (a discriminator) in which image feature amounts of animals are learned in advance, and inputs a captured image to the discrimination model 162 to obtain a discrimination result of the animal. get. Thereby, the image output device 1 recognizes animals around the vehicle from the captured image.

また、画像出力装置1は、撮像画像と共に取得した方位情報に基づき、車両に対する相対的な動物の位置を認識する。図18の例の場合、画像出力装置1は右方向の撮像画像から動物を認識するため、認識した動物が右方向に位置するものと認識する。 The image output device 1 also recognizes the position of the animal relative to the vehicle based on the azimuth information acquired together with the captured image. In the case of the example of FIG. 18, the image output device 1 recognizes an animal from the captured image in the right direction, so it recognizes that the recognized animal is positioned in the right direction.

画像出力装置1は、認識した動物の位置に基づき、ラベル画像41の表示位置を決定する。例えば画像出力装置1は、動物が位置する方向から、車両の左右側部の各窓に設けられた複数の透過型ディスプレイ604、604、604…のうち、いずれの透過型ディスプレイ604に表示すべきかを決定する。図18の例では、動物は車両の右方向に位置するため、画像出力装置1は、車両の右側の窓に設けられた透過型ディスプレイ604にラベル画像41を表示すべきものと決定する。 The image output device 1 determines the display position of the label image 41 based on the recognized position of the animal. For example, from the direction in which the animal is positioned, the image output apparatus 1 selects which transmissive display 604 out of a plurality of transmissive displays 604, 604, 604, . to decide. In the example of FIG. 18, the animal is located on the right side of the vehicle, so the image output device 1 determines that the label image 41 should be displayed on the transmissive display 604 provided on the right window of the vehicle.

なお、画像出力装置1は動物の位置をさらに詳細に割り出し、実施の形態1と同様、観測者にとって動物の近傍にラベル画像41が表示されるように、一の透過型ディスプレイ604内でのラベル画像41の表示位置をさらに細かく制御してもよい。 Note that the image output device 1 determines the position of the animal in more detail, and displays the label image 41 in the vicinity of the animal for the observer as in the first embodiment. The display position of the image 41 may be controlled more finely.

また、画像出力装置1は実施の形態1と同様に、動物が群れ(生物群)を形成しているか否かを認識し、群れ毎にラベル画像41を表示するように制御してもよい。 Further, the image output device 1 may recognize whether or not animals form a herd (organism group), and may control to display the label image 41 for each herd, as in the first embodiment.

上述の如く、実施の形態1で説明した画像表示システムを応用し、車両のような移動体において動物のラベル画像41を観測者に提示することもできる。 As described above, the image display system described in Embodiment 1 can be applied to present the label image 41 of the animal to the observer in a mobile object such as a vehicle.

図19は、実施の形態6に係る画像出力装置1が実行する処理手順の一例を示すフローチャートである。
画像出力装置1の制御部11は、車両の周囲を撮像するカメラ2から撮像画像を取得する(ステップS601)。例えばカメラ602は、車両の周囲360度の全方位を撮像可能な全方位カメラである。制御部11はカメラ602から、撮像画像と共に、カメラ602による撮像方位を示す方位情報を取得する。
FIG. 19 is a flow chart showing an example of a processing procedure executed by the image output device 1 according to the sixth embodiment.
The control unit 11 of the image output device 1 acquires a captured image from the camera 2 that captures the surroundings of the vehicle (step S601). For example, the camera 602 is an omnidirectional camera capable of capturing omnidirectional images of 360 degrees around the vehicle. The control unit 11 acquires from the camera 602 azimuth information indicating the imaging azimuth of the camera 602 together with the captured image.

制御部11は、取得した撮像画像から動物を認識する(ステップS602)。例えば制御部11は、識別モデル162を用いて、画像特徴量を学習済みの動物を撮像画像から認識する。制御部11は、撮像画像と共に取得した方位情報を参照して、車両に対する動物の相対的な位置(方位)も併せて認識する。 The control unit 11 recognizes the animal from the acquired captured image (step S602). For example, the control unit 11 uses the identification model 162 to recognize an animal whose image feature amount has been learned from the captured image. The control unit 11 also recognizes the relative position (orientation) of the animal with respect to the vehicle by referring to the orientation information acquired together with the captured image.

制御部11は、撮像画像から認識した動物の位置に基づき、ラベル画像41の表示位置を決定する(ステップS603)。例えば制御部11は、車両に対する動物の相対的な位置(方位)に基づき、車両側部の窓に設けられた透過型ディスプレイ604、604、604…のうち、いずれの透過型ディスプレイ604にラベル画像41を表示するかを決定する。制御部11は、決定した透過型ディスプレイ604にラベル画像41を表示し(ステップS604)、処理をステップS601に戻す。 The control unit 11 determines the display position of the label image 41 based on the position of the animal recognized from the captured image (step S603). For example, based on the relative position (orientation) of the animal with respect to the vehicle, the control unit 11 displays the label image on any of the transmissive displays 604, 604, 604, . Decide whether to display 41. The control unit 11 displays the label image 41 on the determined transmissive display 604 (step S604), and returns the process to step S601.

以上より、本実施の形態6によれば、実施の形態1で説明した画像表示システムを応用し、車両のような移動体において動物のラベル画像41を観測者に提示することもできる。 As described above, according to the sixth embodiment, the image display system described in the first embodiment can be applied to present the label image 41 of the animal to the observer in a mobile object such as a vehicle.

(実施の形態7)
図20は、上述した形態の画像出力装置1の動作を示す機能ブロック図である。制御部11がプログラムPを実行することにより、画像出力装置1は以下のように動作する。
取得部201は、複数の生物を撮像した撮像画像を取得する。認識部202は、前記撮像画像から、同種類の前記生物から成る生物群を認識する。コンテンツ取得部203は、前記生物群に関するコンテンツ画像を取得する。決定部204は、前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面における前記コンテンツ画像の表示位置を決定する。表示部205は、決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する。
(Embodiment 7)
FIG. 20 is a functional block diagram showing the operation of the image output device 1 of the form described above. By executing the program P by the control unit 11, the image output device 1 operates as follows.
Acquisition unit 201 acquires captured images of a plurality of living things. The recognition unit 202 recognizes a group of organisms of the same kind from the captured image. A content acquisition unit 203 acquires a content image related to the organism group. A determination unit 204 determines the display position of the content image on a display surface provided between the plurality of living organisms and an observer based on the recognized position of the living organism group. The display unit 205 displays the content image on the display surface based on the determined display position.

本実施の形態7は以上の如きであり、その他は実施の形態1から6と同様であるので、対応する部分には同一の符号を付してその詳細な説明を省略する。 The seventh embodiment is as described above, and other aspects are the same as those of the first to sixth embodiments, so corresponding parts are denoted by the same reference numerals, and detailed description thereof will be omitted.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should not be considered restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above-described meaning, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

1 PC(画像出力装置、表示装置)
11 制御部
12 主記憶部
13 通信部
14 表示部
15 入力部
16 補助記憶部
P プログラム
161 ラベルDB
162 識別モデル
2、602 カメラ
3 プロジェクタ
4 スクリーン
604 透過型ディスプレイ
1 PC (image output device, display device)
REFERENCE SIGNS LIST 11 control unit 12 main storage unit 13 communication unit 14 display unit 15 input unit 16 auxiliary storage unit P program 161 label DB
162 identification model 2, 602 camera 3 projector 4 screen 604 transmissive display

Claims (10)

複数の生物を撮像した撮像画像を取得する取得部と、
前記撮像画像から、同種類の前記生物から成る生物群を認識する認識部と、
前記生物群に関するコンテンツ画像を取得するコンテンツ取得部と、
前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面に
おける前記コンテンツ画像の表示位置を決定する決定部と、
決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する表示部と
を備え、
前記撮像画像は動画像であり、
前記認識部は、
前記動画像において時系列的に連続する第1及び第2の画像夫々から、前記生物に対応
する特徴点を抽出し、
前記第1及び第2の画像夫々から抽出した特徴点の座標値の差分に基づき、前記生物の
動きを検出し、
複数の前記生物夫々の動きに基づき、前記生物群を認識する
ことを特徴とする表示装置。
an acquisition unit that acquires captured images obtained by imaging a plurality of living things;
a recognition unit that recognizes a group of organisms of the same type from the captured image;
a content acquisition unit that acquires a content image related to the organism group;
a determination unit that determines the display position of the content image on a display surface provided between the plurality of living organisms and an observer based on the recognized position of the organism group;
a display unit that displays the content image on the display surface based on the determined display position;
The captured image is a moving image,
The recognition unit
extracting feature points corresponding to the organism from each of the first and second images that are continuous in time series in the moving image;
detecting the movement of the creature based on the difference between the coordinate values of the feature points extracted from each of the first and second images;
A display device that recognizes the group of organisms based on the movement of each of the plurality of organisms.
前記認識部が検出した前記生物の動きに基づき、前記生物群の移動方向及び移動速度を
推定する推定部を備え、
前記表示部は、推定した前記移動方向及び速度に基づいて前記表示位置を移動させて表
示する
ことを特徴とする請求項1に記載の表示装置。
an estimating unit for estimating the moving direction and moving speed of the organism group based on the movement of the organism detected by the recognizing unit;
The display device according to claim 1, wherein the display unit moves and displays the display position based on the estimated moving direction and speed.
前記表示面は、前記複数の生物を収容した空間の一面に設けられた透過型スクリーンで
あり、
前記表示部は、前記コンテンツ画像を前記透過型スクリーンに投影する
ことを特徴とする請求項1または2に記載の表示装置。
The display surface is a transmissive screen provided on one surface of the space containing the plurality of living things,
3. The display device according to claim 1, wherein the display unit projects the content image onto the transmissive screen.
前記表示面は、前記複数の生物を収容した空間の一面に設けられた透過型ディスプレイ
であり、
前記表示部は、前記コンテンツ画像を前記透過型ディスプレイに表示する
ことを特徴とする請求項1または2に記載の表示装置。
The display surface is a transmissive display provided on one surface of the space containing the plurality of living things,
3. The display device according to claim 1, wherein the display unit displays the content image on the transmissive display.
前記コンテンツ画像の表示位置が、該コンテンツ画像に対応する前記生物群とは異なる
他の前記生物の認識位置と重畳するか否かを判定する判定部を備え、
前記表示部は、前記他の生物の認識位置と非重畳となるように前記表示位置を変更する
ことを特徴とする請求項1~4のいずれか1項に記載の表示装置。
a determination unit that determines whether the display position of the content image overlaps with the recognition position of another organism different from the organism group corresponding to the content image,
5. The display device according to any one of claims 1 to 4, wherein the display unit changes the display position so that it does not overlap with the recognition position of the other creature.
前記認識部による認識結果に基づき、前記生物群の規模を判定する判定部を備え、
前記表示部は、前記生物群の規模に応じて前記コンテンツ画像の表示態様を変更する
ことを特徴とする請求項1~5のいずれか1項に記載の表示装置。
A determination unit that determines the scale of the organism group based on the recognition result of the recognition unit,
The display device according to any one of claims 1 to 5, wherein the display unit changes the display mode of the content image according to the scale of the organism group.
前記認識部は前記撮像画像から、前記生物群と、前記生物を収容した空間を外部から観
察する観測者とを認識し、
前記決定部は、前記生物群及び観測者夫々の位置に基づき、前記表示位置を決定する
ことを特徴とする請求項1~6のいずれか1項に記載の表示装置。
The recognizing unit recognizes, from the captured image, the group of organisms and an observer observing the space containing the organisms from the outside,
The display device according to any one of claims 1 to 6, wherein the determination unit determines the display position based on the position of each of the organism group and the observer.
複数の生物を撮像した、動画像である撮像画像を取得し、
前記動画像において時系列的に連続する第1及び第2の画像夫々から、前記生物に対応
する特徴点を抽出し、前記第1及び第2の画像夫々から抽出した特徴点の座標値の差分に基づき、前記生物の動きを検出し、複数の前記生物夫々の動きに基づき、前記生物群を認識することによって、前記撮像画像から、同種類の前記生物から成る生物群を認識し、
前記生物群に関するコンテンツ画像を取得し、
前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面に
おける前記コンテンツ画像の表示位置を決定し、
決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する
処理をコンピュータに実行させることを特徴とする表示方法。
Acquiring a captured image that is a moving image of a plurality of living things,
extracting feature points corresponding to the organism from each of first and second images that are chronologically continuous in the moving image, and difference in coordinate values of the feature points extracted from each of the first and second images; recognizing a group of organisms of the same type from the captured image by detecting the movement of the organism based on the movement of each of the plurality of organisms, and recognizing the organism group based on the movement of each of the organisms;
obtaining a content image of the organisms;
determining the display position of the content image on a display surface provided between the plurality of organisms and an observer based on the recognized position of the organism group;
A display method, comprising causing a computer to execute a process of displaying the content image on the display surface based on the determined display position.
複数の生物を撮像した、動画像である撮像画像を取得し、
前記動画像において時系列的に連続する第1及び第2の画像夫々から、前記生物に対応
する特徴点を抽出し、前記第1及び第2の画像夫々から抽出した特徴点の座標値の差分に基づき、前記生物の動きを検出し、複数の前記生物夫々の動きに基づき、前記生物群を認識することによって、前記撮像画像から、同種類の前記生物から成る生物群を認識し、
前記生物群に関するコンテンツ画像を取得し、
前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面に
おける前記コンテンツ画像の表示位置を決定し、
決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する
処理をコンピュータに実行させることを特徴とするプログラム。
Acquiring a captured image that is a moving image of a plurality of living things,
extracting feature points corresponding to the organism from each of first and second images that are chronologically continuous in the moving image, and difference in coordinate values of the feature points extracted from each of the first and second images; recognizing a group of organisms of the same type from the captured image by detecting the movement of the organism based on the movement of each of the plurality of organisms, and recognizing the organism group based on the movement of each of the organisms;
obtaining a content image of the organisms;
determining the display position of the content image on a display surface provided between the plurality of organisms and an observer based on the recognized position of the organism group;
A program for causing a computer to execute a process of displaying the content image on the display surface based on the determined display position.
複数の生物を収容した空間の一面を形成する透過壁に設けられた透過型スクリーンと、
前記空間の内部を撮像する撮像装置と、
前記空間の外部に設置され、前記透過型スクリーンに画像を投影する投影装置と、
前記投影装置に画像を出力する画像出力装置と
を備え、
前記画像出力装置は、
前記撮像装置から撮像画像を取得する取得部と、
前記撮像画像から、同種類の前記生物から成る生物群を認識する認識部と、
前記生物群に関するコンテンツ画像を取得するコンテンツ取得部と、
前記生物群の認識位置に基づき、前記透過型スクリーンにおける前記コンテンツ画像の
投影位置を決定する決定部と、
決定した前記投影位置に基づき、前記透過型スクリーンに前記コンテンツ画像を投影す
るように前記投影装置を制御する制御部と
を備え、
前記撮像画像は動画像であり、
前記認識部は、
前記動画像において時系列的に連続する第1及び第2の画像夫々から、前記生物に対応
する特徴点を抽出し、
前記第1及び第2の画像夫々から抽出した特徴点の座標値の差分に基づき、前記生物の
動きを検出し、
複数の前記生物夫々の動きに基づき、前記生物群を認識する
ことを特徴とする画像投影システム。
a transmissive screen provided on a transmissive wall forming one side of a space containing a plurality of living things;
an imaging device that captures an image of the interior of the space;
a projection device installed outside the space for projecting an image onto the transmissive screen;
an image output device that outputs an image to the projection device,
The image output device is
an acquisition unit that acquires a captured image from the imaging device;
a recognition unit that recognizes a group of organisms of the same type from the captured image;
a content acquisition unit that acquires a content image related to the organism group;
a determination unit that determines a projection position of the content image on the transmissive screen based on the recognized position of the organism group;
a control unit that controls the projection device to project the content image onto the transmissive screen based on the determined projection position;
The captured image is a moving image,
The recognition unit
extracting feature points corresponding to the organism from each of the first and second images that are continuous in time series in the moving image;
detecting the movement of the creature based on the difference between the coordinate values of the feature points extracted from each of the first and second images;
An image projection system that recognizes the group of organisms based on the movements of each of the plurality of organisms.
JP2022206039A 2018-08-27 2022-12-22 Display device, display method, program and image projection system Active JP7375901B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022206039A JP7375901B2 (en) 2018-08-27 2022-12-22 Display device, display method, program and image projection system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018158476A JP2020034609A (en) 2018-08-27 2018-08-27 Display unit, display method, program, and image projection system
JP2022206039A JP7375901B2 (en) 2018-08-27 2022-12-22 Display device, display method, program and image projection system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018158476A Division JP2020034609A (en) 2018-08-27 2018-08-27 Display unit, display method, program, and image projection system

Publications (2)

Publication Number Publication Date
JP2023038203A true JP2023038203A (en) 2023-03-16
JP7375901B2 JP7375901B2 (en) 2023-11-08

Family

ID=69667921

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018158476A Pending JP2020034609A (en) 2018-08-27 2018-08-27 Display unit, display method, program, and image projection system
JP2022206039A Active JP7375901B2 (en) 2018-08-27 2022-12-22 Display device, display method, program and image projection system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018158476A Pending JP2020034609A (en) 2018-08-27 2018-08-27 Display unit, display method, program, and image projection system

Country Status (1)

Country Link
JP (2) JP2020034609A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7449384B2 (en) 2020-06-08 2024-03-13 富士フイルム株式会社 Transparent screens for aquariums, aquariums, and transparent image display systems

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338115A (en) * 2004-05-24 2005-12-08 Seiko Epson Corp Water tank image display apparatus
JP2010028217A (en) * 2008-07-15 2010-02-04 Olympus Corp Personal digital assistant
US20130308064A1 (en) * 2012-05-17 2013-11-21 Disney Enterprises, Inc. Infrared video tracking for use in projecting onto dynamic water features
JP2015158648A (en) * 2014-02-25 2015-09-03 株式会社ソニー・コンピュータエンタテインメント Container, image display system, image display method, image display program and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338115A (en) * 2004-05-24 2005-12-08 Seiko Epson Corp Water tank image display apparatus
JP2010028217A (en) * 2008-07-15 2010-02-04 Olympus Corp Personal digital assistant
US20130308064A1 (en) * 2012-05-17 2013-11-21 Disney Enterprises, Inc. Infrared video tracking for use in projecting onto dynamic water features
JP2015158648A (en) * 2014-02-25 2015-09-03 株式会社ソニー・コンピュータエンタテインメント Container, image display system, image display method, image display program and recording medium

Also Published As

Publication number Publication date
JP2020034609A (en) 2020-03-05
JP7375901B2 (en) 2023-11-08

Similar Documents

Publication Publication Date Title
US8860760B2 (en) Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
CN106791710B (en) Target detection method and device and electronic equipment
RU2689136C2 (en) Automated determination of system behavior or user experience by recording, sharing and processing information associated with wide-angle image
JP5049798B2 (en) Synthetic image and video generation from ground truth data
US8055016B2 (en) Apparatus and method for normalizing face image used for detecting drowsy driving
US11935187B2 (en) Single-pass object scanning
US20160117832A1 (en) Method and apparatus for separating foreground image, and computer-readable recording medium
CN110070572A (en) The method and system of range image is generated using sparse depth data
US20150286853A1 (en) Eye gaze driven spatio-temporal action localization
JP2014106685A (en) Vehicle periphery monitoring device
US11159717B2 (en) Systems and methods for real time screen display coordinate and shape detection
CN104135926A (en) Image processing device, image processing system, image processing method, and program
US12014459B2 (en) Image processing device, image processing method, and program for forming an accurate three-dimensional map
CN112001912B (en) Target detection method and device, computer system and readable storage medium
JP6278242B2 (en) Shading device, shading method, and program
US7460705B2 (en) Head-top detecting method, head-top detecting system and a head-top detecting program for a human face
WO2020171379A1 (en) Capturing a photo using a mobile device
JP7375901B2 (en) Display device, display method, program and image projection system
US10692230B2 (en) Document imaging using depth sensing camera
JP2016219879A (en) Image processing apparatus, image processing method and program
Chew et al. Panorama stitching using overlap area weighted image plane projection and dynamic programming for visual localization
US20230421888A1 (en) Systems, Apparatus, and Methods for Improving Composition of Images
US20060010582A1 (en) Chin detecting method, chin detecting system and chin detecting program for a chin of a human face
US11610414B1 (en) Temporal and geometric consistency in physical setting understanding
US11205064B1 (en) Measuring quality of depth images in real time

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231009

R150 Certificate of patent or registration of utility model

Ref document number: 7375901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150