JP2020034609A - Display unit, display method, program, and image projection system - Google Patents

Display unit, display method, program, and image projection system Download PDF

Info

Publication number
JP2020034609A
JP2020034609A JP2018158476A JP2018158476A JP2020034609A JP 2020034609 A JP2020034609 A JP 2020034609A JP 2018158476 A JP2018158476 A JP 2018158476A JP 2018158476 A JP2018158476 A JP 2018158476A JP 2020034609 A JP2020034609 A JP 2020034609A
Authority
JP
Japan
Prior art keywords
image
display
fish
unit
living
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018158476A
Other languages
Japanese (ja)
Inventor
寛樹 吉原
Hiroki Yoshihara
寛樹 吉原
拓也 生駒
Takuya Ikoma
拓也 生駒
聡 田端
Satoshi Tabata
聡 田端
錬 松山
Ren Matsuyama
錬 松山
伊藤 直之
Naoyuki Ito
直之 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2018158476A priority Critical patent/JP2020034609A/en
Publication of JP2020034609A publication Critical patent/JP2020034609A/en
Priority to JP2022206039A priority patent/JP7375901B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Abstract

To provide a display unit that can suitably present a content image related to creatures to an observer.SOLUTION: A display unit 1 comprises: an acquisition unit that acquires a picked-up image obtained by picking up images of a plurality of creatures; a recognition unit that recognizes a creature group consisting of the creatures of the same type from the picked-up image; a content acquisition unit that acquires a content image related to the creature group; a determination unit that determines, on a recognition position of the creature group, a display position of the content image on a display surface provided between the plurality of creatures and an observer; and a display unit that displays the content image on the display surface on the basis of the determined display position.SELECTED DRAWING: Figure 1

Description

本発明は、表示装置、表示方法、プログラム及び画像投影システムに関する。   The present invention relates to a display device, a display method, a program, and an image projection system.

背景が透けて見える透過型のプロジェクタスクリーン、あるいは透過型ディスプレイを用いて、スクリーン又はディスプレイの背後にあるオブジェクトに関連する画像を提示する手法が提案されている。例えば特許文献1では、水族館の水槽の内部にプロジェクタを設置し、観測者(鑑賞者)が水槽内部を観察するためのガラス窓等のような水槽の透過壁に透過型スクリーンを設けた水槽映像表示装置が開示されている。特許文献1によれば、水槽外部に設置したカメラで水槽内を撮像し、撮像した画像から水槽内を遊泳する魚を認識して、プロジェクタによりスクリーン中の適切な位置に魚の説明等の画像を表示する。   There has been proposed a technique of presenting an image related to an object behind a screen or a display by using a transmissive projector screen or a transmissive display in which the background can be seen through. For example, in Patent Literature 1, a projector image is provided inside an aquarium water tank, and a transmission screen is provided on a transmission wall of the water tank such as a glass window for an observer (viewer) to observe the inside of the water tank. A display device is disclosed. According to Patent Literature 1, an image of the inside of the aquarium is taken by a camera installed outside the aquarium, a fish swimming in the aquarium is recognized from the taken image, and an image such as a description of the fish is displayed at an appropriate position in the screen by the projector. indicate.

特開2005−338115号公報JP 2005-338115 A

しかしながら、例えば水族館の水槽を考えた場合に、一の水槽内に複数の魚が遊泳している。従って、複数の魚が群れを成して遊泳しているような場合において、個々の魚毎に説明等の画像を表示した場合、各魚に対応する画像が重なって肝心の魚が観測者に見えない虞がある。   However, for example, when considering an aquarium tank, a plurality of fish are swimming in one tank. Therefore, in the case where a plurality of fish are swimming in a school, when images such as explanations are displayed for each individual fish, the images corresponding to each fish overlap and the fish of interest are given to the observer. There is a possibility that it cannot be seen.

一つの側面では、観測者に対して生物に関するコンテンツ画像を好適に提示することができる表示装置等を提供することを目的とする。   In one aspect, an object is to provide a display device or the like that can appropriately present a content image regarding a living thing to an observer.

一つの側面では、表示装置は、複数の生物を撮像した撮像画像を取得する取得部と、前記撮像画像から、同種類の前記生物から成る生物群を認識する認識部と、前記生物群に関するコンテンツ画像を取得するコンテンツ取得部と、前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面における前記コンテンツ画像の表示位置を決定する決定部と、決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する表示部とを備えることを特徴とする。   In one aspect, a display device includes: an acquisition unit configured to acquire a captured image of a plurality of living things; a recognition unit configured to recognize a group of living things including the same kind of living thing from the captured image; A content acquisition unit that acquires an image, and a determination unit that determines a display position of the content image on a display surface provided between the plurality of living things and an observer based on the recognition position of the group of living things, A display unit that displays the content image on the display surface based on the display position.

一つの側面では、観測者に対して生物に関するコンテンツ画像を好適に提示することができる。   In one aspect, a content image related to a living thing can be suitably presented to an observer.

画像表示システムの構成例を示す模式図である。It is a schematic diagram which shows the example of a structure of an image display system. PCの構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a PC. ラベルDBのレコードレイアウトの一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of a record layout of a label DB. ラベル画像の表示例を示す説明図である。FIG. 9 is an explanatory diagram illustrating a display example of a label image. ラベル画像の表示位置の変更処理に関する説明図である。FIG. 10 is an explanatory diagram related to a process of changing a display position of a label image. ラベル画像の表示態様の変更処理に関する説明図である。FIG. 10 is an explanatory diagram regarding a process of changing a display mode of a label image. PCが実行する処理手順の一例を示すフローチャートである。9 is a flowchart illustrating an example of a processing procedure executed by a PC. 実施の形態2に係る魚群認識処理に関する説明図である。FIG. 11 is an explanatory diagram relating to a fish school recognition process according to the second embodiment. 実施の形態2に係るラベル追跡処理に関する説明図である。FIG. 14 is an explanatory diagram relating to a label tracking process according to the second embodiment. 実施の形態2に係るPCが実行する処理手順の一例を示すフローチャートである。13 is a flowchart illustrating an example of a processing procedure executed by the PC according to the second embodiment. 実施の形態3に係る魚群認識処理に関する説明図である。FIG. 14 is an explanatory diagram relating to fish school recognition processing according to Embodiment 3. 実施の形態3に係るPCが実行する処理手順の一例を示すフローチャートである。15 is a flowchart illustrating an example of a processing procedure executed by a PC according to Embodiment 3. 実施の形態4に係るスクリーンの構成例を示す説明図である。FIG. 14 is an explanatory diagram illustrating a configuration example of a screen according to a fourth embodiment. 実施の形態4に係るPCが実行する処理手順の一例を示すフローチャートである。15 is a flowchart illustrating an example of a processing procedure executed by a PC according to Embodiment 4. 実施の形態5に係るラベル画像の表示例を示す説明図である。FIG. 19 is an explanatory diagram showing a display example of a label image according to Embodiment 5. 実施の形態5に係るPCが実行する処理手順の一例を示すフローチャートである。15 is a flowchart illustrating an example of a processing procedure executed by a PC according to Embodiment 5. 実施の形態6に係る画像表示システムの構成例を示す模式図である。FIG. 15 is a schematic diagram illustrating a configuration example of an image display system according to a sixth embodiment. 実施の形態6の概要を示す説明図である。FIG. 15 is an explanatory diagram illustrating an outline of a sixth embodiment. 実施の形態6に係る画像出力装置が実行する処理手順の一例を示すフローチャートである。15 is a flowchart illustrating an example of a processing procedure executed by the image output device according to the sixth embodiment. 上述した形態の画像出力装置の動作を示す機能ブロック図である。It is a functional block diagram showing operation of an image output device of the above-mentioned form.

以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、画像表示システムの構成例を示す模式図である。本実施の形態では、水族館の水槽の一面を形成するガラス窓等の透過壁に透過型のスクリーン4(表示面)を設け、スクリーン4に、水槽内の魚を説明するためのラベル画像(コンテンツ画像)を表示する画像表示システム(画像投影システム)について説明する。画像表示システムは、画像出力装置(表示装置)1、カメラ2及びプロジェクタ3を有する。各装置はLAN(Local Area Network)等のネットワークによって通信接続されている。
Hereinafter, the present invention will be described in detail with reference to the drawings showing the embodiments.
(Embodiment 1)
FIG. 1 is a schematic diagram illustrating a configuration example of an image display system. In the present embodiment, a transmissive screen 4 (display surface) is provided on a transmissive wall such as a glass window forming one surface of an aquarium aquarium, and a label image (contents) for explaining fish in the aquarium is provided on the screen 4. An image display system (image projection system) for displaying an image) will be described. The image display system includes an image output device (display device) 1, a camera 2, and a projector 3. Each device is communicatively connected by a network such as a LAN (Local Area Network).

画像出力装置1は、種々の情報処理、情報の送受信が可能な情報処理装置であり、例えばパーソナルコンピュータ、サーバ装置等の情報処理装置である。本実施の形態では情報処理装置1がパーソナルコンピュータであるものとし、以下では簡潔のためPC1と読み替える。PC1は、水槽内を遊泳する各種魚を説明するためのラベル画像をコンテンツとして記憶してあり、プロジェクタ3にラベル画像を出力し、スクリーン4に投影(表示)させる。なお、本実施の形態では説明の便宜上、哺乳類、軟体動物、節足動物のような魚類以外の生物であっても、水槽内の生物は「魚」と称する。   The image output device 1 is an information processing device capable of performing various types of information processing and information transmission / reception, and is, for example, an information processing device such as a personal computer and a server device. In the present embodiment, it is assumed that the information processing device 1 is a personal computer, and is hereinafter replaced with PC1 for simplicity. The PC 1 stores label images for explaining various fish swimming in the aquarium as contents, and outputs the label images to the projector 3 and projects (displays) them on the screen 4. In the present embodiment, for the sake of convenience of explanation, even organisms other than fish, such as mammals, mollusks, and arthropods, are referred to as “fish” in the aquarium.

本実施の形態でPC1は、水槽を撮像した撮像画像をカメラ2から取得し、撮像画像から各種魚を認識し、認識した魚のラベル画像をスクリーン4の近傍箇所に投影するよう表示制御を行う。この場合にPC1は、水槽内で魚が単体で遊泳しているか、又は群れとなって遊泳しているかを識別する。群れ、すなわち魚群であると認識した場合、PC1は、魚群を構成する個々の魚に対してラベル画像を投影するのではなく、魚群全体で一のラベルを投影するように表示制御を行う。   In the present embodiment, the PC 1 acquires a captured image of the aquarium from the camera 2, recognizes various fish from the captured image, and performs display control so as to project a label image of the recognized fish to a location near the screen 4. In this case, the PC 1 determines whether the fish is swimming alone or in a school in the water tank. When recognizing a school of fish, that is, a school of fish, the PC 1 performs display control so as to project one label for the entire school of fish, instead of projecting a label image for each fish constituting the school of fish.

カメラ2は、複数の魚が収容された水槽(空間)の内部を、観測者(鑑賞者)が水槽内を観察するためのガラス窓のような透過壁を介して撮像する撮像装置であり、例えば水族館の天井に設置されている。カメラ2は透過壁を介して水槽内部を撮像し、撮像した画像を動画像としてPC1に逐次送信する。   The camera 2 is an imaging device that captures an image of the inside of an aquarium (space) containing a plurality of fishes through a transparent wall such as a glass window for an observer (viewer) to observe the inside of the aquarium, For example, it is installed on the ceiling of an aquarium. The camera 2 captures an image of the inside of the water tank through the transparent wall, and sequentially transmits the captured image to the PC 1 as a moving image.

プロジェクタ3は、ラベル画像を投影する投影装置である。プロジェクタ3は、スクリーン4を介して水槽から反対側の位置、つまり水槽外部に設置されており、透過壁に設けられたスクリーン4にラベル画像を投影する。特許文献1に記載の発明のように、水槽内部にプロジェクタを設置し、水槽内部から透過型スクリーンへ画像を投影した場合、水槽内を遊泳する魚によってラベル画像が遮光されてしまう虞がある。一方で、本実施の形態のように水槽内ではなく水槽外部にプロジェクタ3を設置することで、プロジェクタ3からの投影光が水槽内の魚によって遮光されてしまう事態を防止する。   The projector 3 is a projection device that projects a label image. The projector 3 is installed at a position opposite to the water tank via the screen 4, that is, outside the water tank, and projects the label image on the screen 4 provided on the transmission wall. When a projector is installed inside a water tank and an image is projected from the inside of the water tank to a transmission screen as in the invention described in Patent Literature 1, there is a possibility that the label image may be shielded by fish swimming in the water tank. On the other hand, by installing the projector 3 outside the water tank instead of in the water tank as in the present embodiment, it is possible to prevent a situation in which the projection light from the projector 3 is blocked by fish in the water tank.

スクリーン4は、水槽内の魚と観測者との間に位置する水槽の透過壁に設けられた透過型スクリーンであり、照射光を拡散させる透明スクリーンフィルムである。例えばスクリーン4は水槽の透過壁の全面に貼付されており、正面から照射(投影)された画像光を前方に反射して画像を形成する。   The screen 4 is a transmission screen provided on a transmission wall of the water tank located between the fish in the water tank and the observer, and is a transparent screen film for diffusing irradiation light. For example, the screen 4 is attached to the entire surface of the transmission wall of the aquarium, and reflects an image light emitted (projected) from the front to form an image by reflecting the light forward.

なお、本実施の形態ではプロジェクタ3及びスクリーン4を用いて画像を投影(表示)するものとして説明するが、プロジェクタ3及びスクリーン4に代えて、水槽の透過壁に透過型ディスプレイを設置してもよい。水槽の透過壁に透過型ディスプレイを設置し、PC1が透過型ディスプレイに画像を表示する構成であっても、同様の効果を奏する。   In the present embodiment, an explanation will be given assuming that an image is projected (displayed) using the projector 3 and the screen 4. Good. The same effect can be obtained even when the transmission type display is installed on the transmission wall of the water tank and the PC 1 displays an image on the transmission type display.

図2は、PC1の構成例を示すブロック図である。PC1は、制御部11、主記憶部12、通信部13、表示部14、入力部15、補助記憶部16を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)等の演算処理装置を有し、補助記憶部16に記憶されたプログラムPを読み出して実行することにより、PC1に係る種々の情報処理、制御処理等を行う。主記憶部12は、RAM(Random Access Memory)等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための処理回路等を含み、外部と情報の送受信を行う。表示部14は液晶ディスプレイ等の表示装置であり、制御部11から与えられた画像を表示する。入力部15は、キーボード、マウス等の操作インターフェイスであり、操作入力を受け付ける。
FIG. 2 is a block diagram illustrating a configuration example of the PC 1. The PC 1 includes a control unit 11, a main storage unit 12, a communication unit 13, a display unit 14, an input unit 15, and an auxiliary storage unit 16.
The control unit 11 has one or more arithmetic processing units such as a CPU (Central Processing Unit) and an MPU (Micro-Processing Unit), and reads and executes the program P stored in the auxiliary storage unit 16, It performs various information processing and control processing related to the PC 1. The main storage unit 12 is a temporary storage area such as a random access memory (RAM), and temporarily stores data necessary for the control unit 11 to execute arithmetic processing. The communication unit 13 includes a processing circuit and the like for performing processing related to communication, and transmits and receives information to and from the outside. The display unit 14 is a display device such as a liquid crystal display, and displays an image provided from the control unit 11. The input unit 15 is an operation interface such as a keyboard and a mouse, and receives an operation input.

補助記憶部16は大容量メモリ、ハードディスク等の不揮発性記憶領域であり、制御部11が処理を実行するために必要なプログラムP、その他のデータを記憶している。なお、補助記憶部16はPC1に接続された外部記憶装置であってもよい。補助記憶部16はラベルDB161、識別モデル162を記憶している。ラベルDB161は、スクリーン4に投影するコンテンツであるラベル画像のデータを格納したデータベースである。識別モデル162は、カメラ2が撮像した画像から水槽内の魚を識別するための識別用データであり、後述するように、例えば機械学習により構築された学習済みモデルである。   The auxiliary storage unit 16 is a nonvolatile storage area such as a large-capacity memory or a hard disk, and stores a program P and other data necessary for the control unit 11 to execute processing. The auxiliary storage unit 16 may be an external storage device connected to the PC 1. The auxiliary storage unit 16 stores a label DB 161 and an identification model 162. The label DB 161 is a database that stores data of label images that are contents to be projected on the screen 4. The identification model 162 is identification data for identifying a fish in an aquarium from an image captured by the camera 2, and is a learned model constructed by, for example, machine learning, as described later.

図3は、ラベルDB161のレコードレイアウトの一例を示す説明図である。ラベルDB161は、ID列、種類列、ラベル画像列を含む。ID列は、水槽内を遊泳する各魚を識別するためのIDを記憶している。種類列は、IDと対応付けて、各魚の種別を記憶している。ラベル画像列は、IDと対応付けて、各魚を観測者に案内するためのラベル画像を記憶している。   FIG. 3 is an explanatory diagram illustrating an example of a record layout of the label DB 161. The label DB 161 includes an ID column, a type column, and a label image column. The ID column stores an ID for identifying each fish swimming in the aquarium. The type column stores the type of each fish in association with the ID. The label image sequence stores a label image for guiding each fish to the observer in association with the ID.

図4は、ラベル画像41の表示例を示す説明図である。図4では、カメラ2で撮像した画像から水槽中を遊泳する魚を認識し、認識した魚に関するラベル画像41を、魚を認識した位置近傍に表示する様子を概念的に図示している。図4に基づき、本実施の形態の概要について説明する。   FIG. 4 is an explanatory diagram illustrating a display example of the label image 41. FIG. 4 conceptually illustrates a state in which a fish swimming in an aquarium is recognized from an image captured by the camera 2 and a label image 41 relating to the recognized fish is displayed near a position where the fish is recognized. An outline of the present embodiment will be described with reference to FIG.

まずPC1は、カメラ2から、スクリーン4が設けられた水槽の透過壁を介して撮像された画像を、動画像として逐次取得する。図4では、PC1が取得する動画像の1フレームを模式的に示してある。ここで、図4に示すように、水槽内には「マアジ」のように魚群を形成して遊泳する魚と、「ナンヨウマンタ」のように単体で遊泳する魚とが居るものとする。   First, the PC 1 sequentially acquires, as a moving image, images captured from the camera 2 through the transmission wall of the water tank provided with the screen 4. FIG. 4 schematically shows one frame of a moving image acquired by the PC 1. Here, as shown in FIG. 4, it is assumed that there are a fish forming a school of fish, such as "maji", and a fish swimming alone, such as "nanyoumanta", in the aquarium.

PC1は撮像画像から、水槽内を遊泳する各魚を認識する。ここでPC1は、個々の魚を認識するだけでなく、単体で遊泳する魚と、魚群を形成して遊泳する魚とを識別する。   The PC 1 recognizes each fish swimming in the aquarium from the captured image. Here, the PC 1 not only recognizes individual fish, but also identifies fish swimming alone and fish swimming in a fish school.

例えばPC1は、予め補助記憶部16にセットされた識別モデル162を用いて、単体で遊泳する魚と、魚群を形成して遊泳する魚とを識別する。識別モデル162は、機械学習により構築された学習済みモデルであり、単体で遊泳する魚の画像特徴量と、同種類の複数の魚から成る魚群全体の画像特徴量とを学習した識別器である。例えば識別モデル162は、教師データから生成されたCNN(Convolution Neural Network)などであるが、機械学習の手法や識別器の構成は特に限定されない。識別モデル162は、他のニューラルネットワーク、SVM(Support Vector Machine)、ベイジアンネットワーク、決定木など、他のアルゴリズムに従って生成されたものであってもよい。例えば識別モデル162は、魚単体又は魚群全体を撮像した画像と、魚(単体又は魚群)の名称を指すラベル値とを対応付けた教師データに基づいて生成される。   For example, the PC 1 uses the identification model 162 set in the auxiliary storage unit 16 in advance to identify a fish swimming alone and a fish forming a school of fish and swimming. The discrimination model 162 is a learned model constructed by machine learning, and is a discriminator that has learned the image feature amount of a fish swimming alone and the image feature amount of the entire fish school including a plurality of fish of the same type. For example, the identification model 162 is a CNN (Convolution Neural Network) generated from teacher data, but the method of machine learning and the configuration of the classifier are not particularly limited. The identification model 162 may be generated according to another algorithm such as another neural network, an SVM (Support Vector Machine), a Bayesian network, or a decision tree. For example, the identification model 162 is generated based on teacher data that associates an image of a single fish or the entire fish school with a label value indicating the name of the fish (single or fish school).

PC1は、カメラ2から取得した撮像画像を識別モデル162に入力し、撮像画像に含まれる物体を識別した識別結果を出力値として得る。これにより、図4において点線矩形枠で示すように、PC1は水槽内を遊泳する魚を、単体又は魚群を区別した上で認識する。   The PC 1 inputs the captured image acquired from the camera 2 to the identification model 162, and obtains, as an output value, an identification result of identifying an object included in the captured image. As a result, as indicated by the dotted rectangular frame in FIG. 4, the PC 1 recognizes the fish swimming in the aquarium after distinguishing a single fish or a school of fish.

PC1は、撮像画像中で各魚(単体又は魚群)を認識した認識位置に基づき、各魚に対応してスクリーン4に表示(投影)するラベル画像41の表示位置(投影位置)を決定する。例えば図4に示すように、PC1は、魚近傍にラベル画像41が表示されるように、魚を認識した位置の直下を表示位置として決定する。   The PC 1 determines the display position (projection position) of the label image 41 to be displayed (projected) on the screen 4 corresponding to each fish based on the recognition position where each fish (single or school of fish) is recognized in the captured image. For example, as shown in FIG. 4, the PC 1 determines the display position immediately below the position where the fish is recognized so that the label image 41 is displayed near the fish.

PC1は、認識した魚に対応するラベル画像41をラベルDB161から読み出し、プロジェクタ3に出力して、水槽内の魚と観測者との間に設けられたスクリーン4に投影(表示)させる。ラベル画像41は魚の名称などであるが、名称以外の情報をラベル画像41に含めてもよい。また、ラベル画像41はテキストに限定されず、ピクチャ画像などであってもよい。   The PC 1 reads the label image 41 corresponding to the recognized fish from the label DB 161, outputs the label image 41 to the projector 3, and projects (displays) it on the screen 4 provided between the fish in the aquarium and the observer. Although the label image 41 is the name of a fish or the like, information other than the name may be included in the label image 41. Further, the label image 41 is not limited to text, but may be a picture image or the like.

上述の如く、水槽内の魚が魚群を形成して遊泳する場合に、PC1は魚群中の個々の魚に対してラベル画像41を表示するのではなく、魚群全体に対して一のラベル画像41を表示する。これにより、大量のラベル画像41がスクリーン4に映し出されることはなく、ラベル画像41が重なって魚が見えなくなる事態を回避することができる。   As described above, when the fish in the aquarium forms a school of fish and swims, the PC 1 does not display the label image 41 for each fish in the school of fish, but one label image 41 for the entire school of fish. Is displayed. Thereby, a large amount of label images 41 are not projected on the screen 4, and it is possible to avoid a situation where the label images 41 overlap and the fish cannot be seen.

図5は、ラベル画像41の表示位置の変更処理に関する説明図である。図5では、他の魚に重畳しないようにラベル画像41の表示位置を変更する様子を図示している。
上記ではPC1が水槽内の魚の近傍位置にラベル画像41を表示する旨を説明した。ここで、ラベル画像41が他の魚と重畳する場合、PC1は、非重畳となるようにラベル画像41の表示位置を変更する。
FIG. 5 is a diagram illustrating a process of changing the display position of the label image 41. FIG. 5 illustrates how the display position of the label image 41 is changed so as not to be superimposed on another fish.
In the above, it has been described that the PC 1 displays the label image 41 at a position near the fish in the aquarium. Here, when the label image 41 is superimposed on another fish, the PC 1 changes the display position of the label image 41 so as not to be superimposed.

図5の例では図4の各種魚に加えて、「ジンベイザメ」が撮像範囲に含まれている。この状態で図4と同様にラベル画像41を表示した場合、左上の「マアジ」のラベル画像41が図5の太い点線矩形枠の位置に表示されて「ジンベイザメ」に一部重なり、観測者に視認しにくくなる。   In the example of FIG. 5, “whale shark” is included in the imaging range in addition to the various fish of FIG. 4. When the label image 41 is displayed in this state in the same manner as in FIG. 4, the label image 41 of “Maggie” on the upper left is displayed at the position of the thick dotted rectangular frame in FIG. 5 and partially overlaps with “Whale Shark”, It becomes difficult to see.

撮像画像から各魚を認識し、ラベル画像41の表示位置を決定した後、PC1は各魚の位置とラベル画像41の表示位置とを比較して、ラベル画像41の表示位置が他の魚と重畳するか否かを判定する。ラベル画像41が重畳すると判定した場合、PC1は、ラベル画像41が非重畳なるように表示位置を変更する。図5の例では、PC1は、「マアジ」のラベル画像41を魚群の下側から上側に変更し、重畳を回避する。   After recognizing each fish from the captured image and determining the display position of the label image 41, the PC 1 compares the position of each fish with the display position of the label image 41, and superimposes the display position of the label image 41 on another fish. It is determined whether or not to perform. When determining that the label image 41 is superimposed, the PC 1 changes the display position so that the label image 41 is not superimposed. In the example of FIG. 5, the PC 1 changes the label image 41 of “Fuji” from the lower side to the upper side of the school of fish to avoid superimposition.

このように、ラベル画像41の表示位置を変更することで、ラベル画像41が重なって魚が見えなくなる事態を回避することができる。   In this way, by changing the display position of the label image 41, it is possible to avoid a situation where the label images 41 overlap and the fish cannot be seen.

なお、上記ではラベル画像41が魚と重畳するか否かに応じて表示位置を変更したが、本実施の形態はこれに限定されるものではない。例えばPC1は、撮像画像から認識した魚の位置がスクリーン4(表示面)の端(外縁)と重なる場合、スクリーン4中央にラベル画像41を寄せるよう表示位置を変更してもよい。   In the above description, the display position is changed according to whether or not the label image 41 is superimposed on the fish. However, the present embodiment is not limited to this. For example, when the position of the fish recognized from the captured image overlaps the edge (outer edge) of the screen 4 (display surface), the PC 1 may change the display position so that the label image 41 is moved to the center of the screen 4.

例えば図5では、右端に「マアジ」の魚群が位置しているが、魚群の一部がスクリーン4の設置範囲から外れた形となっており、魚群がスクリーン4の端と重なっている。このような場合に、スクリーン4の範囲から外れた部分も含めて魚群全体を認識し、スクリーン4にラベル画像41を投影した場合、ラベル画像41がスクリーン4の範囲から外れて投影される虞がある。   For example, in FIG. 5, a fish school of “maji” is located at the right end. However, a part of the school of fish is out of the installation range of the screen 4, and the school of fish overlaps the edge of the screen 4. In such a case, when the entire school of fish including the portion outside the range of the screen 4 is recognized and the label image 41 is projected on the screen 4, the label image 41 may be projected out of the range of the screen 4. is there.

そこでPC1は、例えば撮像画像から認識した魚(魚群)の認識位置がスクリーン4の端(外縁)と重畳するか否かを判定し、重畳すると判定した場合、スクリーン4(表示面)の設置範囲に含まれるようラベル画像41の表示位置を中央寄りに変更する。これにより、スクリーン4の端に位置する魚に関しても、適切な位置にラベル画像41を表示することができる。   Therefore, the PC 1 determines, for example, whether or not the recognition position of the fish (the school of fish) recognized from the captured image is superimposed on the edge (outer edge) of the screen 4. Is changed so that the display position of the label image 41 is closer to the center. Thereby, the label image 41 can be displayed at an appropriate position even for the fish located at the end of the screen 4.

図6は、ラベル画像41の表示態様の変更処理に関する説明図である。図6では、撮像画像から認識した魚群の規模に応じてラベル画像41の表示態様を変更する様子を図示している。
図4及び図5では、いずれの魚に対しても同様にラベル画像41を表示する様子を図示した。しかし、例えば水槽が大規模なものであり、水槽内に遊泳する魚群も大規模なものとなった場合、大規模な魚群に対して他の魚と同様にラベル画像41を表示しても、観測者が気づきにくい、あるいは視認しづらい虞がある。
FIG. 6 is a diagram illustrating a process of changing the display mode of the label image 41. FIG. 6 illustrates how the display mode of the label image 41 is changed according to the size of the fish school recognized from the captured image.
FIGS. 4 and 5 show the manner in which the label image 41 is displayed for any fish in the same manner. However, for example, if the aquarium is large and the school of fish swimming in the aquarium also becomes large, even if the label image 41 is displayed for the large fish school like other fish, There is a possibility that the observer may be hard to notice or difficult to see.

そこでPC1は、撮像画像から魚群を認識した場合、魚群の規模を判定する。例えばPC1は、撮像画像に占める魚群の認識範囲(図6の点線矩形枠)の大小に応じて規模を判定する。あるいはPC1は、魚群を形成する魚の数に応じて規模を判定してもよい。   Therefore, when recognizing the school of fish from the captured image, the PC 1 determines the size of the school of fish. For example, the PC 1 determines the scale according to the size of the recognition range of the fish school in the captured image (the dotted rectangular frame in FIG. 6). Alternatively, the PC 1 may determine the scale according to the number of fish forming the fish school.

所定規模以上の魚群であると判定した場合、PC1は、当該魚群に対応するラベル画像41の表示態様を変更する。例えばPC1は、当該魚群のラベル画像41を、他の魚(単体又は魚群)のラベル画像41よりも拡大して表示する。これにより、規模の大きな魚群であっても観測者がラベル画像41を容易に視認可能とする。   When it is determined that the fish school is a fish school of a predetermined size or more, the PC 1 changes the display mode of the label image 41 corresponding to the fish school. For example, the PC 1 displays the label image 41 of the fish school larger than the label image 41 of another fish (single or fish school). This allows the observer to easily recognize the label image 41 even for a large school of fish.

なお、上記では規模の大きな魚群のラベル画像41を拡大するものとしたが、反対に他の魚のラベル画像41を縮小して、魚群のラベル画像41を相対的に強調してもよい。また、表示態様の変更は拡大又は縮小に限定されない。例えばPC1は、規模の大きな魚群に対しては複数箇所に同じラベル画像41を表示することで、観測者がいずれかのラベル画像41を見つけやすいようにしてもよい。このように、PC1は魚群の規模に応じてラベル画像41の表示態様を変更可能であればよく、その表示態様は特に限定されない。   In the above description, the label image 41 of a large school of fish is enlarged. However, the label image 41 of another fish may be reduced and the label image 41 of the school of fish may be relatively emphasized. Further, the change of the display mode is not limited to enlargement or reduction. For example, the PC 1 may display the same label image 41 at a plurality of locations for a large school of fish so that the observer can easily find any of the label images 41. Thus, the PC 1 only needs to be able to change the display mode of the label image 41 according to the size of the school of fish, and the display mode is not particularly limited.

図7は、PC1が実行する処理手順の一例を示すフローチャートである。図7に基づき、PC1が実行する処理内容について説明する。
PC1の制御部11は、水槽内(移動空間)を遊泳する複数の魚(生物)を撮像した撮像画像をカメラ2から取得する(ステップS11)。制御部11は、識別モデル162に基づき、撮像画像から魚を認識する処理を行う(ステップS12)。例えば上述の如く、識別モデル162は機械学習により構築された学習済みモデルであり、魚単体、及び魚群全体の画像特徴量を学習した識別器である。制御部11は、カメラ2から取得した撮像画像を識別器に入力し、水槽内を単独で遊泳する魚単体、及び水槽内を集団で遊泳する魚群を識別した識別結果を取得する。
FIG. 7 is a flowchart illustrating an example of a processing procedure executed by the PC 1. The processing executed by the PC 1 will be described with reference to FIG.
The control unit 11 of the PC 1 acquires, from the camera 2, an image of a plurality of fish (creatures) swimming in the water tank (moving space) (Step S11). The control unit 11 performs a process of recognizing a fish from the captured image based on the identification model 162 (Step S12). For example, as described above, the discrimination model 162 is a learned model constructed by machine learning, and is a discriminator that has learned image feature amounts of a single fish and an entire school of fish. The control unit 11 inputs the captured image obtained from the camera 2 to the discriminator, and obtains an identification result in which a single fish swimming alone in the aquarium and a group of fish swimming in a group in the aquarium are identified.

制御部11は、ステップS12の処理の結果、撮像画像から魚群を認識したか否かを判定する(ステップS13)。魚群を認識したと判定した場合(S13:YES)、制御部11は、当該魚群を認識した撮像画像中の認識位置に基づき、当該魚群に関するラベル画像をスクリーン4に表示(投影)する表示位置(投影位置)を決定する(ステップS14)。   The control unit 11 determines whether or not the school of fish has been recognized from the captured image as a result of the processing in step S12 (step S13). When it is determined that the school of fish has been recognized (S13: YES), the control unit 11 displays (projects) a label image related to the school of fish on the screen 4 based on the recognition position in the captured image that recognized the school of fish ( The projection position is determined (step S14).

制御部11は、ステップS12における認識結果に基づき、当該魚群が所定規模以上の魚群であるか否かを判定する(ステップS15)。例えば制御部11は、撮像画像に占める魚群の認識範囲、又は魚群を形成する魚の数などに応じて規模を判定する。所定規模以上の魚群であると判定した場合(S15:YES)、制御部11は、当該魚群のラベル画像の表示態様を変更する(ステップS16)。例えば制御部11は、ラベル画像の拡大表示、複数表示などを行う。   The control unit 11 determines whether or not the school of fish is a school of fish of a predetermined size or more based on the recognition result in step S12 (step S15). For example, the control unit 11 determines the scale according to the recognition range of the fish school in the captured image or the number of fish forming the fish school. When it is determined that the fish school is a fish school of a predetermined size or more (S15: YES), the control unit 11 changes the display mode of the label image of the fish school (step S16). For example, the control unit 11 performs enlarged display, multiple display, and the like of the label image.

ステップS16の処理を実行後、又はステップS13、S15でNOの場合、制御部11は、魚群として認識されてなかった他の魚、つまり単体で遊泳する魚に関して、当該魚を認識した撮像画像中の位置に基づき、当該魚に関するラベル画像をスクリーン4に表示する表示位置を決定する(ステップS17)。   After executing the process of step S16, or in the case of NO in steps S13 and S15, the control unit 11 determines, with respect to another fish that has not been recognized as a fish school, that is, a fish swimming alone, in the captured image in which the fish is recognized. Based on the position, the display position at which the label image relating to the fish is displayed on the screen 4 is determined (step S17).

制御部11は、ステップS14又はS17で決定したラベル画像の表示位置が他の魚(単体又は魚群)と重畳するか否かを判定する(ステップS18)。重畳すると判定した場合(S18:YES)、制御部11は、ラベル画像が非重畳となるように表示位置を変更する(ステップS19)。   The control unit 11 determines whether or not the display position of the label image determined in step S14 or S17 overlaps with another fish (single or fish school) (step S18). When it is determined that the label image is superimposed (S18: YES), the control unit 11 changes the display position so that the label image is not superimposed (step S19).

ステップS19の処理を実行後、又はステップS18でNOの場合、制御部11は、ステップS12で認識した魚(単体又は魚群)のラベル画像をプロジェクタ3に出力し、ステップS14、S17等で定めた表示位置に投影(表示)する(ステップS20)。制御部11は、処理をステップS11に戻す。   After executing the process of step S19 or in the case of NO in step S18, the control unit 11 outputs the label image of the fish (single or fish school) recognized in step S12 to the projector 3, and determines the label image in steps S14, S17, and the like. The image is projected (displayed) on the display position (step S20). The control part 11 returns a process to step S11.

以上より、本実施の形態1によれば、撮像画像から魚群を認識し、魚群単位でラベル画像41を表示する。これにより、魚群を形成する個々の魚毎にラベル画像41が表示されて肝心の魚に重なってしまう虞が低減され、観測者に対して生物に関するラベル画像41を好適に提示することができる。   As described above, according to the first embodiment, the fish school is recognized from the captured image, and the label image 41 is displayed for each fish school. This reduces the risk that the label image 41 is displayed for each individual fish forming the fish school and overlaps with the essential fish, and the label image 41 relating to living organisms can be suitably presented to the observer.

また、本実施の形態1によれば、機械学習により構築された識別モデル162を用いて魚群を認識し、ラベル画像41を表示する。機械学習アルゴリズムを用いることで水槽内の魚を精度良く認識することができ、ラベル画像41をより好適に提示することができる。   Further, according to the first embodiment, the school of fish is recognized using the identification model 162 constructed by machine learning, and the label image 41 is displayed. By using the machine learning algorithm, the fish in the aquarium can be recognized with high accuracy, and the label image 41 can be presented more appropriately.

また、本実施の形態1によれば、水槽の透過壁(観察面)に透過型のスクリーン4を設け、水槽の前方、つまり水槽外部からラベル画像41を投影(表示)する。従って、特許文献1に記載の映像表示装置のように水槽内部から画像を投影して魚に重なるような虞が少なく、ラベル画像41をより好適に提示することができる。   According to the first embodiment, the transmission screen 4 is provided on the transmission wall (observation surface) of the water tank, and the label image 41 is projected (displayed) from the front of the water tank, that is, from outside the water tank. Therefore, unlike the video display device described in Patent Literature 1, there is little risk that the image is projected from the inside of the water tank and overlaps the fish, and the label image 41 can be more suitably presented.

また、本実施の形態1によれば、プロジェクタ3及びスクリーン4に代えて透過型ディスプレイを水槽の透過壁に設ける構成であってもよい。この場合でも、画像の重なりを回避してラベル画像41を好適に提示することができる。   Further, according to the first embodiment, a configuration in which a transmissive display is provided on the transmissive wall of the aquarium in place of the projector 3 and the screen 4 may be employed. Also in this case, it is possible to preferably present the label image 41 while avoiding overlapping of the images.

また、本実施の形態1によれば、魚群の規模に応じてラベル画像41の表示態様を変更することで、観測者の便宜に供することができる。   Further, according to the first embodiment, by changing the display mode of the label image 41 according to the size of the school of fish, it is possible to provide for the convenience of the observer.

また、本実施の形態1によれば、他の魚と非重畳となるようにラベル画像41の表示位置を変更することで、ラベル画像41が魚に重なって見えなくなる事態をより効果的に防止することできる。   Further, according to the first embodiment, by changing the display position of the label image 41 so as not to be superimposed on another fish, it is possible to more effectively prevent the label image 41 from overlapping the fish and becoming invisible. You can do it.

(実施の形態2)
実施の形態1では、ディープラーニングの手法を用いて魚群の特徴を学習し、学習済みモデルを用いて魚群を認識する形態について説明した。本実施の形態では、オプティカルフロー等の手法を用いて個々の魚の動きを特定し、特定した個々の魚の動きから魚群を認識する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
図8は、実施の形態2に係る魚群認識処理に関する説明図である。図8Aでは、撮像画像から特徴点を抽出してオプティカルフローを算出し、水槽内を移動する物体(魚)の動きを検出する様子を図示している。図8Bでは、複数の物体の動きから魚群を認識する様子を図示している。図8に基づき、本実施の形態の概要を説明する。
(Embodiment 2)
In the first embodiment, a description has been given of a mode in which the characteristics of a school of fish are learned using a deep learning technique, and the school of fish is recognized using a trained model. In the present embodiment, a form in which the movement of each fish is specified by using a method such as an optical flow and a school of fish is recognized from the specified movement of each fish will be described. Note that the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
FIG. 8 is an explanatory diagram relating to the school of fish recognition processing according to the second embodiment. FIG. 8A illustrates a state in which a feature point is extracted from a captured image, an optical flow is calculated, and a motion of an object (fish) moving in the aquarium is detected. FIG. 8B illustrates a state where a school of fish is recognized based on the movement of a plurality of objects. An outline of the present embodiment will be described with reference to FIG.

実施の形態1と同じく、PC1はカメラ2から水槽の撮像画像を動画像として逐次取得する。ここでPC1は、例えばオプティカルフローの手法を用い、動画像に含まれる各画像(フレーム)を比較することで水槽内を移動する物体の動きを特定する。   As in the first embodiment, the PC 1 sequentially acquires captured images of the aquarium from the camera 2 as moving images. Here, the PC 1 specifies the movement of the object moving in the aquarium by comparing each image (frame) included in the moving image using, for example, an optical flow technique.

具体的には、PC1は動画像において時系列的に連続する2つの画像(第1及び第2の画像)それぞれから特徴点を抽出する。特徴点は、画像内の各画素の明るさ(輝度)から割り出される。PC1は、2つの画像の間での特徴点の座標値の差分を元に、特徴点の動きを表すベクトル値、つまりオプティカルフローを算出する。図8Aに、オプティカルフローが算出される様子を図示する。図8Aでは白抜き丸印が特徴点を、矢印がオプティカルフローに相当するベクトルを表す。   Specifically, the PC 1 extracts feature points from each of two images (first and second images) that are continuous in time series in the moving image. The feature points are calculated from the brightness (luminance) of each pixel in the image. The PC 1 calculates a vector value representing the motion of the feature point, that is, an optical flow, based on the difference between the coordinate values of the feature point between the two images. FIG. 8A illustrates how the optical flow is calculated. In FIG. 8A, a white circle represents a feature point, and an arrow represents a vector corresponding to an optical flow.

PC1は、一又は複数の特徴点に対応するオプティカルフローから、水槽内を移動する個々の物体、つまり魚を検出する。例えば図8Aに示すように、PC1は近接する複数の特徴点に係るオプティカルフローが同一方向かつ同一速度のベクトル値を示す場合に、当該複数の特徴点を一の移動物体(魚)として検出する。なお、PC1は一の特徴点の動き(オプティカルフロー)から移動物体を検出してもよい。   The PC 1 detects an individual object moving in the water tank, that is, a fish, from the optical flows corresponding to one or a plurality of feature points. For example, as shown in FIG. 8A, when optical flows related to a plurality of adjacent feature points indicate vector values of the same direction and the same speed, the PC 1 detects the plurality of feature points as one moving object (fish). . Note that the PC 1 may detect the moving object from the movement (optical flow) of one feature point.

水槽内を移動する個々の物体の動きを検出した後、PC1は、複数の物体の動きを比較して、集団を形成して水槽内を移動する物体、つまり魚群を検出(認識)する。例えば図8Bに示すように、PC1は、所定範囲内に位置する複数の物体のオプティカルフローが略同一方向かつ略同一速度のベクトル値を示す場合に、当該複数の物体を魚群として検出する。   After detecting the movement of each object moving in the aquarium, the PC 1 compares the movements of a plurality of objects and detects (recognizes) an object forming a group and moving in the aquarium, that is, a school of fish. For example, as illustrated in FIG. 8B, when the optical flows of a plurality of objects located within a predetermined range indicate vector values in substantially the same direction and substantially the same speed, the PC 1 detects the plurality of objects as a school of fish.

PC1は、検出した魚群を構成する一の物体(魚)に対して画像認識を行い、何の魚の魚群であるかを特定する。PC1は他の魚(単体又は魚群)に対しても同様に画像認識を行い、何の魚であるかを特定する。PC1は、特定した各魚のラベル画像41をプロジェクタ3に出力し、各魚の近傍位置に投影させる。   The PC 1 performs image recognition on one object (fish) constituting the detected school of fish, and specifies what kind of fish the school of fish is. The PC 1 similarly performs image recognition on other fish (single or fish school) and specifies what kind of fish it is. The PC 1 outputs the specified label image 41 of each fish to the projector 3 and projects the label image 41 at a position near each fish.

図9は、実施の形態2に係るラベル追跡処理に関する説明図である。図9では、検出した魚群の動きに合わせてラベル画像41を移動させる追跡表示を概念的に図示している。
上述の如く、PC1は水槽内の魚(単体又は魚群)の動きを検出する。PC1は、検出した魚の動きから次にどこに移動するかを推定し、推定した位置にラベル画像41を移動させる追跡表示を行う。PC1は、魚の動きを表すオプティカルフローから移動方向及び移動速度を推定し、推定した方向及び速度に合わせてラベル画像41の表示位置を移動させるようにプロジェクタ3を制御する。このように、魚の動きを検出することで魚群を認識するだけでなく、ラベル画像41を好適な位置に移動させるよう表示制御を行うこともできる。
FIG. 9 is an explanatory diagram relating to the label tracking processing according to the second embodiment. FIG. 9 conceptually illustrates a tracking display in which the label image 41 is moved in accordance with the detected movement of the school of fish.
As described above, the PC 1 detects the movement of the fish (single or fish school) in the aquarium. The PC 1 estimates where to move next from the detected movement of the fish, and performs tracking display for moving the label image 41 to the estimated position. The PC 1 estimates the moving direction and the moving speed from the optical flow indicating the movement of the fish, and controls the projector 3 to move the display position of the label image 41 in accordance with the estimated direction and speed. As described above, not only the fish school is recognized by detecting the movement of the fish, but also the display control can be performed to move the label image 41 to a suitable position.

図10は、実施の形態2に係るPC1が実行する処理手順の一例を示すフローチャートである。
カメラ2から撮像画像を取得した後(ステップS11)、PC1の制御部11は以下の処理を実行する。制御部11は、取得した撮像画像に含まれる特徴点を抽出する(ステップS201)。例えば制御部11は、撮像画素に含まれる各画素の明るさに応じて特徴点を抽出する。
FIG. 10 is a flowchart illustrating an example of a processing procedure executed by the PC 1 according to the second embodiment.
After acquiring the captured image from the camera 2 (step S11), the control unit 11 of the PC 1 executes the following processing. The control unit 11 extracts a feature point included in the acquired captured image (Step S201). For example, the control unit 11 extracts a feature point according to the brightness of each pixel included in the imaging pixel.

制御部11は、動画像として逐次取得する画像のうち、時系列的に連続する2つの画像(第1及び第2の画像)それぞれから抽出した特徴点の座標値の差分に基づき、水槽内を移動する物体(魚)の動きを検出する(ステップS202)。例えば制御部11は、特徴点毎にオプティカルフローを算出し、近接する一又は複数の特徴点のオプティカルフローに基づき、個々の移動物体の動きを検出する。   The control unit 11 controls the inside of the water tank based on the difference between the coordinate values of the feature points extracted from each of the two images (first and second images) that are successive in time series among the images sequentially acquired as a moving image. The movement of a moving object (fish) is detected (step S202). For example, the control unit 11 calculates an optical flow for each feature point, and detects the motion of each moving object based on the optical flows of one or more adjacent feature points.

制御部11は、検出した各物体の動きに基づき、複数の物体が集団で動いている否かを判定する(ステップS203)。集団で動いていると判定した場合(S203:YES)、制御部11は、集団を構成するいずれかの物体に対する画像認識を行い、魚の種別を特定する(ステップS204)。制御部11は処理をステップS14に移行する。   The control unit 11 determines whether a plurality of objects are moving in a group based on the detected movement of each object (step S203). If it is determined that the group is moving (S203: YES), the control unit 11 performs image recognition on any of the objects constituting the group and specifies the type of fish (step S204). The control unit 11 shifts the processing to step S14.

ステップS16の処理を実行後、又はステップS203、S15でNOの場合、制御部11は、単体で動いている物体に対する画像認識を行い、魚の種別を特定する(ステップS205)。制御部11は処理をステップS17に移行する。   After executing the process in step S16, or in the case of NO in steps S203 and S15, the control unit 11 performs image recognition on an object moving alone, and specifies the type of fish (step S205). The control unit 11 shifts the processing to step S17.

ステップS19の処理を実行後、又はステップS18でNOの場合、制御部11はラベル画像41をプロジェクタ3に出力して投影(表示)させる(ステップS206)。この場合に制御部11は、ステップS202で検出した魚の動きに基づき、ラベル画像41に対応する魚(単体又は魚群)の移動方向及び移動速度を推定する。制御部11は、推定した移動方向及び移動速度に合わせてラベル画像41の表示位置を移動する追跡表示を行う。制御部11は処理をステップS11に戻す。   After executing the processing in step S19 or in the case of NO in step S18, the control unit 11 outputs the label image 41 to the projector 3 and projects (displays) it (step S206). In this case, the control unit 11 estimates the moving direction and the moving speed of the fish (single or fish school) corresponding to the label image 41 based on the movement of the fish detected in step S202. The control unit 11 performs tracking display in which the display position of the label image 41 is moved according to the estimated moving direction and moving speed. Control unit 11 returns the process to step S11.

以上より、本実施の形態2によれば、オプティカルフロー等の手法で魚の動きを検出し、検出した個々の魚の動きから魚群を検出する。これにより、学習済みモデルを持たない場合であっても魚群を認識してラベル画像41を提示することができる。   As described above, according to the second embodiment, the movement of fish is detected by a technique such as optical flow, and a school of fish is detected from the detected movement of each fish. Thereby, even if the user does not have the learned model, the fish school can be recognized and the label image 41 can be presented.

また、本実施の形態2によれば、検出した魚の動きからどこに移動するかを推定し、ラベル画像41の追跡表示を行うことができる。これにより、魚とラベル画像41との位置ずれを回避し、ラベル画像41を好適に提示することができる。   Further, according to the second embodiment, it is possible to estimate where to move from the detected movement of the fish, and perform tracking display of the label image 41. Thereby, the displacement between the fish and the label image 41 can be avoided, and the label image 41 can be suitably presented.

(実施の形態3)
本実施の形態では、撮像画像から全ての魚を認識し、認識した各魚の位置関係から魚群を識別する形態について説明する。
図11は、実施の形態3に係る魚群認識処理に関する説明図である。実施の形態2では魚群を検出した後に個々の魚を特定する形態について述べたが、本実施の形態では先に個々の魚を特定し、特定した魚の位置関係から魚群を認識する。
(Embodiment 3)
In the present embodiment, a description will be given of a mode in which all fish are recognized from a captured image and a school of fish is identified from the positional relationship between the recognized fish.
FIG. 11 is an explanatory diagram relating to a fish school recognition process according to the third embodiment. In the second embodiment, the form in which the individual fish is specified after the detection of the group of fish has been described. However, in the present embodiment, the individual fish is specified first, and the group of fish is recognized from the positional relationship of the specified fish.

具体的には、PC1は撮像画像に対する画像認識を行い、水槽内を遊泳する全ての魚を認識する。図11の例では、PC1は「マダライルカ」及び「ナンヨウマンタ」だけでなく、魚群を形成する4匹の「クロマグロ」に関しても、各個体を「クロマグロ」として認識する。   Specifically, the PC 1 performs image recognition on the captured image, and recognizes all fish swimming in the aquarium. In the example of FIG. 11, the PC 1 recognizes each individual as a “bluefin tuna” not only for “blue dolphins” and “nanyoumanta” but also for four “bluefin tuna” forming a fish school.

その後、PC1は、複数の魚の種別及び位置関係から、同種別の複数の魚が形成する魚群を認識する。例えばPC1は、同種別かつ所定数以上の魚(個体)が所定範囲内に位置するか否かに応じて魚群を認識する。図11の例では、撮像画像の上側の画像領域に、種別が「クロマグロ」で共通する複数の魚が密集している。PC1は、当該複数の魚が所定範囲内に位置する場合、当該複数の魚を「クロマグロ」の魚群として認識する。   Thereafter, the PC 1 recognizes a fish school formed by a plurality of fish of the same type from the types and positional relationships of the plurality of fish. For example, the PC 1 recognizes a school of fish depending on whether or not fish (individuals) of the same type and a predetermined number or more are located within a predetermined range. In the example of FIG. 11, a plurality of fishes of the type “BFT” are common in the upper image area of the captured image. When the plurality of fishes are located within the predetermined range, the PC 1 recognizes the plurality of fishes as a “bluefin tuna” fish school.

図12は、実施の形態3に係るPC1が実行する処理手順の一例を示すフローチャートである。
カメラ2から撮像画像を取得した後(ステップS11)、PC1の制御部11は以下の処理を実行する。制御部11は撮像画像に対する画像認識を行い、水槽内の複数の魚全てをそれぞれ認識する(ステップS301)。制御部11は、認識した各魚の位置関係に基づき、複数の魚が魚群を形成しているか否かを判定する(ステップS302)。例えば上述の如く、制御部11は同種別かつ所定数以上の魚が所定範囲内に位置するか否かを判定することで、魚群を形成しているか否かを判定する。魚群を形成していると判定した場合(S302:YES)、制御部11は処理をステップS14に移行する。魚群を形成していないと判定した場合(S302:NO)、制御部11は処理をステップS17に移行する。
FIG. 12 is a flowchart illustrating an example of a processing procedure executed by the PC 1 according to the third embodiment.
After acquiring the captured image from the camera 2 (step S11), the control unit 11 of the PC 1 executes the following processing. The control unit 11 performs image recognition on the captured image, and recognizes all of the plurality of fish in the water tank (step S301). The control unit 11 determines whether or not a plurality of fish form a fish school based on the recognized positional relationship of each fish (Step S302). For example, as described above, the control unit 11 determines whether or not a fish school is formed by determining whether or not fish of the same type and a predetermined number or more are located within a predetermined range. When it is determined that a school of fish is formed (S302: YES), the control unit 11 shifts the processing to step S14. When it is determined that no fish school is formed (S302: NO), the control unit 11 shifts the processing to step S17.

以上より、本実施の形態3によれば、撮像画像から全ての魚を認識し、認識した魚の種類、数、及び位置関係から魚群を識別してラベル画像41を表示する。これにより、観測者にラベル画像41を好適に提示することができる。   As described above, according to the third embodiment, all the fish are recognized from the captured image, the fish school is identified based on the type, number, and positional relationship of the recognized fish, and the label image 41 is displayed. Thereby, the label image 41 can be suitably presented to the observer.

(実施の形態4)
本実施の形態では、水槽の透過壁の一部領域にのみスクリーン4を設け、スクリーン4が設けられている領域を魚が通過した場合のみラベル画像41を投影する形態について説明する。
図13は、実施の形態4に係るスクリーン4の構成例を示す説明図である。本実施の形態では、スクリーン4は水槽の透過壁の全面ではなく、一部領域にのみ設けられている。例えば図13に示すように、スクリーン4は、正面視において透過壁の左側半面に設けられている。
(Embodiment 4)
In the present embodiment, an embodiment will be described in which the screen 4 is provided only in a part of the transmission wall of the aquarium, and the label image 41 is projected only when the fish passes through the area where the screen 4 is provided.
FIG. 13 is an explanatory diagram illustrating a configuration example of the screen 4 according to the fourth embodiment. In the present embodiment, the screen 4 is provided not in the entire surface of the transmission wall of the water tank, but in only a partial area. For example, as shown in FIG. 13, the screen 4 is provided on the left half surface of the transmission wall when viewed from the front.

なお、スクリーン4を設ける範囲は図13の例に限定されず、例えば右側半面、上側半面などに変更してもよい。また、透過壁全面に占めるスクリーン4の面積の割合も特に限定されない。   The range in which the screen 4 is provided is not limited to the example of FIG. 13, and may be changed to, for example, a right half surface, an upper half surface, or the like. Further, the ratio of the area of the screen 4 to the entire surface of the transmission wall is not particularly limited.

PC1は、正面視においてスクリーン4が設けられた領域内を魚が通過した場合にのみ、ラベル画像41を投影(表示)する。例えばPC11は、図13に示すように撮像画像から水槽内の全ての魚(単体又は魚群)を認識する。その上でPC11は、スクリーン4の設置領域を通過する魚を特定する。例えばPC11は、各魚に対応するラベル画像41を投影(表示)した場合に、ラベル画像41の表示位置がスクリーン4の設置領域内であるか否かを判定する。スクリーン4の設置領域内であると判定した場合、PC1はプロジェクタ3を制御し、スクリーン4にラベル画像41を投影させる。   The PC 1 projects (displays) the label image 41 only when the fish passes through the area where the screen 4 is provided in front view. For example, the PC 11 recognizes all fish (single or fish school) in the aquarium from the captured image as shown in FIG. Then, the PC 11 specifies a fish passing through the installation area of the screen 4. For example, when the label image 41 corresponding to each fish is projected (displayed), the PC 11 determines whether or not the display position of the label image 41 is within the installation area of the screen 4. When determining that the label image 41 is within the installation area of the screen 4, the PC 1 controls the projector 3 to project the label image 41 on the screen 4.

図14は、実施の形態4に係るPC1が実行する処理手順の一例を示すフローチャートである。
ステップS19の処理を実行後、又はステップS18でNOの場合、PC1の制御部11は以下の処理を実行する。制御部11は、撮像画像の認識結果に基づき決定したラベル画像41の表示位置が、水槽の透過壁にスクリーン4が設けられた領域内であるか否かを判定する(ステップS401)。スクリーン4が設けられている領域内であると判定した場合(S401:YES)、制御部11はスクリーン4にラベル画像41を投影(表示)する(ステップS402)。ステップS402の処理を実行後、又はステップS401でNOの場合、制御部11は処理をステップS11に戻す。
FIG. 14 is a flowchart illustrating an example of a processing procedure executed by the PC 1 according to the fourth embodiment.
After executing the processing in step S19 or in the case of NO in step S18, the control unit 11 of the PC 1 executes the following processing. The control unit 11 determines whether or not the display position of the label image 41 determined based on the recognition result of the captured image is in an area where the screen 4 is provided on the transmission wall of the aquarium (step S401). When it is determined that it is within the area where the screen 4 is provided (S401: YES), the control unit 11 projects (displays) the label image 41 on the screen 4 (Step S402). After executing the process of step S402, or in the case of NO in step S401, the control unit 11 returns the process to step S11.

なお、上記では水槽内の全ての魚を認識した上でスクリーン4の領域内を通過する魚を識別することにしたが、本実施の形態はこれに限定されるものではない。例えばカメラ2はスクリーン4が設けられた領域のみを撮像し、PC1が撮像範囲を絞った画像から魚を認識することで、スクリーン4の範囲内を通過する魚を識別するようにしてもよい。すなわちPC1は、スクリーン4が設けられた透過壁の一部領域に対応する撮像画像の画像領域から魚を認識し、スクリーン4にラベル画像41を投影可能であればよく、水槽内の全ての空間を撮像して全ての魚を認識することは必須ではない。   In the above description, the fish passing through the area of the screen 4 is identified after all the fish in the aquarium are recognized, but the present embodiment is not limited to this. For example, the camera 2 may capture an image of only the area where the screen 4 is provided, and the PC 1 may recognize a fish from an image having a reduced imaging range, thereby identifying a fish passing through the area of the screen 4. That is, the PC 1 only needs to be able to recognize the fish from the image area of the captured image corresponding to a partial area of the transmission wall provided with the screen 4 and project the label image 41 on the screen 4. It is not indispensable to take an image of and recognize all fish.

以上より、本実施の形態4によれば、ラベル画像41の表示領域を水槽の透過壁の一部領域に絞ることもでき、実際の運用に合わせて柔軟な構成とすることができる。   As described above, according to the fourth embodiment, the display area of the label image 41 can be narrowed down to a partial area of the transmission wall of the aquarium, and a flexible configuration can be provided in accordance with actual operation.

(実施の形態5)
本実施の形態では、観測者の位置に応じてラベル画像41の表示位置を決定する形態について説明する。
図15は、実施の形態5に係るラベル画像41の表示例を示す説明図である。図15では、観測者が居る位置に近づくようにラベル画像41の表示位置を制御する様子を概念的に図示している。
(Embodiment 5)
In the present embodiment, a mode in which the display position of the label image 41 is determined according to the position of the observer will be described.
FIG. 15 is an explanatory diagram illustrating a display example of the label image 41 according to the fifth embodiment. FIG. 15 conceptually illustrates how the display position of the label image 41 is controlled so as to approach the position where the observer is.

本実施の形態でPC1は撮像画像から、水槽内の魚だけでなく、水槽内を観察する観測者を認識する。例えばカメラ2は、水槽内部と、観測者が位置する水槽正面の所定範囲とを撮像範囲として設定してあり、PC1は、カメラ2が当該撮像範囲を撮像した画像から水槽周囲に居る観測者を認識する。あるいはカメラ2を全方位カメラとして構成し、水槽が設置された水族館の部屋全体を撮像して、水槽正面に居る観測者を認識してもよい。あるいは、水槽内部を撮像するカメラ2と、水槽正面を撮像するカメラ2とを別々に設け、後者のカメラ2で撮像した画像から観測者を認識してもよい。   In the present embodiment, the PC 1 recognizes not only fish in the aquarium but also an observer who observes the aquarium from the captured image. For example, the camera 2 sets the inside of the aquarium and a predetermined range in front of the aquarium where the observer is located as an imaging range, and the PC 1 determines an observer around the aquarium from an image obtained by the camera 2 capturing the imaging range. recognize. Alternatively, the camera 2 may be configured as an omnidirectional camera, and may image the entire room of the aquarium in which the aquarium is installed to recognize an observer in front of the aquarium. Alternatively, the camera 2 for imaging the inside of the water tank and the camera 2 for imaging the front of the water tank may be separately provided, and the observer may be recognized from the image captured by the latter camera 2.

PC1は、撮像画像から認識した観測者の位置に応じてラベル画像41の表示位置を制御する。図15の例では、観測者が水槽の左右方向において略中央に位置している。この場合、PC1は、観測者が居ない場合と比較してラベル画像41が中央寄りに位置するように表示位置を制御する。図15の例では、PC1は右側に位置する「クロマグロ」、「ナンヨウマンタ」、「マアジ」のラベル画像41を左寄りにシフトし、左側に位置する「マアジ」、「マダライルカ」のラベル画像41は右寄りにシフトする。このように、PC1は観測者の位置にラベル画像41が近づくように表示位置を制御する。   The PC 1 controls the display position of the label image 41 according to the position of the observer recognized from the captured image. In the example of FIG. 15, the observer is located substantially at the center in the horizontal direction of the water tank. In this case, the PC 1 controls the display position such that the label image 41 is located closer to the center as compared with the case where no observer is present. In the example of FIG. 15, the PC 1 shifts the label images 41 of “bluefin tuna”, “nanyoumanta”, and “maji” located on the right side to the left, and the label images 41 of “maji” and “madara dolphin” located on the left side Shifts to the right. In this way, the PC 1 controls the display position so that the label image 41 approaches the position of the observer.

上述の処理により、ラベル画像41が観測者にとって見やすい位置にシフトさせることができ、ラベル画像41をより好適に提示することができる。   By the above-described processing, the label image 41 can be shifted to a position that is easy for the observer to see, and the label image 41 can be more appropriately presented.

図16は、実施の形態5に係るPC1が実行する処理手順の一例を示すフローチャートである。
カメラ2から撮像画像を取得した後(ステップS11)、PC1の制御部11は以下の処理を実行する。制御部11は、撮像画像から魚(単体又は魚群)を認識すると共に、水槽内を観察する観測者を認識する(ステップS501)。制御部11は処理をステップS13に移行する。
FIG. 16 is a flowchart illustrating an example of a processing procedure executed by the PC 1 according to the fifth embodiment.
After acquiring the captured image from the camera 2 (step S11), the control unit 11 of the PC 1 executes the following processing. The control unit 11 recognizes a fish (single or a school of fish) from the captured image and also recognizes an observer observing the inside of the aquarium (step S501). The control unit 11 shifts the processing to step S13.

撮像画像から魚群を認識したと判定した場合(S13:YES)、制御部11は、撮像画像から認識した魚群の位置と、観測者の位置とに基づき、魚群に対応するラベル画像41の表示位置を決定する(ステップS502)。例えば図15で説明したように、制御部11は、観測者が認識されなかった場合の表示位置から、観測者の位置にラベル画像41が近づくようにラベル画像41の表示位置を決定する。制御部11は処理をステップS15に移行する。   When it is determined that the fish school is recognized from the captured image (S13: YES), the control unit 11 displays the label image 41 corresponding to the fish school based on the fish school position and the observer position recognized from the captured image. Is determined (step S502). For example, as described in FIG. 15, the control unit 11 determines the display position of the label image 41 from the display position when the observer is not recognized so that the label image 41 approaches the observer's position. The control unit 11 shifts the processing to step S15.

ステップS16の処理を実行後、又はステップS13、S15でNOの場合、制御部11は、撮像画像から認識した単体の魚の位置と、観測者の位置とに基づき、単体で遊泳する魚のラベル画像41の表示位置を決定する(ステップS503)。具体的にはステップS502と同様に、制御部11はラベル画像41が観測者の位置に近づくように表示位置を決定する。制御部11は処理をステップS18に移行する。   After executing the processing in step S16, or in the case of NO in steps S13 and S15, the control unit 11 determines the label image 41 of the fish swimming alone based on the position of the single fish recognized from the captured image and the position of the observer. Is determined (step S503). Specifically, similarly to step S502, the control unit 11 determines the display position so that the label image 41 approaches the position of the observer. The control unit 11 shifts the processing to step S18.

以上より、本実施の形態5によれば、観測者の位置も考慮してラベル画像41の表示位置を決定することができ、ラベル画像41をより好適に提示することができる。   As described above, according to the fifth embodiment, the display position of the label image 41 can be determined in consideration of the position of the observer, and the label image 41 can be more appropriately presented.

(実施の形態6)
実施の形態1では、水族館の水槽の透過壁にスクリーン4を設け、水槽内を遊泳する魚に関するラベル画像41をスクリーン4に投影(表示)する形態について説明した。本実施の形態では、サファリパークのように車両内から動物(生物)を観察する場合において、車両の窓を透過型ディスプレイ604として構成し、車両の窓にラベル画像41を表示する形態について説明する。
図17は、実施の形態6に係る画像表示システムの構成例を示す模式図である。本実施の形態に係る画像表示システムは、画像出力装置1、カメラ602、及び透過型ディスプレイ604を有する。画像出力装置1は、例えば実施の形態1と同様にパーソナルコンピュータとする構成のほか、ECU(Electronic Control Unit)等の車載機器として構成してもよい。
(Embodiment 6)
In the first embodiment, the screen 4 is provided on the transmission wall of the aquarium aquarium, and the label image 41 relating to the fish swimming in the aquarium is projected (displayed) on the screen 4. In the present embodiment, when observing an animal (living organism) from inside a vehicle like a safari park, a mode in which the window of the vehicle is configured as a transmissive display 604 and the label image 41 is displayed on the window of the vehicle will be described.
FIG. 17 is a schematic diagram illustrating a configuration example of an image display system according to Embodiment 6. The image display system according to the present embodiment includes an image output device 1, a camera 602, and a transmissive display 604. The image output device 1 may be configured as an in-vehicle device such as an ECU (Electronic Control Unit) in addition to the configuration of a personal computer as in the first embodiment, for example.

カメラ602は、車両の周囲を撮像する撮像装置であり、例えば全方位カメラである。カメラ602は、車両の進行方向を前方とした場合に、前後左右に亘る360度の全方位を撮像する。なお、カメラ602を全方位カメラとせず、例えば車両の前部、後部、及び左右側部にそれぞれカメラ602を設け、複数のカメラ602で全方位を撮像する構成としてもよい。また、本実施の形態では透過型ディスプレイ604を車両側部の窓にのみ設けるため、カメラ602は全方位を撮像せず、車両の左右方向のみを撮像する構成としても良い。   The camera 602 is an imaging device that captures an image around the vehicle, and is, for example, an omnidirectional camera. When the traveling direction of the vehicle is forward, the camera 602 captures 360-degree omnidirectional images extending in the front, rear, left, and right directions. Note that the camera 602 may not be an omnidirectional camera, but may be, for example, provided with cameras 602 at the front, rear, and right and left sides of the vehicle, and a plurality of cameras 602 may capture images in all directions. Further, in this embodiment, since the transmissive display 604 is provided only in the window on the side of the vehicle, the camera 602 may be configured not to capture images in all directions but to capture images only in the left-right direction of the vehicle.

透過型ディスプレイ604は、有機EL(Electro Luminescence)ディスプレイ、液晶ディスプレイ等の表示装置であり、ラベル画像41等の表示オブジェクト以外の領域が透明な表示装置である。透過型ディスプレイ604は、例えば図17で示す車両側部の窓に設けられ、画像出力装置1から出力された画像を表示する。なお、透過型ディスプレイ604に代えて、実施の形態1と同様に透過型のスクリーン4を用いたプロジェクタ方式で車両側部の窓に画像を表示してもよい。透過型ディスプレイ604は車両の左右側部における複数の窓にそれぞれ設けられ、車両に乗車している観測者(サファリパークの入園者等)向けに画像を表示する。   The transmissive display 604 is a display device such as an organic EL (Electro Luminescence) display or a liquid crystal display, and is a display device in which the area other than the display object such as the label image 41 is transparent. The transmissive display 604 is provided, for example, in a window on the side of the vehicle shown in FIG. 17 and displays an image output from the image output device 1. Instead of the transmissive display 604, an image may be displayed on a window on the side of the vehicle by a projector method using the transmissive screen 4 as in the first embodiment. The transmissive display 604 is provided in each of a plurality of windows on the left and right sides of the vehicle, and displays an image for an observer (e.g., a park attendant at a safari park) riding the vehicle.

なお、透過型ディスプレイ604は車両側部の窓だけでなく、車両の前後の窓に設けられてもよい。   Note that the transmissive display 604 may be provided not only at the window on the side of the vehicle but also at the front and rear windows of the vehicle.

図18は、実施の形態6の概要を示す説明図である。図18では、カメラ602により車両周囲に存在する動物を撮像する様子を図示している。図18に基づき、本実施の形態の概要について説明する。
画像出力装置1はカメラ602から、車両の周囲を撮像した撮像画像を動画像として逐次取得する。上述の如く、カメラ602は全方位カメラであり、車両の周囲360度の全方位を撮像する。画像出力装置1は、全方位の撮像画像を取得すると共に、カメラ602による画像の撮像方位を示す方位情報を併せて取得する。例えば図18に示すように、カメラ602が車両の右方向を撮像した場合、撮像した画像を取得すると共に、当該画像が右方向を撮像した画像であることを示す方位情報を取得する。画像出力装置1は同様に、他の方位についても撮像画像を取得する。
FIG. 18 is an explanatory diagram showing an outline of the sixth embodiment. FIG. 18 illustrates a state in which the camera 602 captures an image of an animal existing around the vehicle. An outline of the present embodiment will be described with reference to FIG.
The image output device 1 sequentially acquires, from the camera 602, captured images of the surroundings of the vehicle as moving images. As described above, the camera 602 is an omnidirectional camera, and captures images in 360 degrees around the vehicle. The image output device 1 acquires an omnidirectional captured image and also acquires azimuth information indicating the imaging azimuth of the image captured by the camera 602. For example, as illustrated in FIG. 18, when the camera 602 captures an image in the right direction of the vehicle, the camera 602 acquires the captured image and azimuth information indicating that the image is an image captured in the right direction. Similarly, the image output device 1 acquires a captured image for other directions.

画像出力装置1は、取得した画像から、車両の周囲に存在する動物を認識する。例えば実施の形態1と同様に、画像出力装置1は予め動物の画像特徴量を学習した識別モデル162(識別器)を保持し、識別モデル162に撮像画像を入力することで動物の識別結果を取得する。これにより、画像出力装置1は撮像画像から車両周囲の動物を認識する。   The image output device 1 recognizes an animal existing around the vehicle from the acquired image. For example, as in the first embodiment, the image output device 1 holds an identification model 162 (identifier) in which the image feature amount of the animal has been learned in advance, and inputs the captured image to the identification model 162 to determine the animal identification result. get. Thus, the image output device 1 recognizes animals around the vehicle from the captured image.

また、画像出力装置1は、撮像画像と共に取得した方位情報に基づき、車両に対する相対的な動物の位置を認識する。図18の例の場合、画像出力装置1は右方向の撮像画像から動物を認識するため、認識した動物が右方向に位置するものと認識する。   Further, the image output device 1 recognizes the position of the animal relative to the vehicle based on the azimuth information acquired together with the captured image. In the case of the example of FIG. 18, the image output device 1 recognizes the animal from the captured image in the right direction, and thus recognizes that the recognized animal is located in the right direction.

画像出力装置1は、認識した動物の位置に基づき、ラベル画像41の表示位置を決定する。例えば画像出力装置1は、動物が位置する方向から、車両の左右側部の各窓に設けられた複数の透過型ディスプレイ604、604、604…のうち、いずれの透過型ディスプレイ604に表示すべきかを決定する。図18の例では、動物は車両の右方向に位置するため、画像出力装置1は、車両の右側の窓に設けられた透過型ディスプレイ604にラベル画像41を表示すべきものと決定する。   The image output device 1 determines the display position of the label image 41 based on the recognized position of the animal. For example, the image output device 1 displays which transmission display 604 among a plurality of transmission displays 604, 604, 604... Provided in each window on the left and right sides of the vehicle from the direction in which the animal is located. To determine. In the example of FIG. 18, since the animal is located to the right of the vehicle, the image output device 1 determines that the label image 41 should be displayed on the transmissive display 604 provided in the right window of the vehicle.

なお、画像出力装置1は動物の位置をさらに詳細に割り出し、実施の形態1と同様、観測者にとって動物の近傍にラベル画像41が表示されるように、一の透過型ディスプレイ604内でのラベル画像41の表示位置をさらに細かく制御してもよい。   In addition, the image output device 1 determines the position of the animal in more detail, and similarly to the first embodiment, the label in one transmissive display 604 so that the label image 41 is displayed near the animal for the observer. The display position of the image 41 may be controlled more finely.

また、画像出力装置1は実施の形態1と同様に、動物が群れ(生物群)を形成しているか否かを認識し、群れ毎にラベル画像41を表示するように制御してもよい。   Further, the image output device 1 may recognize whether or not the animals form a group (organism group) and control to display the label image 41 for each group, as in the first embodiment.

上述の如く、実施の形態1で説明した画像表示システムを応用し、車両のような移動体において動物のラベル画像41を観測者に提示することもできる。   As described above, the image display system described in the first embodiment can be applied to present a label image 41 of an animal to an observer on a moving object such as a vehicle.

図19は、実施の形態6に係る画像出力装置1が実行する処理手順の一例を示すフローチャートである。
画像出力装置1の制御部11は、車両の周囲を撮像するカメラ2から撮像画像を取得する(ステップS601)。例えばカメラ602は、車両の周囲360度の全方位を撮像可能な全方位カメラである。制御部11はカメラ602から、撮像画像と共に、カメラ602による撮像方位を示す方位情報を取得する。
FIG. 19 is a flowchart illustrating an example of a processing procedure executed by the image output device 1 according to the sixth embodiment.
The control unit 11 of the image output device 1 acquires a captured image from the camera 2 that captures an image around the vehicle (step S601). For example, the camera 602 is an omnidirectional camera capable of capturing 360 degrees around the vehicle. The control unit 11 acquires, from the camera 602, azimuth information indicating the imaging azimuth of the camera 602, together with the captured image.

制御部11は、取得した撮像画像から動物を認識する(ステップS602)。例えば制御部11は、識別モデル162を用いて、画像特徴量を学習済みの動物を撮像画像から認識する。制御部11は、撮像画像と共に取得した方位情報を参照して、車両に対する動物の相対的な位置(方位)も併せて認識する。   The control unit 11 recognizes an animal from the acquired captured image (Step S602). For example, the control unit 11 uses the identification model 162 to recognize an animal whose image feature has been learned from the captured image. The control unit 11 refers to the orientation information acquired together with the captured image and also recognizes the relative position (azimuth) of the animal with respect to the vehicle.

制御部11は、撮像画像から認識した動物の位置に基づき、ラベル画像41の表示位置を決定する(ステップS603)。例えば制御部11は、車両に対する動物の相対的な位置(方位)に基づき、車両側部の窓に設けられた透過型ディスプレイ604、604、604…のうち、いずれの透過型ディスプレイ604にラベル画像41を表示するかを決定する。制御部11は、決定した透過型ディスプレイ604にラベル画像41を表示し(ステップS604)、処理をステップS601に戻す。   The control unit 11 determines the display position of the label image 41 based on the position of the animal recognized from the captured image (Step S603). For example, based on the relative position (orientation) of the animal with respect to the vehicle, the control unit 11 transmits a label image to any of the transmissive displays 604 provided on the window on the side of the vehicle. 41 is displayed. The control unit 11 displays the label image 41 on the determined transmissive display 604 (step S604), and returns the process to step S601.

以上より、本実施の形態6によれば、実施の形態1で説明した画像表示システムを応用し、車両のような移動体において動物のラベル画像41を観測者に提示することもできる。   As described above, according to the sixth embodiment, the image display system described in the first embodiment can be applied to present a label image 41 of an animal to an observer on a moving object such as a vehicle.

(実施の形態7)
図20は、上述した形態の画像出力装置1の動作を示す機能ブロック図である。制御部11がプログラムPを実行することにより、画像出力装置1は以下のように動作する。
取得部201は、複数の生物を撮像した撮像画像を取得する。認識部202は、前記撮像画像から、同種類の前記生物から成る生物群を認識する。コンテンツ取得部203は、前記生物群に関するコンテンツ画像を取得する。決定部204は、前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面における前記コンテンツ画像の表示位置を決定する。表示部205は、決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する。
(Embodiment 7)
FIG. 20 is a functional block diagram showing the operation of the image output device 1 of the above-described embodiment. When the control unit 11 executes the program P, the image output device 1 operates as follows.
The acquisition unit 201 acquires a captured image of a plurality of living things. The recognition unit 202 recognizes, from the captured image, a group of living things including the same kind of living thing. The content acquisition unit 203 acquires a content image related to the creature group. The determination unit 204 determines a display position of the content image on a display surface provided between the plurality of living things and an observer based on the recognition position of the living thing group. The display unit 205 displays the content image on the display surface based on the determined display position.

本実施の形態7は以上の如きであり、その他は実施の形態1から6と同様であるので、対応する部分には同一の符号を付してその詳細な説明を省略する。   The seventh embodiment is as described above, and the rest is the same as the first to sixth embodiments. Corresponding parts are allotted with the same reference numerals, and their detailed description is omitted.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time is an example in all respects and should be considered as not being restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 PC(画像出力装置、表示装置)
11 制御部
12 主記憶部
13 通信部
14 表示部
15 入力部
16 補助記憶部
P プログラム
161 ラベルDB
162 識別モデル
2、602 カメラ
3 プロジェクタ
4 スクリーン
604 透過型ディスプレイ
1 PC (image output device, display device)
Reference Signs List 11 control unit 12 main storage unit 13 communication unit 14 display unit 15 input unit 16 auxiliary storage unit P program 161 label DB
162 Identification model 2, 602 Camera 3 Projector 4 Screen 604 Transmissive display

Claims (14)

複数の生物を撮像した撮像画像を取得する取得部と、
前記撮像画像から、同種類の前記生物から成る生物群を認識する認識部と、
前記生物群に関するコンテンツ画像を取得するコンテンツ取得部と、
前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面における前記コンテンツ画像の表示位置を決定する決定部と、
決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する表示部と
を備えることを特徴とする表示装置。
An acquisition unit that acquires a captured image of a plurality of living things,
From the captured image, a recognition unit that recognizes a group of living things composed of the same kind of living things,
A content acquisition unit that acquires a content image related to the creatures,
A determining unit that determines a display position of the content image on a display surface provided between the plurality of creatures and an observer, based on the recognition position of the creature group,
A display unit for displaying the content image on the display surface based on the determined display position.
前記認識部は、前記生物群の画像特徴量を学習した学習済みモデルに基づき、前記生物群を認識する
ことを特徴とする請求項1に記載の表示装置。
The display device according to claim 1, wherein the recognizing unit recognizes the living organisms based on a learned model in which an image feature amount of the living organisms has been learned.
前記撮像画像は動画像であり、
前記認識部は、
前記動画像において時系列的に連続する第1及び第2の画像夫々から、前記生物に対応する特徴点を抽出し、
前記第1及び第2の画像夫々から抽出した特徴点の座標値の差分に基づき、前記生物の動きを検出し、
複数の前記生物夫々の動きに基づき、前記生物群を認識する
ことを特徴とする請求項1に記載の表示装置。
The captured image is a moving image,
The recognition unit,
Extracting a feature point corresponding to the living thing from each of the first and second images successive in time series in the moving image;
Based on the difference between the coordinate values of the feature points extracted from each of the first and second images, the movement of the living thing is detected,
The display device according to claim 1, wherein the group of living things is recognized based on a movement of each of the plurality of living things.
前記認識部が検出した前記生物の動きに基づき、前記生物群の移動方向及び移動速度を推定する推定部を備え、
前記表示部は、推定した前記移動方向及び速度に基づいて前記表示位置を移動させて表示する
ことを特徴とする請求項3に記載の表示装置。
An estimating unit that estimates a moving direction and a moving speed of the creature group based on the movement of the creature detected by the recognition unit,
The display device according to claim 3, wherein the display unit moves and displays the display position based on the estimated moving direction and speed.
前記認識部は、
前記撮像画像に含まれる前記複数の生物夫々を認識し、
前記撮像画像において所定範囲内に同種類の前記複数の生物が位置する場合に、前記生物群と認識する
ことを特徴とする請求項1に記載の表示装置。
The recognition unit,
Recognizing each of the plurality of living things included in the captured image,
The display device according to claim 1, wherein when the plurality of living things of the same type are located within a predetermined range in the captured image, the living thing is recognized as the group of living things.
前記表示面は、前記複数の生物を収容した空間の一面に設けられた透過型スクリーンであり、
前記表示部は、前記コンテンツ画像を前記透過型スクリーンに投影する
ことを特徴とする請求項1〜5のいずれか1項に記載の表示装置。
The display surface is a transmission screen provided on one surface of a space containing the plurality of living things,
The display device according to claim 1, wherein the display unit projects the content image on the transmissive screen.
前記表示面は、前記複数の生物を収容した空間の一面に設けられた透過型ディスプレイであり、
前記表示部は、前記コンテンツ画像を前記透過型ディスプレイに表示する
ことを特徴とする請求項1〜5のいずれか1項に記載の表示装置。
The display surface is a transmission type display provided on one surface of the space containing the plurality of living things,
The display device according to claim 1, wherein the display unit displays the content image on the transmissive display.
前記表示面は、前記複数の生物を収容した空間の一面の一部領域に設けられており、
前記表示部は、前記一部領域に対応する前記撮像画像の画像領域から前記生物群が認識された場合、前記表示面に前記コンテンツ画像を表示する
ことを特徴とする請求項1〜7のいずれか1項に記載の表示装置。
The display surface is provided in a partial region of one surface of the space containing the plurality of living things,
The said display part displays the said content image on the said display surface, when the said creature group is recognized from the image area of the said picked-up image corresponding to the said partial area | region. 2. The display device according to claim 1.
前記コンテンツ画像の表示位置が、該コンテンツ画像に対応する前記生物群とは異なる他の前記生物の認識位置と重畳するか否かを判定する判定部を備え、
前記表示部は、前記他の生物の認識位置と非重畳となるように前記表示位置を変更する
ことを特徴とする請求項1〜8のいずれか1項に記載の表示装置。
A determination unit that determines whether the display position of the content image is superimposed on a recognition position of another living thing different from the living thing group corresponding to the content image,
The display device according to any one of claims 1 to 8, wherein the display unit changes the display position so that the display position does not overlap with the recognition position of the other living thing.
前記認識部による認識結果に基づき、前記生物群の規模を判定する判定部を備え、
前記表示部は、前記生物群の規模に応じて前記コンテンツ画像の表示態様を変更する
ことを特徴とする請求項1〜9のいずれか1項に記載の表示装置。
Based on the recognition result by the recognition unit, comprising a determination unit that determines the size of the organism group,
The display device according to any one of claims 1 to 9, wherein the display unit changes a display mode of the content image according to a scale of the creature.
前記認識部は前記撮像画像から、前記生物群と、前記生物を収容した空間を外部から観察する観測者とを認識し、
前記決定部は、前記生物群及び観測者夫々の位置に基づき、前記表示位置を決定する
ことを特徴とする請求項1〜10のいずれか1項に記載の表示装置。
From the captured image, the recognition unit recognizes the group of living things and an observer who observes the space containing the living things from outside,
The display device according to any one of claims 1 to 10, wherein the determination unit determines the display position based on the positions of the living organisms and the observer.
複数の生物を撮像した撮像画像を取得し、
前記撮像画像から、同種類の前記生物から成る生物群を認識し、
前記生物群に関するコンテンツ画像を取得し、
前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面における前記コンテンツ画像の表示位置を決定し、
決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する
処理をコンピュータに実行させることを特徴とする表示方法。
Obtain captured images of multiple organisms,
From the captured image, recognize a group of organisms composed of the same kind of organism,
Obtaining a content image related to the creatures,
Based on the recognition positions of the creatures, determine the display position of the content image on a display surface provided between the plurality of creatures and the observer,
A display method, comprising: causing a computer to execute a process of displaying the content image on the display surface based on the determined display position.
複数の生物を撮像した撮像画像を取得し、
前記撮像画像から、同種類の前記生物から成る生物群を認識し、
前記生物群に関するコンテンツ画像を取得し、
前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面における前記コンテンツ画像の表示位置を決定し、
決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する
処理をコンピュータに実行させることを特徴とするプログラム。
Obtain captured images of multiple organisms,
From the captured image, recognize a group of organisms composed of the same kind of organism,
Obtaining a content image related to the creatures,
Based on the recognition positions of the creatures, determine the display position of the content image on a display surface provided between the plurality of creatures and the observer,
A program for causing a computer to execute a process of displaying the content image on the display surface based on the determined display position.
複数の生物を収容した空間の一面を形成する透過壁に設けられた透過型スクリーンと、
前記空間の内部を撮像する撮像装置と、
前記空間の外部に設置され、前記透過型スクリーンに画像を投影する投影装置と、
前記投影装置に画像を出力する画像出力装置と
を備え、
前記画像出力装置は、
前記撮像装置から撮像画像を取得する取得部と、
前記撮像画像から前記生物を認識する認識部と、
前記生物に関するコンテンツ画像を取得するコンテンツ取得部と、
前記生物の認識位置に基づき、前記透過型スクリーンにおける前記コンテンツ画像の投影位置を決定する決定部と、
決定した前記投影位置に基づき、前記透過型スクリーンに前記コンテンツ画像を投影するように前記投影装置を制御する制御部と
を備えることを特徴とする画像投影システム。
A transmissive screen provided on a transmissive wall forming one surface of a space accommodating a plurality of living things,
An imaging device for imaging the inside of the space;
A projection device that is installed outside the space and projects an image on the transmission screen,
An image output device that outputs an image to the projection device,
The image output device,
An acquisition unit that acquires a captured image from the imaging device;
A recognition unit that recognizes the living thing from the captured image,
A content acquisition unit that acquires a content image related to the living thing,
Based on the recognition position of the living thing, a determination unit that determines the projection position of the content image on the transmission screen,
A control unit that controls the projection device so as to project the content image on the transmission screen based on the determined projection position.
JP2018158476A 2018-08-27 2018-08-27 Display unit, display method, program, and image projection system Pending JP2020034609A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018158476A JP2020034609A (en) 2018-08-27 2018-08-27 Display unit, display method, program, and image projection system
JP2022206039A JP7375901B2 (en) 2018-08-27 2022-12-22 Display device, display method, program and image projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018158476A JP2020034609A (en) 2018-08-27 2018-08-27 Display unit, display method, program, and image projection system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022206039A Division JP7375901B2 (en) 2018-08-27 2022-12-22 Display device, display method, program and image projection system

Publications (1)

Publication Number Publication Date
JP2020034609A true JP2020034609A (en) 2020-03-05

Family

ID=69667921

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018158476A Pending JP2020034609A (en) 2018-08-27 2018-08-27 Display unit, display method, program, and image projection system
JP2022206039A Active JP7375901B2 (en) 2018-08-27 2022-12-22 Display device, display method, program and image projection system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022206039A Active JP7375901B2 (en) 2018-08-27 2022-12-22 Display device, display method, program and image projection system

Country Status (1)

Country Link
JP (2) JP2020034609A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021251131A1 (en) * 2020-06-08 2021-12-16 富士フイルム株式会社 Transparent screen for water tank, water tank, and transparent image display system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338115A (en) * 2004-05-24 2005-12-08 Seiko Epson Corp Water tank image display apparatus
JP2010028217A (en) * 2008-07-15 2010-02-04 Olympus Corp Personal digital assistant
US20130308064A1 (en) * 2012-05-17 2013-11-21 Disney Enterprises, Inc. Infrared video tracking for use in projecting onto dynamic water features

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6249817B2 (en) 2014-02-25 2017-12-20 株式会社ソニー・インタラクティブエンタテインメント Image display system, image display method, image display program, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338115A (en) * 2004-05-24 2005-12-08 Seiko Epson Corp Water tank image display apparatus
JP2010028217A (en) * 2008-07-15 2010-02-04 Olympus Corp Personal digital assistant
US20130308064A1 (en) * 2012-05-17 2013-11-21 Disney Enterprises, Inc. Infrared video tracking for use in projecting onto dynamic water features

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021251131A1 (en) * 2020-06-08 2021-12-16 富士フイルム株式会社 Transparent screen for water tank, water tank, and transparent image display system
JP7449384B2 (en) 2020-06-08 2024-03-13 富士フイルム株式会社 Transparent screens for aquariums, aquariums, and transparent image display systems

Also Published As

Publication number Publication date
JP2023038203A (en) 2023-03-16
JP7375901B2 (en) 2023-11-08

Similar Documents

Publication Publication Date Title
US8860760B2 (en) Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
CN106791710B (en) Target detection method and device and electronic equipment
KR102101916B1 (en) Taking photos through visual obstructions
US7468742B2 (en) Interactive presentation system
JP3989523B2 (en) Automatic photographing method and apparatus
US8432475B2 (en) Imaging device
KR102173106B1 (en) Electronic System With Augmented Reality Mechanism and Method of Operation Thereof
US8451335B2 (en) Imaging device
US9582731B1 (en) Detecting spherical images
CN112793564A (en) Autonomous parking auxiliary system based on panoramic aerial view and deep learning
CN105590309A (en) Method and device for segmenting foreground image
JP6278242B2 (en) Shading device, shading method, and program
JP2019186955A (en) Information processing system, information processing method, and program
JP2009237993A (en) Image monitoring device
JP6126501B2 (en) Camera installation simulator and its computer program
JP7375901B2 (en) Display device, display method, program and image projection system
CN109920048A (en) Monitored picture generation method and device
US20210044756A1 (en) Display and imaging device
JP6950644B2 (en) Attention target estimation device and attention target estimation method
WO2022198508A1 (en) Lens abnormality prompt method and apparatus, movable platform, and readable storage medium
TWI670646B (en) Method of displaying information and displaying system thereof
CN114401362A (en) Image display method and device and electronic equipment
JP7107596B2 (en) Station monitoring system and station monitoring method
KR20200041133A (en) Program for guiding composition of picture
US11496674B2 (en) Camera placement guidance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221122