JP2020034609A - Display unit, display method, program, and image projection system - Google Patents
Display unit, display method, program, and image projection system Download PDFInfo
- Publication number
- JP2020034609A JP2020034609A JP2018158476A JP2018158476A JP2020034609A JP 2020034609 A JP2020034609 A JP 2020034609A JP 2018158476 A JP2018158476 A JP 2018158476A JP 2018158476 A JP2018158476 A JP 2018158476A JP 2020034609 A JP2020034609 A JP 2020034609A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- fish
- unit
- living
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/80—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
- Y02A40/81—Aquaculture, e.g. of fish
Abstract
Description
本発明は、表示装置、表示方法、プログラム及び画像投影システムに関する。 The present invention relates to a display device, a display method, a program, and an image projection system.
背景が透けて見える透過型のプロジェクタスクリーン、あるいは透過型ディスプレイを用いて、スクリーン又はディスプレイの背後にあるオブジェクトに関連する画像を提示する手法が提案されている。例えば特許文献1では、水族館の水槽の内部にプロジェクタを設置し、観測者(鑑賞者)が水槽内部を観察するためのガラス窓等のような水槽の透過壁に透過型スクリーンを設けた水槽映像表示装置が開示されている。特許文献1によれば、水槽外部に設置したカメラで水槽内を撮像し、撮像した画像から水槽内を遊泳する魚を認識して、プロジェクタによりスクリーン中の適切な位置に魚の説明等の画像を表示する。
There has been proposed a technique of presenting an image related to an object behind a screen or a display by using a transmissive projector screen or a transmissive display in which the background can be seen through. For example, in
しかしながら、例えば水族館の水槽を考えた場合に、一の水槽内に複数の魚が遊泳している。従って、複数の魚が群れを成して遊泳しているような場合において、個々の魚毎に説明等の画像を表示した場合、各魚に対応する画像が重なって肝心の魚が観測者に見えない虞がある。 However, for example, when considering an aquarium tank, a plurality of fish are swimming in one tank. Therefore, in the case where a plurality of fish are swimming in a school, when images such as explanations are displayed for each individual fish, the images corresponding to each fish overlap and the fish of interest are given to the observer. There is a possibility that it cannot be seen.
一つの側面では、観測者に対して生物に関するコンテンツ画像を好適に提示することができる表示装置等を提供することを目的とする。 In one aspect, an object is to provide a display device or the like that can appropriately present a content image regarding a living thing to an observer.
一つの側面では、表示装置は、複数の生物を撮像した撮像画像を取得する取得部と、前記撮像画像から、同種類の前記生物から成る生物群を認識する認識部と、前記生物群に関するコンテンツ画像を取得するコンテンツ取得部と、前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面における前記コンテンツ画像の表示位置を決定する決定部と、決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する表示部とを備えることを特徴とする。 In one aspect, a display device includes: an acquisition unit configured to acquire a captured image of a plurality of living things; a recognition unit configured to recognize a group of living things including the same kind of living thing from the captured image; A content acquisition unit that acquires an image, and a determination unit that determines a display position of the content image on a display surface provided between the plurality of living things and an observer based on the recognition position of the group of living things, A display unit that displays the content image on the display surface based on the display position.
一つの側面では、観測者に対して生物に関するコンテンツ画像を好適に提示することができる。 In one aspect, a content image related to a living thing can be suitably presented to an observer.
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、画像表示システムの構成例を示す模式図である。本実施の形態では、水族館の水槽の一面を形成するガラス窓等の透過壁に透過型のスクリーン4(表示面)を設け、スクリーン4に、水槽内の魚を説明するためのラベル画像(コンテンツ画像)を表示する画像表示システム(画像投影システム)について説明する。画像表示システムは、画像出力装置(表示装置)1、カメラ2及びプロジェクタ3を有する。各装置はLAN(Local Area Network)等のネットワークによって通信接続されている。
Hereinafter, the present invention will be described in detail with reference to the drawings showing the embodiments.
(Embodiment 1)
FIG. 1 is a schematic diagram illustrating a configuration example of an image display system. In the present embodiment, a transmissive screen 4 (display surface) is provided on a transmissive wall such as a glass window forming one surface of an aquarium aquarium, and a label image (contents) for explaining fish in the aquarium is provided on the
画像出力装置1は、種々の情報処理、情報の送受信が可能な情報処理装置であり、例えばパーソナルコンピュータ、サーバ装置等の情報処理装置である。本実施の形態では情報処理装置1がパーソナルコンピュータであるものとし、以下では簡潔のためPC1と読み替える。PC1は、水槽内を遊泳する各種魚を説明するためのラベル画像をコンテンツとして記憶してあり、プロジェクタ3にラベル画像を出力し、スクリーン4に投影(表示)させる。なお、本実施の形態では説明の便宜上、哺乳類、軟体動物、節足動物のような魚類以外の生物であっても、水槽内の生物は「魚」と称する。
The
本実施の形態でPC1は、水槽を撮像した撮像画像をカメラ2から取得し、撮像画像から各種魚を認識し、認識した魚のラベル画像をスクリーン4の近傍箇所に投影するよう表示制御を行う。この場合にPC1は、水槽内で魚が単体で遊泳しているか、又は群れとなって遊泳しているかを識別する。群れ、すなわち魚群であると認識した場合、PC1は、魚群を構成する個々の魚に対してラベル画像を投影するのではなく、魚群全体で一のラベルを投影するように表示制御を行う。
In the present embodiment, the PC 1 acquires a captured image of the aquarium from the
カメラ2は、複数の魚が収容された水槽(空間)の内部を、観測者(鑑賞者)が水槽内を観察するためのガラス窓のような透過壁を介して撮像する撮像装置であり、例えば水族館の天井に設置されている。カメラ2は透過壁を介して水槽内部を撮像し、撮像した画像を動画像としてPC1に逐次送信する。
The
プロジェクタ3は、ラベル画像を投影する投影装置である。プロジェクタ3は、スクリーン4を介して水槽から反対側の位置、つまり水槽外部に設置されており、透過壁に設けられたスクリーン4にラベル画像を投影する。特許文献1に記載の発明のように、水槽内部にプロジェクタを設置し、水槽内部から透過型スクリーンへ画像を投影した場合、水槽内を遊泳する魚によってラベル画像が遮光されてしまう虞がある。一方で、本実施の形態のように水槽内ではなく水槽外部にプロジェクタ3を設置することで、プロジェクタ3からの投影光が水槽内の魚によって遮光されてしまう事態を防止する。
The
スクリーン4は、水槽内の魚と観測者との間に位置する水槽の透過壁に設けられた透過型スクリーンであり、照射光を拡散させる透明スクリーンフィルムである。例えばスクリーン4は水槽の透過壁の全面に貼付されており、正面から照射(投影)された画像光を前方に反射して画像を形成する。
The
なお、本実施の形態ではプロジェクタ3及びスクリーン4を用いて画像を投影(表示)するものとして説明するが、プロジェクタ3及びスクリーン4に代えて、水槽の透過壁に透過型ディスプレイを設置してもよい。水槽の透過壁に透過型ディスプレイを設置し、PC1が透過型ディスプレイに画像を表示する構成であっても、同様の効果を奏する。
In the present embodiment, an explanation will be given assuming that an image is projected (displayed) using the
図2は、PC1の構成例を示すブロック図である。PC1は、制御部11、主記憶部12、通信部13、表示部14、入力部15、補助記憶部16を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)等の演算処理装置を有し、補助記憶部16に記憶されたプログラムPを読み出して実行することにより、PC1に係る種々の情報処理、制御処理等を行う。主記憶部12は、RAM(Random Access Memory)等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための処理回路等を含み、外部と情報の送受信を行う。表示部14は液晶ディスプレイ等の表示装置であり、制御部11から与えられた画像を表示する。入力部15は、キーボード、マウス等の操作インターフェイスであり、操作入力を受け付ける。
FIG. 2 is a block diagram illustrating a configuration example of the
The control unit 11 has one or more arithmetic processing units such as a CPU (Central Processing Unit) and an MPU (Micro-Processing Unit), and reads and executes the program P stored in the
補助記憶部16は大容量メモリ、ハードディスク等の不揮発性記憶領域であり、制御部11が処理を実行するために必要なプログラムP、その他のデータを記憶している。なお、補助記憶部16はPC1に接続された外部記憶装置であってもよい。補助記憶部16はラベルDB161、識別モデル162を記憶している。ラベルDB161は、スクリーン4に投影するコンテンツであるラベル画像のデータを格納したデータベースである。識別モデル162は、カメラ2が撮像した画像から水槽内の魚を識別するための識別用データであり、後述するように、例えば機械学習により構築された学習済みモデルである。
The
図3は、ラベルDB161のレコードレイアウトの一例を示す説明図である。ラベルDB161は、ID列、種類列、ラベル画像列を含む。ID列は、水槽内を遊泳する各魚を識別するためのIDを記憶している。種類列は、IDと対応付けて、各魚の種別を記憶している。ラベル画像列は、IDと対応付けて、各魚を観測者に案内するためのラベル画像を記憶している。
FIG. 3 is an explanatory diagram illustrating an example of a record layout of the
図4は、ラベル画像41の表示例を示す説明図である。図4では、カメラ2で撮像した画像から水槽中を遊泳する魚を認識し、認識した魚に関するラベル画像41を、魚を認識した位置近傍に表示する様子を概念的に図示している。図4に基づき、本実施の形態の概要について説明する。
FIG. 4 is an explanatory diagram illustrating a display example of the
まずPC1は、カメラ2から、スクリーン4が設けられた水槽の透過壁を介して撮像された画像を、動画像として逐次取得する。図4では、PC1が取得する動画像の1フレームを模式的に示してある。ここで、図4に示すように、水槽内には「マアジ」のように魚群を形成して遊泳する魚と、「ナンヨウマンタ」のように単体で遊泳する魚とが居るものとする。
First, the
PC1は撮像画像から、水槽内を遊泳する各魚を認識する。ここでPC1は、個々の魚を認識するだけでなく、単体で遊泳する魚と、魚群を形成して遊泳する魚とを識別する。
The
例えばPC1は、予め補助記憶部16にセットされた識別モデル162を用いて、単体で遊泳する魚と、魚群を形成して遊泳する魚とを識別する。識別モデル162は、機械学習により構築された学習済みモデルであり、単体で遊泳する魚の画像特徴量と、同種類の複数の魚から成る魚群全体の画像特徴量とを学習した識別器である。例えば識別モデル162は、教師データから生成されたCNN(Convolution Neural Network)などであるが、機械学習の手法や識別器の構成は特に限定されない。識別モデル162は、他のニューラルネットワーク、SVM(Support Vector Machine)、ベイジアンネットワーク、決定木など、他のアルゴリズムに従って生成されたものであってもよい。例えば識別モデル162は、魚単体又は魚群全体を撮像した画像と、魚(単体又は魚群)の名称を指すラベル値とを対応付けた教師データに基づいて生成される。
For example, the
PC1は、カメラ2から取得した撮像画像を識別モデル162に入力し、撮像画像に含まれる物体を識別した識別結果を出力値として得る。これにより、図4において点線矩形枠で示すように、PC1は水槽内を遊泳する魚を、単体又は魚群を区別した上で認識する。
The
PC1は、撮像画像中で各魚(単体又は魚群)を認識した認識位置に基づき、各魚に対応してスクリーン4に表示(投影)するラベル画像41の表示位置(投影位置)を決定する。例えば図4に示すように、PC1は、魚近傍にラベル画像41が表示されるように、魚を認識した位置の直下を表示位置として決定する。
The
PC1は、認識した魚に対応するラベル画像41をラベルDB161から読み出し、プロジェクタ3に出力して、水槽内の魚と観測者との間に設けられたスクリーン4に投影(表示)させる。ラベル画像41は魚の名称などであるが、名称以外の情報をラベル画像41に含めてもよい。また、ラベル画像41はテキストに限定されず、ピクチャ画像などであってもよい。
The
上述の如く、水槽内の魚が魚群を形成して遊泳する場合に、PC1は魚群中の個々の魚に対してラベル画像41を表示するのではなく、魚群全体に対して一のラベル画像41を表示する。これにより、大量のラベル画像41がスクリーン4に映し出されることはなく、ラベル画像41が重なって魚が見えなくなる事態を回避することができる。
As described above, when the fish in the aquarium forms a school of fish and swims, the
図5は、ラベル画像41の表示位置の変更処理に関する説明図である。図5では、他の魚に重畳しないようにラベル画像41の表示位置を変更する様子を図示している。
上記ではPC1が水槽内の魚の近傍位置にラベル画像41を表示する旨を説明した。ここで、ラベル画像41が他の魚と重畳する場合、PC1は、非重畳となるようにラベル画像41の表示位置を変更する。
FIG. 5 is a diagram illustrating a process of changing the display position of the
In the above, it has been described that the
図5の例では図4の各種魚に加えて、「ジンベイザメ」が撮像範囲に含まれている。この状態で図4と同様にラベル画像41を表示した場合、左上の「マアジ」のラベル画像41が図5の太い点線矩形枠の位置に表示されて「ジンベイザメ」に一部重なり、観測者に視認しにくくなる。
In the example of FIG. 5, “whale shark” is included in the imaging range in addition to the various fish of FIG. 4. When the
撮像画像から各魚を認識し、ラベル画像41の表示位置を決定した後、PC1は各魚の位置とラベル画像41の表示位置とを比較して、ラベル画像41の表示位置が他の魚と重畳するか否かを判定する。ラベル画像41が重畳すると判定した場合、PC1は、ラベル画像41が非重畳なるように表示位置を変更する。図5の例では、PC1は、「マアジ」のラベル画像41を魚群の下側から上側に変更し、重畳を回避する。
After recognizing each fish from the captured image and determining the display position of the
このように、ラベル画像41の表示位置を変更することで、ラベル画像41が重なって魚が見えなくなる事態を回避することができる。
In this way, by changing the display position of the
なお、上記ではラベル画像41が魚と重畳するか否かに応じて表示位置を変更したが、本実施の形態はこれに限定されるものではない。例えばPC1は、撮像画像から認識した魚の位置がスクリーン4(表示面)の端(外縁)と重なる場合、スクリーン4中央にラベル画像41を寄せるよう表示位置を変更してもよい。
In the above description, the display position is changed according to whether or not the
例えば図5では、右端に「マアジ」の魚群が位置しているが、魚群の一部がスクリーン4の設置範囲から外れた形となっており、魚群がスクリーン4の端と重なっている。このような場合に、スクリーン4の範囲から外れた部分も含めて魚群全体を認識し、スクリーン4にラベル画像41を投影した場合、ラベル画像41がスクリーン4の範囲から外れて投影される虞がある。
For example, in FIG. 5, a fish school of “maji” is located at the right end. However, a part of the school of fish is out of the installation range of the
そこでPC1は、例えば撮像画像から認識した魚(魚群)の認識位置がスクリーン4の端(外縁)と重畳するか否かを判定し、重畳すると判定した場合、スクリーン4(表示面)の設置範囲に含まれるようラベル画像41の表示位置を中央寄りに変更する。これにより、スクリーン4の端に位置する魚に関しても、適切な位置にラベル画像41を表示することができる。
Therefore, the
図6は、ラベル画像41の表示態様の変更処理に関する説明図である。図6では、撮像画像から認識した魚群の規模に応じてラベル画像41の表示態様を変更する様子を図示している。
図4及び図5では、いずれの魚に対しても同様にラベル画像41を表示する様子を図示した。しかし、例えば水槽が大規模なものであり、水槽内に遊泳する魚群も大規模なものとなった場合、大規模な魚群に対して他の魚と同様にラベル画像41を表示しても、観測者が気づきにくい、あるいは視認しづらい虞がある。
FIG. 6 is a diagram illustrating a process of changing the display mode of the
FIGS. 4 and 5 show the manner in which the
そこでPC1は、撮像画像から魚群を認識した場合、魚群の規模を判定する。例えばPC1は、撮像画像に占める魚群の認識範囲(図6の点線矩形枠)の大小に応じて規模を判定する。あるいはPC1は、魚群を形成する魚の数に応じて規模を判定してもよい。
Therefore, when recognizing the school of fish from the captured image, the
所定規模以上の魚群であると判定した場合、PC1は、当該魚群に対応するラベル画像41の表示態様を変更する。例えばPC1は、当該魚群のラベル画像41を、他の魚(単体又は魚群)のラベル画像41よりも拡大して表示する。これにより、規模の大きな魚群であっても観測者がラベル画像41を容易に視認可能とする。
When it is determined that the fish school is a fish school of a predetermined size or more, the
なお、上記では規模の大きな魚群のラベル画像41を拡大するものとしたが、反対に他の魚のラベル画像41を縮小して、魚群のラベル画像41を相対的に強調してもよい。また、表示態様の変更は拡大又は縮小に限定されない。例えばPC1は、規模の大きな魚群に対しては複数箇所に同じラベル画像41を表示することで、観測者がいずれかのラベル画像41を見つけやすいようにしてもよい。このように、PC1は魚群の規模に応じてラベル画像41の表示態様を変更可能であればよく、その表示態様は特に限定されない。
In the above description, the
図7は、PC1が実行する処理手順の一例を示すフローチャートである。図7に基づき、PC1が実行する処理内容について説明する。
PC1の制御部11は、水槽内(移動空間)を遊泳する複数の魚(生物)を撮像した撮像画像をカメラ2から取得する(ステップS11)。制御部11は、識別モデル162に基づき、撮像画像から魚を認識する処理を行う(ステップS12)。例えば上述の如く、識別モデル162は機械学習により構築された学習済みモデルであり、魚単体、及び魚群全体の画像特徴量を学習した識別器である。制御部11は、カメラ2から取得した撮像画像を識別器に入力し、水槽内を単独で遊泳する魚単体、及び水槽内を集団で遊泳する魚群を識別した識別結果を取得する。
FIG. 7 is a flowchart illustrating an example of a processing procedure executed by the
The control unit 11 of the
制御部11は、ステップS12の処理の結果、撮像画像から魚群を認識したか否かを判定する(ステップS13)。魚群を認識したと判定した場合(S13:YES)、制御部11は、当該魚群を認識した撮像画像中の認識位置に基づき、当該魚群に関するラベル画像をスクリーン4に表示(投影)する表示位置(投影位置)を決定する(ステップS14)。
The control unit 11 determines whether or not the school of fish has been recognized from the captured image as a result of the processing in step S12 (step S13). When it is determined that the school of fish has been recognized (S13: YES), the control unit 11 displays (projects) a label image related to the school of fish on the
制御部11は、ステップS12における認識結果に基づき、当該魚群が所定規模以上の魚群であるか否かを判定する(ステップS15)。例えば制御部11は、撮像画像に占める魚群の認識範囲、又は魚群を形成する魚の数などに応じて規模を判定する。所定規模以上の魚群であると判定した場合(S15:YES)、制御部11は、当該魚群のラベル画像の表示態様を変更する(ステップS16)。例えば制御部11は、ラベル画像の拡大表示、複数表示などを行う。 The control unit 11 determines whether or not the school of fish is a school of fish of a predetermined size or more based on the recognition result in step S12 (step S15). For example, the control unit 11 determines the scale according to the recognition range of the fish school in the captured image or the number of fish forming the fish school. When it is determined that the fish school is a fish school of a predetermined size or more (S15: YES), the control unit 11 changes the display mode of the label image of the fish school (step S16). For example, the control unit 11 performs enlarged display, multiple display, and the like of the label image.
ステップS16の処理を実行後、又はステップS13、S15でNOの場合、制御部11は、魚群として認識されてなかった他の魚、つまり単体で遊泳する魚に関して、当該魚を認識した撮像画像中の位置に基づき、当該魚に関するラベル画像をスクリーン4に表示する表示位置を決定する(ステップS17)。
After executing the process of step S16, or in the case of NO in steps S13 and S15, the control unit 11 determines, with respect to another fish that has not been recognized as a fish school, that is, a fish swimming alone, in the captured image in which the fish is recognized. Based on the position, the display position at which the label image relating to the fish is displayed on the
制御部11は、ステップS14又はS17で決定したラベル画像の表示位置が他の魚(単体又は魚群)と重畳するか否かを判定する(ステップS18)。重畳すると判定した場合(S18:YES)、制御部11は、ラベル画像が非重畳となるように表示位置を変更する(ステップS19)。 The control unit 11 determines whether or not the display position of the label image determined in step S14 or S17 overlaps with another fish (single or fish school) (step S18). When it is determined that the label image is superimposed (S18: YES), the control unit 11 changes the display position so that the label image is not superimposed (step S19).
ステップS19の処理を実行後、又はステップS18でNOの場合、制御部11は、ステップS12で認識した魚(単体又は魚群)のラベル画像をプロジェクタ3に出力し、ステップS14、S17等で定めた表示位置に投影(表示)する(ステップS20)。制御部11は、処理をステップS11に戻す。
After executing the process of step S19 or in the case of NO in step S18, the control unit 11 outputs the label image of the fish (single or fish school) recognized in step S12 to the
以上より、本実施の形態1によれば、撮像画像から魚群を認識し、魚群単位でラベル画像41を表示する。これにより、魚群を形成する個々の魚毎にラベル画像41が表示されて肝心の魚に重なってしまう虞が低減され、観測者に対して生物に関するラベル画像41を好適に提示することができる。
As described above, according to the first embodiment, the fish school is recognized from the captured image, and the
また、本実施の形態1によれば、機械学習により構築された識別モデル162を用いて魚群を認識し、ラベル画像41を表示する。機械学習アルゴリズムを用いることで水槽内の魚を精度良く認識することができ、ラベル画像41をより好適に提示することができる。
Further, according to the first embodiment, the school of fish is recognized using the
また、本実施の形態1によれば、水槽の透過壁(観察面)に透過型のスクリーン4を設け、水槽の前方、つまり水槽外部からラベル画像41を投影(表示)する。従って、特許文献1に記載の映像表示装置のように水槽内部から画像を投影して魚に重なるような虞が少なく、ラベル画像41をより好適に提示することができる。
According to the first embodiment, the
また、本実施の形態1によれば、プロジェクタ3及びスクリーン4に代えて透過型ディスプレイを水槽の透過壁に設ける構成であってもよい。この場合でも、画像の重なりを回避してラベル画像41を好適に提示することができる。
Further, according to the first embodiment, a configuration in which a transmissive display is provided on the transmissive wall of the aquarium in place of the
また、本実施の形態1によれば、魚群の規模に応じてラベル画像41の表示態様を変更することで、観測者の便宜に供することができる。
Further, according to the first embodiment, by changing the display mode of the
また、本実施の形態1によれば、他の魚と非重畳となるようにラベル画像41の表示位置を変更することで、ラベル画像41が魚に重なって見えなくなる事態をより効果的に防止することできる。
Further, according to the first embodiment, by changing the display position of the
(実施の形態2)
実施の形態1では、ディープラーニングの手法を用いて魚群の特徴を学習し、学習済みモデルを用いて魚群を認識する形態について説明した。本実施の形態では、オプティカルフロー等の手法を用いて個々の魚の動きを特定し、特定した個々の魚の動きから魚群を認識する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
図8は、実施の形態2に係る魚群認識処理に関する説明図である。図8Aでは、撮像画像から特徴点を抽出してオプティカルフローを算出し、水槽内を移動する物体(魚)の動きを検出する様子を図示している。図8Bでは、複数の物体の動きから魚群を認識する様子を図示している。図8に基づき、本実施の形態の概要を説明する。
(Embodiment 2)
In the first embodiment, a description has been given of a mode in which the characteristics of a school of fish are learned using a deep learning technique, and the school of fish is recognized using a trained model. In the present embodiment, a form in which the movement of each fish is specified by using a method such as an optical flow and a school of fish is recognized from the specified movement of each fish will be described. Note that the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
FIG. 8 is an explanatory diagram relating to the school of fish recognition processing according to the second embodiment. FIG. 8A illustrates a state in which a feature point is extracted from a captured image, an optical flow is calculated, and a motion of an object (fish) moving in the aquarium is detected. FIG. 8B illustrates a state where a school of fish is recognized based on the movement of a plurality of objects. An outline of the present embodiment will be described with reference to FIG.
実施の形態1と同じく、PC1はカメラ2から水槽の撮像画像を動画像として逐次取得する。ここでPC1は、例えばオプティカルフローの手法を用い、動画像に含まれる各画像(フレーム)を比較することで水槽内を移動する物体の動きを特定する。
As in the first embodiment, the
具体的には、PC1は動画像において時系列的に連続する2つの画像(第1及び第2の画像)それぞれから特徴点を抽出する。特徴点は、画像内の各画素の明るさ(輝度)から割り出される。PC1は、2つの画像の間での特徴点の座標値の差分を元に、特徴点の動きを表すベクトル値、つまりオプティカルフローを算出する。図8Aに、オプティカルフローが算出される様子を図示する。図8Aでは白抜き丸印が特徴点を、矢印がオプティカルフローに相当するベクトルを表す。
Specifically, the
PC1は、一又は複数の特徴点に対応するオプティカルフローから、水槽内を移動する個々の物体、つまり魚を検出する。例えば図8Aに示すように、PC1は近接する複数の特徴点に係るオプティカルフローが同一方向かつ同一速度のベクトル値を示す場合に、当該複数の特徴点を一の移動物体(魚)として検出する。なお、PC1は一の特徴点の動き(オプティカルフロー)から移動物体を検出してもよい。
The
水槽内を移動する個々の物体の動きを検出した後、PC1は、複数の物体の動きを比較して、集団を形成して水槽内を移動する物体、つまり魚群を検出(認識)する。例えば図8Bに示すように、PC1は、所定範囲内に位置する複数の物体のオプティカルフローが略同一方向かつ略同一速度のベクトル値を示す場合に、当該複数の物体を魚群として検出する。
After detecting the movement of each object moving in the aquarium, the
PC1は、検出した魚群を構成する一の物体(魚)に対して画像認識を行い、何の魚の魚群であるかを特定する。PC1は他の魚(単体又は魚群)に対しても同様に画像認識を行い、何の魚であるかを特定する。PC1は、特定した各魚のラベル画像41をプロジェクタ3に出力し、各魚の近傍位置に投影させる。
The
図9は、実施の形態2に係るラベル追跡処理に関する説明図である。図9では、検出した魚群の動きに合わせてラベル画像41を移動させる追跡表示を概念的に図示している。
上述の如く、PC1は水槽内の魚(単体又は魚群)の動きを検出する。PC1は、検出した魚の動きから次にどこに移動するかを推定し、推定した位置にラベル画像41を移動させる追跡表示を行う。PC1は、魚の動きを表すオプティカルフローから移動方向及び移動速度を推定し、推定した方向及び速度に合わせてラベル画像41の表示位置を移動させるようにプロジェクタ3を制御する。このように、魚の動きを検出することで魚群を認識するだけでなく、ラベル画像41を好適な位置に移動させるよう表示制御を行うこともできる。
FIG. 9 is an explanatory diagram relating to the label tracking processing according to the second embodiment. FIG. 9 conceptually illustrates a tracking display in which the
As described above, the
図10は、実施の形態2に係るPC1が実行する処理手順の一例を示すフローチャートである。
カメラ2から撮像画像を取得した後(ステップS11)、PC1の制御部11は以下の処理を実行する。制御部11は、取得した撮像画像に含まれる特徴点を抽出する(ステップS201)。例えば制御部11は、撮像画素に含まれる各画素の明るさに応じて特徴点を抽出する。
FIG. 10 is a flowchart illustrating an example of a processing procedure executed by the
After acquiring the captured image from the camera 2 (step S11), the control unit 11 of the
制御部11は、動画像として逐次取得する画像のうち、時系列的に連続する2つの画像(第1及び第2の画像)それぞれから抽出した特徴点の座標値の差分に基づき、水槽内を移動する物体(魚)の動きを検出する(ステップS202)。例えば制御部11は、特徴点毎にオプティカルフローを算出し、近接する一又は複数の特徴点のオプティカルフローに基づき、個々の移動物体の動きを検出する。 The control unit 11 controls the inside of the water tank based on the difference between the coordinate values of the feature points extracted from each of the two images (first and second images) that are successive in time series among the images sequentially acquired as a moving image. The movement of a moving object (fish) is detected (step S202). For example, the control unit 11 calculates an optical flow for each feature point, and detects the motion of each moving object based on the optical flows of one or more adjacent feature points.
制御部11は、検出した各物体の動きに基づき、複数の物体が集団で動いている否かを判定する(ステップS203)。集団で動いていると判定した場合(S203:YES)、制御部11は、集団を構成するいずれかの物体に対する画像認識を行い、魚の種別を特定する(ステップS204)。制御部11は処理をステップS14に移行する。 The control unit 11 determines whether a plurality of objects are moving in a group based on the detected movement of each object (step S203). If it is determined that the group is moving (S203: YES), the control unit 11 performs image recognition on any of the objects constituting the group and specifies the type of fish (step S204). The control unit 11 shifts the processing to step S14.
ステップS16の処理を実行後、又はステップS203、S15でNOの場合、制御部11は、単体で動いている物体に対する画像認識を行い、魚の種別を特定する(ステップS205)。制御部11は処理をステップS17に移行する。 After executing the process in step S16, or in the case of NO in steps S203 and S15, the control unit 11 performs image recognition on an object moving alone, and specifies the type of fish (step S205). The control unit 11 shifts the processing to step S17.
ステップS19の処理を実行後、又はステップS18でNOの場合、制御部11はラベル画像41をプロジェクタ3に出力して投影(表示)させる(ステップS206)。この場合に制御部11は、ステップS202で検出した魚の動きに基づき、ラベル画像41に対応する魚(単体又は魚群)の移動方向及び移動速度を推定する。制御部11は、推定した移動方向及び移動速度に合わせてラベル画像41の表示位置を移動する追跡表示を行う。制御部11は処理をステップS11に戻す。
After executing the processing in step S19 or in the case of NO in step S18, the control unit 11 outputs the
以上より、本実施の形態2によれば、オプティカルフロー等の手法で魚の動きを検出し、検出した個々の魚の動きから魚群を検出する。これにより、学習済みモデルを持たない場合であっても魚群を認識してラベル画像41を提示することができる。
As described above, according to the second embodiment, the movement of fish is detected by a technique such as optical flow, and a school of fish is detected from the detected movement of each fish. Thereby, even if the user does not have the learned model, the fish school can be recognized and the
また、本実施の形態2によれば、検出した魚の動きからどこに移動するかを推定し、ラベル画像41の追跡表示を行うことができる。これにより、魚とラベル画像41との位置ずれを回避し、ラベル画像41を好適に提示することができる。
Further, according to the second embodiment, it is possible to estimate where to move from the detected movement of the fish, and perform tracking display of the
(実施の形態3)
本実施の形態では、撮像画像から全ての魚を認識し、認識した各魚の位置関係から魚群を識別する形態について説明する。
図11は、実施の形態3に係る魚群認識処理に関する説明図である。実施の形態2では魚群を検出した後に個々の魚を特定する形態について述べたが、本実施の形態では先に個々の魚を特定し、特定した魚の位置関係から魚群を認識する。
(Embodiment 3)
In the present embodiment, a description will be given of a mode in which all fish are recognized from a captured image and a school of fish is identified from the positional relationship between the recognized fish.
FIG. 11 is an explanatory diagram relating to a fish school recognition process according to the third embodiment. In the second embodiment, the form in which the individual fish is specified after the detection of the group of fish has been described. However, in the present embodiment, the individual fish is specified first, and the group of fish is recognized from the positional relationship of the specified fish.
具体的には、PC1は撮像画像に対する画像認識を行い、水槽内を遊泳する全ての魚を認識する。図11の例では、PC1は「マダライルカ」及び「ナンヨウマンタ」だけでなく、魚群を形成する4匹の「クロマグロ」に関しても、各個体を「クロマグロ」として認識する。
Specifically, the
その後、PC1は、複数の魚の種別及び位置関係から、同種別の複数の魚が形成する魚群を認識する。例えばPC1は、同種別かつ所定数以上の魚(個体)が所定範囲内に位置するか否かに応じて魚群を認識する。図11の例では、撮像画像の上側の画像領域に、種別が「クロマグロ」で共通する複数の魚が密集している。PC1は、当該複数の魚が所定範囲内に位置する場合、当該複数の魚を「クロマグロ」の魚群として認識する。
Thereafter, the
図12は、実施の形態3に係るPC1が実行する処理手順の一例を示すフローチャートである。
カメラ2から撮像画像を取得した後(ステップS11)、PC1の制御部11は以下の処理を実行する。制御部11は撮像画像に対する画像認識を行い、水槽内の複数の魚全てをそれぞれ認識する(ステップS301)。制御部11は、認識した各魚の位置関係に基づき、複数の魚が魚群を形成しているか否かを判定する(ステップS302)。例えば上述の如く、制御部11は同種別かつ所定数以上の魚が所定範囲内に位置するか否かを判定することで、魚群を形成しているか否かを判定する。魚群を形成していると判定した場合(S302:YES)、制御部11は処理をステップS14に移行する。魚群を形成していないと判定した場合(S302:NO)、制御部11は処理をステップS17に移行する。
FIG. 12 is a flowchart illustrating an example of a processing procedure executed by the
After acquiring the captured image from the camera 2 (step S11), the control unit 11 of the
以上より、本実施の形態3によれば、撮像画像から全ての魚を認識し、認識した魚の種類、数、及び位置関係から魚群を識別してラベル画像41を表示する。これにより、観測者にラベル画像41を好適に提示することができる。
As described above, according to the third embodiment, all the fish are recognized from the captured image, the fish school is identified based on the type, number, and positional relationship of the recognized fish, and the
(実施の形態4)
本実施の形態では、水槽の透過壁の一部領域にのみスクリーン4を設け、スクリーン4が設けられている領域を魚が通過した場合のみラベル画像41を投影する形態について説明する。
図13は、実施の形態4に係るスクリーン4の構成例を示す説明図である。本実施の形態では、スクリーン4は水槽の透過壁の全面ではなく、一部領域にのみ設けられている。例えば図13に示すように、スクリーン4は、正面視において透過壁の左側半面に設けられている。
(Embodiment 4)
In the present embodiment, an embodiment will be described in which the
FIG. 13 is an explanatory diagram illustrating a configuration example of the
なお、スクリーン4を設ける範囲は図13の例に限定されず、例えば右側半面、上側半面などに変更してもよい。また、透過壁全面に占めるスクリーン4の面積の割合も特に限定されない。
The range in which the
PC1は、正面視においてスクリーン4が設けられた領域内を魚が通過した場合にのみ、ラベル画像41を投影(表示)する。例えばPC11は、図13に示すように撮像画像から水槽内の全ての魚(単体又は魚群)を認識する。その上でPC11は、スクリーン4の設置領域を通過する魚を特定する。例えばPC11は、各魚に対応するラベル画像41を投影(表示)した場合に、ラベル画像41の表示位置がスクリーン4の設置領域内であるか否かを判定する。スクリーン4の設置領域内であると判定した場合、PC1はプロジェクタ3を制御し、スクリーン4にラベル画像41を投影させる。
The
図14は、実施の形態4に係るPC1が実行する処理手順の一例を示すフローチャートである。
ステップS19の処理を実行後、又はステップS18でNOの場合、PC1の制御部11は以下の処理を実行する。制御部11は、撮像画像の認識結果に基づき決定したラベル画像41の表示位置が、水槽の透過壁にスクリーン4が設けられた領域内であるか否かを判定する(ステップS401)。スクリーン4が設けられている領域内であると判定した場合(S401:YES)、制御部11はスクリーン4にラベル画像41を投影(表示)する(ステップS402)。ステップS402の処理を実行後、又はステップS401でNOの場合、制御部11は処理をステップS11に戻す。
FIG. 14 is a flowchart illustrating an example of a processing procedure executed by the
After executing the processing in step S19 or in the case of NO in step S18, the control unit 11 of the
なお、上記では水槽内の全ての魚を認識した上でスクリーン4の領域内を通過する魚を識別することにしたが、本実施の形態はこれに限定されるものではない。例えばカメラ2はスクリーン4が設けられた領域のみを撮像し、PC1が撮像範囲を絞った画像から魚を認識することで、スクリーン4の範囲内を通過する魚を識別するようにしてもよい。すなわちPC1は、スクリーン4が設けられた透過壁の一部領域に対応する撮像画像の画像領域から魚を認識し、スクリーン4にラベル画像41を投影可能であればよく、水槽内の全ての空間を撮像して全ての魚を認識することは必須ではない。
In the above description, the fish passing through the area of the
以上より、本実施の形態4によれば、ラベル画像41の表示領域を水槽の透過壁の一部領域に絞ることもでき、実際の運用に合わせて柔軟な構成とすることができる。
As described above, according to the fourth embodiment, the display area of the
(実施の形態5)
本実施の形態では、観測者の位置に応じてラベル画像41の表示位置を決定する形態について説明する。
図15は、実施の形態5に係るラベル画像41の表示例を示す説明図である。図15では、観測者が居る位置に近づくようにラベル画像41の表示位置を制御する様子を概念的に図示している。
(Embodiment 5)
In the present embodiment, a mode in which the display position of the
FIG. 15 is an explanatory diagram illustrating a display example of the
本実施の形態でPC1は撮像画像から、水槽内の魚だけでなく、水槽内を観察する観測者を認識する。例えばカメラ2は、水槽内部と、観測者が位置する水槽正面の所定範囲とを撮像範囲として設定してあり、PC1は、カメラ2が当該撮像範囲を撮像した画像から水槽周囲に居る観測者を認識する。あるいはカメラ2を全方位カメラとして構成し、水槽が設置された水族館の部屋全体を撮像して、水槽正面に居る観測者を認識してもよい。あるいは、水槽内部を撮像するカメラ2と、水槽正面を撮像するカメラ2とを別々に設け、後者のカメラ2で撮像した画像から観測者を認識してもよい。
In the present embodiment, the
PC1は、撮像画像から認識した観測者の位置に応じてラベル画像41の表示位置を制御する。図15の例では、観測者が水槽の左右方向において略中央に位置している。この場合、PC1は、観測者が居ない場合と比較してラベル画像41が中央寄りに位置するように表示位置を制御する。図15の例では、PC1は右側に位置する「クロマグロ」、「ナンヨウマンタ」、「マアジ」のラベル画像41を左寄りにシフトし、左側に位置する「マアジ」、「マダライルカ」のラベル画像41は右寄りにシフトする。このように、PC1は観測者の位置にラベル画像41が近づくように表示位置を制御する。
The
上述の処理により、ラベル画像41が観測者にとって見やすい位置にシフトさせることができ、ラベル画像41をより好適に提示することができる。
By the above-described processing, the
図16は、実施の形態5に係るPC1が実行する処理手順の一例を示すフローチャートである。
カメラ2から撮像画像を取得した後(ステップS11)、PC1の制御部11は以下の処理を実行する。制御部11は、撮像画像から魚(単体又は魚群)を認識すると共に、水槽内を観察する観測者を認識する(ステップS501)。制御部11は処理をステップS13に移行する。
FIG. 16 is a flowchart illustrating an example of a processing procedure executed by the
After acquiring the captured image from the camera 2 (step S11), the control unit 11 of the
撮像画像から魚群を認識したと判定した場合(S13:YES)、制御部11は、撮像画像から認識した魚群の位置と、観測者の位置とに基づき、魚群に対応するラベル画像41の表示位置を決定する(ステップS502)。例えば図15で説明したように、制御部11は、観測者が認識されなかった場合の表示位置から、観測者の位置にラベル画像41が近づくようにラベル画像41の表示位置を決定する。制御部11は処理をステップS15に移行する。
When it is determined that the fish school is recognized from the captured image (S13: YES), the control unit 11 displays the
ステップS16の処理を実行後、又はステップS13、S15でNOの場合、制御部11は、撮像画像から認識した単体の魚の位置と、観測者の位置とに基づき、単体で遊泳する魚のラベル画像41の表示位置を決定する(ステップS503)。具体的にはステップS502と同様に、制御部11はラベル画像41が観測者の位置に近づくように表示位置を決定する。制御部11は処理をステップS18に移行する。
After executing the processing in step S16, or in the case of NO in steps S13 and S15, the control unit 11 determines the
以上より、本実施の形態5によれば、観測者の位置も考慮してラベル画像41の表示位置を決定することができ、ラベル画像41をより好適に提示することができる。
As described above, according to the fifth embodiment, the display position of the
(実施の形態6)
実施の形態1では、水族館の水槽の透過壁にスクリーン4を設け、水槽内を遊泳する魚に関するラベル画像41をスクリーン4に投影(表示)する形態について説明した。本実施の形態では、サファリパークのように車両内から動物(生物)を観察する場合において、車両の窓を透過型ディスプレイ604として構成し、車両の窓にラベル画像41を表示する形態について説明する。
図17は、実施の形態6に係る画像表示システムの構成例を示す模式図である。本実施の形態に係る画像表示システムは、画像出力装置1、カメラ602、及び透過型ディスプレイ604を有する。画像出力装置1は、例えば実施の形態1と同様にパーソナルコンピュータとする構成のほか、ECU(Electronic Control Unit)等の車載機器として構成してもよい。
(Embodiment 6)
In the first embodiment, the
FIG. 17 is a schematic diagram illustrating a configuration example of an image display system according to Embodiment 6. The image display system according to the present embodiment includes an
カメラ602は、車両の周囲を撮像する撮像装置であり、例えば全方位カメラである。カメラ602は、車両の進行方向を前方とした場合に、前後左右に亘る360度の全方位を撮像する。なお、カメラ602を全方位カメラとせず、例えば車両の前部、後部、及び左右側部にそれぞれカメラ602を設け、複数のカメラ602で全方位を撮像する構成としてもよい。また、本実施の形態では透過型ディスプレイ604を車両側部の窓にのみ設けるため、カメラ602は全方位を撮像せず、車両の左右方向のみを撮像する構成としても良い。
The
透過型ディスプレイ604は、有機EL(Electro Luminescence)ディスプレイ、液晶ディスプレイ等の表示装置であり、ラベル画像41等の表示オブジェクト以外の領域が透明な表示装置である。透過型ディスプレイ604は、例えば図17で示す車両側部の窓に設けられ、画像出力装置1から出力された画像を表示する。なお、透過型ディスプレイ604に代えて、実施の形態1と同様に透過型のスクリーン4を用いたプロジェクタ方式で車両側部の窓に画像を表示してもよい。透過型ディスプレイ604は車両の左右側部における複数の窓にそれぞれ設けられ、車両に乗車している観測者(サファリパークの入園者等)向けに画像を表示する。
The
なお、透過型ディスプレイ604は車両側部の窓だけでなく、車両の前後の窓に設けられてもよい。
Note that the
図18は、実施の形態6の概要を示す説明図である。図18では、カメラ602により車両周囲に存在する動物を撮像する様子を図示している。図18に基づき、本実施の形態の概要について説明する。
画像出力装置1はカメラ602から、車両の周囲を撮像した撮像画像を動画像として逐次取得する。上述の如く、カメラ602は全方位カメラであり、車両の周囲360度の全方位を撮像する。画像出力装置1は、全方位の撮像画像を取得すると共に、カメラ602による画像の撮像方位を示す方位情報を併せて取得する。例えば図18に示すように、カメラ602が車両の右方向を撮像した場合、撮像した画像を取得すると共に、当該画像が右方向を撮像した画像であることを示す方位情報を取得する。画像出力装置1は同様に、他の方位についても撮像画像を取得する。
FIG. 18 is an explanatory diagram showing an outline of the sixth embodiment. FIG. 18 illustrates a state in which the
The
画像出力装置1は、取得した画像から、車両の周囲に存在する動物を認識する。例えば実施の形態1と同様に、画像出力装置1は予め動物の画像特徴量を学習した識別モデル162(識別器)を保持し、識別モデル162に撮像画像を入力することで動物の識別結果を取得する。これにより、画像出力装置1は撮像画像から車両周囲の動物を認識する。
The
また、画像出力装置1は、撮像画像と共に取得した方位情報に基づき、車両に対する相対的な動物の位置を認識する。図18の例の場合、画像出力装置1は右方向の撮像画像から動物を認識するため、認識した動物が右方向に位置するものと認識する。
Further, the
画像出力装置1は、認識した動物の位置に基づき、ラベル画像41の表示位置を決定する。例えば画像出力装置1は、動物が位置する方向から、車両の左右側部の各窓に設けられた複数の透過型ディスプレイ604、604、604…のうち、いずれの透過型ディスプレイ604に表示すべきかを決定する。図18の例では、動物は車両の右方向に位置するため、画像出力装置1は、車両の右側の窓に設けられた透過型ディスプレイ604にラベル画像41を表示すべきものと決定する。
The
なお、画像出力装置1は動物の位置をさらに詳細に割り出し、実施の形態1と同様、観測者にとって動物の近傍にラベル画像41が表示されるように、一の透過型ディスプレイ604内でのラベル画像41の表示位置をさらに細かく制御してもよい。
In addition, the
また、画像出力装置1は実施の形態1と同様に、動物が群れ(生物群)を形成しているか否かを認識し、群れ毎にラベル画像41を表示するように制御してもよい。
Further, the
上述の如く、実施の形態1で説明した画像表示システムを応用し、車両のような移動体において動物のラベル画像41を観測者に提示することもできる。
As described above, the image display system described in the first embodiment can be applied to present a
図19は、実施の形態6に係る画像出力装置1が実行する処理手順の一例を示すフローチャートである。
画像出力装置1の制御部11は、車両の周囲を撮像するカメラ2から撮像画像を取得する(ステップS601)。例えばカメラ602は、車両の周囲360度の全方位を撮像可能な全方位カメラである。制御部11はカメラ602から、撮像画像と共に、カメラ602による撮像方位を示す方位情報を取得する。
FIG. 19 is a flowchart illustrating an example of a processing procedure executed by the
The control unit 11 of the
制御部11は、取得した撮像画像から動物を認識する(ステップS602)。例えば制御部11は、識別モデル162を用いて、画像特徴量を学習済みの動物を撮像画像から認識する。制御部11は、撮像画像と共に取得した方位情報を参照して、車両に対する動物の相対的な位置(方位)も併せて認識する。
The control unit 11 recognizes an animal from the acquired captured image (Step S602). For example, the control unit 11 uses the
制御部11は、撮像画像から認識した動物の位置に基づき、ラベル画像41の表示位置を決定する(ステップS603)。例えば制御部11は、車両に対する動物の相対的な位置(方位)に基づき、車両側部の窓に設けられた透過型ディスプレイ604、604、604…のうち、いずれの透過型ディスプレイ604にラベル画像41を表示するかを決定する。制御部11は、決定した透過型ディスプレイ604にラベル画像41を表示し(ステップS604)、処理をステップS601に戻す。
The control unit 11 determines the display position of the
以上より、本実施の形態6によれば、実施の形態1で説明した画像表示システムを応用し、車両のような移動体において動物のラベル画像41を観測者に提示することもできる。
As described above, according to the sixth embodiment, the image display system described in the first embodiment can be applied to present a
(実施の形態7)
図20は、上述した形態の画像出力装置1の動作を示す機能ブロック図である。制御部11がプログラムPを実行することにより、画像出力装置1は以下のように動作する。
取得部201は、複数の生物を撮像した撮像画像を取得する。認識部202は、前記撮像画像から、同種類の前記生物から成る生物群を認識する。コンテンツ取得部203は、前記生物群に関するコンテンツ画像を取得する。決定部204は、前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面における前記コンテンツ画像の表示位置を決定する。表示部205は、決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する。
(Embodiment 7)
FIG. 20 is a functional block diagram showing the operation of the
The
本実施の形態7は以上の如きであり、その他は実施の形態1から6と同様であるので、対応する部分には同一の符号を付してその詳細な説明を省略する。 The seventh embodiment is as described above, and the rest is the same as the first to sixth embodiments. Corresponding parts are allotted with the same reference numerals, and their detailed description is omitted.
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time is an example in all respects and should be considered as not being restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1 PC(画像出力装置、表示装置)
11 制御部
12 主記憶部
13 通信部
14 表示部
15 入力部
16 補助記憶部
P プログラム
161 ラベルDB
162 識別モデル
2、602 カメラ
3 プロジェクタ
4 スクリーン
604 透過型ディスプレイ
1 PC (image output device, display device)
Reference Signs List 11
162
Claims (14)
前記撮像画像から、同種類の前記生物から成る生物群を認識する認識部と、
前記生物群に関するコンテンツ画像を取得するコンテンツ取得部と、
前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面における前記コンテンツ画像の表示位置を決定する決定部と、
決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する表示部と
を備えることを特徴とする表示装置。 An acquisition unit that acquires a captured image of a plurality of living things,
From the captured image, a recognition unit that recognizes a group of living things composed of the same kind of living things,
A content acquisition unit that acquires a content image related to the creatures,
A determining unit that determines a display position of the content image on a display surface provided between the plurality of creatures and an observer, based on the recognition position of the creature group,
A display unit for displaying the content image on the display surface based on the determined display position.
ことを特徴とする請求項1に記載の表示装置。 The display device according to claim 1, wherein the recognizing unit recognizes the living organisms based on a learned model in which an image feature amount of the living organisms has been learned.
前記認識部は、
前記動画像において時系列的に連続する第1及び第2の画像夫々から、前記生物に対応する特徴点を抽出し、
前記第1及び第2の画像夫々から抽出した特徴点の座標値の差分に基づき、前記生物の動きを検出し、
複数の前記生物夫々の動きに基づき、前記生物群を認識する
ことを特徴とする請求項1に記載の表示装置。 The captured image is a moving image,
The recognition unit,
Extracting a feature point corresponding to the living thing from each of the first and second images successive in time series in the moving image;
Based on the difference between the coordinate values of the feature points extracted from each of the first and second images, the movement of the living thing is detected,
The display device according to claim 1, wherein the group of living things is recognized based on a movement of each of the plurality of living things.
前記表示部は、推定した前記移動方向及び速度に基づいて前記表示位置を移動させて表示する
ことを特徴とする請求項3に記載の表示装置。 An estimating unit that estimates a moving direction and a moving speed of the creature group based on the movement of the creature detected by the recognition unit,
The display device according to claim 3, wherein the display unit moves and displays the display position based on the estimated moving direction and speed.
前記撮像画像に含まれる前記複数の生物夫々を認識し、
前記撮像画像において所定範囲内に同種類の前記複数の生物が位置する場合に、前記生物群と認識する
ことを特徴とする請求項1に記載の表示装置。 The recognition unit,
Recognizing each of the plurality of living things included in the captured image,
The display device according to claim 1, wherein when the plurality of living things of the same type are located within a predetermined range in the captured image, the living thing is recognized as the group of living things.
前記表示部は、前記コンテンツ画像を前記透過型スクリーンに投影する
ことを特徴とする請求項1〜5のいずれか1項に記載の表示装置。 The display surface is a transmission screen provided on one surface of a space containing the plurality of living things,
The display device according to claim 1, wherein the display unit projects the content image on the transmissive screen.
前記表示部は、前記コンテンツ画像を前記透過型ディスプレイに表示する
ことを特徴とする請求項1〜5のいずれか1項に記載の表示装置。 The display surface is a transmission type display provided on one surface of the space containing the plurality of living things,
The display device according to claim 1, wherein the display unit displays the content image on the transmissive display.
前記表示部は、前記一部領域に対応する前記撮像画像の画像領域から前記生物群が認識された場合、前記表示面に前記コンテンツ画像を表示する
ことを特徴とする請求項1〜7のいずれか1項に記載の表示装置。 The display surface is provided in a partial region of one surface of the space containing the plurality of living things,
The said display part displays the said content image on the said display surface, when the said creature group is recognized from the image area of the said picked-up image corresponding to the said partial area | region. 2. The display device according to claim 1.
前記表示部は、前記他の生物の認識位置と非重畳となるように前記表示位置を変更する
ことを特徴とする請求項1〜8のいずれか1項に記載の表示装置。 A determination unit that determines whether the display position of the content image is superimposed on a recognition position of another living thing different from the living thing group corresponding to the content image,
The display device according to any one of claims 1 to 8, wherein the display unit changes the display position so that the display position does not overlap with the recognition position of the other living thing.
前記表示部は、前記生物群の規模に応じて前記コンテンツ画像の表示態様を変更する
ことを特徴とする請求項1〜9のいずれか1項に記載の表示装置。 Based on the recognition result by the recognition unit, comprising a determination unit that determines the size of the organism group,
The display device according to any one of claims 1 to 9, wherein the display unit changes a display mode of the content image according to a scale of the creature.
前記決定部は、前記生物群及び観測者夫々の位置に基づき、前記表示位置を決定する
ことを特徴とする請求項1〜10のいずれか1項に記載の表示装置。 From the captured image, the recognition unit recognizes the group of living things and an observer who observes the space containing the living things from outside,
The display device according to any one of claims 1 to 10, wherein the determination unit determines the display position based on the positions of the living organisms and the observer.
前記撮像画像から、同種類の前記生物から成る生物群を認識し、
前記生物群に関するコンテンツ画像を取得し、
前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面における前記コンテンツ画像の表示位置を決定し、
決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する
処理をコンピュータに実行させることを特徴とする表示方法。 Obtain captured images of multiple organisms,
From the captured image, recognize a group of organisms composed of the same kind of organism,
Obtaining a content image related to the creatures,
Based on the recognition positions of the creatures, determine the display position of the content image on a display surface provided between the plurality of creatures and the observer,
A display method, comprising: causing a computer to execute a process of displaying the content image on the display surface based on the determined display position.
前記撮像画像から、同種類の前記生物から成る生物群を認識し、
前記生物群に関するコンテンツ画像を取得し、
前記生物群の認識位置に基づき、前記複数の生物と観測者との間に設けられた表示面における前記コンテンツ画像の表示位置を決定し、
決定した前記表示位置に基づき、前記表示面に前記コンテンツ画像を表示する
処理をコンピュータに実行させることを特徴とするプログラム。 Obtain captured images of multiple organisms,
From the captured image, recognize a group of organisms composed of the same kind of organism,
Obtaining a content image related to the creatures,
Based on the recognition positions of the creatures, determine the display position of the content image on a display surface provided between the plurality of creatures and the observer,
A program for causing a computer to execute a process of displaying the content image on the display surface based on the determined display position.
前記空間の内部を撮像する撮像装置と、
前記空間の外部に設置され、前記透過型スクリーンに画像を投影する投影装置と、
前記投影装置に画像を出力する画像出力装置と
を備え、
前記画像出力装置は、
前記撮像装置から撮像画像を取得する取得部と、
前記撮像画像から前記生物を認識する認識部と、
前記生物に関するコンテンツ画像を取得するコンテンツ取得部と、
前記生物の認識位置に基づき、前記透過型スクリーンにおける前記コンテンツ画像の投影位置を決定する決定部と、
決定した前記投影位置に基づき、前記透過型スクリーンに前記コンテンツ画像を投影するように前記投影装置を制御する制御部と
を備えることを特徴とする画像投影システム。 A transmissive screen provided on a transmissive wall forming one surface of a space accommodating a plurality of living things,
An imaging device for imaging the inside of the space;
A projection device that is installed outside the space and projects an image on the transmission screen,
An image output device that outputs an image to the projection device,
The image output device,
An acquisition unit that acquires a captured image from the imaging device;
A recognition unit that recognizes the living thing from the captured image,
A content acquisition unit that acquires a content image related to the living thing,
Based on the recognition position of the living thing, a determination unit that determines the projection position of the content image on the transmission screen,
A control unit that controls the projection device so as to project the content image on the transmission screen based on the determined projection position.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018158476A JP2020034609A (en) | 2018-08-27 | 2018-08-27 | Display unit, display method, program, and image projection system |
JP2022206039A JP7375901B2 (en) | 2018-08-27 | 2022-12-22 | Display device, display method, program and image projection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018158476A JP2020034609A (en) | 2018-08-27 | 2018-08-27 | Display unit, display method, program, and image projection system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022206039A Division JP7375901B2 (en) | 2018-08-27 | 2022-12-22 | Display device, display method, program and image projection system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020034609A true JP2020034609A (en) | 2020-03-05 |
Family
ID=69667921
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018158476A Pending JP2020034609A (en) | 2018-08-27 | 2018-08-27 | Display unit, display method, program, and image projection system |
JP2022206039A Active JP7375901B2 (en) | 2018-08-27 | 2022-12-22 | Display device, display method, program and image projection system |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022206039A Active JP7375901B2 (en) | 2018-08-27 | 2022-12-22 | Display device, display method, program and image projection system |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP2020034609A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021251131A1 (en) * | 2020-06-08 | 2021-12-16 | 富士フイルム株式会社 | Transparent screen for water tank, water tank, and transparent image display system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005338115A (en) * | 2004-05-24 | 2005-12-08 | Seiko Epson Corp | Water tank image display apparatus |
JP2010028217A (en) * | 2008-07-15 | 2010-02-04 | Olympus Corp | Personal digital assistant |
US20130308064A1 (en) * | 2012-05-17 | 2013-11-21 | Disney Enterprises, Inc. | Infrared video tracking for use in projecting onto dynamic water features |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6249817B2 (en) | 2014-02-25 | 2017-12-20 | 株式会社ソニー・インタラクティブエンタテインメント | Image display system, image display method, image display program, and recording medium |
-
2018
- 2018-08-27 JP JP2018158476A patent/JP2020034609A/en active Pending
-
2022
- 2022-12-22 JP JP2022206039A patent/JP7375901B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005338115A (en) * | 2004-05-24 | 2005-12-08 | Seiko Epson Corp | Water tank image display apparatus |
JP2010028217A (en) * | 2008-07-15 | 2010-02-04 | Olympus Corp | Personal digital assistant |
US20130308064A1 (en) * | 2012-05-17 | 2013-11-21 | Disney Enterprises, Inc. | Infrared video tracking for use in projecting onto dynamic water features |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021251131A1 (en) * | 2020-06-08 | 2021-12-16 | 富士フイルム株式会社 | Transparent screen for water tank, water tank, and transparent image display system |
JP7449384B2 (en) | 2020-06-08 | 2024-03-13 | 富士フイルム株式会社 | Transparent screens for aquariums, aquariums, and transparent image display systems |
Also Published As
Publication number | Publication date |
---|---|
JP2023038203A (en) | 2023-03-16 |
JP7375901B2 (en) | 2023-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8860760B2 (en) | Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene | |
CN106791710B (en) | Target detection method and device and electronic equipment | |
KR102101916B1 (en) | Taking photos through visual obstructions | |
US7468742B2 (en) | Interactive presentation system | |
JP3989523B2 (en) | Automatic photographing method and apparatus | |
US8432475B2 (en) | Imaging device | |
KR102173106B1 (en) | Electronic System With Augmented Reality Mechanism and Method of Operation Thereof | |
US8451335B2 (en) | Imaging device | |
US9582731B1 (en) | Detecting spherical images | |
CN112793564A (en) | Autonomous parking auxiliary system based on panoramic aerial view and deep learning | |
CN105590309A (en) | Method and device for segmenting foreground image | |
JP6278242B2 (en) | Shading device, shading method, and program | |
JP2019186955A (en) | Information processing system, information processing method, and program | |
JP2009237993A (en) | Image monitoring device | |
JP6126501B2 (en) | Camera installation simulator and its computer program | |
JP7375901B2 (en) | Display device, display method, program and image projection system | |
CN109920048A (en) | Monitored picture generation method and device | |
US20210044756A1 (en) | Display and imaging device | |
JP6950644B2 (en) | Attention target estimation device and attention target estimation method | |
WO2022198508A1 (en) | Lens abnormality prompt method and apparatus, movable platform, and readable storage medium | |
TWI670646B (en) | Method of displaying information and displaying system thereof | |
CN114401362A (en) | Image display method and device and electronic equipment | |
JP7107596B2 (en) | Station monitoring system and station monitoring method | |
KR20200041133A (en) | Program for guiding composition of picture | |
US11496674B2 (en) | Camera placement guidance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220804 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221122 |