JP2022108280A - Image operation system, image operation server, user terminal, image operation method, and program - Google Patents

Image operation system, image operation server, user terminal, image operation method, and program Download PDF

Info

Publication number
JP2022108280A
JP2022108280A JP2022002785A JP2022002785A JP2022108280A JP 2022108280 A JP2022108280 A JP 2022108280A JP 2022002785 A JP2022002785 A JP 2022002785A JP 2022002785 A JP2022002785 A JP 2022002785A JP 2022108280 A JP2022108280 A JP 2022108280A
Authority
JP
Japan
Prior art keywords
image
information
display
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022002785A
Other languages
Japanese (ja)
Inventor
篤 亀卦川
Atsushi Kikegawa
友明 斉藤
Tomoaki Saito
啓補 岸
Keisuke Kishi
光一 小幡
Koichi Obata
友輔 若元
Yusuke Wakamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Publication of JP2022108280A publication Critical patent/JP2022108280A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an image operation system that provides a display image of a place desired to be observed without a user performing a screen operation and gives the user a feeling of actually moving the place being captured by a plurality of imaging devices.SOLUTION: The present invention comprises: an image distribution unit for receiving captured images from a plurality of imaging devices and distributing an image based on at least one of the captured images as a distribution image; an operation information acquisition unit for acquiring information on a moving direction of a display target area in the distribution image corresponding to physical information indicating a user's physical condition; a display control unit for updating a position of a display frame in the distribution image according to the moving direction; an image processing unit for extracting a display image from the distribution image according to the display frame; and an image output unit for outputting the display image.SELECTED DRAWING: Figure 1

Description

本発明は、画像操作システム、画像操作サーバ、利用者端末、画像操作方法及びプログラムに関する。 The present invention relates to an image manipulation system, an image manipulation server, a user terminal, an image manipulation method, and a program.

近年、過疎化による交通網や流通網の縮小や、ユーザの高齢化に伴う自動車等の運転能力の低下、災害の被災者や高齢者などが店舗まで出向くことが困難となっている。
このため、被災者や高齢者が、実店舗において生成食料品などの実物を自分で観て、商品を選んで買い物を行うことができない。
また、感染症対策などによる非常事態として移動が制限された場合など、ユーザが旅行に出かけたり、遠方にある博物館や美術館における展示物の鑑賞を行うことができない。
In recent years, it has become difficult for disaster victims and elderly people to go to stores due to shrinkage of transportation networks and distribution networks due to depopulation, deterioration in driving ability of automobiles due to aging of users, and disaster victims and elderly people.
For this reason, disaster victims and elderly people are unable to see actual products such as produced foodstuffs by themselves at actual stores, select products, and do shopping.
In addition, when movement is restricted due to an emergency due to infectious disease countermeasures, the user cannot go on a trip or appreciate exhibits at a distant museum or art gallery.

商品の購入に際しては、店舗のECサイトにおけるインターネットを利用した、あるいは電話を利用した通信販売による商品の注文を利用することができる(例えば、特許文献1、特許文献2参照)。
しかしながら、上記ECサイトや電話注文などは、店舗にある実際の商品を観察して購入するわけではなく、届いた商品(特に生成食料品など)が満足できない場合もある。 このため、店舗における商品の映像を利用者に届けて、陳列されている商品の画像をユーザにリアルタイムに送信し、実際に店舗で販売されている商品を観てユーザに買い物を行わせるシステムもある。
When purchasing products, it is possible to use the Internet on the EC site of the store or order the products by mail order using the telephone (see, for example, Patent Documents 1 and 2).
However, the EC sites and telephone orders are not purchased by observing the actual products in the store, and there are cases where the delivered products (especially produce foods) are unsatisfactory. For this reason, there is also a system that delivers images of products in a store to users, transmits images of products on display to users in real time, and allows users to shop while viewing products that are actually being sold at the store. be.

また、旅行に対しても、インターネットを利用した仮想的な旅行が企画され、ユーザの行きたい場所で説明者が有名な観光スポットなどを解説し、旅行気分を味わえるサービスもある。
上記サービスにおいては、撮像装置により観光地の風景や博物館、美術館の展示物を撮像した撮像画像を提供し、撮像画像に写された被写体で多くのユーザが興味を引くものに対して解説し、ユーザからの質問を電話やインターネットを介して行う。
As for travel, there is also a service in which a virtual tour using the Internet is planned, and the presenter explains famous sightseeing spots at the place the user wants to go, so that the user can enjoy the feeling of traveling.
In the above service, an imaging device is used to provide captured images of the scenery of tourist spots, museums, and art galleries. Inquiries from users are made via telephone or the Internet.

特開2000-099612号公報JP-A-2000-099612 特開2014-178909号公報JP 2014-178909 A

上記特許文献1の構成は、実店舗の商品の画像をリアルタイムにインターネットに提供する際、ユーザが購入したい商品の画像を撮像するため、撮像装置の撮像する位置を変更することができる。
しかしながら、特許文献1においては、一台の撮像装置を一人のユーザが専有して使用することになり、店舗の撮像装置の数により同時に買い物を行えるユーザ数が制限されてしまう。
The configuration of Patent Document 1 can change the imaging position of the imaging device in order to capture the image of the product that the user wants to purchase when providing the image of the product in the physical store to the Internet in real time.
However, in Patent Literature 1, one user exclusively uses one imaging device, and the number of users who can shop at the same time is limited by the number of imaging devices in the store.

また、ユーザが店舗で買い物を行う場合、一般的に、最初から購入する商品が決まっている訳ではない。例えば、日々の献立が計画されていることは少なく、生成食料品などは実際に観察して商品の状態や値段を確認して購入することが多い。
そのため、実店舗における買い物の場合、店舗内の種類毎の売り場を回遊して、それぞれの商品を観察して購入するかしないかを決めている。
一方、ユーザがインターネットを利用して店舗内の回遊を行って商品の購入を行う際、現在見ている商品と異なる種類の商品の画像を見たい場合に、逐次、現在使用している撮像装置から、他の商品を撮像している他の撮像装置に切り替える必要がある。
Also, when a user goes shopping at a store, generally, the product to be purchased is not decided from the beginning. For example, it is rare that daily menus are planned, and it is often the case that fresh food products are purchased after actually observing the condition and price of the product.
Therefore, in the case of shopping at a physical store, the customer visits sales floors for each type in the store, observes each product, and decides whether or not to purchase the product.
On the other hand, when the user uses the Internet to roam around the store and purchase products, if he/she wants to see images of products of a different type than the product currently being viewed, the image pickup device currently in use can be sequentially selected. Therefore, it is necessary to switch to another imaging device that is imaging another product.

このとき、撮像装置の切り替えを行う場合、ユーザ端末のメニュー操作を頻繁に行う必要があるが、全てのユーザがユーザ端末の操作に慣れている訳ではない。
また、特許文献2は、実店舗において商品の購入する感覚に近づけるため、ユーザの手の状態によるジェスチャを用いて商品選択を行う構成となっており、商品を購入する際におけるユーザの操作性を向上させている。
At this time, when switching the imaging device, it is necessary to frequently operate the menu of the user terminal, but not all users are accustomed to the operation of the user terminal.
In addition, Patent Document 2 has a configuration in which product selection is performed using gestures according to the state of the user's hand in order to bring the feeling of purchasing products closer to that of a physical store. are improving.

しかし、すでに述べたように、ユーザ端末における操作には店舗内の撮像装置の切替も含まれるため、この切替の操作もジェスチャに加えた場合、ユーザが使用するジェスチャの種類が増加する。
特に、商品を購入する際における売り場の移動と手の動きとは関連性が低く、ユーザに分かり難い制御の印象を与え、逆にユーザの操作性が低下してしまう。
旅行での観光地巡りや、博物館及び美術館における美術品の鑑賞においても、ユーザが回遊しつつ興味のある場所や美術品を鑑賞するため、上述した店舗における買い物をインターネットで行う場合と同様の課題がある。
However, as already described, the operation on the user terminal includes switching the imaging device in the store, so if this switching operation is added to the gestures, the types of gestures used by the user increase.
In particular, there is little relevance between the movement of the sales floor and the movement of the hand when purchasing a product, giving the user the impression that control is difficult to understand, and conversely, the user's operability is reduced.
When visiting sightseeing spots on a trip or viewing artworks at museums and art galleries, the user has the same problem as when shopping at the store on the Internet as described above, because the user wants to appreciate places and artworks of interest while wandering around. There is

本発明は、このような状況に鑑みてなされたもので、利用者が画面操作を行うことなく、あたかも複数の撮像装置が撮像している場所を実際に移動している感覚をユーザに与える処理を容易に行なうことができる画像操作システム、画像操作サーバ、利用者端末、画像操作方法及びプログラムを提供する。 The present invention has been made in view of such a situation, and is a process that gives the user a feeling as if he or she were actually moving between locations where images are being captured by a plurality of imaging devices without the user having to operate the screen. To provide an image manipulation system, an image manipulation server, a user terminal, an image manipulation method, and a program, which can easily perform

上述した課題を解決するために、本発明の画像操作システムは、複数の撮像装置の各々が撮像した撮像画像それぞれを受信し、前記撮像画像のいずれかに少なくとも基づく画像を配信画像として配信する画像配信部と、利用者の身体の状態を示し、少なくとも前記利用者の身体における所定の一部の向きを示す身体情報に対応した、前記配信画像における表示対象の領域である表示対象領域を移動させる方向を含む方向情報を取得する操作情報取得部と、前記方向情報を含む表示領域情報により、前記配信画像における前記表示対象領域を抽出する表示枠の位置を更新する指示を行う表示制御部と、前記配信画像から前記表示枠に囲まれた画像を抽出して、抽出した画像を表示画像とする画像加工部と、前記表示画像を出力する画像出力部とを備え、前記表示制御部は、前記方向情報の示す方向に応じた速度で、前記配信画像における前記表示枠の位置を移動させることを特徴とする。 In order to solve the above-described problems, an image manipulation system of the present invention receives captured images captured by each of a plurality of imaging devices, and distributes an image based on at least one of the captured images as a distribution image. A distribution unit moves a display target area, which is an area to be displayed in the distribution image, corresponding to physical information indicating a user's physical condition and indicating at least a predetermined part of the user's body orientation. an operation information acquisition unit that acquires direction information including a direction; a display control unit that issues an instruction to update a position of a display frame for extracting the display target region in the distribution image based on the display region information including the direction information; an image processing unit that extracts an image surrounded by the display frame from the distribution image and uses the extracted image as a display image; and an image output unit that outputs the display image. The position of the display frame in the distribution image is moved at a speed corresponding to the direction indicated by the direction information.

本発明の画像操作システムは、前記表示制御部は、前記方向情報の示す左または右への方向に応じた速度により、前記配信画像における前記表示枠を左または右に移動させ、前記方向情報の示す上または下への方向に応じて、前記方向情報における前記表示枠を上または下に移動させることを特徴とする。 In the image manipulation system of the present invention, the display control unit moves the display frame in the distribution image to the left or right at a speed corresponding to the leftward or rightward direction indicated by the direction information. The display frame in the direction information is moved up or down according to the indicated up or down direction.

本発明の画像操作システムは、前記身体における所定の一部が頭部であることを特徴とする。 The image manipulation system of the present invention is characterized in that the predetermined part of the body is the head.

本発明の画像操作システムは、前記撮像装置の各々の配置位置それぞれにおける隣接関係を示す撮像装置隣接関係情報を取得する撮像装置隣接関係情報取得部を備え、前記画像配信部は、前記複数の撮像装置のうち、一部を対象撮像装置として選択し、前記対象撮像装置が一つの撮像装置である場合、当該一つの撮像装置が撮像した撮像画像を配信画像として配信し、前記対象撮像装置が複数の撮像装置である場合、当該複数の撮像装置が撮像した撮像画像を合成した画像を配信画像として配信し、前記一部の変更を指示する撮像装置変更リクエスト情報が入力された場合、当該撮像装置変更リクエスト情報に対応して前記対象撮像装置を切り替え、前記表示制御部は、前記方向情報における所定の条件が満たされた場合、前記対象撮像装置を他の撮像装置へ変更する指示を行うことを特徴とする。 The image manipulation system of the present invention includes an imaging device adjacency information acquisition unit that acquires imaging device adjacency information indicating an adjacency relationship at each of the arrangement positions of the imaging devices, When some of the devices are selected as target imaging devices and the target imaging device is one imaging device, the captured image captured by the one imaging device is distributed as a distribution image, and the target imaging device is a plurality of target imaging devices. image pickup device, distributes an image obtained by synthesizing the images picked up by the plurality of image pickup devices as a distribution image, and when the image pickup device change request information instructing the partial change is input, the image pickup device The target imaging device is switched in response to the change request information, and the display control unit instructs to change the target imaging device to another imaging device when a predetermined condition in the direction information is satisfied. Characterized by

本発明の画像操作システムは、前記撮像装置の各々の配置位置それぞれにおける隣接関係を示す撮像装置隣接関係情報を取得する撮像装置隣接関係情報取得部を備え、前記画像配信部は、前記撮像装置のいずれかを対象撮像装置として選択し、当該対象撮像装置が撮像した撮像画像を配信画像として配信し、前記撮像装置の変更を指示する撮像装置変更リクエスト情報が入力された場合、当該撮像装置変更リクエスト情報に対応して前記対象撮像装置を切り替え、前記表示制御部は、前記方向情報における所定の条件が満たされた場合、前記対象撮像装置を他の撮像装置へ変更する指示を行うことを特徴とする。 The image manipulation system of the present invention comprises an imaging device adjacency information acquisition unit that acquires imaging device adjacency information indicating the adjacency relationship at each of the arrangement positions of the imaging devices, and the image distribution unit includes: When any one of them is selected as a target imaging device, a captured image captured by the target imaging device is distributed as a distribution image, and imaging device change request information instructing to change the imaging device is input, the imaging device change request The target imaging device is switched according to the information, and the display control unit instructs to change the target imaging device to another imaging device when a predetermined condition in the direction information is satisfied. do.

本発明の画像操作システムは、前記撮像装置の各々が商品を販売する店舗内のそれぞれ異なる位置に配置されており、当該店舗内の互いに異なる撮像範囲を撮像し、前記撮像範囲に前記商品が陳列されていることを特徴とする。 In the image manipulation system of the present invention, each of the imaging devices is arranged at a different position in the store where the product is sold, images different imaging ranges in the store, and the product is displayed in the imaging range. It is characterized by being

本発明の画像操作システムは、前記利用者の購入する前記商品を示す注文情報に対応して、当該商品の画像を含む注文書情報を出力する注文処理部をさらに備え、前記身体情報が、前記利用者における身体の所定の一部である当該利用者の手の位置を示す手位置情報を含み、前記操作情報取得部が、前記手位置情報に対応して、前記表示画像における商品の位置を示す位置情報を取得し、前記表示制御部が、前記表示枠の位置に対応させて、前記位置情報の示す位置を前記配信画像上の位置に変換した選択位置情報を生成し、前記表示制御部が、前記選択位置情報の示す前記商品を注文する注文条件が満たされた場合、少なくとも前記選択位置情報を含む前記注文情報を注文処理部に送信し、前記注文処理部が、前記配信画像から、前記注文情報に含まれる前記選択位置情報の示す位置を含む領域を抽出し、当該領域のサムネイル画像を生成するサムネイル画像生成部と、前記商品の配送先となる、当該商品を注文した前記利用者の住所を含む配送先情報を取得する配送先情報取得部と、前記サムネイル画像と前記配送先情報とより、前記サムネイル画像内の商品の注文書の情報である注文書情報を出力する注文書情報出力部とをさらに備える、ことを特徴とする。 The image manipulation system of the present invention further comprises an order processing unit that outputs order form information including an image of the product in response to order information indicating the product purchased by the user, wherein the physical information is the It includes hand position information indicating the position of the user's hand, which is a predetermined part of the user's body, and the operation information acquisition unit determines the position of the product on the display image in accordance with the hand position information. The display control unit generates selected position information by converting the position indicated by the position information into a position on the distribution image in correspondence with the position of the display frame, and the display control unit is, when the order condition for ordering the product indicated by the selected position information is satisfied, the order information including at least the selected position information is transmitted to the order processing unit, and the order processing unit processes the image from the distribution image, a thumbnail image generation unit that extracts an area including the position indicated by the selected position information included in the order information and generates a thumbnail image of the area; and order form information for outputting order form information, which is order form information for the product in the thumbnail image, based on the thumbnail image and the delivery address information. and an output unit.

本発明の画像操作システムは、前記注文条件が、前記身体における所定の一部が、予め設定された時間の間、前記位置情報の示す位置に停止した状態である条件を必要条件とすることを特徴とする。 In the image manipulation system of the present invention, the order condition is that the predetermined part of the body is in a state of being stationary at the position indicated by the position information for a preset time. Characterized by

本発明の画像操作システムは、前記身体情報が、前記利用者の身体の一部である当該利用者の手のポーズ及び状態を含むジェスチャを示す手形情報を含み、前記操作情報取得部が、前記手形情報に基づき、前記ジェスチャの種類を示すジェスチャ情報を取得し、前記注文条件が、前記ジェスチャ情報の示すジェスチャが、注文を行う種類として予め設定された種類のジェスチャである場合を必要条件とする、ことを特徴とする。 In the image manipulation system of the present invention, the physical information includes handprint information indicating gestures including poses and states of the user's hand, which is a part of the user's body, and the operation information acquisition unit includes the Gesture information indicating the type of the gesture is acquired based on the bill information, and the necessary condition for the order is that the gesture indicated by the gesture information is a type of gesture preset as a type for placing an order. , characterized in that

本発明の画像操作システムは、身体情報認識部と、ユーザインターフェース部とをさらに備え、前記ユーザインターフェース部が、前記画像出力部から出力された前記表示画像を表示する表示部と、前記利用者の身体における一部である頭部に配置され、当該頭部の姿勢に関する頭部状態情報を前記身体情報認識部に送信するモーションセンサ部と、を備え、前記身体情報認識部が、前記頭部状態情報における前記頭部の姿勢から、当該頭部の向きの情報を含む前記身体情報を取得することを特徴とする。 The image manipulation system of the present invention further includes a body information recognition section and a user interface section, wherein the user interface section includes a display section for displaying the display image output from the image output section; a motion sensor unit arranged on the head, which is a part of the body, and transmitting head state information regarding the posture of the head to the body information recognition unit, wherein the body information recognition unit detects the head state. The physical information including information on the direction of the head is obtained from the posture of the head in the information.

本発明の画像操作システムは、前記画像出力部から出力された前記表示画像を表示する表示部と、前記利用者の身体の状態をセンシング情報として取得するセンサ部と、前記センシング情報に基づき、前記利用者の前記身体情報を抽出する身体情報認識部とをさらに備えることを特徴とする。 The image manipulation system of the present invention comprises: a display unit that displays the display image output from the image output unit; a sensor unit that acquires the physical state of the user as sensing information; It is characterized by further comprising a physical information recognition unit for extracting the physical information of the user.

本発明の画像操作システムは、サーバと、当該サーバに接続され、前記利用者の所持する利用者端末とを備え、前記サーバが、前記画像配信部と、前記撮像装置隣接関係情報取得部とを備え、前記利用者端末が、前記操作情報取得部と、前記表示制御部と、前記画像加工部と、前記画像出力部とを備えることを特徴とする。 The image manipulation system of the present invention comprises a server, and a user terminal connected to the server and owned by the user, wherein the server comprises the image distribution unit and the imaging device adjacency information acquisition unit. The user terminal is characterized by comprising the operation information acquisition section, the display control section, the image processing section, and the image output section.

本発明の画像操作サーバは、利用者の身体における所定の一部の方向を示す身体方向情報から方向情報を取得し、前記方向情報の示す方向に応じた速度で、配信画像における表示枠の位置を移動させる利用者端末と接続され、前記配信画像を前記利用者端末に送信する画像操作サーバであり、複数の撮像装置の各々が撮像した撮像画像それぞれを受信し、前記撮像画像のいずれかに少なくとも基づく画像を前記配信画像として配信する画像配信部を備えることを特徴とする。 The image operation server of the present invention acquires direction information from body direction information indicating the direction of a predetermined portion of the user's body, and moves the position of the display frame in the delivered image at a speed corresponding to the direction indicated by the direction information. an image manipulation server connected to a user terminal that moves the image, and that transmits the distribution image to the user terminal; It is characterized by comprising an image distribution unit that distributes at least a base image as the distribution image.

本発明の利用者端末は、複数の撮像装置の各々が撮像した撮像画像それぞれを受信し、前記撮像画像のいずれかに少なくとも基づく画像を配信画像として配信するサーバと接続される、当該配信画像を受信する利用者端末であり、利用者の身体の状態を示し、少なくとも前記利用者の身体における所定の一部の向きを示す身体情報に対応した、前記配信画像における表示対象領域を移動させる方向を含む方向情報を取得する操作情報取得部と、前記方向情報を含む表示領域情報により、前記配信画像における表示対象領域を選択する表示枠の位置を更新する指示を行う表示制御部と、前記配信画像から前記表示枠に囲まれた画像を抽出して、前記表示対象領域の表示画像を生成する画像加工部と、前記表示画像を出力する画像出力部とを備えることを特徴とする。 A user terminal of the present invention is connected to a server that receives captured images captured by each of a plurality of imaging devices, and distributes an image based on at least one of the captured images as a distributed image. A receiving user terminal, which indicates the physical condition of the user and indicates the direction in which the display target area in the distribution image is moved, corresponding to the physical information indicating at least the orientation of a predetermined part of the user's body. a display control unit for instructing to update a position of a display frame for selecting a display target area in the distribution image based on the display area information including the direction information; and the distribution image. and an image processing unit that extracts an image surrounded by the display frame from the display area and generates a display image of the display target area, and an image output unit that outputs the display image.

本発明の画像操作方法は、画像配信部が、複数の撮像装置の各々が撮像した撮像画像それぞれを受信し、前記撮像画像のいずれかに少なくとも基づく画像を配信画像として配信する画像配信過程と、操作情報取得部が、利用者の身体の状態を示し、少なくとも前記利用者の身体における所定の一部の向きを示す身体情報に対応した、前記配信画像における表示対象領域を移動させる方向を含む方向情報を取得する操作情報取得過程と、表示制御部が、前記方向情報を含む表示領域情報により、前記配信画像における表示対象領域を選択する表示枠の位置を更新する指示を行う表示制御過程と、画像加工部が、前記配信画像から前記表示枠に囲まれた画像を抽出して、前記表示対象領域の表示画像を生成する画像加工過程と、画像出力部が、前記表示画像を出力する画像出力過程とを含むことを特徴とする。 An image manipulation method according to the present invention includes an image distribution step in which an image distribution unit receives each captured image captured by each of a plurality of imaging devices, and distributes an image based on at least one of the captured images as a distribution image; A direction in which the operation information acquisition unit indicates the physical condition of the user and includes the direction in which the display target area in the distribution image is moved, corresponding to the physical information indicating at least the orientation of a predetermined portion of the user's body. an operation information acquisition process of acquiring information; a display control process of instructing a display control unit to update a position of a display frame for selecting a display target area in the distribution image based on the display area information including the direction information; an image processing process in which an image processing unit extracts an image surrounded by the display frame from the distribution image and generates a display image of the display target area; and an image output unit in which an image output unit outputs the display image. characterized by comprising:

本発明のプログラムは、利用者の身体における所定の一部の方向を示す身体方向情報から方向情報を取得し、前記方向情報の示す方向に応じた速度で、配信画像における表示枠の位置を移動させる利用者端末と接続され、前記配信画像を前記利用者端末に送信する画像操作サーバとしてコンピュータを動作させるプログラムであり、前記コンピュータを、複数の撮像装置の各々が撮像した撮像画像それぞれを受信し、前記撮像画像のいずれかに少なくとも基づく画像を前記配信画像として配信する画像配信手段、として動作させるプログラムである。 The program of the present invention acquires direction information from body direction information indicating a predetermined partial direction of the user's body, and moves the position of the display frame in the distribution image at a speed corresponding to the direction indicated by the direction information. a program for causing a computer to operate as an image manipulation server that is connected to a user terminal to transmit the distribution image to the user terminal, and the computer receives the captured images captured by each of a plurality of imaging devices. and image distribution means for distributing an image based on at least one of the captured images as the distribution image.

本発明のプログラムは、複数の撮像装置の各々が撮像した撮像画像それぞれを受信し、前記撮像画像のいずれかに少なくとも基づく画像を配信画像として配信するサーバと接続される、当該配信画像を受信する利用者端末としてコンピュータを動作させるプログラムであり、利用者の身体の状態を示し、少なくとも前記利用者の身体における所定の一部の向きを示す身体情報に対応した、前記配信画像における表示対象領域を移動させる方向を含む方向情報を取得する操作情報取得手段、前記方向情報を含む表示領域情報により、前記配信画像における表示対象領域を選択する表示枠の位置を更新する指示を行う表示制御手段、前記配信画像から前記表示枠に囲まれた画像を抽出して、前記表示対象領域の表示画像を生成する画像加工手段、前記表示画像を出力する画像出力手段として動作させるプログラムである。 The program of the present invention receives each captured image captured by each of a plurality of imaging devices, and receives the delivered image connected to a server that delivers an image based on at least one of the captured images as a delivered image. A program for operating a computer as a user terminal, which indicates the user's physical condition and indicates the display target area in the distribution image corresponding to physical information indicating at least the orientation of a predetermined part of the user's body. operation information acquisition means for acquiring direction information including the direction of movement; display control means for instructing update of a position of a display frame for selecting a display target area in the distribution image based on the display area information including the direction information; The program operates as image processing means for extracting an image surrounded by the display frame from a distributed image and generating a display image of the display target area and image output means for outputting the display image.

以上説明したように、本発明によれば、利用者が画面操作を行うことなく、あたかも複数の撮像装置が撮像している場所を実際に移動している感覚をユーザに与える処理を容易に行なうことができる画像操作システム、画像操作サーバ、利用者端末、画像操作方法及びプログラムを提供することができる。 As described above, according to the present invention, it is possible to easily perform processing that gives the user a feeling as if he or she is actually moving between places being imaged by a plurality of imaging devices without the user having to operate the screen. An image manipulation system, an image manipulation server, a user terminal, an image manipulation method, and a program can be provided.

本発明の一実施形態による画像操作システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of an image manipulation system according to an embodiment of the present invention; FIG. 本実施形態による画像操作システム1における画像操作サーバ10の構成例を示す図である。2 is a diagram showing a configuration example of an image operation server 10 in the image operation system 1 according to this embodiment; FIG. 撮像装置変更リクエスト情報における撮像装置識別情報及び方向情報の各々を説明する概念図である。FIG. 10 is a conceptual diagram explaining each of imaging device identification information and direction information in imaging device change request information; 撮像装置隣接関係情報記憶部3に予め書き込まれて記憶されている撮像装置隣接関係テーブルの構成例を示している。FIG. 3 shows a configuration example of an imaging device adjacency table preliminarily written and stored in an imaging device adjacency information storage unit 3. FIG. 本実施形態による画像操作システム1における利用者端末20及びユーザインターフェース部30の構成例を示す図である。2 is a diagram showing a configuration example of a user terminal 20 and a user interface section 30 in the image manipulation system 1 according to this embodiment; FIG. 利用者の頭部の向き(視線方向)と、配信画像における表示枠の移動の向きとの対応を示す図である。FIG. 10 is a diagram showing the correspondence between the direction of the user's head (line-of-sight direction) and the direction of movement of the display frame in the distribution image; 利用者601の頭部(すなわち視線)の移動にともなう垂直方向及び水平方向における回転移動における回転角度を説明する概念図である。FIG. 4 is a conceptual diagram for explaining rotation angles in vertical and horizontal rotational movement associated with movement of the head (that is, line of sight) of a user 601; ユーザインターフェース部30における表示部31に表示される表示画像と、動画像において撮像された利用者の手との対応を示す概念図である。3 is a conceptual diagram showing correspondence between a display image displayed on a display section 31 of a user interface section 30 and a user's hand captured in a moving image. FIG. 本実施形態による画像操作サーバにより、店舗における複数の売場の間の撮像装置の変更処理の動作を説明する概念図である。FIG. 4 is a conceptual diagram for explaining the operation of processing for changing imaging devices between a plurality of sales floors in a store by the image operation server according to the present embodiment; 本実施形態による画像操作サーバによる店舗の売り場における撮像装置の変更及び利用者における商品の購入の各々の動作の連携を示すフローチャートである。10 is a flow chart showing the cooperation of the image manipulation server according to the present embodiment for changing the imaging device in the sales floor of the store and for the purchase of the product by the user. 本実施形態の変形例1における画像操作システム1における画像操作サーバ10の構成例を示す図である。FIG. 10 is a diagram showing a configuration example of an image operation server 10 in the image operation system 1 according to Modification 1 of the present embodiment; 本実施形態の変形例2における画像操作システム1における画像操作サーバ10の構成例を示す図である。FIG. 10 is a diagram showing a configuration example of an image operation server 10 in the image operation system 1 according to Modification 2 of the present embodiment;

以下、本発明の一実施形態について、図面を参照して説明する。本実施形態の説明において、本発明の一実施形態による画像操作システムが商品を販売する販売店に設置された撮像装置の撮像画像を操作する構成を例に説明する。
図1は、本発明の一実施形態による画像操作システムの構成例を示すブロック図である。図1において、画像操作システム1は、例えば、画像操作サーバ10と、利用者端末20と、ユーザインターフェース部30とを備えている。画像操作サーバ10と利用者端末20との各々は、例えば、インターネットを含む情報通信網500などにより接続されている。また、情報通信網500には、例えば、撮像装置D1から撮像装置Dn(nは2以上の整数)の各々と、ユーザ管理データベース2と、撮像装置隣接関係情報記憶部3と、プリンタ4とが接続されている。
An embodiment of the present invention will be described below with reference to the drawings. In the description of this embodiment, an example of a configuration in which an image manipulation system according to one embodiment of the present invention manipulates an image picked up by an imaging device installed in a store that sells products will be described.
FIG. 1 is a block diagram showing an example configuration of an image manipulation system according to an embodiment of the present invention. In FIG. 1, the image manipulation system 1 includes, for example, an image manipulation server 10, a user terminal 20, and a user interface section 30. As shown in FIG. The image operation server 10 and the user terminal 20 are connected by an information communication network 500 including the Internet, for example. Further, the information communication network 500 includes, for example, each of the imaging devices D1 to Dn (n is an integer equal to or greater than 2), the user management database 2, the imaging device adjacency information storage unit 3, and the printer 4. It is connected.

画像操作サーバ10は、撮像装置D1から撮像装置Dnの各々から供給される撮像画像それぞれを、各利用者端末20からの撮像装置変更リクエスト情報に対応して、利用者端末20に配信画像として供給する。上記撮像装置変更リクエスト情報は、例えば、商品の種類毎の売り場に複数個設置された撮像装置のいずれを、利用者端末20に配信する撮像画像とする撮像画像を取得する対象の撮像画像装置(対象撮像装置)として選択するかを示す情報である。
また、画像操作サーバ10は、利用者端末20からの注文情報に含まれる、利用者端末20で注文を行ったユーザ識別情報と、注文した商品が撮像されている表示画像とにより、注文書情報を生成する。画像操作サーバ10は、生成した注文書情報(画像データ)をプリンタ4により印刷し、店員602に商品の注文があったことを通知する。
The image operation server 10 supplies each captured image supplied from each of the imaging devices D1 to Dn to the user terminal 20 as a distribution image in response to the imaging device change request information from each user terminal 20. do. The imaging device change request information is, for example, an imaging device ( This is information indicating whether to select as a target imaging device).
In addition, the image operation server 10 uses the user identification information of the user who placed the order with the user terminal 20, which is included in the order information from the user terminal 20, and the display image in which the ordered product is captured, to process the order form information. to generate The image operation server 10 prints the generated order form information (image data) by the printer 4 and notifies the store clerk 602 that the product has been ordered.

利用者端末20は、画像操作サーバ10から供給される配信画像を、利用者の身体情報(後述するセンシング情報から抽出する)により求めた配信画像における位置情報に対応し、配信画像における画像領域を抽出する表示枠を移動させ、表示枠の内部の画像領域を表示画像とする。
そして、利用者端末20は、利用者601のユーザインターフェース部30に表示画像を出力する。
The user terminal 20 assigns the distribution image supplied from the image operation server 10 to the position information of the distribution image obtained from the physical information of the user (extracted from the sensing information described later), and defines the image area of the distribution image. The display frame to be extracted is moved, and the image area inside the display frame is used as the display image.
The user terminal 20 then outputs the display image to the user interface section 30 of the user 601 .

ユーザインターフェース部30は、利用者端末20から表示画像が供給された場合、利用者601に表示画像を観察させ、売り場の商品の各々から購買する商品の選択を行わせる。
また、ユーザインターフェース部30は、表示画像の観察を行うことにより変位する、利用者601の身体の各部分の状態を示すセンシング情報を取得し、利用者端末20に対して出力する。
When a display image is supplied from the user terminal 20, the user interface unit 30 allows the user 601 to observe the display image and select a product to purchase from each product on the sales floor.
The user interface unit 30 also acquires sensing information indicating the state of each part of the body of the user 601 that is displaced by observing the displayed image, and outputs the sensing information to the user terminal 20 .

図2は、本実施形態による画像操作システム1における画像操作サーバ10の構成例を示す図である。
図2において、画像操作サーバ10は、受信部101、画像配信部102、撮像装置隣接関係情報取得部103、送信部104及び注文処理部110との各々を備えている。 また、注文処理部110は、サムネイル画像生成部111、発送先情報取得部112及び注文書情報出力部113の各々を備えている。
受信部101は、利用者端末20から、撮像装置変更リクエスト情報、注文情報及び画像リクエスト情報などデータの入力を行う。
FIG. 2 is a diagram showing a configuration example of the image operation server 10 in the image operation system 1 according to this embodiment.
In FIG. 2, the image operation server 10 includes a receiving unit 101, an image distribution unit 102, an imaging device adjacency information acquiring unit 103, a transmitting unit 104, and an order processing unit 110, respectively. The order processing unit 110 also includes a thumbnail image generation unit 111 , a shipping destination information acquisition unit 112 and an order sheet information output unit 113 .
The receiving unit 101 inputs data such as imaging device change request information, order information, and image request information from the user terminal 20 .

画像配信部102は、撮像装置D1から撮像装置Dnの各々から、撮像画像をそれぞれ所定の周期において入力し、撮像画像記憶部(不図示)に書き込んで記憶させる。
そして、画像配信部102は、利用者端末20から供給される撮像装置変更リクエスト情報により、撮像装置D1から撮像装置Dnのいずれかを選択する。
画像配信部102は、選択した撮像装置Dnの撮像画像を読み出し、読み出した撮像画像を配信画像とし、例えば符号化することでデータ圧縮して、利用者端末20へ出力する。
上記撮像装置変更リクエスト情報は、現時点において利用者601に送信している撮像画像を撮像した撮像装置を識別する撮像装置識別情報と、方向情報(利用者の頭部の回転における回転角度、すなわち利用者の視線の方向、後述)とを含んでいる。
ここで、本実施形態において、頭部の回転とは、基準の方向として正面を向いている基準視線方向に対して異なる方向、すなわち人体に対して正面を基準視線方向として、当該基準視線方向に対する水平方向の角度及び垂直方向の方向で示される方向(後述する方向情報の回転角度)に頭部の向きを変えることを示している。
The image distribution unit 102 receives captured images from each of the imaging devices D1 to Dn at predetermined intervals, and writes and stores them in a captured image storage unit (not shown).
Then, the image distribution unit 102 selects one of the imaging devices D1 to Dn based on the imaging device change request information supplied from the user terminal 20 .
The image distribution unit 102 reads the captured image of the selected imaging device Dn, uses the read captured image as a distribution image, compresses the data by, for example, encoding it, and outputs it to the user terminal 20 .
The imaging device change request information includes imaging device identification information for identifying the imaging device that captured the captured image currently being sent to the user 601, and direction information (the rotation angle of the rotation of the user's head, that is, the usage direction of the person's line of sight (described later).
Here, in this embodiment, the rotation of the head refers to a direction different from the reference line-of-sight direction in which the front is oriented as the reference direction, that is, the front direction of the human body is set as the reference line-of-sight direction. It indicates that the orientation of the head is changed in the direction indicated by the horizontal angle and the vertical direction (rotation angle of direction information to be described later).

図3は、撮像装置変更リクエスト情報における撮像装置識別情報及び方向情報の各々を説明する概念図である。
図3(a)は、撮像装置の各々と他の撮像装置それぞれとの隣接関係と、方向情報による撮像装置間の遷移関係とを示す図である。
図3(a)において、撮像装置間における矢印に付加されている「上」、「下」、「左」及び「右」の各々が方向情報であり、現在の撮像装置から、当該撮像装置に隣接する他の撮像装置のいずれの撮像装置に遷移するかを示している。
FIG. 3 is a conceptual diagram explaining each of imaging device identification information and direction information in imaging device change request information.
FIG. 3A is a diagram showing the adjacent relationship between each imaging device and each of the other imaging devices and the transition relationship between imaging devices based on direction information.
In FIG. 3A, each of "up", "down", "left", and "right" added to the arrows between imaging devices is direction information. It indicates to which imaging device among other adjacent imaging devices the transition is made.

利用者端末20が起動された際、当該利用者端末20に最初に供給される配信画像(ディフォルトとしての初期画像)が撮像装置D1が撮像した撮像画像である場合、撮像装置変更リクエスト情報における撮像装置識別情報は撮像装置D1を識別する情報である。 撮像装置の遷移の一例として、現時点において撮像装置D1が選択されている際、方向情報が「上」の場合に選択対象の撮像装置が撮像装置D1から撮像装置D2に変更され、方向情報が「下」の場合に選択対象の撮像装置が撮像装置D1から撮像装置D4に変更され、方向情報が「左」の場合に選択対象の撮像装置が撮像装置D1から撮像装置D3に変更され、方向情報が「右」の場合に選択対象の撮像装置が撮像装置D1から撮像装置D5に変更される。 When the user terminal 20 is activated, if the delivery image (initial image as default) first supplied to the user terminal 20 is the captured image captured by the imaging device D1, the imaging in the imaging device change request information The device identification information is information for identifying the imaging device D1. As an example of the transition of the imaging device, when the imaging device D1 is currently selected and the direction information is "up", the imaging device to be selected is changed from the imaging device D1 to the imaging device D2, and the direction information is changed to " In the case of "downward", the imaging device to be selected is changed from the imaging device D1 to the imaging device D4, and in the case of the direction information being "left", the imaging device to be selected is changed from the imaging device D1 to the imaging device D3. is "right", the imaging device to be selected is changed from the imaging device D1 to the imaging device D5.

図3(b)は、一例としての現時点の撮像装置からの方向情報における各方向となる領域を説明している。
図3(b)において、方向ベクトル705の角度が、角度範囲701に含まれている場合に「上」として方向情報の方向が判定され、角度範囲702に含まれている場合に「下」として方向情報の方向が判定され、角度範囲703に含まれている場合に「左」として方向情報の方向が判定され、角度範囲704に含まれている場合に「右」として方向情報の方向が判定される。
FIG. 3B illustrates, as an example, an area corresponding to each direction in direction information from the current imaging device.
In FIG. 3B, the direction of the direction information is determined as "up" when the angle of the direction vector 705 is included in the angle range 701, and is determined as "down" when it is included in the angle range 702. The direction of the direction information is determined, and if it is included in the angle range 703, the direction of the direction information is determined as "left", and if it is included in the angle range 704, the direction of the direction information is determined as "right". be done.

図4は、撮像装置隣接関係情報記憶部3に予め書き込まれて記憶されている撮像装置隣接関係テーブルの構成例を示している。この撮像装置隣接関係テーブルは、例えば売り場毎に設けられている。このため、撮像装置隣接関係テーブルの各々には、対応する売り場のそれぞれを識別するための売場識別情報が付加されている。
図4において、この撮像装置隣接関係テーブルは、レコード毎に撮像装置識別情報と方向情報/遷移撮像装置との欄が設けられている。
最も上部のレコードには、例えば、売り場の中心の領域を撮像している撮像装置の識別情報が記載され、隣接している撮像装置D2から撮像装置D5の各々が遷移可能な撮像装置であることを示している。
FIG. 4 shows a configuration example of an imaging device adjacency table pre-written and stored in the imaging device adjacency information storage unit 3 . This imaging device adjacency table is provided, for example, for each sales floor. For this reason, each imaging device adjacency table is added with sales floor identification information for identifying each corresponding sales floor.
In FIG. 4, the imaging device adjacency table has columns of imaging device identification information and direction information/transition imaging device for each record.
In the record at the top, for example, the identification information of the imaging device that is imaging the central area of the sales floor is described, and each of the adjacent imaging devices D2 to D5 is an imaging device that can be transitioned. is shown.

撮像装置識別情報が撮像装置D1を示している場合、現時点で選択されている撮像装置が撮像装置D1であり、方向情報が「上」の場合に撮像装置D2に選択される撮像装置が遷移し、方向情報が「左」の場合に撮像装置D3に選択される撮像装置が遷移し、方向情報が「下」の場合に撮像装置D4に選択される撮像装置が遷移し、方向情報が「右」の場合に撮像装置D5に選択される撮像装置が遷移する。
他の撮像装置D2から撮像装置D5の各々が現時点で選択されている撮像装置である場合も、上述したように、方向情報/遷移撮像装置の欄に示されている方向情報の方向により、遷移する撮像装置が決定される。
When the imaging device identification information indicates the imaging device D1, the imaging device currently selected is the imaging device D1, and when the direction information is "up", the selected imaging device transitions to the imaging device D2. , the imaging device selected as the imaging device D3 transitions when the direction information is "left", the imaging device selected as the imaging device D4 transitions when the direction information is "down", and the imaging device selected as the imaging device D4 transitions when the direction information is "right , the imaging device selected as the imaging device D5 transitions.
Even if each of the other imaging devices D2 to D5 is the currently selected imaging device, as described above, the direction of the direction information shown in the column of direction information/transition imaging device will cause the transition to occur. An imaging device to be used is determined.

図2に戻り、撮像装置隣接関係情報取得部103は、撮像装置隣接関係情報記憶部3から撮像装置隣接関係テーブルのデータを読み出し、内部記憶部に書き込んで記憶させる。 そして、撮像装置隣接関係情報取得部103は、画像配信部102に対して、撮像装置隣接関係テーブルを参照させる。 Returning to FIG. 2, the imaging device adjacency information acquisition unit 103 reads the data of the imaging device adjacency table from the imaging device adjacency information storage unit 3, and writes and stores the data in the internal storage unit. Then, the imaging device adjacency information acquisition unit 103 causes the image distribution unit 102 to refer to the imaging device adjacency table.

送信部104は、画像配信部102から配信画像が入力された場合、当該配信画像を利用者端末20に対して出力する。 When a distribution image is input from the image distribution unit 102 , the transmission unit 104 outputs the distribution image to the user terminal 20 .

サムネイル画像生成部111は、受信部101を介して利用者端末20の注文情報が供給された場合、画像配信部102が上記注文情報を出力した利用者端末20に送信している配信画像を読み込む。
そして、サムネイル画像生成部111は、読み込んだ配信画像の画素を間引するなどして解像度を低減して、サムネイル画像を生成する。
サムネイル画像生成部111は、生成したサムネイル画像を、注文書情報出力部113に出力する。
When the order information of the user terminal 20 is supplied via the reception unit 101, the thumbnail image generation unit 111 reads the distribution image that the image distribution unit 102 has transmitted to the user terminal 20 that has output the order information. .
Then, the thumbnail image generation unit 111 reduces the resolution by, for example, thinning out the pixels of the read distribution image to generate a thumbnail image.
Thumbnail image generation unit 111 outputs the generated thumbnail image to order form information output unit 113 .

発送先情報取得部112は、ユーザ管理データベース2におけるユーザ登録している利用者の情報が記載されたユーザ管理テーブルを参照し、配信画像に付加されているユーザ識別情報に対応した氏名、住所及び電話番号などを発送先情報として読み込む。
そして、発送先情報取得部112は、読み込んだ発送先情報を、注文書情報出力部113に対して出力する。
The destination information acquisition unit 112 refers to the user management table in which the information of the registered user in the user management database 2 is described, and obtains the name, address, and address corresponding to the user identification information added to the distribution image. Read phone number etc. as shipping address information.
Then, the shipping destination information acquiring unit 112 outputs the read shipping destination information to the order form information outputting unit 113 .

注文書情報出力部113は、サムネイル画像生成部111から供給される注文書情報と、発送先情報取得部112から供給される発送先情報とにより、例えば、注文された商品を示す画像と、当該商品の配送先が記載されたファイル形式の注文書情報を生成する。 そして、注文書情報出力部113は、生成した注文書情報を、プリンタ4により印刷させて注文書を作成させる。プリンタへ出力する印刷情報ではなく、店員が携帯している携帯端末(タブレットコンピュータあるいはスマートフォンなど)の表示画面に表示する画面データを生成して、携帯端末の各々に送信して、店員に対して注文情報を通知する構成としてもよい。 The order form information output unit 113 generates, for example, an image showing the ordered product and the relevant Generate purchase order information in a file format that describes the delivery address of the product. Then, the order form information output unit 113 causes the printer 4 to print the generated order form information to create an order form. Instead of printing information to be output to a printer, screen data to be displayed on the display screen of a mobile terminal (tablet computer, smartphone, etc.) carried by the store clerk is generated, sent to each mobile terminal, and sent to the store clerk. It may be configured to notify the order information.

また、上述した注文書の画像において、例えば画像の中心位置に注文された商品が位置する、あるいは注文された商品にマーカーが付与されているなど、注文された商品を特定できる規則は予め設定されている。
これにより、店員602は、注文書において注文された商品が売られている売り場にいき、当該売り場において注文書の画像の商品を回収し、配送先とされている氏名及び住所に回収した商品を所定の配送業者を介して配送する発送処理を行う。
In addition, in the image of the order form described above, rules for identifying the ordered product are set in advance, for example, the ordered product is positioned at the center of the image, or the ordered product is marked with a marker. ing.
As a result, the store clerk 602 goes to the sales floor where the products ordered in the order form are sold, collects the products in the image of the order form at the sales floor, and delivers the collected products to the name and address specified as the delivery destination. Perform shipping processing for delivery via a predetermined delivery company.

図5は、本実施形態による画像操作システム1における利用者端末20及びユーザインターフェース部30の構成例を示す図である。
図5において、利用者端末20は、受信部21、画像加工部22、画像出力部23、身体情報認識部24、操作情報取得部25、表示制御部26及び送信部27の各々を備えている。また、ユーザインターフェース部30は、表示部31及びセンサ部32の各々を備えている。センサ部32は、撮像部321及びモーションセンサ部322の各々を備えている。本実施形態においては、例えば、ユーザインターフェース部30として、HMD(Head Mounted Display)の一例であるAR(Augmented Reality)グラスを用いている。
FIG. 5 is a diagram showing a configuration example of the user terminal 20 and the user interface section 30 in the image manipulation system 1 according to this embodiment.
In FIG. 5, the user terminal 20 includes a receiving unit 21, an image processing unit 22, an image output unit 23, a physical information recognition unit 24, an operation information acquisition unit 25, a display control unit 26, and a transmission unit 27. . The user interface section 30 also includes a display section 31 and a sensor section 32 . The sensor section 32 includes an imaging section 321 and a motion sensor section 322, respectively. In the present embodiment, for example, an AR (Augmented Reality) glass, which is an example of an HMD (Head Mounted Display), is used as the user interface unit 30 .

受信部21は、撮像装置D1から撮像装置Dnのなかから、利用者601が要求した撮像装置の配信画像が供給された場合、当該配信画像を画像加工部22へ出力する。 When the delivery image of the image pickup device requested by the user 601 is supplied from the image pickup device D1 to the image pickup device Dn, the reception unit 21 outputs the delivery image to the image processing unit 22 .

画像加工部22は、受信部21から供給される配信画像を内部の記憶部に書き込んで記憶させる。
また、画像加工部22は、表示制御部26から供給される表示領域情報(後述)に含まれる、配信画像におけるいずれの画像領域を表示させるかを示す表示枠を抽出する。
そして、画像加工部22は、配信画像において表示枠で囲まれた領域を表示領域として、表示領域の画像を表示画像として切取る(加工する)。
画像加工部22は、配信画像を加工して生成した上記表示画像を、画像出力部23に対して出力する。
The image processing unit 22 writes the distributed image supplied from the receiving unit 21 to the internal storage unit for storage.
The image processing unit 22 also extracts a display frame indicating which image area in the distribution image is to be displayed, included in display area information (described later) supplied from the display control unit 26 .
Then, the image processing unit 22 cuts (processes) the image of the display area as the display image, with the area surrounded by the display frame in the distribution image as the display area.
The image processing unit 22 outputs the display image generated by processing the distribution image to the image output unit 23 .

画像出力部23は、画像加工部22から表示画像が供給された場合、ユーザインターフェース部30に対して当該表示画像を出力する。 When the display image is supplied from the image processing unit 22 , the image output unit 23 outputs the display image to the user interface unit 30 .

図6は、利用者の頭部の向き(頭部の姿勢であり、利用者の視線方向を示す)と、配信画像における表示枠の移動の向きとの対応を示す図である。
図6において、利用者601は、自身の頭部601Hにユーザインターフェース部30であるVRグラスを装着している。ここで、方向情報は、頭部601Hの回転角度による利用者の視線方向を示している。
操作情報取得部25は、垂直方向の角度(上(UP)下(DOWN)方向角度)、及び水平方向の角度(左(Light)右(Left)方向角度)により示される頭部の向きに対応して、頭部の方向情報(利用者の身体における所定の部位の向きを示す方向情報の一例)を抽出する。
これにより、表示制御部26は、上記方向情報に対応して、配信画像内における表示枠Wの移動先の位置を求め(配信画像内における表示枠Wの位置の更新)、表示領域情報として画像加工部22に出力する。
そして、画像加工部22は、表示制御部26から供給される表示領域情報により、表示枠Wを配信画像内において移動させ、当該表示枠W内の画像領域を表示画像として抽出する。
FIG. 6 is a diagram showing the correspondence between the orientation of the user's head (the orientation of the head and indicating the line-of-sight direction of the user) and the orientation of movement of the display frame in the distribution image.
In FIG. 6, a user 601 wears VR glasses, which are the user interface unit 30, on his or her head 601H. Here, the direction information indicates the line-of-sight direction of the user based on the rotation angle of the head 601H.
The operation information acquisition unit 25 corresponds to the orientation of the head indicated by a vertical angle (UP and DOWN direction angles) and a horizontal angle (LEFT and LEFT direction angles). Then, head direction information (an example of direction information indicating the direction of a predetermined part of the user's body) is extracted.
As a result, the display control unit 26 obtains the destination position of the display frame W within the distribution image (updates the position of the display frame W within the distribution image) in accordance with the direction information, and uses the image as the display area information. Output to the processing unit 22 .
Then, the image processing section 22 moves the display frame W within the distribution image according to the display area information supplied from the display control section 26, and extracts the image area within the display frame W as the display image.

図7は、利用者601の頭部(すなわち視線)の移動にともなう垂直方向及び水平方向における回転移動における回転角度を説明する概念図である。
図7(a)は、利用者601の頭部の水平方向における回転(すなわち、基準視線方向に対して左右方向における回転)における回転角度の角度範囲と、当該角度範囲において設定される頭部の水平方向の回転に対応した、配信画像内における表示枠Wの移動速度との対応関係を示している。図7(a)において、時計の針の回転方向(左方向)を+(正)の角度θ、時計の針の回転方向と逆の回転方向(右方向)を-(負)の角度-θとして説明する。
FIG. 7 is a conceptual diagram for explaining rotation angles in vertical and horizontal rotational movement associated with movement of the user's 601 head (that is, line of sight).
FIG. 7A shows the angle range of the rotation angle in the horizontal rotation of the head of the user 601 (that is, the rotation in the left-right direction with respect to the reference line-of-sight direction), and the angle range of the head set in the angle range. It shows the correspondence relationship with the moving speed of the display frame W within the distribution image corresponding to the rotation in the horizontal direction. In FIG. 7(a), the direction of rotation of the hands of the clock (leftward) is a + (positive) angle θ, and the direction of rotation opposite to the direction of rotation of the hands of the clock (rightward) is a − (negative) angle −θ. described as.

利用者601が正面を向いている場合、その視線方向を基準視線方向AOと示す基準視線方向AOから左方向にθ1、右方向に-θ1の角度範囲(区間A1)に頭部の回転角度θが入る(-θ1≦θ≦θ1)場合、図6における表示枠Wは中心から移動しない。すなわち、利用者601が左右のいずれに区間A1における角度範囲で首を左右に回転させても、表示画像は配信画像の中心領域の画像として生成される。 When the user 601 faces the front, the head rotation angle θ (−θ1≦θ≦θ1), the display frame W in FIG. 6 does not move from the center. That is, regardless of whether the user 601 rotates the neck left or right within the angular range of the section A1, the display image is generated as the image of the center area of the distribution image.

一方、角度θ1から角度θ2までの角度範囲(区間A2L、θ1<θ≦θ2)と、角度-θ1から角度-θ2までの角度範囲(区間A2R、-θ2≦θ<-θ1)との間に角度θが入る場合、速度V2により表示枠Wが配信画像内において、頭部の回転方向に対応して移動する。すなわち、利用者601の視線の動き(頭部の動き)に対応した方向情報により上記表示枠Wを移動させる。これにより、利用者601の視界の移動を模擬的に再現するように、配信画像内における表示枠Wの移動を視線方向の移動に連動させ、配信画像から抽出される表示画像を視線方向の移動に対応させて変化させる。 On the other hand, between the angle range from angle θ1 to angle θ2 (section A2L, θ1<θ≦θ2) and the angle range from angle −θ1 to angle −θ2 (section A2R, −θ2≦θ<−θ1) When the angle θ is included, the display frame W moves in the distribution image at the speed V2 corresponding to the rotation direction of the head. That is, the display frame W is moved according to direction information corresponding to the movement of the line of sight (movement of the head) of the user 601 . As a result, the movement of the display frame W within the distribution image is linked to the movement of the line-of-sight direction so that the movement of the visual field of the user 601 is simulated, and the display image extracted from the distribution image is moved in the line-of-sight direction. change accordingly.

また、角度θ2から角度θ3までの角度範囲(区間A3L、θ2<θ≦θ3)と、角度-θ2から角度-θ3までの角度範囲(区間A3R、-θ3≦θ<-θ2)との間に角度θが入る場合、速度V3(>V2)により表示枠Wが配信画像内で移動する頭部の回転角度に従って移動する。すなわち、利用者601の視線が移動して、区間A2L及び区間A2Rと同様に、利用者601の視界の移動を模擬的に再現するように、表示枠Wを移動させて表示画像を視線方向の移動に対応させて変化させる。 Between the angle range from angle θ2 to angle θ3 (section A3L, θ2<θ≦θ3) and the angle range from angle −θ2 to angle −θ3 (section A3R, −θ3≦θ<−θ2) When the angle θ is included, the display frame W moves according to the rotation angle of the head moving within the distribution image at a speed V3 (>V2). In other words, the display frame W is moved so that the user's 601 line of sight moves and the display image is shifted in the line-of-sight direction so as to simulate the movement of the user's 601 field of view, similar to the sections A2L and A2R. Change according to movement.

本実施形態において、人間が商品を選択する場合における経験的な視界の角度範囲から、θ1=15°、θ2=30°、θ3=45°などに設定される。
しかしながら、角度θ1、θ2及びθ3の各々は、売り場の面積、配信画像の撮像範囲や撮像される商品の大きさなどにより、適時、調整してもよい。
また、速度V2より速度V3を速い速度に設定するのは、視界の角度が正面の位置(基準視線方向)から離れるほど、視線の方向が遠くなり、感覚的に視界が正面に比較して速く移動するように利用者601視認できるからである。
In the present embodiment, θ1=15°, θ2=30°, θ3=45°, etc. are set from the empirical viewing angle range when a person selects a product.
However, each of the angles θ1, θ2, and θ3 may be adjusted as appropriate depending on the area of the sales floor, the imaging range of the delivery image, the size of the product to be imaged, and the like.
Also, the reason why the speed V3 is set faster than the speed V2 is that the farther the angle of vision is from the front position (reference line-of-sight direction), the farther the line-of-sight direction becomes, and the faster the field of view becomes compared to the front. This is because the user 601 can be visually recognized as if moving.

図7(b)は、利用者601の頭部の垂直方向における回転(すなわち、基準視線方向に対して上下方向の回転)における回転角度の角度範囲と、当該角度範囲において設定される頭部の上下の回転に対応した、配信画像内における表示枠Wの移動速度との対応関係を示している。図7(b)において、時計の針の回転方向(上方向)を+(正)の角度α、時計の針の回転方向と逆の回転方向(下方向)を-(負)の角度-αとして説明する。 FIG. 7B shows the angle range of the rotation angle of the head of the user 601 in the vertical direction (that is, the rotation in the vertical direction with respect to the reference line-of-sight direction), and the angle of the head set in the angle range. It shows the correspondence relationship with the moving speed of the display frame W within the distribution image corresponding to the vertical rotation. In FIG. 7B, the direction of rotation of the hands of the clock (upward) is a + (positive) angle α, and the direction of rotation opposite to the direction of rotation of the hands of the clock (downward) is a - (negative) angle -α. described as.

利用者601が正面を向いている場合、その視線方向を基準視線方向BOと示す基準視線方向BOから上方向にα1、右方向に-α1の角度範囲(区間B1)に頭部の回転角度αが入る(-α1≦α≦α1)場合、図6における表示枠Wは中心から移動しない。すなわち、利用者601が上下のいずれに区間B1における角度範囲で首を上下に回転させても、表示画像は配信画像の中心領域の画像として生成される。 When the user 601 faces the front, the direction of the line of sight is designated as the reference line of sight direction BO, and the head rotation angle α is within the angle range of α1 upward and −α1 to the right (section B1) from the reference line of sight direction BO. (-α1≦α≦α1), the display frame W in FIG. 6 does not move from the center. That is, regardless of whether the user 601 rotates his or her neck up or down within the angular range in section B1, the display image is generated as the image of the center area of the distribution image.

一方、角度α1から角度α2までの角度範囲(区間B2L、α1<α≦α2)と、角度-α1から角度-α2までの角度範囲(区間B2R、-α2≦α<-α1)との間に角度αが入る場合、所定の速度V0により表示枠Wが配信画像内で移動する頭部の回転角度に従って、角度α2における視界に対応する位置に表示枠Wが移動する。すなわち、利用者601の視線が移動して、利用者601の視界の移動を模擬的に再現するように、表示枠Wを移動させて表示画像を視線方向の移動に対応させて変化させる。 On the other hand, between the angle range from angle α1 to angle α2 (section B2L, α1<α≦α2) and the angle range from angle −α1 to angle −α2 (section B2R, −α2≦α<−α1) When the angle α is included, the display frame W moves to a position corresponding to the field of view at the angle α2 according to the rotation angle of the head at which the display frame W moves within the distribution image at a predetermined speed V0. That is, the display frame W is moved and the display image is changed in accordance with the movement of the line of sight of the user 601 so as to simulate the movement of the field of view of the user 601 as the line of sight of the user 601 moves.

また、角度α2から角度α3までの角度範囲(区間B3L、α2<α≦α3)と、角度-α2から角度-α3までの角度範囲(区間B3R、-α3≦α<-α2)との間に角度αが入る場合、所定の速度V0により表示枠Wが配信画像内で移動する頭部の回転角度に従って、角度α3における視界に対応する位置に表示枠Wが移動する。すなわち、利用者601の視線が移動して、区間B2L及び区間B2Rと同様に、利用者601の視界の移動を模擬的に再現するように、表示枠Wを移動させて表示画像を視線方向の移動に対応させて変化させる。 Between the angle range from angle α2 to angle α3 (section B3L, α2<α≦α3) and the angle range from angle −α2 to angle −α3 (section B3R, −α3≦α<−α2) When the angle α is included, the display frame W moves to a position corresponding to the field of view at the angle α3 according to the rotation angle of the head at which the display frame W moves within the distribution image at a predetermined speed V0. In other words, the display frame W is moved so that the user's 601 line of sight moves and the display image is shifted in the direction of the line of sight so as to simulate the movement of the user's 601 field of view in the same manner as in the sections B2L and B2R. Change according to movement.

本実施形態において、人間が商品を選択する場合における経験的な視界の角度範囲から、α1=5°、α2=10°、α3=15°などに設定される。
垂直方向に対する表示枠Wの移動のアルゴリズムが上述した水平方向に対する表示枠Wの移動のアルゴリズムが異なるのは、生鮮食料品などの場合、商品の展示が水平方向の展示幅に比較して垂直方向の展示幅が狭いことに起因している。すなわち、商品の展示幅が狭いと、表示画像を小まめに移動させた場合、利用者が商品を見づらくなるため、所定の角度(α1、α2及びα3)に対応する視点位置で、配信画像における表示枠Wを停止させる構成としている。
しかしながら、本屋やアウトレットもモールなどのように、棚の段数が多く、高い位置まで商品が展示されているような商店の場合には、水平方向と同様のアルゴリズムにより、利用者601の頭部の垂直方向における回転に対応して配信画像における表示枠Wの移動制御を行う構成としてもよい。
In this embodiment, α1=5°, α2=10°, α3=15°, etc. are set from the empirical viewing angle range when a person selects a product.
The algorithm for moving the display frame W in the vertical direction is different from the algorithm for moving the display frame W in the horizontal direction because, in the case of perishables, etc., the display width of the product in the vertical direction is larger than the display width in the horizontal direction. This is due to the narrow display width of That is, if the display width of the product is narrow, if the display image is moved frequently, it becomes difficult for the user to see the product. The configuration is such that the display frame W is stopped.
However, in the case of stores such as bookstores, outlet malls, etc., where the number of shelves is large and products are displayed at high positions, the same algorithm as for the horizontal direction is used to determine the head position of the user 601. A configuration may be adopted in which movement control of the display frame W in the distribution image is performed in accordance with rotation in the vertical direction.

図5に戻り、身体情報認識部24は、ユーザインターフェース部30からセンシング情報が供給された場合、センサ部32からのセンシング情報に対応して利用者601の身体情報(頭部の回転移動における回転角度と、利用者601の手などの身体の状態などを示すセンサ情報、後述)を抽出する。
そして、身体情報認識部24は、抽出した上記身体情報を操作情報取得部25に対して出力する。
Returning to FIG. 5 , when sensing information is supplied from the user interface unit 30 , the physical information recognizing unit 24 responds to the sensing information from the sensor unit 32 to the physical information of the user 601 (rotational movement of the head). The angle and sensor information indicating the state of the body such as the hand of the user 601 (described later) are extracted.
Then, the physical information recognition section 24 outputs the extracted physical information to the operation information acquisition section 25 .

操作情報取得部25は、身体情報認識部24から供給される身体情報(利用者601の頭部の水平方向における回転の回転角度)から、利用者の視線に対応して配信画像内において移動する表示枠Wの移動方向示す方向情報を求める。
そして、操作情報取得部25は、身体情報認識部24から供給される身体情報から、例えば、利用者601の頭部の垂直移動における回転角度により方向情報、表示画像上における表示枠Wの中心位置から位置の情報、利用者601の手の動き、ポーズや状態を示す画像情報から利用者601の制御に対応したジェスチャ情報(身体情報の一例)を抽出する。
そして、操作情報取得部25は、方向情報及びジェスチャ情報を表示制御部26に対して出力する。
The operation information acquisition unit 25 moves within the distribution image corresponding to the user's line of sight based on the physical information (rotational angle of rotation of the head of the user 601 in the horizontal direction) supplied from the physical information recognition unit 24. Direction information indicating the moving direction of the display frame W is obtained.
Then, the operation information acquiring unit 25 obtains, from the physical information supplied from the physical information recognizing unit 24, direction information based on the rotation angle of the vertical movement of the head of the user 601, and the center position of the display frame W on the display image. Gesture information (an example of physical information) corresponding to the control of the user 601 is extracted from the position information and the image information indicating the hand movement, pose, and state of the user 601 .
Then, the operation information acquisition section 25 outputs the direction information and the gesture information to the display control section 26 .

表示制御部26は、方向情報から、利用者601の頭部の水平方向の回転において角度θ3、角度-θ3を超えたか否か、また頭部の垂直方向の回転において角度α3、角度-αを超えたか否かを判定する。
そして、表示制御部26は、頭部の水平方向の回転において角度θ3、角度-θ3を超えた場合、また頭部の垂直方向の回転において角度α3、角度-α3を超えた場合(方向情報における所定の条件を満たした)、利用者の視線の移動方向を示す方向情報を含み、む現在の撮像装置から他の撮像装置への変更を依頼する撮像装置変更リクエスト情報を生成する。
Based on the direction information, the display control unit 26 determines whether or not the horizontal rotation of the head of the user 601 has exceeded the angles θ3 and -θ3, and whether or not the angles α3 and -α have been exceeded in the vertical rotation of the head. It is determined whether or not it has exceeded.
Then, the display control unit 26 determines when the horizontal rotation of the head exceeds the angle θ3 and the angle −θ3, and when the vertical rotation of the head exceeds the angle α3 and the angle −α3 (in the direction information, (a predetermined condition is satisfied), direction information indicating the moving direction of the user's line of sight is generated, and imaging device change request information is generated for requesting a change from the current imaging device to another imaging device.

ここで、撮像装置を変更するというジェスチャとしては、頭部の水平方向の回転において角度θ3、角度-θ3を超えた場合、また頭部の垂直方向の回転において角度α3、角度-αを超えた場合などではなく、頭部の水平方向の回転において角度θ3、角度-θ3の角度、または頭部の垂直方向の回転において角度α3、角度-α3の角度において、所定の時間にわたり停止していた(方向情報における所定の条件を満たした)場合に、現在の撮像装置から「左」、「右」、「上」、「下」のいずれの方向にある撮像装置を選択して変更するかを示す撮像装置変更リクエスト情報を生成する構成としてもよい。 Here, as a gesture to change the imaging device, when the horizontal rotation of the head exceeds the angle θ3 and the angle −θ3, and when the vertical rotation of the head exceeds the angle α3 and the angle −α It was stopped for a predetermined time at an angle θ3, angle −θ3 in the horizontal rotation of the head, or at an angle α3, angle −α3 in the vertical rotation of the head ( If the specified condition in the direction information is satisfied), which direction of the current imaging device is selected to change from "left", "right", "up", or "down" It may be configured to generate imaging device change request information.

例えば、現時点において撮像装置D1が選択されている場合、表示制御部26は、方向情報における頭部の水平方向の回転における回転角度が角度θ3を超え、かつその回転角度において予め設定した待機時間を経過した場合、撮像装置隣接関係テーブルを参照し、撮像装置D3に変更することを示す撮像装置変更リクエスト情報を生成する。そして、表示制御部26は、生成した撮像装置変更リクエスト情報を画像操作サーバ10に対して出力する。 For example, when the imaging device D1 is currently selected, the display control unit 26 determines that the rotation angle of the head in the horizontal direction in the direction information exceeds the angle θ3, and the standby time set in advance at that rotation angle is If it has passed, the imaging device adjacency table is referenced, and imaging device change request information indicating a change to imaging device D3 is generated. The display control unit 26 then outputs the generated imaging device change request information to the image operation server 10 .

表示部31は、液晶パネルあるいは有機EL(electroluminescent)パネルを備え、利用者端末20から表示画像が供給された場合、当該表示画像を表示画面に表示する。 The display unit 31 includes a liquid crystal panel or an organic EL (electroluminescent) panel, and when a display image is supplied from the user terminal 20, displays the display image on the display screen.

撮像部321は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像デバイスである。
また、撮像部321は一般的なRGB(Red,Green,Blue)カラーイメージセンサであってもよく、ToF(Time of Flight)センサ等の深度イメージセンサであってもよい。 また、撮像部321は、利用者601の手の動画像を撮像し、当該動画像をセンシング情報における一つの情報として利用者端末20に対して出力する。ここで、利用者601は、例えば、表示部31に表示される表示画像の範囲内で、商品を選択するために手を動かしたり、選択したい商品の位置で手を停止させたりする。
また、撮像画像における座標位置は、利用者が観察している表示画像の座標位置に対応している。
The imaging unit 321 is, for example, an imaging device such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) image sensor.
Also, the imaging unit 321 may be a general RGB (Red, Green, Blue) color image sensor, or may be a depth image sensor such as a ToF (Time of Flight) sensor. The imaging unit 321 also captures a moving image of the hand of the user 601 and outputs the moving image to the user terminal 20 as one piece of sensing information. Here, for example, the user 601 moves his or her hand to select a product within the range of the display image displayed on the display unit 31, or stops the hand at the position of the product to be selected.
Also, the coordinate position in the captured image corresponds to the coordinate position of the display image observed by the user.

モーションセンサ部322は、利用者の身体の所定の一部の動きを計測するセンサである。本実施形態において、モーションセンサ部322は、ユーザインターフェース部30であるARグラスに搭載されているセンサであり、例えば加速度センサ、角速度センサ及び地磁気センサなどである。
また、モーションセンサ部322は、ユーザインターフェース部30がARグラスであり、モーションセンサ部322が当該ARグラスに搭載されているセンサである場合、当該ARグラスが搭載されている利用者の頭部にかかる加速度(重力加速度を含む)や角速度などの移動情報(頭部状態情報)を取得する。
また、モーションセンサ部322は、利用者601の頭部の向きを計測する手段として、ARグラスに搭載する上記センサに換えて、利用者601の板状筋等の首の筋肉の上に貼り付けた、伸縮センサ(静電容量センサなど)を用いてもよい。この場合、モーションセンサ部322は、利用者601の板状筋の伸縮の度合、すなわち首の動きに連動する頭部の向きを推定するための伸縮情報を取得する。
そして、モーションセンサ部322は、取得した利用者の頭部の回転に対応する移動情報あるいは伸縮情報を、センシング情報における一つの情報として利用者端末20に対して出力する。
The motion sensor unit 322 is a sensor that measures the motion of a predetermined part of the user's body. In this embodiment, the motion sensor unit 322 is a sensor mounted on the AR glass that is the user interface unit 30, such as an acceleration sensor, an angular velocity sensor, and a geomagnetic sensor.
In addition, when the user interface unit 30 is AR glasses and the motion sensor unit 322 is a sensor mounted on the AR glasses, the motion sensor unit 322 detects motion on the head of the user on which the AR glasses are mounted. Movement information (head state information) such as acceleration (including gravitational acceleration) and angular velocity is acquired.
In addition, the motion sensor unit 322 is attached to the user's 601 neck muscle such as the platy muscle in place of the sensor mounted on the AR glasses as means for measuring the orientation of the user's 601 head. Alternatively, an extension sensor (capacitance sensor, etc.) may be used. In this case, the motion sensor unit 322 acquires stretching information for estimating the degree of stretching of the platy muscle of the user 601, that is, the orientation of the head linked to the movement of the neck.
Then, the motion sensor unit 322 outputs the acquired movement information or expansion/contraction information corresponding to the rotation of the user's head to the user terminal 20 as one piece of sensing information.

図8は、ユーザインターフェース部30における表示部31に表示される表示画像と、動画像において撮像された利用者の手との対応を示す概念図である。
表示画像801は、画像出力部23から供給された、配信画像における表示枠W内の画像領域を切り出す加工により生成した画像である。
手輪郭表示画像802は、表示画像801を観察して、商品を選択するために表示画像801における商品にあてた利用者601の手の輪郭線(手形)を示す画像である。この手輪郭表示画像802は、画像加工部22により表示画像に重畳されて、表示部31の表示画面に表示される。
FIG. 8 is a conceptual diagram showing the correspondence between the display image displayed on the display section 31 of the user interface section 30 and the user's hand captured in the moving image.
A display image 801 is an image generated by cutting out an image area within the display frame W in the distribution image supplied from the image output unit 23 .
The hand outline display image 802 is an image showing the outline of the hand (handprint) of the user 601 who observes the display image 801 and touches the product in the display image 801 to select the product. This hand contour display image 802 is superimposed on the display image by the image processing unit 22 and displayed on the display screen of the display unit 31 .

拡大表示領域803は、手輪郭表示画像802の所定の位置(指定された指先、手輪郭表示画像802の中心や重心位置などである)を中心とした所定の範囲を、所定の倍率により拡大した画像が表示される表示領域である。
バスケットアイコン804は、表示画像801に重畳された画像であり、画像加工部22が表示画像を生成する際、予め決められた表示画像の座標位置に配置される。
The enlarged display area 803 is a predetermined range centered on a predetermined position of the hand contour display image 802 (specified fingertip, the center of the hand contour display image 802, the center of gravity, etc.), which is enlarged by a predetermined magnification. This is the display area where the image is displayed.
The basket icon 804 is an image superimposed on the display image 801, and is arranged at a predetermined coordinate position of the display image when the image processing unit 22 generates the display image.

身体情報認識部24は、撮像部321が撮像した動画像におけるフレーム画像の各々から、利用者の手の画像領域を抽出する。
そして、身体情報認識部24は、抽出した手の画像領域において輪郭抽出を行ない、利用者601の手の輪郭である手輪郭表示画像802を生成する。
身体情報認識部24は、センシング情報における動画像から生成した、身体情報の一つである手輪郭表示画像802を操作情報取得部25へ出力する。
また、身体情報認識部24は、モーションセンサ部322から供給されるセンシング情報における一つの情報である、利用者601の頭部の回転に対応する移動情報を取得した場合、当該移動情報から頭部の回転の回転角度及び回転方向を求める。
また、身体情報認識部24は、モーションセンサ部322からセンシング情報における一つの情報である、利用者601の首の筋肉の伸縮の度合を示す伸縮情報(身体情報の一例)を取得した場合、当該伸縮情報から、頭部の回転の回転角度及び回転方向を求める。 身体情報認識部24は、身体情報の一つとして頭部の回転の回転角度及び回転方向を操作情報取得部25へ出力する。
The physical information recognition unit 24 extracts the image area of the user's hand from each frame image in the moving image captured by the imaging unit 321 .
Then, the physical information recognition unit 24 performs outline extraction in the extracted image area of the hand, and generates a hand outline display image 802 that is the outline of the hand of the user 601 .
The physical information recognition unit 24 outputs to the operation information acquisition unit 25 a hand outline display image 802, which is one piece of physical information, generated from the moving image in the sensing information.
Further, when the body information recognition unit 24 acquires movement information corresponding to the rotation of the head of the user 601, which is one piece of information in the sensing information supplied from the motion sensor unit 322, the body information recognition unit 24 detects the movement of the head from the movement information. Obtain the rotation angle and rotation direction of the rotation of .
Further, when the body information recognition unit 24 acquires stretch information (an example of the body information) indicating the degree of stretch of the neck muscles of the user 601, which is one piece of information in sensing information from the motion sensor unit 322, The rotation angle and rotation direction of the rotation of the head are obtained from the expansion/contraction information. The physical information recognition unit 24 outputs the rotation angle and the rotation direction of the rotation of the head to the operation information acquisition unit 25 as one piece of physical information.

操作情報取得部25は、手輪郭表示画像802の動作と、予め設定されている動作と比較して、ジェスチャ情報を抽出する。
例えば、表示画像に撮像されている商品を選択する場合、表示画像801における手輪郭表示画像802が注文したい商品の位置に移動させて、商品の位置で所定の時間停止させたり、商品を指で丸印を作付けて囲むなどすることにより、操作情報取得部25は、注文しようとして選択する商品の画像を抽出する(手位置情報による商品の位置の指定、すなわち位置情報)。
The operation information acquisition unit 25 extracts gesture information by comparing the motion of the hand outline display image 802 with a preset motion.
For example, when selecting a product imaged in the display image, the hand outline display image 802 in the display image 801 is moved to the position of the product to be ordered, and the product is stopped at the position of the product for a predetermined time. The operation information acquisition unit 25 extracts the image of the product to be ordered by encircling it with a circle (specifying the position of the product based on the hand position information, that is, the position information).

そして、操作情報取得部25は、選択した商品の表示画像における座標位置を位置情報として検出する。
操作情報取得部25は、例えば、検出した位置情報にある画像を選択した商品とし、その位置情報の示す座標位置にマーキングを付加したり、位置情報を中心とした表示画像を生成するなどの処理を行う。
Then, the operation information acquisition unit 25 detects the coordinate position of the selected product in the display image as position information.
The operation information acquisition unit 25 performs processing such as, for example, selecting an image in the detected position information as a selected product, adding a marking to the coordinate position indicated by the position information, and generating a display image centered on the position information. I do.

操作情報取得部25は、例えば、利用者601が商品を選択した後、手をバスケットアイコン804の位置に移動させたことを、手輪郭表示画像802の動きにより検出する。 そして、操作情報取得部25は、商品選択後のバスケットアイコン804への手の移動から、選択した商品の購入処理を行うことを示すジェスチャ(商品を注文する注文条件)であることを判定し、選択した商品の購入処理を行うことを示すジェスチャ情報を表示制御部26に出力する。ここで、どのジェスチャが、表示枠の移動、撮像装置の遷移、商品の選択、及び商品の注文を示すジェスチャ情報かは、予め設定されている。 For example, the operation information acquisition unit 25 detects from the movement of the hand outline display image 802 that the user 601 has moved his or her hand to the position of the basket icon 804 after selecting a product. Then, the operation information acquiring unit 25 determines from the hand movement to the basket icon 804 after selecting the product that it is a gesture indicating that the selected product is to be purchased (order condition for ordering the product), Gesture information indicating that the selected product is to be purchased is output to the display control unit 26 . Here, which gesture is the gesture information indicating the movement of the display frame, the transition of the imaging device, the selection of the product, and the order of the product is set in advance.

また、操作情報取得部25は、モーションセンサ部322による頭部の移動方向の検出に換え、利用者601が手を任意の方向に所定の速度にて移動させることを、手輪郭表示画像802の動きにより検出して、表示枠Wを上下左右を含む任意の方向に移動させるジェスチャ情報とする構成としてもよい。
また、操作情報取得部25は、手(利用者の身体における所定の一部の身体の部分)をバスケットアイコン804の位置に移動させることに代え、注文数したい数の指を立てることにより、選択した商品の購入処理を行うことを示すジェスチャ情報とする構成としてもよい。
また、操作情報取得部25は、手をバスケットアイコン804の位置に移動させることに代え、注文したい商品の位置で、所定の時間にわたり手の動きあるいは頭部の動きを停止させる(ポーズ)ことを、商品の購入処理を行うことを示すジェスチャ情報とする構成としてもよい。
In addition, instead of detecting the head movement direction by the motion sensor unit 322, the operation information acquisition unit 25 detects that the user 601 moves the hand in an arbitrary direction at a predetermined speed. A configuration may be adopted in which motion is detected and gesture information is used to move the display frame W in any direction including up, down, left, and right.
In addition, the operation information acquisition unit 25 selects by putting up the desired number of fingers instead of moving the hand (a predetermined part of the body of the user) to the position of the basket icon 804 . The gesture information may be gesture information indicating that the purchased product is to be purchased.
In addition, instead of moving the hand to the position of the basket icon 804, the operation information acquisition unit 25 may stop (pause) the movement of the hand or the movement of the head for a predetermined time at the position of the item to be ordered. , gesture information indicating that the product purchase process is to be performed.

表示制御部26は、選択した商品の位置情報及び選択した商品の購入処理を示すジェスチャ情報とから注文情報を生成し、送信部27を介して画像操作サーバ10へ出力する。 表示制御部26は、位置情報の示す表示画像における選択された商品の座標値を、配信画像における座標値(選択位置情報)に変換し、注文された商品を特定する特定情報として当該選択位置情報を注文情報に含めて、画像操作サーバ10に対して出力する。
注文書情報出力部113は、上記注文情報に対応して注文書情報を生成する。
The display control unit 26 generates order information from the position information of the selected product and the gesture information indicating the purchase process of the selected product, and outputs the order information to the image operation server 10 via the transmission unit 27 . The display control unit 26 converts the coordinate values of the selected product in the display image indicating the position information into the coordinate values (selected position information) in the distribution image, and converts the selected position information into the specified information for specifying the ordered product. is included in the order information and output to the image operation server 10 .
The order form information output unit 113 generates order form information corresponding to the order information.

図9は、本実施形態による画像操作サーバにより、店舗における複数の売場の間の撮像装置の変更処理の動作を説明する概念図である。
図9において、店舗における複数の、例えば4つの異なる商品の種類の各々が陳列されている売場それぞれが示されている。店舗としては、売場ゾーンZ1が野菜・果物、売場ゾーンZ2が魚、売場ゾーンZ3が肉、売場ゾーンZ4がパン・菓子などである。
FIG. 9 is a conceptual diagram for explaining the operation of processing for changing imaging devices between a plurality of sales floors in a store by the image operation server according to this embodiment.
In FIG. 9, each of the sales floors in a store is shown in which each of a plurality of, for example four, different product types are displayed. As for the stores, the sales floor zone Z1 is for vegetables and fruits, the sales floor zone Z2 is for fish, the sales floor zone Z3 is for meat, and the sales floor zone Z4 is for bread and sweets.

売場ゾーンZ1から売場ゾーンZ4の各々には、それぞれ5個ずつ、売場に陳列された商品を撮像する撮像装置が備えられている。それぞれの売場ゾーン毎に、図3で説明した撮像装置間の隣接関係が設定されている。また、それぞれの売場ゾーン毎に、図3の隣接関係に対応して撮像装置間の遷移情報を示す図4の撮像装置隣接関係情報テーブルが、撮像装置隣接関係情報記憶部3に予め書き込まれて記憶されている。
各売場内における撮像装置の遷移の処理は、図3の説明のように、「上」、「下」、「左」、「右」を含む任意の方向への頭部の移動を示す方向情報により行われる。
Each of the sales floor zone Z1 to the sales floor zone Z4 is provided with five imaging devices for imaging the products displayed in the sales floor. The adjacency relationship between the imaging devices described with reference to FIG. 3 is set for each sales floor zone. For each sales floor zone, an imaging device adjacency information table shown in FIG. 4 showing transition information between imaging devices corresponding to the adjacency relationship shown in FIG. remembered.
The processing of the transition of the imaging device in each sales floor is, as described with reference to FIG. performed by

異なる売場間における撮像装置の遷移の処理において、例えば、利用者が売場ゾーンZ2における撮像装置DZ2_1を現時点において設定している場合を例に説明する。
例えば、撮像装置隣接関係情報テーブルにおいて、撮像装置D2を撮像装置DZ2_1とした場合、撮像装置DZ2_1には「右」の方向情報により移動する撮像装置が設定されていない。
In the process of transitioning imaging devices between different sales floors, for example, a case where the user currently sets imaging device DZ2_1 in sales floor zone Z2 will be described as an example.
For example, in the imaging device adjacency information table, if the imaging device D2_1 is the imaging device DZ2_1, the imaging device DZ2_1 is not set to move according to the "right" direction information.

すなわち、撮像装置DZ1_1の配信画像において、水平における「右」方向に頭部を回転させ、表示枠Wが配信画像の右端で移動出来なくなった状態で所定の時間が経過した場合に、選択されている撮像装置DZ1_1が右に隣接している売場ゾーンZ1の撮像装置に遷移する。このとき、遷移先の撮像装置は予め設定されたディフォルトの撮像装置であり、任意に設定できるが、例えば、図3における撮像装置D1のように、内場の中心位置などにおける陳列された商品を撮像している撮像装置である。
この遷移先の撮像装置を示す関係情報を撮像装置隣接関係情報テーブルに予め書き込んでおく。この場合、表示制御部26は、現在選択している撮像装置の撮像装置識別情報と、方向情報と、停止してから所定の時間が経過したことを示す情報とを含む撮像装置変更リクエスト情報を、画像操作サーバ10に対して出力する。
That is, in the distribution image of the imaging device DZ1_1, when the head is rotated horizontally in the “right” direction and the display frame W cannot be moved at the right end of the distribution image, and a predetermined time elapses, it is selected. The imaging device DZ1_1 in the current state transitions to the imaging device in the adjacent sales floor zone Z1 on the right. At this time, the imaging device of the transition destination is a preset default imaging device and can be set arbitrarily. For example, like the imaging device D1 in FIG. It is an imaging device that is imaging.
The relationship information indicating the transition destination imaging device is written in advance in the imaging device adjacency relation information table. In this case, the display control unit 26 sends imaging device change request information including imaging device identification information of the currently selected imaging device, direction information, and information indicating that a predetermined time has passed since the imaging device was stopped. , to the image operation server 10 .

これにより、画像配信部102は、異なる売場間における撮像装置の遷移を示す撮像装置変更リクエスト情報を、利用者端末20から受信した場合、撮像装置隣接関係情報テーブルを参照して、現時点の売場で選択している撮像装置から、ことなる他の売場の撮像装置に、選択する撮像装置を遷移させることができる。
また、上述した構成においては、利用者の頭部の回転の方向により、他の売場の撮像装置への遷移を行っているが、表示画面上に売場を選択する売場選択ボタンを表示させ、利用者が売場選択ボタンにより売場を選択させる構成としてもよい。このとき、表示制御部26からの撮像装置変更リクエスト情報には売場識別情報や売場選択ボタンが表示された座標値などの売場を特定できる情報が含まれている。この構成の場合においても、新たな売場おいて選択される撮像装置は予め設定されたディフォルトの撮像装置となる。
As a result, when the image distribution unit 102 receives imaging device change request information indicating transition of imaging devices between different sales floors from the user terminal 20, the image distribution unit 102 refers to the imaging device adjacency information table, It is possible to change the selected imaging device from the selected imaging device to the imaging device of another sales floor.
Further, in the above-described configuration, transition to another sales floor imaging device is performed according to the direction of rotation of the user's head. A configuration may also be adopted in which a person selects a sales floor using a sales floor selection button. At this time, the imaging device change request information from the display control unit 26 includes information that can identify the sales floor, such as the sales floor identification information and the coordinate values where the sales floor selection button is displayed. Even in the case of this configuration, the imaging device selected in the new sales floor is the preset default imaging device.

図10は、本実施形態による画像操作サーバによる店舗の売り場における撮像装置の変更及び利用者における商品の購入の各々の動作の連携を示すフローチャートである。
画像操作サーバ10側の動作において、画像操作サーバ10は、起動されることにより、配信画像の画像操作のサービスを開始した(ステップS101)場合、注文処理部110が商品の購入管理のサービスを開始する(ステップS102)。
また、同様に、画像操作サーバ10は、画像操作サーバ10が撮像装置D1から撮像装置Dnの稼働を開始する制御信号を出力する(ステップS103)。
画像操作サーバ10は、撮像装置D1から撮像装置Dnの撮像した撮像画像の配信を行う画像配信部102の制御を開始する(ステップS104)。
FIG. 10 is a flow chart showing how the image operation server according to the present embodiment cooperates with the operation of changing the imaging device in the sales floor of the store and the purchase of the product by the user.
In the operation on the image operation server 10 side, when the image operation server 10 is activated and starts an image operation service for distributed images (step S101), the order processing unit 110 starts a product purchase management service. (step S102).
Similarly, the image operation server 10 outputs a control signal for starting the operation of the imaging devices D1 to Dn (step S103).
The image operation server 10 starts controlling the image distribution unit 102 that distributes the captured images captured by the imaging devices D1 to Dn (step S104).

そして、撮像装置D1から撮像装置Dnの各々は、自身の撮像方向の風景(例えば、陳列された商品)の画像の撮像を開始するため、稼働を開始する(ステップS105)。 画像配信部102は、撮像装置D1から撮像装置Dnの各々から、それぞれが撮像した撮像画像を取得し、所定の周期により記憶部に書き込んで記憶させる(ステップS106)。 Then, each of the imaging devices D1 to Dn starts to take an image of the scenery (for example, the displayed product) in its own imaging direction (step S105). The image distribution unit 102 acquires captured images captured by each of the imaging devices D1 to Dn, and writes and stores them in the storage unit at a predetermined cycle (step S106).

画像配信部102は、売場の初期画像を要求する画像リクエスト情報が利用者端末20から供給された場合、要求された売場におけるディフォルトの撮像装置Dnの撮像画像を記憶部から読み出す。
そして、画像配信部102は、読み出した撮像画像を圧縮して配信画像として、利用者端末20に対して供給する(ステップS107)。
When image request information requesting an initial image of a sales floor is supplied from the user terminal 20, the image distribution unit 102 reads out the image captured by the default imaging device Dn of the requested sales floor from the storage unit.
Then, the image distribution unit 102 compresses the read captured image and supplies it to the user terminal 20 as a distribution image (step S107).

また、画像配信部102は、利用者端末20から撮像装置変更リクエスト情報(同一の売場内における他の撮像装置に遷移する情報)が供給された場合、撮像装置隣接関係情報記憶部3における撮像装置隣接関係テーブルを参照する。
ここで、画像配信部102は、撮像装置変更リクエスト情報における撮像装置情報及び方向情報とにより、遷移先の撮像装置を撮像装置隣接関係テーブルから抽出する。
これにより、画像配信部102は、遷移先の撮像装置の撮像した撮像画像を記憶部から読み出し、撮像装置変更リクエスト情報を供給した利用者端末20に対して出力する(ステップS107)。
Further, when the user terminal 20 supplies imaging device change request information (information for transitioning to another imaging device in the same sales floor), the image distribution unit 102 changes the imaging device in the imaging device adjacency information storage unit 3. Refer to the adjacency table.
Here, the image distribution unit 102 extracts the transition destination imaging device from the imaging device adjacency table based on the imaging device information and direction information in the imaging device change request information.
As a result, the image delivery unit 102 reads the captured image captured by the imaging device of the transition destination from the storage unit, and outputs it to the user terminal 20 that supplied the imaging device change request information (step S107).

また、画像配信部102は、画像配信部102は、利用者端末20から撮像装置変更リクエスト情報(他の売場内における撮像装置に遷移する情報)が供給された場合、撮像装置隣接関係情報記憶部3における各売場における撮像装置隣接関係テーブルの各々を参照する。
そして、画像配信部102は、撮像装置変更リクエスト情報における方向情報(あるいは売場選択ボタンで選択した場合、売場を示す売場識別情報)により、移動先の売場の撮像装置隣接関係テーブルを選択し、ディフォルトで設定されている撮像装置を抽出する。 これにより、画像配信部102は、抽出した撮像装置の撮像した撮像画像を記憶部から読み出し、撮像装置変更リクエスト情報を供給した利用者端末20に対して出力する(ステップS107)。
Further, when the image distribution unit 102 is supplied with imaging device change request information (information for transitioning to an imaging device in another sales floor) from the user terminal 20, the image distribution unit 102 stores the imaging device adjacency information storage unit. Refer to each imaging device adjacency table in each sales floor in 3.
Then, the image distribution unit 102 selects the imaging device adjacency table of the destination sales floor based on the direction information in the imaging device change request information (or the sales floor identification information indicating the sales floor when selected with the sales floor selection button), and defaults to the imaging device adjacency table. Extract the imaging device set in . As a result, the image delivery unit 102 reads out the captured image captured by the extracted imaging device from the storage unit and outputs it to the user terminal 20 that supplied the imaging device change request information (step S107).

また、画像配信部102は、利用者端末20から最新の撮像画像を要求する画像リクエスト情報が供給された場合、現時点で選択されている撮像装置Dnが撮像している撮像画像を取得し、最新の撮像画像として記憶部に書き込んで記憶させる。
そして、画像配信部102は、読み出した最新の撮像画像を圧縮して配信画像として、利用者端末20に対して供給する(ステップS107)。
Further, when image request information requesting the latest captured image is supplied from the user terminal 20, the image distribution unit 102 acquires the captured image captured by the currently selected imaging device Dn, is written and stored in the storage unit as a picked-up image.
Then, the image delivery unit 102 compresses the read latest captured image and supplies it to the user terminal 20 as a delivery image (step S107).

注文処理部110は、利用者端末20から注文情報が供給された場合、注文情報に含まれる撮像装置識別情報及び選択位置情報に対応し、撮像装置識別情報に対応する撮像装置の撮像した撮像画像を読み出し、選択位置情報に対応して注文された商品のサムネイル画像を生成する。
また、注文処理部110は、利用者端末20の起動時に、当該利用者端末20から送信される利用者の利用者識別情報を読み込み、利用者識別情報に対応する住所を送付先として読み込む。
When the order information is supplied from the user terminal 20, the order processing unit 110 corresponds to the imaging device identification information and the selected position information included in the order information, and generates a captured image captured by the imaging device corresponding to the imaging device identification information. is read, and a thumbnail image of the ordered product is generated corresponding to the selected position information.
Also, when the user terminal 20 is activated, the order processing unit 110 reads the user identification information of the user transmitted from the user terminal 20, and reads the address corresponding to the user identification information as the destination.

そして、注文処理部110は、注文された商品のサムネイル画像と、商品の送付先の住所とを注文書情報としてプリンタ4へ出力する。
プリンタ4は、注文処理部110から供給される注文書情報を印刷して作成し(ステップS108)、注文された商品のサムネイル画像と送付先住所が印刷された注文書を発行する(ステップS109)。
また、注文処理部110は、店員の携帯する携帯端末に上記注文書情報を送信する構成としてもよい。この構成の場合、店員の携帯する携帯端末の表示画面に注文書情報を表示する。
Then, the order processing unit 110 outputs to the printer 4 the thumbnail image of the ordered product and the shipping address of the product as order form information.
The printer 4 prints and creates the order form information supplied from the order processing unit 110 (step S108), and issues an order form on which the thumbnail image of the ordered product and the shipping address are printed (step S109). .
Further, the order processing unit 110 may be configured to transmit the order form information to a mobile terminal carried by a store clerk. In this configuration, order form information is displayed on the display screen of the mobile terminal carried by the store clerk.

店員は、印刷された注文書あるいは携帯端末の表示画面の注文書情報を見て、そのサムネイル画像の商品が売られている売場へ行き、サムネイル画像の商品を陳列棚から取り出す(すなわち、商品のピッキング、ステップS110)。
そして、店員は、注文情報における送信先(利用者の住所)に対して商品を発送(シッピング)する(ステップS111)。
The clerk sees the printed order form or the order form information on the display screen of the mobile terminal, goes to the sales floor where the thumbnail image of the product is sold, and takes out the thumbnail image of the product from the display shelf. picking, step S110).
Then, the store clerk ships (ships) the product to the destination (user's address) in the order information (step S111).

次に、利用者端末20側の動作において、利用者601は、ユーザインターフェース部30としてのARグラスを頭部に装着し(ステップS201)、利用者端末20において画像操作アプリケーションを起動させる(ステップS202)。 Next, in operations on the user terminal 20 side, the user 601 wears AR glasses as the user interface unit 30 on the head (step S201), and activates an image manipulation application on the user terminal 20 (step S202). ).

利用者601は、例えば、ユーザインターフェース部30の表示部31に表示される売場選択ボタンの各々から、自身の選択したい売場の選択ボタンの位置に自身の手を移動させ、タッチして売場の選択を行う(ステップS203)。これにより、操作情報取得部25は、撮像部321が撮像した動画像から、いずれの売場選択ボタンの座標値をタッチしたかを示す座標値とこの座標値をタッチしたことを示す情報とを含むジェスチャ情報を抽出する。 For example, the user 601 moves his/her hand to the position of the selection button of the desired sales floor from each of the sales floor selection buttons displayed on the display unit 31 of the user interface unit 30, and touches to select the sales floor. (step S203). As a result, the operation information acquiring unit 25 includes, from the moving image captured by the imaging unit 321, the coordinate value indicating which coordinate value of the sales floor selection button has been touched, and the information indicating that the coordinate value has been touched. Extract gesture information.

そして、操作情報取得部25は、手を売場選択ボタンの位置に移動させたことを示す利用者の身体情報から抽出したジェスチャ情報を、表示制御部26に対して出力する。
表示制御部26は、配信画像表示ボタンのジェスチャ情報における売場選択ボタンの座標値と、この売場の撮像装置へ遷移することを示す情報とを含む撮像装置変更リクエスト情報を、画像操作サーバ10に対して出力する。
Then, the operation information acquisition unit 25 outputs to the display control unit 26 gesture information extracted from the user's physical information indicating that the hand has been moved to the position of the sales floor selection button.
The display control unit 26 transmits imaging device change request information including the coordinate values of the sales floor selection button in the gesture information of the distribution image display button and the information indicating transition to the imaging device of this sales floor to the image operation server 10 . output.

画像加工部22は、利用者が要求した売場における撮像装置の撮像画像が配信画像として供給された場合、ユーザインターフェース部30から入力する、利用者601の頭部の回転情報に対応して、表示画像を生成する。
そして、画像出力部23は、上記表示画像をユーザインターフェース部30の表示部31に表示させる。
The image processing unit 22 displays an image corresponding to the rotation information of the head of the user 601 input from the user interface unit 30 when the captured image of the imaging device in the sales floor requested by the user is supplied as the distribution image. Generate an image.
Then, the image output section 23 causes the display section 31 of the user interface section 30 to display the display image.

利用者601は、表示部31に表示される表示画像において商品の観察を行うとともに、観察する陳列された商品を変更するため、すなわち他の商品が陳列された陳列棚を視界に入れるために頭部の移動を行う(ステップS204)。
これにより、身体情報認識部24は、モーションセンサ部322の計測値をセンシング情報としてユーザインターフェース部30から取得し、このセンシング情報から利用者601が頭部の回転を行ったことと、計測値を含む頭部の移動情報を示す身体情報を生成する。
そして、身体情報認識部24は、生成した身体情報を操作情報取得部25へ出力する。
The user 601 observes the products in the display image displayed on the display unit 31 and moves the head to change the displayed product to be observed, that is, to bring into view the display shelf where other products are displayed. The part is moved (step S204).
As a result, the physical information recognition unit 24 acquires the measurement value of the motion sensor unit 322 as sensing information from the user interface unit 30, and based on this sensing information, determines that the user 601 has turned the head and the measurement value. body information indicating head movement information including;
Then, physical information recognition section 24 outputs the generated physical information to operation information acquisition section 25 .

操作情報取得部25は、人体情報から表示枠Wを移動させる方向情報、あるいは撮像装置を遷移するジェスチャ情報を上記身体情報から抽出し、表示制御部26に対して出力する。
表示制御部26は、上記方向情報から、配信画像における表示画像を抽出する表示枠Wの位置を示す表示領域情報を画像加工部22に出力する。
これにより、画像加工部22は、利用者601の頭部の移動、すなわち利用者601の視線方向に対応した表示枠Wの移動を行ない配信画像から表示画像を生成する処理を行う。
そして、画像出力部23は、画像加工部22の生成した表示画像を表示部31の表示画面に表示させる。
The operation information acquisition unit 25 extracts direction information for moving the display frame W or gesture information for transitioning the imaging device from the human body information, and outputs the extracted information to the display control unit 26 .
Based on the direction information, the display control unit 26 outputs to the image processing unit 22 display area information indicating the position of the display frame W for extracting the display image in the distribution image.
Accordingly, the image processing unit 22 moves the head of the user 601, that is, moves the display frame W corresponding to the line-of-sight direction of the user 601, and performs processing for generating a display image from the distributed image.
Then, the image output section 23 displays the display image generated by the image processing section 22 on the display screen of the display section 31 .

また、表示制御部26は、方向情報や、あるいは撮像装置間を遷移するジェスチャ情報などに対応して、同一の配信画像から抽出する表示画像の位置の移動、同一の売場の撮像装置間における遷移、さらに他の売場の撮像装置への遷移などを示す撮像装置変更リクエスト情報を生成する。
表示制御部26は、生成した撮像装置変更リクエスト情報を、送信部27を介して画像操作サーバ10に対して出力する。
そして、利用者601は、自身の視点方向に対応して移動する表示画像において、商品を観察して、注文する商品の選択を行う(ステップS205)。
In addition, the display control unit 26 moves the position of the display image extracted from the same distribution image, transitions between the imaging devices of the same sales floor, and the like, in response to direction information, gesture information for transition between imaging devices, and the like. Furthermore, imaging device change request information indicating transition to an imaging device of another sales floor is generated.
The display control unit 26 outputs the generated imaging device change request information to the image operation server 10 via the transmission unit 27 .
Then, the user 601 observes the products in the display image that moves in accordance with the direction of his or her viewpoint, and selects the product to be ordered (step S205).

利用者601は、観察している商品のなかから、注文する商品を表示画像において選択する動作を行う。例えば、その商品の位置で自身の手を所定の時間停止させるなどにより、注文する商品を選択する。
そして、利用者601は、選択した商品を表示画像に表示されているバスケットアイコンに入れる動作を行なう(ステップS206)。
このとき、身体情報認識部24は、撮像部321が撮像した動画像をセンシング情報として取得する。
The user 601 selects a product to be ordered on the display image from among the products being observed. For example, a product to be ordered is selected by holding one's hand at the position of the product for a predetermined period of time.
Then, the user 601 puts the selected product into the basket icon displayed in the display image (step S206).
At this time, the physical information recognition unit 24 acquires the moving image captured by the imaging unit 321 as sensing information.

身体情報認識部24は、上記動画像から手の動作を抽出して、利用者601の身体情報として操作情報取得部25へ出力する。
操作情報取得部25は、利用者601の手の動作から、当該利用者601が商品を選択したと判定し、選択した商品の画像の位置を示す位置情報と、商品を注文したことを示すジェスチャ情報とを表示制御部26に対して出力する。
そして、表示制御部26は、選択した商品の注文情報を、画像操作サーバ10に対して出力する。
利用者601は、他に注文する商品がなければ、利用者端末20におけるアプリケーションを終了する(ステップS207)。
The physical information recognizing unit 24 extracts the motion of the hand from the moving image and outputs it to the operation information acquiring unit 25 as the physical information of the user 601 .
The operation information acquisition unit 25 determines that the user 601 has selected a product from the hand motion of the user 601, and determines that the position information indicating the position of the image of the selected product and the gesture indicating that the product has been ordered are displayed. information to the display control unit 26 .
The display control unit 26 then outputs order information for the selected product to the image operation server 10 .
The user 601 terminates the application on the user terminal 20 if there are no other products to order (step S207).

上述したように、本実施形態によれば、店舗に出向いたときと同様に自身の視線方向を変更することにより、ユーザインターフェース部30におけるセンサ部32が視線の向きの移動を、当該利用者の頭部の回転移動の情報から取得し、視線の移動に合わせて配信画像内における視線の移動にともなう表示画像を生成し(同一場所における視線の移動、例えば同一の売場における商品間の視線の移動に対応した画像表示処理)、また撮像装置の変更も行うことができるため、利用者自身が異なる場所へ移動(例えば、店舗における売場を移動)するための画面操作を行うことがなく、利用者が観察したい視線方向に表示画像が移動し、かつ視線の動きに連動して、配信画像を撮像する撮像装置として、移動したい場所の撮像装置に切り替えることが可能であるため、あたかも複数の撮像装置が撮像している場所を実際に移動している感覚をユーザに与える処理を容易に行なうことができる。
すなわち、本実施形態によれば、観察場所を異なる場所へ移動させたり、観察場所内における特定の箇所の観察を、利用者の身体情報によりシームレス(滑らか)に行うことができる。
As described above, according to the present embodiment, by changing the line-of-sight direction of the user in the same way as when going to a store, the sensor unit 32 in the user interface unit 30 detects the movement of the line-of-sight direction of the user. Obtained from the information on the rotational movement of the head, and generates a display image accompanying the movement of the line of sight within the distribution image according to the movement of the line of sight (movement of the line of sight in the same place, for example, movement of the line of sight between products in the same sales floor (image display processing corresponding to ), and also change the imaging device. The display image moves in the line-of-sight direction that the user wants to observe, and in conjunction with the movement of the line-of-sight, it is possible to switch the image capturing device that captures the distribution image to the image capturing device of the desired location, so it is as if there are multiple image capturing devices. It is possible to easily perform processing that gives the user a feeling that he or she is actually moving in the place where the camera is imaging.
That is, according to the present embodiment, it is possible to seamlessly (smoothly) move the observation location to a different location or observe a specific location within the observation location based on the user's physical information.

上述した本実施形態においては、店舗内において売場の各々における商品を撮像する撮像装置を例に説明したが、美術館、博物館、観光地などにおいて、美術品などの展示物や観光名所を撮像する撮像装置に対しても同様の構成を用いることができる。
また、本実施形態においては、ユーザインターフェース部30としてARグラスなどのHMDを利用する構成を説明したが、利用者端末20が備える撮像装置及び加速度センサなどをセンサ部32として用い、利用者端末20の表示画面を表示部31として用いる構成としてもよい。
また、本実施形態においては、センサ部32がモーションセンサ部322を備えず、撮像部321が利用者の手及び頭部の動画像を撮像し、身体情報認識部24が、移動情報あるいは伸縮情報に代わり、当該動画像のフレーム画像の各々から、周知の方法により頭部の回転の回転角度及び回転方向を求める構成としてもよい。当該方法の一例としては、画像から目、口、鼻、耳や眉毛などの顔のパーツを特徴領域として抽出し、当該特徴領域の正面から見た配置状態からの変位により頭部の方向を推測する等の方法が知られている。 また、本実施形態においては、画像加工部22、身体情報認識部24、操作情報取得部25及び表示制御部26の各々を利用者端末20に備える構成としたが、これらの全てあるいは一部を画像操作サーバ10に備える構成としてもよい。
In the above-described embodiment, an imaging device that captures images of products on each sales floor in a store has been described as an example. A similar configuration can be used for the device.
Further, in the present embodiment, a configuration using an HMD such as AR glasses as the user interface unit 30 has been described. may be used as the display unit 31 .
Further, in this embodiment, the sensor unit 32 does not include the motion sensor unit 322, the imaging unit 321 captures moving images of the user's hand and head, and the physical information recognition unit 24 receives movement information or stretch information. Alternatively, the rotation angle and the rotation direction of the head may be obtained from each frame image of the moving image by a well-known method. As an example of this method, facial parts such as the eyes, mouth, nose, ears, and eyebrows are extracted as feature regions from an image, and the direction of the head is estimated based on the displacement of the feature regions from their arrangement when viewed from the front. There are known methods such as Further, in the present embodiment, the image processing unit 22, the physical information recognition unit 24, the operation information acquisition unit 25, and the display control unit 26 are provided in the user terminal 20. The configuration may be provided in the image operation server 10 .

<変形例1>
上述の実施形態においては、撮像装置D1から撮像装置Dnが撮像した撮像画像各々を配信画像としていたが、例えば、撮像装置D1と撮像装置D2など複数の撮像装置からなるセットを1つの撮像装置として扱い、該セットの撮像装置各々が撮像した撮像画像を合成した画像を配信画像として用いてもよい。本実施形態の変形例1では、上述の実施形態における画像操作システム1における画像操作サーバ10において、セットの撮像装置各々が撮像した撮像画像を合成し、配信画像とする例を説明する。本変形例では、上述の実施形態と異なる部分のみを説明し、その他の部分は説明を省略する。
<Modification 1>
In the above-described embodiment, each captured image captured by the imaging device D1 to the imaging device Dn is used as a distribution image. Alternatively, an image obtained by synthesizing the captured images captured by each of the imaging devices of the set may be used as the distribution image. In Modified Example 1 of the present embodiment, an example will be described in which the image operation server 10 in the image operation system 1 according to the above-described embodiment synthesizes captured images captured by each of the imaging devices of the set and generates a distribution image. In this modified example, only parts different from the above-described embodiment will be described, and description of other parts will be omitted.

図11は、本実施形態の変形例1における画像操作システム1における画像操作サーバ10の構成例を示す図である。本変形例の画像操作サーバ10は、画像配信部102に変えて、画像配信部102aを備えるが、その他は、上述の実施形態における画像操作サーバ10と同様である。画像配信部102aは、撮像装置D1から撮像装置Dnのうち、予め決められた一部の撮像装置(例えば、撮像装置D1と撮像装置D2)からなるセットが撮像した撮像画像を合成して1つの画像を生成して、配信画像とする点が、画像配信部102と異なるが、その他は、画像配信部102と同様である。 FIG. 11 is a diagram showing a configuration example of the image operation server 10 in the image operation system 1 according to Modification 1 of the present embodiment. The image operation server 10 of this modified example includes an image distribution unit 102a instead of the image distribution unit 102, but otherwise is the same as the image operation server 10 of the above-described embodiment. The image distribution unit 102a synthesizes captured images captured by a predetermined set of some of the imaging devices D1 to Dn (for example, the imaging device D1 and the imaging device D2) into one image. It differs from the image distribution unit 102 in that an image is generated and used as a distribution image, but the rest is the same as the image distribution unit 102 .

なお、画像配信部102aは、例えば、撮像装置D1と撮像装置D2のセットと、撮像装置D3から撮像装置D5のセットなど、撮像装置D1から撮像装置Dnのうち、予め決められた複数の撮像装置のセット各々について、配信画像を生成するようにしてもよい。また、これらの撮像装置のセットについては、撮像装置隣接関係情報取得部103が記憶する撮像装置D1から撮像装置Dnの隣接関係に基づき決められるようにしてもよい。また、画像配信部102aは、撮像画像記憶部に記憶させる画像を、この配信画像としてもよい。 Note that the image distribution unit 102a is configured to use a plurality of predetermined image pickup devices among the image pickup devices D1 to Dn, such as a set of the image pickup devices D1 and D2 and a set of the image pickup devices D3 to D5. A distribution image may be generated for each set of . Also, the set of these imaging devices may be determined based on the adjacency of the imaging devices D1 to Dn stored by the imaging device adjacency information acquisition unit 103 . Further, the image distribution unit 102a may use the image to be stored in the captured image storage unit as the distribution image.

画像配信部102aにおける撮像画像の合成は、撮影対象が平面であるとして、撮像画像の中心付近、すなわち撮影対象と正対している画像を連結することで行ってもよい。さらに、撮像画像同士でオーバーラップしている領域については画像補完により正対している画像を生成して連結する、Steven Seitzらの手法(Steven M. Seitz and Charles R. Dyer. 1996. View morphing. In Proceedings of the 23rd annual conference on Computer graphics and interactive techniques (SIGGRAPH '96). Association for Computing Machinery, New York, NY, USA,21-30. DOI:https://doi.org/10.1145/237170.237196)を用いてもよい。 Assuming that the object to be photographed is a plane, the image distribution unit 102a may synthesize the picked-up images by connecting images near the center of the picked-up images, that is, images facing the object to be photographed. Furthermore, a method of Steven Seitz et al. (Steven M. Seitz and Charles R. Dyer. 1996. View morphing. 1996. View morphing. In Proceedings of the 23rd annual conference on Computer graphics and interactive techniques (SIGGRAPH '96). Association for Computing Machinery, New York, NY, USA, 21-30. DOI: https://doi.org/10.1145/237170.237196) may be used.

また、画像配信部102aにおける撮像画像の合成は、例えば、Structure from Motion技術(https://en.wikipedia.org/wiki/Structure_from_motion)を用いて、複数の撮像画像から3次元形状を生成し、該3次元形状から正投影のレンダリングをするなどして正対した画像を生成して配信画像としてもよい。
このように、配信画像の全ての領域が、商品棚などの撮影対象に正対した画像とすることができるため、該配信画像のどの領域を表示画像としても、違和感を利用者601に感じさせないようにすることができる。
In addition, the synthesis of the captured images in the image distribution unit 102a is performed by, for example, using Structure from Motion technology (https://en.wikipedia.org/wiki/Structure_from_motion) to generate a three-dimensional shape from a plurality of captured images, Orthographic projection rendering may be performed from the three-dimensional shape to generate a facing image, which may be used as a distribution image.
In this way, since all areas of the delivery image can be an image facing the shooting target such as a product shelf, the user 601 does not feel uncomfortable even if any area of the delivery image is used as the display image. can be made

なお、本変形例における撮像画像の合成は、例えば、図10のフローチャートにおけるステップS106にて行われる。また、ステップS108において注文処理部110が生成するサムネイル画像は、配信画像から生成される。また、撮像装置変更リクエスト情報は、撮像装置に変えて、撮像装置のセットを示すようにしてもよいし、撮像装置変更リクエスト情報が、撮像装置のセットを構成する撮像装置を示しているときは、該撮像装置を含む撮像装置のセットを示しているとみなしてもよい。 It should be noted that the synthesis of the captured images in this modified example is performed, for example, in step S106 in the flowchart of FIG. Also, the thumbnail image generated by the order processing unit 110 in step S108 is generated from the distribution image. In addition, the imaging device change request information may indicate a set of imaging devices instead of the imaging device, or when the imaging device change request information indicates imaging devices constituting a set of imaging devices. , may be regarded as denoting a set of imagers that includes the imager.

<変形例2>
上述の変形例1では、撮像装置D1から撮像装置Dnのうちの一部をセットとして配信画像を生成していたが、撮像装置D1から撮像装置Dnの全てを1つのセットとして配信画像を生成してもよい。この場合、配信画像が1つのみであるため、撮像装置変更リクエスト情報に関する処理が不要となる。本変形例2では、上述の変形例1における画像操作システム1における画像操作サーバ10において、撮像装置D1から撮像装置Dnの全てを1つのセットとする例を説明する。
<Modification 2>
In the first modified example described above, a distribution image is generated by using a part of the imaging devices D1 to Dn as a set. may In this case, since there is only one distribution image, the processing related to the imaging device change request information is unnecessary. In Modification 2, in the image manipulation server 10 in the image manipulation system 1 in Modification 1, all of the imaging devices D1 to Dn will be described as one set.

図12は、変形例2における画像操作システム1における画像操作サーバ10の構成例を示す図である。本変形例の画像操作サーバ10は、画像配信部102aに変えて画像配信部102bを備える点と、撮像装置隣接関係情報取得部103を備えない点が、変形例1の画像操作サーバ10とは異なる。画像配信部102bは、撮像装置D1から撮像装置Dnの全てを1つのセットとして配信画像を生成する。その他は、画像配信部102aと同様である。また、本変形例における利用者端末20は、図5と同様の構成であるが、撮像装置変更リクエスト情報に関連する機能が不要となる。 FIG. 12 is a diagram showing a configuration example of the image operation server 10 in the image operation system 1 according to Modification 2. As shown in FIG. The image operation server 10 of this modified example differs from the image operation server 10 of the modified example 1 in that it includes an image distribution unit 102b instead of the image distribution unit 102a and does not include the imaging device adjacency information acquisition unit 103. different. The image delivery unit 102b generates a delivery image with all of the imaging devices D1 to Dn as one set. Others are the same as those of the image distribution unit 102a. Also, the user terminal 20 in this modified example has the same configuration as in FIG. 5, but does not require the function related to the imaging device change request information.

このように、上述の実施形態および各変形例における画像操作システム1は、複数の撮像装置D1からDnの各々が撮像した撮像画像それぞれを受信し、撮像画像のいずれかに少なくとも基づく画像を配信画像として配信する画像配信部102、102a、102bと、利用者の身体の状態を示し、少なくとも前記利用者の身体における所定の一部の向きを示す身体情報に対応した、配信画像における表示対象の領域である表示対象領域を移動させる方向を含む方向情報を取得する操作情報取得部25と、方向情報を含む表示領域情報により、配信画像における表示対象領域を抽出する表示枠の位置を更新する指示を行う表示制御部26と、配信画像から表示枠に囲まれた画像を抽出して、抽出した画像を表示画像とする画像加工部22と、表示画像を出力する画像出力部23とを備え、表示制御部26は、方向情報の示す方向に応じた速度で、配信画像における表示枠の位置を移動させる。これにより、あたかも複数の撮像装置D1からDnが撮像している場所を実際に移動している感覚をユーザに与える処理を容易に行なうことができる。 As described above, the image manipulation system 1 in the above-described embodiment and each modified example receives each captured image captured by each of the plurality of imaging devices D1 to Dn, and distributes an image based on at least one of the captured images. image distribution units 102, 102a, and 102b that distribute as image distribution units 102, 102a, and 102b, and a region to be displayed in the distribution image corresponding to physical information that indicates the state of the user's body and indicates at least the orientation of a predetermined portion of the user's body and an instruction to update the position of the display frame for extracting the display target area in the distribution image based on the operation information acquisition unit 25 for acquiring direction information including the direction in which the display target area is moved, and the display area information including the direction information. an image processing unit 22 for extracting an image surrounded by a display frame from a distributed image and using the extracted image as a display image; and an image output unit 23 for outputting the display image. The control unit 26 moves the position of the display frame in the distribution image at a speed corresponding to the direction indicated by the direction information. As a result, it is possible to easily perform processing that gives the user a feeling as if he or she were actually moving between locations where the plurality of image capturing devices D1 to Dn are capturing images.

なお、本発明における図1の画像操作サーバ10及び利用者端末20の各々の機能を実現するためのそれぞれのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、撮像装置の遷移及び売場の移動の処理を行ったり、また提供される配信画像を撮像する撮像装置の変更を要求する処理、供給された配信画像から利用者の視線に対応した表示画像を生成する処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。 It should be noted that each program for realizing each function of the image operation server 10 and the user terminal 20 of FIG. By loading and executing it in a computer system, processing of transition of imaging device and movement of sales floor is performed, processing of requesting change of imaging device that captures the provided distribution image, use from the supplied distribution image A process of generating a display image corresponding to the line of sight of the person may be performed. It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices.

また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 Also, the "computer system" includes a WWW system provided with a home page providing environment (or display environment). The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. In addition, "computer-readable recording medium" means a volatile memory (RAM) inside a computer system that acts as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. , includes those that hold the program for a certain period of time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the above program may be transmitted from a computer system storing this program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1…画像操作システム
2…ユーザ管理データベース
3…撮像装置隣接関係情報記憶部
4…プリンタ
10…画像操作サーバ
20…利用者端末
21,101…受信部
22…画像加工部
23…画像出力部
24…身体情報認識部
25…操作情報取得部
26…表示制御部
27,104…送信部
30…ユーザインターフェース部
31…表示部
32…センサ部
102,102a,102b…画像配信部
103…撮像装置隣接関係情報取得部
110…注文処理部
111…サムネイル画像生成部
112…発送先情報取得部
113…注文書情報出力部
321…撮像部
322…モーションセンサ部
500…情報通信網
601…利用者
602店員
D1,D2,Dn…撮像装置
REFERENCE SIGNS LIST 1 image operation system 2 user management database 3 imaging device adjacency information storage unit 4 printer 10 image operation server 20 user terminal 21, 101 reception unit 22 image processing unit 23 image output unit 24 Body information recognition unit 25 Operation information acquisition unit 26 Display control unit 27, 104 Transmission unit 30 User interface unit 31 Display unit 32 Sensor unit 102, 102a, 102b Image distribution unit 103 Imaging device adjacency information Acquisition unit 110 Order processing unit 111 Thumbnail image generation unit 112 Destination information acquisition unit 113 Order form information output unit 321 Imaging unit 322 Motion sensor unit 500 Information communication network 601 User 602 Clerk D1, D2 , Dn... Imaging device

Claims (18)

複数の撮像装置の各々が撮像した撮像画像それぞれを受信し、前記撮像画像のいずれかに少なくとも基づく画像を配信画像として配信する画像配信部と、
利用者の身体の状態を示し、少なくとも前記利用者の身体における所定の一部の向きを示す身体情報に対応した、前記配信画像における表示対象の領域である表示対象領域を移動させる方向を含む方向情報を取得する操作情報取得部と、
前記方向情報を含む表示領域情報により、前記配信画像における前記表示対象領域を抽出する表示枠の位置を更新する指示を行う表示制御部と、
前記配信画像から前記表示枠に囲まれた画像を抽出して、抽出した画像を表示画像とする画像加工部と、
前記表示画像を出力する画像出力部と
を備え、
前記表示制御部は、前記方向情報の示す方向に応じた速度で、前記配信画像における前記表示枠の位置を移動させる
ことを特徴とする画像操作システム。
an image distribution unit that receives each captured image captured by each of a plurality of imaging devices and distributes an image based on at least one of the captured images as a distribution image;
A direction including a direction to move a display target area, which is a display target area in the distribution image, corresponding to physical information indicating the physical condition of the user and indicating at least the orientation of a predetermined portion of the user's body. an operation information acquisition unit that acquires information;
a display control unit that gives an instruction to update a position of a display frame for extracting the display target area in the distribution image, based on the display area information including the direction information;
an image processing unit that extracts an image surrounded by the display frame from the distribution image and uses the extracted image as a display image;
an image output unit that outputs the display image,
The image manipulation system, wherein the display control unit moves the position of the display frame in the distribution image at a speed corresponding to the direction indicated by the direction information.
前記表示制御部は、前記方向情報の示す左または右への方向に応じた速度により、前記配信画像における前記表示枠を左または右に移動させ、前記方向情報の示す上または下への方向に応じて、前記方向情報における前記表示枠を上または下に移動させる
ことを特徴とする請求項1に記載の画像操作システム。
The display control unit moves the display frame in the distribution image to the left or right at a speed corresponding to the leftward or rightward direction indicated by the direction information, and moves the display frame in the upward or downward direction indicated by the direction information. 2. The image manipulation system according to claim 1, wherein the display frame in the direction information is moved up or down accordingly.
前記身体における所定の一部が頭部である
ことを特徴とする請求項1または請求項2に記載の画像操作システム。
3. The image manipulation system according to claim 1, wherein the predetermined part of the body is the head.
前記配信画像は、複数の前記撮像画像を合成した画像である
ことを特徴とする請求項1から請求項3のいずれか一項に記載の画像操作システム。
The image manipulation system according to any one of claims 1 to 3, wherein the distribution image is an image obtained by synthesizing a plurality of the captured images.
前記撮像装置の各々の配置位置それぞれにおける隣接関係を示す撮像装置隣接関係情報を取得する撮像装置隣接関係情報取得部を備え、
前記画像配信部は、前記複数の撮像装置のうち、一部を対象撮像装置として選択し、前記対象撮像装置が一つの撮像装置である場合、当該一つの撮像装置が撮像した撮像画像を配信画像として配信し、前記対象撮像装置が複数の撮像装置である場合、当該複数の撮像装置が撮像した撮像画像を合成した画像を配信画像として配信し、前記一部の変更を指示する撮像装置変更リクエスト情報が入力された場合、当該撮像装置変更リクエスト情報に対応して前記対象撮像装置を切り替え、
前記表示制御部は、前記方向情報における所定の条件が満たされた場合、前記対象撮像装置を他の撮像装置へ変更する指示を行う
ことを特徴とする請求項1から請求項3のいずれか一項に記載の画像操作システム。
an imaging device adjacency information acquisition unit that acquires imaging device adjacency information indicating the adjacency relationship at each arrangement position of each of the imaging devices;
The image distribution unit selects a part of the plurality of imaging devices as a target imaging device, and if the target imaging device is one imaging device, the image distribution unit distributes the captured image captured by the one imaging device as a distribution image. When the target imaging device is a plurality of imaging devices, an image obtained by synthesizing the captured images captured by the plurality of imaging devices is distributed as a distribution image, and an imaging device change request instructing to change the part when information is input, switching the target imaging device in response to the imaging device change request information;
4. The display control unit according to any one of claims 1 to 3, wherein when a predetermined condition in the direction information is satisfied, the display control unit issues an instruction to change the target imaging device to another imaging device. 10. An image manipulation system according to claim 1.
前記撮像装置の各々の配置位置それぞれにおける隣接関係を示す撮像装置隣接関係情報を取得する撮像装置隣接関係情報取得部を備え、
前記画像配信部は、前記撮像装置のいずれかを対象撮像装置として選択し、当該対象撮像装置が撮像した撮像画像を配信画像として配信し、前記撮像装置の変更を指示する撮像装置変更リクエスト情報が入力された場合、当該撮像装置変更リクエスト情報に対応して前記対象撮像装置を切り替え、
前記表示制御部は、前記方向情報における所定の条件が満たされた場合、前記対象撮像装置を他の撮像装置へ変更する指示を行う
ことを特徴とする請求項1から請求項3のいずれか一項に記載の画像操作システム。
an imaging device adjacency information acquisition unit that acquires imaging device adjacency information indicating the adjacency relationship at each arrangement position of each of the imaging devices;
The image distribution unit selects one of the imaging devices as a target imaging device, distributes a captured image captured by the target imaging device as a distribution image, and includes imaging device change request information for instructing change of the imaging device. when input, switching the target imaging device in response to the imaging device change request information;
4. The display control unit according to any one of claims 1 to 3, wherein when a predetermined condition in the direction information is satisfied, the display control unit issues an instruction to change the target imaging device to another imaging device. 10. An image manipulation system according to claim 1.
前記撮像装置の各々が商品を販売する店舗内のそれぞれ異なる位置に配置されており、当該店舗内の互いに異なる撮像範囲を撮像し、前記撮像範囲に前記商品が陳列されている ことを特徴とする請求項1から請求項6のいずれか一項に記載の画像操作システム。 Each of the imaging devices is arranged at a different position in a store that sells products, and images different imaging ranges in the store, and the products are displayed in the imaging ranges. An image manipulation system according to any one of claims 1 to 6. 前記利用者の購入する前記商品を示す注文情報に対応して、当該商品の画像を含む注文書情報を出力する注文処理部をさらに備え、
前記身体情報が、前記利用者における身体の所定の一部である当該利用者の手の位置を示す手位置情報を含み、
前記操作情報取得部が、前記手位置情報に対応して、前記表示画像における商品の位置を示す位置情報を取得し、
前記表示制御部が、前記表示枠の位置に対応させて、前記位置情報の示す位置を前記配信画像における位置に変換した選択位置情報を生成し、
前記表示制御部が、前記選択位置情報の示す前記商品を注文する注文条件が満たされた場合、少なくとも前記選択位置情報を含む前記注文情報を注文処理部に送信し、
前記注文処理部が、
前記配信画像から、前記注文情報に含まれる前記選択位置情報の示す位置を含む領域を抽出し、当該領域のサムネイル画像を生成するサムネイル画像生成部と、
前記商品の配送先となる、当該商品を注文した前記利用者の住所を含む配送先情報を取得する配送先情報取得部と、
前記サムネイル画像と前記配送先情報とより、前記サムネイル画像内の商品の注文書の情報である注文書情報を出力する注文書情報出力部と
をさらに備える、
ことを特徴とする請求項7に記載の画像操作システム。
further comprising an order processing unit that outputs order form information including an image of the product corresponding to the order information indicating the product purchased by the user;
The physical information includes hand position information indicating the position of the user's hand, which is a predetermined part of the user's body,
the operation information acquisition unit acquires position information indicating the position of the product in the display image corresponding to the hand position information;
The display control unit generates selected position information by converting the position indicated by the position information into a position in the distribution image in correspondence with the position of the display frame,
the display control unit, when an order condition for ordering the product indicated by the selected position information is satisfied, transmits the order information including at least the selected position information to the order processing unit;
The order processing unit
a thumbnail image generation unit that extracts an area including the position indicated by the selected position information included in the order information from the distribution image and generates a thumbnail image of the area;
a delivery destination information acquisition unit that acquires delivery destination information including the address of the user who ordered the product, which is the delivery destination of the product;
an order form information output unit that outputs order form information, which is order form information for the product in the thumbnail image, based on the thumbnail image and the delivery destination information;
8. The image manipulation system of claim 7, wherein:
前記注文条件が、前記身体における所定の一部が、予め設定された時間の間、前記位置情報の示す位置に停止した状態である条件を必要条件とする
ことを特徴とする請求項8に記載の画像操作システム。
9. The order condition according to claim 8, wherein the necessary condition is that a predetermined part of the body remains at the position indicated by the position information for a preset period of time. image manipulation system.
前記身体情報が、
前記利用者の身体の一部である当該利用者の手のポーズ及び状態を含むジェスチャを示す手形情報を含み、
前記操作情報取得部が、
前記手形情報に基づき、前記ジェスチャの種類を示すジェスチャ情報を取得し、
前記注文条件が、
前記ジェスチャ情報の示すジェスチャが、注文を行う種類として予め設定された種類のジェスチャである場合を必要条件とする、
ことを特徴とする請求項8または請求項9に記載の画像操作システム。
The physical information is
including handprint information indicating gestures including poses and states of the user's hands, which are part of the user's body;
The operation information acquisition unit
obtaining gesture information indicating the type of the gesture based on the bill information;
if said order conditions are
A necessary condition is that the gesture indicated by the gesture information is a gesture of a type preset as a type of ordering,
10. The image manipulation system according to claim 8 or 9, characterized in that:
身体情報認識部と、
ユーザインターフェース部と
をさらに備え、
前記ユーザインターフェース部が、
前記画像出力部から出力された前記表示画像を表示する表示部と、
前記利用者の身体における一部である頭部に配置され、当該頭部の姿勢に関する頭部状態情報を前記身体情報認識部に送信するモーションセンサ部と、
を備え、
前記身体情報認識部が、前記頭部状態情報における前記頭部の姿勢から、当該頭部の向きの情報を含む前記身体情報を取得する
ことを特徴とする請求項1から請求項10のいずれか一項に記載の画像操作システム。
a physical information recognition unit;
further comprising a user interface part and
The user interface unit
a display unit for displaying the display image output from the image output unit;
a motion sensor unit arranged on the head, which is a part of the body of the user, for transmitting head state information regarding the posture of the head to the body information recognition unit;
with
11. The physical information recognizing unit acquires the physical information including the orientation information of the head from the posture of the head in the head state information. The image manipulation system according to claim 1.
前記画像出力部から出力された前記表示画像を表示する表示部と、
前記利用者の身体の状態を、当該身体の動きを示すセンシング情報として取得するセンサ部と、
前記センシング情報に基づき、前記利用者の前記身体情報を抽出する身体情報認識部と をさらに備える
ことを特徴とする請求項1から請求項10のいずれか一項に記載の画像操作システム。
a display unit for displaying the display image output from the image output unit;
a sensor unit that acquires the body state of the user as sensing information indicating the movement of the body;
11. The image manipulation system according to any one of claims 1 to 10, further comprising a body information recognition unit that extracts the body information of the user based on the sensing information.
サーバと、当該サーバに接続され、前記利用者の所持する利用者端末とを備え、
前記サーバが、
前記画像配信部
を備え、
前記利用者端末が、
前記操作情報取得部と、
前記表示制御部と、
前記画像加工部と、
前記画像出力部と
を備える
ことを特徴とする請求項1から請求項12のいずれか一項に記載の画像操作システム。
A server, and a user terminal connected to the server and possessed by the user,
the server
comprising the image distribution unit,
The user terminal is
the operation information acquisition unit;
the display control unit;
the image processing unit;
13. The image manipulation system according to claim 1, further comprising the image output unit.
利用者の身体における所定の一部の方向を示す身体方向情報から方向情報を取得し、前記方向情報の示す方向に応じた速度で、配信画像における表示枠の位置を移動させる利用者端末と接続され、前記配信画像を前記利用者端末に送信する画像操作サーバであり、
複数の撮像装置の各々が撮像した撮像画像それぞれを受信し、前記撮像画像のいずれかに少なくとも基づく画像を前記配信画像として配信する画像配信部
を備える
ことを特徴とする画像操作サーバ。
Connect to a user terminal that acquires direction information from body direction information indicating a predetermined direction of a part of the user's body, and moves the position of the display frame in the distribution image at a speed corresponding to the direction indicated by the direction information. and an image operation server that transmits the distribution image to the user terminal,
An image operation server, comprising: an image distribution unit that receives captured images captured by each of a plurality of imaging devices and distributes an image based on at least one of the captured images as the distribution image.
複数の撮像装置の各々が撮像した撮像画像それぞれを受信し、前記撮像画像のいずれかに少なくとも基づく画像を配信画像として配信するサーバと接続される、当該配信画像を受信する利用者端末であり、
利用者の身体の状態を示し、少なくとも前記利用者の身体における所定の一部の向きを示す身体情報に対応した、前記配信画像における表示対象領域を移動させる方向を含む方向情報を取得する操作情報取得部と、
前記方向情報を含む表示領域情報により、前記配信画像における表示対象領域を選択する表示枠の位置を更新する指示を行う表示制御部と、
前記配信画像から前記表示枠に囲まれた画像を抽出して、前記表示対象領域の表示画像を生成する画像加工部と、
前記表示画像を出力する画像出力部と
を備える
ことを特徴とする利用者端末。
A user terminal that receives an image captured by each of a plurality of imaging devices, and is connected to a server that distributes an image based on at least one of the captured images as a distribution image, the user terminal receiving the distribution image;
Operation information for acquiring direction information including a direction in which the display target area in the distribution image is moved, corresponding to physical information indicating the user's physical condition and indicating at least the orientation of a predetermined portion of the user's body. an acquisition unit;
a display control unit that instructs to update a position of a display frame for selecting a display target area in the distribution image, based on the display area information including the direction information;
an image processing unit that extracts an image surrounded by the display frame from the distribution image and generates a display image of the display target area;
and an image output unit that outputs the display image.
画像配信部が、複数の撮像装置の各々が撮像した撮像画像それぞれを受信し、前記撮像画像のいずれかに少なくとも基づく画像を配信画像として配信する画像配信過程と、
操作情報取得部が、利用者の身体の状態を示し、少なくとも前記利用者の身体における所定の一部の向きを示す身体情報に対応した、前記配信画像における表示対象領域を移動させる方向を含む方向情報を取得する操作情報取得過程と、
表示制御部が、前記方向情報を含む表示領域情報により、前記配信画像における表示対象領域を選択する表示枠の位置を更新する指示を行う表示制御過程と、
画像加工部が、前記配信画像から前記表示枠に囲まれた画像を抽出して、前記表示対象領域の表示画像を生成する画像加工過程と、
画像出力部が、前記表示画像を出力する画像出力過程と
を含む
ことを特徴とする画像操作方法。
an image distribution process in which an image distribution unit receives each captured image captured by each of a plurality of imaging devices and distributes an image based on at least one of the captured images as a distribution image;
A direction in which the operation information acquisition unit indicates the physical condition of the user and includes the direction in which the display target area in the distribution image is moved, corresponding to the physical information indicating at least the orientation of a predetermined portion of the user's body. an operation information acquisition process for acquiring information;
a display control process in which a display control unit issues an instruction to update a position of a display frame for selecting a display target area in the distribution image based on the display area information including the direction information;
an image processing step in which an image processing unit extracts an image surrounded by the display frame from the distribution image and generates a display image of the display target area;
and an image output process in which an image output unit outputs the display image.
利用者の身体における所定の一部の方向を示す身体方向情報から方向情報を取得し、前記方向情報の示す方向に応じた速度で、配信画像における表示枠の位置を移動させる利用者端末と接続され、前記配信画像を前記利用者端末に送信する画像操作サーバとしてコンピュータを動作させるプログラムであり、
前記コンピュータを、
複数の撮像装置の各々が撮像した撮像画像それぞれを受信し、前記撮像画像のいずれかに少なくとも基づく画像を前記配信画像として配信する画像配信手段、
として動作させるプログラム。
Connect to a user terminal that acquires direction information from body direction information indicating a predetermined direction of a part of the user's body, and moves the position of the display frame in the distribution image at a speed corresponding to the direction indicated by the direction information. a program for operating a computer as an image operation server for transmitting the distribution image to the user terminal,
said computer,
Image distribution means for receiving each captured image captured by each of a plurality of imaging devices and distributing an image based on at least one of the captured images as the distribution image;
A program that operates as
複数の撮像装置の各々が撮像した撮像画像それぞれを受信し、前記撮像画像のいずれかに少なくとも基づく画像を配信画像として配信するサーバと接続される、当該配信画像を受信する利用者端末としてコンピュータを動作させるプログラムであり、
利用者の身体の状態を示し、少なくとも前記利用者の身体における所定の一部の向きを示す身体情報に対応した、前記配信画像における表示対象領域を移動させる方向を含む方向情報を取得する操作情報取得手段、
前記方向情報を含む表示領域情報により、前記配信画像における表示対象領域を選択する表示枠の位置を更新する指示を行う表示制御手段、
前記配信画像から前記表示枠に囲まれた画像を抽出して、前記表示対象領域の表示画像を生成する画像加工手段、
前記表示画像を出力する画像出力手段
として動作させるプログラム。
A computer serving as a user terminal for receiving a distributed image, connected to a server that receives each captured image captured by each of a plurality of imaging devices and distributes an image based on at least one of the captured images as a distributed image. is a program that runs
Operation information for acquiring direction information including a direction in which the display target area in the distribution image is moved, corresponding to physical information indicating the user's physical condition and indicating at least the orientation of a predetermined portion of the user's body. acquisition means,
display control means for instructing to update the position of the display frame for selecting the display target area in the distribution image, based on the display area information including the direction information;
image processing means for extracting an image surrounded by the display frame from the distribution image and generating a display image of the display target area;
A program operated as image output means for outputting the display image.
JP2022002785A 2021-01-12 2022-01-12 Image operation system, image operation server, user terminal, image operation method, and program Pending JP2022108280A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021002557 2021-01-12
JP2021002557 2021-01-12

Publications (1)

Publication Number Publication Date
JP2022108280A true JP2022108280A (en) 2022-07-25

Family

ID=82556140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022002785A Pending JP2022108280A (en) 2021-01-12 2022-01-12 Image operation system, image operation server, user terminal, image operation method, and program

Country Status (1)

Country Link
JP (1) JP2022108280A (en)

Similar Documents

Publication Publication Date Title
US9369638B2 (en) Methods for extracting objects from digital images and for performing color change on the object
US8976160B2 (en) User interface and authentication for a virtual mirror
US11614803B2 (en) Individually interactive multi-view display system for non-stationary viewing locations and methods therefor
US8970569B2 (en) Devices, systems and methods of virtualizing a mirror
AU2014304760B2 (en) Devices, systems and methods of virtualizing a mirror
US10109315B2 (en) Devices, systems and methods for auto-delay video presentation
US20140225978A1 (en) Method for image transformation, augmented reality, and teleperence
KR102265996B1 (en) Devices, systems and methods of capturing and displaying appearances
CN105981076B (en) Synthesize the construction of augmented reality environment
JP5966510B2 (en) Information processing system
JP5942456B2 (en) Image processing apparatus, image processing method, and program
US20150042678A1 (en) Method for visually augmenting a real object with a computer-generated image
US20160132962A1 (en) Three-dimensional shopping platform displaying system
KR101822471B1 (en) Virtual Reality System using of Mixed reality, and thereof implementation method
JP6720385B1 (en) Program, information processing method, and information processing terminal
JP5568610B2 (en) Augmented reality system, video composition device, video composition method, and program
KR101556158B1 (en) The social service system based on real image using smart fitting apparatus
KR101539087B1 (en) Augmented reality device using mobile device and method of implementing augmented reality
JP2022108280A (en) Image operation system, image operation server, user terminal, image operation method, and program
KR102287939B1 (en) Apparatus and method for rendering 3dimensional image using video
CN115668301A (en) Information processing apparatus, information processing method, and information processing system
JP6304305B2 (en) Image processing apparatus, image processing method, and program
WO2021145244A1 (en) Display device, image generation method, and program
JP2024001477A (en) Image processing system, image processing method, and program
TWM419179U (en) Television device providing clothes try-on function based on augmented reality