JP2021036440A - Information processing apparatus - Google Patents

Information processing apparatus Download PDF

Info

Publication number
JP2021036440A
JP2021036440A JP2020178874A JP2020178874A JP2021036440A JP 2021036440 A JP2021036440 A JP 2021036440A JP 2020178874 A JP2020178874 A JP 2020178874A JP 2020178874 A JP2020178874 A JP 2020178874A JP 2021036440 A JP2021036440 A JP 2021036440A
Authority
JP
Japan
Prior art keywords
application
information
photographing device
photographing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020178874A
Other languages
Japanese (ja)
Inventor
誠 倉橋
Makoto Kurahashi
誠 倉橋
宏 永田
Hiroshi Nagata
宏 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2020178874A priority Critical patent/JP2021036440A/en
Publication of JP2021036440A publication Critical patent/JP2021036440A/en
Priority to JP2022095555A priority patent/JP2022121468A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stored Programmes (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To automatically perform starting, setting, and the like of an application that cooperates with an imaging apparatus, on the basis of information obtained from the imaging apparatus.SOLUTION: In an information processing apparatus, an acquisition section acquires at least one of first information which is information on an image captured by an imaging section and second information which is information on an imaging range to be captured by the imaging section. An application control section provides a user with an application corresponding to the information acquired by the acquisition section, out of a plurality of applications which use the information on the image captured by the imaging section. On the basis of the image obtained from the imaging section or information on the imaging range, an application to be executed in cooperation with the imaging section is automatically started or settings required for executing the application are automatically performed.SELECTED DRAWING: Figure 5

Description

本発明は、撮影装置と接続された端末装置において、アプリケーションの起動や設定を自動的に行う技術に関する。 The present invention relates to a technique for automatically starting and setting an application in a terminal device connected to a photographing device.

PCにカメラを接続し、その撮影画像を用いて実行される様々なアプリケーションが存在する。例えば、テレビ電話はその一例である。また、特許文献1には、PCユーザの手の動きを検出することにより、検出した手の動きに応じた操作(クリック、選択、実行など)を可能とするアプリケーションが開示されている。 There are various applications that connect a camera to a PC and execute it using the captured image. For example, videophone is one example. Further, Patent Document 1 discloses an application that enables an operation (click, selection, execution, etc.) according to the detected hand movement by detecting the hand movement of the PC user.

特表2010−500645号公報Special Table 2010-500465

1つのカメラに対して、それと連携して動作可能な複数のアプリケーションが存在する場合がある。この場合、1つのアプリケーションから他のアプリケーションに切り替えを行うには、ユーザはカメラの設置位置などを変更した後、手動でそのアプリケーションを立ち上げたり、そのアプリケーションのための設定を行ったりする必要があり、煩わしいという課題があった。 There may be a plurality of applications that can operate in cooperation with one camera. In this case, in order to switch from one application to another, the user needs to manually launch the application or make settings for that application after changing the camera installation position and so on. There was a problem that it was troublesome.

本発明の解決しようとする課題としては、上記のものが一例として挙げられる。本発明は、撮影装置から得た情報に基づいて、その撮影装置と連携して動作するアプリケーションの起動・設定などを自動的に行うことを目的とする。 As an example of the problem to be solved by the present invention, the above is given as an example. An object of the present invention is to automatically start and set an application that operates in cooperation with the photographing device based on the information obtained from the photographing device.

請求項に記載の発明は、情報処理装置であって、撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得部と、前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御部と、を備えることを特徴とする。 The invention according to the claim is an information processing apparatus, which is at least one of first information which is information of an image taken by a photographing unit and second information which is information about a photographing range photographed by the photographing unit. The acquisition unit is provided with an application control unit that provides the user with an application corresponding to the information acquired by the acquisition unit among a plurality of applications that use the information of the image captured by the acquisition unit. It is characterized by.

本発明の実施例に係るインタラクションシステムの構成を示す。The configuration of the interaction system according to the embodiment of the present invention is shown. 撮影装置の外観を示す斜視図である。It is a perspective view which shows the appearance of the photographing apparatus. 可動部による回転の様子を示す。The state of rotation by the moving part is shown. PCの機能構成を示すブロックである。It is a block showing the functional configuration of a PC. 自動設定処理のフローチャートである。It is a flowchart of an automatic setting process. 撮影装置の設置状態の例を示す。An example of the installation state of the photographing device is shown. 撮影装置の設置状態の例を示す。An example of the installation state of the photographing device is shown. アプリケーション推定処理のフローチャートである。It is a flowchart of application estimation processing.

本発明の好適な実施形態では、情報処理装置は、撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得部と、前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御部と、を備える。 In a preferred embodiment of the present invention, the information processing apparatus receives at least one of the first information which is the information of the image taken by the photographing unit and the second information which is the information about the photographing range photographed by the photographing unit. It includes an acquisition unit to be acquired and an application control unit that provides a user with an application corresponding to the information acquired by the acquisition unit among a plurality of applications that use the information of the image captured by the acquisition unit.

上記の情報処理装置は、カメラなどの撮影部によって撮影された画像の情報である第1情報と、その撮影範囲に関する第2情報の少なくとも一方を取得し、取得した情報に対応するアプリケーションをユーザに提供する。よって、撮影部から得られる画像又は撮影範囲に関する情報に基づいて、その撮影部と連携して実行されるアプリケーションを自動的に提供することができる。ここで、アプリケーションを提供するとは、アプリケーションを起動すること、アプリケーションに対する必要な設定を行うことの少なくとも一方を含む。 The above information processing device acquires at least one of the first information which is the information of the image taken by the photographing unit such as a camera and the second information about the photographing range, and provides the user with an application corresponding to the acquired information. provide. Therefore, it is possible to automatically provide an application executed in cooperation with the photographing unit based on the information regarding the image or the photographing range obtained from the photographing unit. Here, providing an application includes at least one of launching the application and making necessary settings for the application.

上記の情報処理装置の一態様では、前記アプリケーション制御部は、前記撮影部によって撮影された画像に情報出力装置が含まれている場合には第1のアプリケーションをユーザに提供し、前記撮影部によって撮影された画像に情報入力装置が含まれている場合には第2のアプリケーションをユーザに提供する。この態様では、撮影画像に情報出力装置が含まれるか、情報入力装置が含まれるかによって、異なるアプリケーションが提供される。 In one aspect of the information processing apparatus, the application control unit provides the user with a first application when the image captured by the imaging unit includes an information output device, and the imaging unit provides the first application. If the captured image includes an information input device, a second application is provided to the user. In this aspect, different applications are provided depending on whether the captured image includes an information output device or an information input device.

上記の情報処理装置の他の一態様では、前記第2情報は、前記撮影部の撮影方向に関する情報を含み、前記アプリケーション制御部は、前記撮影部が固定されている位置に対して上方を撮影している場合には第3のアプリケーションをユーザに提供し、前記固定部が固定されている位置に対して上方を撮影していない場合には第4のアプリケーションをユーザに提供する。この態様では、撮影部が上方、下方のいずれを撮影しているかに応じて、異なるアプリケーションが提供される。 In another aspect of the information processing apparatus, the second information includes information about the shooting direction of the photographing unit, and the application control unit photographs an upper side with respect to a position where the photographing unit is fixed. If so, the third application is provided to the user, and if the fixed portion is not photographed above the fixed position, the fourth application is provided to the user. In this aspect, different applications are provided depending on whether the photographing unit is photographing above or below.

上記の情報処理装置の他の一態様では、前記アプリケーション制御部は、前記取得部が取得した情報に対応したアプリケーションの起動、及び、そのアプリケーションに対する設定の少なくとも一方を実行する。さらに他の一態様では、前記アプリケーション制御部は、前記取得部が取得した情報に対応したアプリケーションを実行する場合の前記撮影部に対する設定を行う。これにより、撮影した画像の情報又は撮影範囲に関する情報に基づいて、アプリケーションの起動や必要な設定が自動的に実行される。 In another aspect of the information processing apparatus described above, the application control unit executes at least one of starting an application corresponding to the information acquired by the acquisition unit and setting for the application. In still another aspect, the application control unit makes settings for the photographing unit when executing an application corresponding to the information acquired by the acquisition unit. As a result, the application is started and necessary settings are automatically executed based on the information of the captured image or the information regarding the capture range.

上記の情報処理装置の好適な例では、前記撮影部は、赤外線発光機能と、赤外線を透過するとともに可視光をカットする光学フィルタと、を備え、前記アプリケーション制御部は、前記赤外線発光機能のオンとオフ、及び、前記光学フィルタのオンとオフを設定する。 In a preferred example of the information processing apparatus, the photographing unit includes an infrared light emitting function and an optical filter that transmits infrared rays and cuts visible light, and the application control unit turns on the infrared light emitting function. And off, and on and off of the optical filter.

他の好適な例では、情報処理装置は、情報入力装置又は情報出力装置を備え、前記第2の情報は、前記撮影部と、前記情報入力装置又は前記情報出力装置との相対的位置関係を示す情報を含み、前記取得部は、前記第1情報の画像解析により、前記相対的位置関係を示す情報を生成する。 In another preferred example, the information processing device includes an information input device or an information output device, and the second information is a relative positional relationship between the photographing unit and the information input device or the information output device. The acquisition unit generates information indicating the relative positional relationship by image analysis of the first information, including the information to be shown.

本発明の他の好適な実施形態では、撮影部と接続された情報処理装置によって実行される情報処理方法は、前記撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得工程と、前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御工程と、を有する。この方法によっても、撮影部から得られる画像又は撮影範囲に関する情報に基づいて、その撮影部と連携して実行されるアプリケーションを自動的に提供することができる。 In another preferred embodiment of the present invention, the information processing method executed by the information processing apparatus connected to the photographing unit is the first information which is the information of the image photographed by the photographing unit, and the photographing unit. Corresponds to the acquisition process of acquiring at least one of the second information which is the information about the shooting range to be photographed by, and the information acquired by the acquisition unit among a plurality of applications using the information of the image photographed by the photographing unit. It has an application control process for providing an information processing application to a user. Also by this method, it is possible to automatically provide an application executed in cooperation with the photographing unit based on the information regarding the image or the photographing range obtained from the photographing unit.

本発明の他の好適な実施形態では、撮影部と接続され、コンピュータを備える情報処理装置によって実行される情報処理プログラムは、撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得手段、前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御手段、として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記の情報処理装置を実現することができる。このプログラムは記憶媒体に記憶することができる。 In another preferred embodiment of the present invention, the information processing program connected to the photographing unit and executed by the information processing apparatus including the computer is the first information which is the information of the image photographed by the photographing unit, and the above-mentioned first information. An acquisition means for acquiring at least one of the second information which is information about a shooting range shot by the shooting unit, and information acquired by the acquisition unit among a plurality of applications using the information of the image shot by the shooting unit. The computer functions as an application control means for providing a corresponding application to a user. The above information processing apparatus can be realized by executing this program on a computer. This program can be stored in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。
[構成]
図1は、本発明の実施例に係るインタラクションシステムの構成を示す。インタラクションシステムは、撮影装置10と、情報処理装置としてのPC20とを備える。撮影装置10とPC20は、信号ケーブルなどにより有線接続されるか、又は無線通信により接続される。インタラクションシステムでは、撮影装置10が撮影した撮影画像がPC20へ送信される。PC20には、撮影装置10と連携して動作する複数のアプリケーションがインストールされている。ユーザが撮影装置10を所定の位置に設置し、撮影装置10からPC20へ撮影画像が送信されると、PC20は、受信した撮影画像に基づいて、内部にインストールされている複数のアプリケーションから、ユーザが実行しようと考えているアプリケーションを推定し、そのアプリケーションの起動、そのアプリケーションの実行のために必要な設定などを自動的に行う。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[Constitution]
FIG. 1 shows the configuration of an interaction system according to an embodiment of the present invention. The interaction system includes a photographing device 10 and a PC 20 as an information processing device. The photographing device 10 and the PC 20 are connected by wire with a signal cable or the like, or are connected by wireless communication. In the interaction system, the captured image captured by the photographing device 10 is transmitted to the PC 20. A plurality of applications that operate in cooperation with the photographing device 10 are installed on the PC 20. When the user installs the photographing device 10 at a predetermined position and the photographed image is transmitted from the photographing device 10 to the PC 20, the PC 20 receives the photographed image from a plurality of applications installed inside the user. Estimates the application that it wants to run, and automatically launches the application and makes the necessary settings to run the application.

図2は、撮影装置10の外観を示す。撮影装置10は、本体部11と、可動部12と、固定部14と、を備える。固定部14は、撮影装置10を何らかの形で固定するための部分である。本実施例では、固定部14はクリップとして構成されており、PC20の画面端部に挟んで固定したり、スタンドとしてデスクの上に置いたりできるようになっている。 FIG. 2 shows the appearance of the photographing apparatus 10. The photographing device 10 includes a main body portion 11, a movable portion 12, and a fixed portion 14. The fixing portion 14 is a portion for fixing the photographing device 10 in some form. In this embodiment, the fixing portion 14 is configured as a clip so that it can be fixed by being sandwiched between the screen edges of the PC 20 or placed on a desk as a stand.

可動部12は、ユーザが本体部11の向きや位置を調整するための部分であり、回転部12aと、支持部12bと、回転軸12cとを備える。回転部12aは、支持部12bに対して回転軸12cの回りに回転可能である。回転部12aは本体部11に固定されており、支持部13は固定部14に固定されている。これにより、本体部11は、固定部14に対して回転可能となっている。なお、本実施例では、回転部12は一軸の回転のみが可能に構成されているが、これ以外に多軸の回転機構やスライド機構を備えていても構わない。 The movable portion 12 is a portion for the user to adjust the direction and position of the main body portion 11, and includes a rotating portion 12a, a supporting portion 12b, and a rotating shaft 12c. The rotating portion 12a is rotatable around the rotating shaft 12c with respect to the supporting portion 12b. The rotating portion 12a is fixed to the main body portion 11, and the supporting portion 13 is fixed to the fixing portion 14. As a result, the main body portion 11 can rotate with respect to the fixed portion 14. In this embodiment, the rotating unit 12 is configured to be capable of rotating only one axis, but may be provided with a multi-axis rotating mechanism or a sliding mechanism.

本体部11は、複数の発光部15と、一対のカメラモジュール16とを備える。本体部11は、PC20側で実行されるアプリケーションに応じて、様々な撮影機能を有するものとする。本実施例では、本体部11は、一対のカメラモジュール16を設けてステレオカメラとし、さらに3つの赤外線LEDの発光部15を備えている。また、カメラモジュール16には、オン/オフの切替えが可能な、図示しない赤外線透過・可視光カットフィルタ(以下、単に「光学フィルタ」と呼ぶ。)が設けられている。光学フィルタのオン/オフは、PC20から供給される制御信号により切替えられる。 The main body 11 includes a plurality of light emitting units 15 and a pair of camera modules 16. The main body 11 has various shooting functions depending on the application executed on the PC 20 side. In this embodiment, the main body 11 is provided with a pair of camera modules 16 to form a stereo camera, and further includes three infrared LED light emitting units 15. Further, the camera module 16 is provided with an infrared transmission / visible light cut filter (hereinafter, simply referred to as “optical filter”) which can be switched on / off and is not shown. The on / off of the optical filter is switched by the control signal supplied from the PC 20.

図3は、可動部12による回転の様子を示す。図3(A)は、固定部14に対して本体部11をほぼ垂直に起立させた状態を示し、本体部11のカメラモジュール16は矢印の方向を撮影する。図3(B)は、本体部11を固定部14に対して回転軸12c周りに180度回転させた様子を示しており、本体部11のカメラモジュール16は、回転状態(回転角度)に応じて矢印の方向を撮影する。なお、可動部12には図示しない回転エンコーダなどの回転角検出機構が設けられており、ユーザが設定した状態における回転部12aの回転角度を検出する。 FIG. 3 shows a state of rotation by the movable portion 12. FIG. 3A shows a state in which the main body 11 is erected substantially perpendicular to the fixed portion 14, and the camera module 16 of the main body 11 photographs the direction of the arrow. FIG. 3B shows a state in which the main body 11 is rotated 180 degrees around the rotation axis 12c with respect to the fixed portion 14, and the camera module 16 of the main body 11 corresponds to the rotation state (rotation angle). Take a picture of the direction of the arrow. The movable portion 12 is provided with a rotation angle detecting mechanism such as a rotary encoder (not shown), and detects the rotation angle of the rotating portion 12a in a state set by the user.

図4は、PC20の機能構成を示すブロック図である。PC20は、通信部21と、入力部22と、表示部23と、制御部24とを備える。通信部21は、有線又は無線通信により、撮影装置10との間で制御信号や撮影画像の送受信を行う。入力部22はキーボードやマウスなどの情報入力装置であり、本実施例ではラップトップPCの本体に設けられたキーボード及び図示しないマウスである。表示部23は液晶ディスプレイなどの情報出力装置であり、本実施例ではラップトップPCの本体に設けられた液晶ディスプレイである。 FIG. 4 is a block diagram showing a functional configuration of the PC 20. The PC 20 includes a communication unit 21, an input unit 22, a display unit 23, and a control unit 24. The communication unit 21 transmits and receives control signals and captured images to and from the photographing device 10 by wire or wireless communication. The input unit 22 is an information input device such as a keyboard and a mouse, and in this embodiment, it is a keyboard provided in the main body of the laptop PC and a mouse (not shown). The display unit 23 is an information output device such as a liquid crystal display, and in this embodiment, it is a liquid crystal display provided on the main body of the laptop PC.

制御部24は、PC20の構成全体を統括的に制御するものであり、具体的にはPC20のCPUなどにより構成される。制御部24は、自動設定ソフトウェアと、カメラと連携して動作するカメラアプリケーション(以下、単に「アプリケーション」とも呼ぶ。)A1〜A4とを実行する。 The control unit 24 controls the entire configuration of the PC 20 in an integrated manner, and specifically, is composed of a CPU of the PC 20 and the like. The control unit 24 executes the automatic setting software and camera applications (hereinafter, also simply referred to as “applications”) A1 to A4 that operate in cooperation with the camera.

自動設定ソフトウェアは、撮影装置10による撮影画像、撮影装置10の可動部12の状態などに基づいて、ユーザが使用したいインタラクション方法に対応するアプリケーションを推定し、そのアプリケーションを自動で起動したり、そのアプリケーションに必要な設定を自動で行ったりするものである。 The automatic setting software estimates an application corresponding to the interaction method that the user wants to use based on the captured image by the photographing device 10, the state of the movable part 12 of the photographing device 10, and automatically starts the application or the application. It automatically sets the settings required for the application.

カメラアプリケーションA1〜A4は、インタラクションシステムが提供するインタラクション方法を実現するソフトウェアであり、本実施例ではそれぞれ以下のようになっている。
(A1):画面に対するジェスチャ操作アプリケーション
(A2):キーボード付近でのジェスチャ操作アプリケーション
(A3):視線入力アプリケーション
(A4):Webカメラアプリケーション
The camera applications A1 to A4 are software that realizes the interaction method provided by the interaction system, and are as follows in this embodiment, respectively.
(A1): Gesture operation application for the screen (A2): Gesture operation application near the keyboard (A3): Line-of-sight input application (A4): Web camera application

具体的に、アプリケーションA1は、ユーザが画面に対して指差しなどのジェスチャを行うことにより、表示部23の画面に表示されたメニューやアイコンなどの操作を行うアプリケーションである。なお、この場合のユーザによるジェスチャは、指を画面に接触させる必要はなく、空中で行えばよい。このアプリケーションにより、タッチパネルのような操作が可能となる。また、指などが画面に触れなくても、撮影画像から指の位置や軌跡を取得することができるので、タッチパネルでは不可能なインタラクションも実現することができる。 Specifically, the application A1 is an application in which the user performs an operation such as a menu or an icon displayed on the screen of the display unit 23 by performing a gesture such as pointing at the screen. The gesture by the user in this case does not need to touch the screen with the finger, and may be performed in the air. This application enables a touch panel-like operation. In addition, since the position and locus of the finger can be acquired from the captured image without the finger touching the screen, it is possible to realize an interaction that is impossible with the touch panel.

アプリケーションA2は、ユーザがキーボード付近で例えば特定の手形状を作ったり、指をキーボードから浮かせて振るなどのジェスチャを行うことにより操作を行うアプリケーションである。このアプリケーションでは、キーボードから手を離す必要が無いので、キー入力をしながらスムーズな操作を行うことができる。 The application A2 is an application in which the user performs an operation by making a gesture such as creating a specific hand shape near the keyboard or lifting a finger from the keyboard and shaking it. With this application, you don't have to take your hands off the keyboard, so you can perform smooth operations while entering keys.

アプリケーションA3は、ユーザの視線によりポインタを操作するアプリケーションである。具体的には、ユーザの顔の撮影画像からユーザの目の部分を抽出して視線の方向を検出し、検出された視線の方向に対応する操作入力を有効とする。 The application A3 is an application that operates the pointer according to the line of sight of the user. Specifically, the user's eye portion is extracted from the captured image of the user's face to detect the direction of the line of sight, and the operation input corresponding to the detected direction of the line of sight is enabled.

アプリケーションA4は、遠隔地と動画付きで対話を行う、いわゆるテレビ電話のようなアプリケーションである。対話を行わない時は、撮影装置10による撮影画像が表示部23に表示するのみとなる。 Application A4 is a so-called videophone-like application that interacts with a remote location with a moving image. When no dialogue is performed, the image captured by the photographing device 10 is only displayed on the display unit 23.

なお、各アプリケーションは、自身に対する設定を、自動設定ソフトウェアから受け取ることができる。 In addition, each application can receive the setting for itself from the automatic setting software.

[自動設定処理]
次に、自動設定ソフトウェアによる自動設定処理について説明する。図5は、自動設定処理のフローチャートである。自動設定処理は、PC20のCPUなどの制御部24が自動設定ソフトウェアを実行することにより、繰り返し実行される。
[Automatic setting process]
Next, the automatic setting process by the automatic setting software will be described. FIG. 5 is a flowchart of the automatic setting process. The automatic setting process is repeatedly executed by the control unit 24 such as the CPU of the PC 20 executing the automatic setting software.

まず、制御部24は、撮影装置10による撮影画像を取得する(ステップS11)。具体的には、制御部24が通信部21を通じて、撮影装置10から撮影画像を受信する。 First, the control unit 24 acquires an image captured by the photographing device 10 (step S11). Specifically, the control unit 24 receives the captured image from the photographing device 10 through the communication unit 21.

次に、制御部24は、撮影装置10の可動部12の回転角度を取得する(ステップS12)。即ち、撮影装置10の可動部12に設けられた回転角検出機構により検出された回転角度が撮影装置10から送信され、制御部24は通信部21を介してその回転角度を取得する。 Next, the control unit 24 acquires the rotation angle of the movable unit 12 of the photographing device 10 (step S12). That is, the rotation angle detected by the rotation angle detection mechanism provided in the movable portion 12 of the photographing device 10 is transmitted from the photographing device 10, and the control unit 24 acquires the rotation angle via the communication unit 21.

次に、制御部24は撮影装置10の移動検知を行う(ステップS13)。具体的には、制御部24は、撮影装置10全体の移動や、可動部12の回転により、カメラモジュール16の撮影範囲が変化したことを検知する。即ち、制御部24は、撮影装置10から取得した撮影画像を分析し、撮影画像が大きく変化した場合に、撮影装置10が移動されたと判定する。より詳しくは、制御部24は、撮影画像や可動部の回転角度の時間的な変動量に基づいて、移動の有無を判定する。なお、移動が連続的に検知されている間は、制御部24は未だ撮影装置10の移動中であると判定し、撮影画像や可動部12の回転角度の変化が終了した時点で、移動が完了したものと判定するのが好ましい。 Next, the control unit 24 detects the movement of the photographing device 10 (step S13). Specifically, the control unit 24 detects that the shooting range of the camera module 16 has changed due to the movement of the entire shooting device 10 or the rotation of the movable unit 12. That is, the control unit 24 analyzes the photographed image acquired from the photographing device 10, and determines that the photographing device 10 has been moved when the photographed image changes significantly. More specifically, the control unit 24 determines the presence or absence of movement based on the captured image and the amount of time variation of the rotation angle of the movable unit. While the movement is continuously detected, the control unit 24 determines that the photographing device 10 is still moving, and when the photographed image and the change in the rotation angle of the movable unit 12 are completed, the movement is performed. It is preferable to determine that it has been completed.

撮影装置10の移動が検知されない場合(ステップS13:No)、処理は終了する。一方、撮影装置10の移動が検知された場合(ステップS13:Yes)、制御部24は、アプリケーション推定処理を行う(ステップS14)。なお、自動設定処理の開始直後、即ち、自動設定処理の最初の実行時には、ステップS13の移動検知を行わず、ステップS14のアプリケーション推定処理に進むものとする。 If the movement of the photographing device 10 is not detected (step S13: No), the process ends. On the other hand, when the movement of the photographing device 10 is detected (step S13: Yes), the control unit 24 performs the application estimation process (step S14). Immediately after the start of the automatic setting process, that is, at the time of the first execution of the automatic setting process, the movement detection in step S13 is not performed, and the process proceeds to the application estimation process in step S14.

アプリケーション推定処理は、ユーザが意図するインタラクション方法を推定する処理である。前提として、各インタラクション方法に対応するアプリケーションと撮影装置10の設置状態(置き方)とが予め関連付けられているものとする。ここでは、前述の4つのアプリケーションA1〜A4がPC20にインストールされているものとする。以下に、各アプリケーションと、撮影装置10の設置状態の関係を説明する。 The application estimation process is a process of estimating the interaction method intended by the user. As a premise, it is assumed that the application corresponding to each interaction method and the installation state (placement method) of the photographing device 10 are associated in advance. Here, it is assumed that the above-mentioned four applications A1 to A4 are installed on the PC20. The relationship between each application and the installation state of the photographing device 10 will be described below.

(A1)画面に対するジェスチャ操作アプリケーション
このアプリケーションを実行する際には、図6(A)に例示するように、撮影装置10はPC20の表示部23の画面を撮影する位置に配置される。より具体的には、撮影装置10は、デスク上などのPC20の画面から数十cm離れた位置に、画面を見上げるように配置されることが想定される。この場合、撮影装置10の撮影画像は、PC20の画面を含むことになる。
(A1) Gesture Operation Application for Screen When executing this application, the photographing device 10 is arranged at a position where the screen of the display unit 23 of the PC 20 is photographed, as illustrated in FIG. 6 (A). More specifically, it is assumed that the photographing device 10 is arranged at a position several tens of centimeters away from the screen of the PC 20 such as on a desk so as to look up at the screen. In this case, the captured image of the photographing device 10 includes the screen of the PC 20.

(A2)キーボード付近でのジェスチャ操作アプリケーション
このアプリケーションでは、ユーザはキーボード上でジェスチャを行い、撮影装置10はその際のユーザの手や指を撮影する。よって、図6(B)に例示するように、撮影装置10は、PC20の画面の上部に、キーボードの領域を見下ろすように配置されると想定される。この場合、撮影装置10の撮影画像は、キーボードを含むことになる。
(A2) Gesture operation application near the keyboard In this application, the user makes a gesture on the keyboard, and the photographing device 10 photographs the user's hand or finger at that time. Therefore, as illustrated in FIG. 6B, it is assumed that the photographing device 10 is arranged at the upper part of the screen of the PC 20 so as to look down on the keyboard area. In this case, the captured image of the photographing device 10 includes the keyboard.

(A3)視線入力アプリケーション
このアプリケーションは、ユーザの顔を撮影し、目(瞳孔)の動きに基づいて視線方向を検出する。よって、図7(A)に例示するように、撮影装置10は人物の正面から顔を見上げるように設置されると想定される。なお、視線検出を行う場合には、人物の瞳孔が瞼によって遮られないように撮影するために、下から見上げるように撮影装置10を設置するのが一般的である。よってこの場合、撮影装置10はその撮影方向が、撮影装置10自身が固定されている位置に対して上方に向くように固定されることになり、撮影装置10の可動部12は下から上を見上げるような回転角度となる。
(A3) Line-of-sight input application This application photographs the user's face and detects the line-of-sight direction based on the movement of the eyes (pupils). Therefore, as illustrated in FIG. 7A, it is assumed that the photographing device 10 is installed so as to look up at the face from the front of the person. When detecting the line of sight, it is common to install the photographing device 10 so as to look up from below in order to take a picture so that the pupil of the person is not blocked by the eyelids. Therefore, in this case, the photographing device 10 is fixed so that the photographing direction faces upward with respect to the position where the photographing device 10 itself is fixed, and the movable portion 12 of the photographing device 10 moves from the bottom to the top. The rotation angle is as if looking up.

(A4)Webカメラアプリケーション
このアプリケーションの使用時には、人物の顔全体を撮影することになる。よって、図7(B)に例示するように、撮影装置10はPC20の画面の上部などに、人物と正対するような角度で配置されると想定される。この場合、撮影装置10の可動部12は、正面を撮影するための回転角度、例えば図3(A)の状態における回転角度となる。
(A4) Web camera application When using this application, the entire face of a person is photographed. Therefore, as illustrated in FIG. 7B, it is assumed that the photographing device 10 is arranged at an angle facing a person, such as on the upper part of the screen of the PC 20. In this case, the movable portion 12 of the photographing device 10 is a rotation angle for photographing the front surface, for example, a rotation angle in the state of FIG. 3 (A).

以上のように、アプリケーション毎に撮影装置10の設置状態が異なってくる。よって、アプリケーション推定処理により、制御部24は、撮影装置10による撮影画像、及び、撮影装置10の可動部12の回転角度に基づいて、ユーザが想定しているインタラクション方法、即ち、ユーザが実行しようとしているアプリケーションを判別することができる。 As described above, the installation state of the photographing device 10 differs depending on the application. Therefore, by the application estimation process, the control unit 24 will execute the interaction method assumed by the user, that is, the user, based on the captured image by the photographing device 10 and the rotation angle of the movable unit 12 of the photographing device 10. It is possible to determine the application to be used.

図8は、アプリケーション推定処理のフローチャートである。まず、制御部24は、撮影装置10から取得した撮影画像にPC20の画面が含まれているか否かを判定する(ステップS21)。ここでは、例えばPC20の画面の四隅に赤外線LEDが設定されており、撮影装置10の光学フィルタをオンにして撮影を行うことにより、PC20の画面が含まれているか否かが容易に判定できるものとする。 FIG. 8 is a flowchart of the application estimation process. First, the control unit 24 determines whether or not the captured image acquired from the photographing device 10 includes the screen of the PC 20 (step S21). Here, for example, infrared LEDs are set at the four corners of the screen of the PC 20, and it can be easily determined whether or not the screen of the PC 20 is included by taking a picture with the optical filter of the photographing device 10 turned on. And.

撮影画像にPC20の画面が含まれている場合(ステップS21:Yes)、制御部24はユーザがアプリケーションA1を使用するつもりであると推定してアプリケーションA1を選択する(ステップS22)。 When the captured image includes the screen of the PC 20 (step S21: Yes), the control unit 24 estimates that the user intends to use the application A1 and selects the application A1 (step S22).

一方、撮影画像にPC20の画面が含まれていない場合(ステップS21:No)、制御部24は、撮影画像にPC20のキーボードが含まれているか否かを判定する(ステップS23)。この場合も、PC20の画面の検出と同様に、例えば赤外線LEDをキーボードの四隅を含む周囲6〜8か所に設置し、光学フィルタをオンにして撮影を行うことにより、撮影画像からキーボードの有無を検出できるものとする。なお、この例では、赤外線LEDの数によりPC20の画面とキーボードを判別できる。 On the other hand, when the captured image does not include the screen of the PC 20 (step S21: No), the control unit 24 determines whether or not the captured image includes the keyboard of the PC 20 (step S23). In this case as well, as in the case of detecting the screen of the PC20, for example, infrared LEDs are installed at 6 to 8 places around the keyboard including the four corners, and the optical filter is turned on to take a picture. Can be detected. In this example, the screen of the PC 20 and the keyboard can be distinguished from each other by the number of infrared LEDs.

撮影画像にキーボードが含まれている場合(ステップS23:Yes)、制御部24は、ユーザがアプリケーションA2を使用するつもりであると推定してアプリケーションA2を選択する(ステップS24)。 When the captured image includes a keyboard (step S23: Yes), the control unit 24 presumes that the user intends to use the application A2 and selects the application A2 (step S24).

一方、撮影画像にキーボードが含まれていない場合(ステップS23:No)、制御部24は、撮影装置10から取得した可動部12の回転角度に基づいて、撮影装置10が下から見上げる角度になっているか否かを判定する(ステップS25)。例えば、図7(A)のように、撮影装置10がデスク上に置かれている場合、可動部12の回転角度は図3(B)に示すように180度に近い角度となる。よって、撮影装置10から取得した回転角度が180度に近い場合、制御部24は見上げる角度であると判定することができる。 On the other hand, when the captured image does not include the keyboard (step S23: No), the control unit 24 has an angle at which the photographing device 10 looks up from below based on the rotation angle of the movable unit 12 acquired from the photographing device 10. It is determined whether or not it is (step S25). For example, when the photographing device 10 is placed on the desk as shown in FIG. 7A, the rotation angle of the movable portion 12 is close to 180 degrees as shown in FIG. 3B. Therefore, when the rotation angle acquired from the photographing device 10 is close to 180 degrees, the control unit 24 can determine that the angle is looking up.

撮影装置10が見上げる角度になっている場合(ステップS25:Yes)、制御部24は、ユーザがアプリケーションA3を使用するつもりであると推定してアプリケーションA3を選択する(ステップS26)。 When the photographing device 10 is at an angle to look up (step S25: Yes), the control unit 24 presumes that the user intends to use the application A3 and selects the application A3 (step S26).

一方、撮影装置10が見上げる角度になっていない場合(ステップS25:No)、制御部24は、ユーザが残りのアプリケーションA4を使用するつもりであると推定してアプリケーションA4を選択する(ステップS27)。 On the other hand, when the photographing device 10 is not at an angle to look up (step S25: No), the control unit 24 estimates that the user intends to use the remaining application A4 and selects the application A4 (step S27). ..

そして、制御部24は、ステップS22、S24、S26、S27のいずれかで選択されたアプリケーションを起動する(ステップS28)。こうして、アプリケーション推定処理は終了し、処理は図5のステップS15へ進む。
ステップS15では、制御部24は、アプリケーション推定処理で選択されたアプリケーションに応じて、アプリケーション別の設定を行う。
Then, the control unit 24 starts the application selected in any of steps S22, S24, S26, and S27 (step S28). In this way, the application estimation process is completed, and the process proceeds to step S15 of FIG.
In step S15, the control unit 24 makes application-specific settings according to the application selected in the application estimation process.

(1)アプリケーション推定処理でアプリケーションA1が選択された場合、PC20の制御部24は、撮影装置10に制御信号を送り、カメラモジュール16の赤外線発光をオンにするとともに、光学フィルタをオンにする。これにより、カメラモジュール16は、アプリケーションA1の実行中に、撮影画像として、自身から発光した赤外線の反射を撮影することができるため、背景の影響を比較的受けずに撮影画像からユーザの指などを検出することができるようになる。 (1) When application A1 is selected in the application estimation process, the control unit 24 of the PC 20 sends a control signal to the photographing device 10 to turn on the infrared emission of the camera module 16 and turn on the optical filter. As a result, the camera module 16 can capture the reflection of infrared rays emitted from itself as a captured image while the application A1 is being executed, so that the captured image is relatively unaffected by the background and the user's finger or the like. Will be able to be detected.

さらに、制御部24は、撮影画像から、赤外線LEDの検出を利用して画面の位置情報を取得する。そして、撮影画像の座標から、画面を基準とした座標への座標変換パラメータを算出し、アプリケーションA1に設定する。これにより、制御部24は、アプリケーションA1の実行中に、撮影画像から検出したユーザの指などの位置を、画面に対する位置に変換することが可能となる。 Further, the control unit 24 acquires the position information of the screen from the captured image by utilizing the detection of the infrared LED. Then, the coordinate conversion parameter from the coordinates of the captured image to the coordinates with respect to the screen is calculated and set in the application A1. As a result, the control unit 24 can convert the position of the user's finger or the like detected from the captured image into the position with respect to the screen during the execution of the application A1.

(2)アプリケーション推定処理でアプリケーションA2が選択された場合、PC20の制御部24は、撮影装置10に制御信号を送り、カメラモジュール16の赤外線発光をオフにするとともに、光学フィルタをオフにする。アプリケーションA2の場合、ジェスチャが行われる領域の背景はキーボードであるとわかっているため、比較的簡単な処理で撮影画像からユーザの指などを検出することができる。具体的には、撮影画像中の肌色領域をユーザの指などとして検出したり、キーボードの画像を既知の固定背景として撮影画像から除去したりすることができる。このため、赤外線発光や光学フィルタの機能は不要となる。 (2) When application A2 is selected in the application estimation process, the control unit 24 of the PC 20 sends a control signal to the photographing device 10 to turn off the infrared light emission of the camera module 16 and turn off the optical filter. In the case of application A2, since it is known that the background of the area where the gesture is performed is the keyboard, it is possible to detect the user's finger or the like from the captured image with a relatively simple process. Specifically, the skin color region in the captured image can be detected as a user's finger or the like, or the keyboard image can be removed from the captured image as a known fixed background. Therefore, the functions of infrared light emission and optical filter are not required.

さらに、制御部24は、赤外線LEDの位置に基づいてキーボードの四隅の位置を算出し、アプリケーションA2に設定しておく。これにより、ユーザによるジェスチャ操作の検出領域をキーボード内に限定することができる。さらに、キーボードの位置(撮影装置10との距離)を予め把握しておくことにより、アプリケーションA2の実行中に指を検出したときに、指の位置(撮影装置10との距離)を算出し、指がキーボードから浮いた状態であるか否かを判定することができる。これは、指によるジェスチャの開始を判定するために有効である。 Further, the control unit 24 calculates the positions of the four corners of the keyboard based on the positions of the infrared LEDs and sets them in the application A2. As a result, the detection area of the gesture operation by the user can be limited to the keyboard. Further, by grasping the position of the keyboard (distance to the photographing device 10) in advance, when a finger is detected during the execution of the application A2, the position of the finger (distance to the photographing device 10) is calculated. It is possible to determine whether or not the finger is floating from the keyboard. This is useful for determining the start of a finger gesture.

(3)アプリケーション推定処理でアプリケーションA3が選択された場合、制御部24は、撮影装置10に制御信号を送り、カメラモジュール16の赤外線発光をオンにするとともに、光学フィルタをオンにする。また、カメラモジュール16を解像度優先の設定とする。これにより、アプリケーションA3の実行中に、照射した赤外線を反射している瞳孔を撮影することができる。また、高解像度の画像を使うことで、視線方向の検出の精度を高めることができる。 (3) When application A3 is selected in the application estimation process, the control unit 24 sends a control signal to the photographing device 10 to turn on the infrared emission of the camera module 16 and turn on the optical filter. Further, the camera module 16 is set to give priority to resolution. As a result, the pupil reflecting the irradiated infrared rays can be photographed during the execution of the application A3. Further, by using a high-resolution image, the accuracy of detection in the line-of-sight direction can be improved.

(4)アプリケーション推定処理でアプリケーションA4が選択された場合、制御部24は、撮影装置10に制御信号を送り、カメラモジュール16の赤外線発光をオフにするとともに、光学フィルタをオフにする。これにより、アプリケーションA4の実行中に、撮影装置10で撮影したユーザの顔などの画像を可視光撮影し、テレビ電話の相手に送信することができる。 (4) When application A4 is selected in the application estimation process, the control unit 24 sends a control signal to the photographing device 10 to turn off the infrared light emission of the camera module 16 and turn off the optical filter. As a result, while the application A4 is being executed, an image such as a user's face taken by the photographing device 10 can be photographed with visible light and transmitted to the other party of the videophone.

[変形例]
(変形例1)
上記のアプリケーション推定処理では、アプリケーションA1〜A4のいずれかが選択されると、ステップS28で制御部24が自動的にそのアプリケーションを起動している。その代わりに、制御部24はアプリケーションの起動を行わず、ユーザがそのアプリケーションを起動するのを待つこととしてもよい。この場合、ユーザがそのアプリケーションを起動したときに、制御部24は図5のステップS15に示すアプリケーション別の設定行えばよい。また、アプリケーションの起動前に行うことができる設定であれば、ユーザがそのアプリケーションを起動するのに先立って、予めアプリケーション別の設定を実施しておいてもよい。
[Modification example]
(Modification example 1)
In the above application estimation process, when any of the applications A1 to A4 is selected, the control unit 24 automatically starts the application in step S28. Instead, the control unit 24 may not start the application but wait for the user to start the application. In this case, when the user starts the application, the control unit 24 may perform the setting for each application shown in step S15 of FIG. In addition, if the settings can be made before starting the application, the settings for each application may be made in advance before the user starts the application.

(変形例2)
上記の実施例では、PC20の所定箇所に設けたLEDを撮影画像から検出したり、撮影装置10の可動部12の回転角度を取得することにより、撮影装置10とPC20との位置関係を算出しているが、以下のような他の方法により撮影装置10の設置状態を検知しても良い。
(Modification 2)
In the above embodiment, the positional relationship between the photographing device 10 and the PC 20 is calculated by detecting the LED provided at a predetermined position of the PC 20 from the photographed image or acquiring the rotation angle of the movable portion 12 of the photographing device 10. However, the installation state of the photographing device 10 may be detected by another method as described below.

一つの方法として、撮影画像を解析することにより、撮影装置10の設置状態を検知しても良い。具体的には、撮影画像の特徴により、PCの画面やキーボードを検出する。例えば、4辺の直線検出により画面を検出したり、多数の矩形を検出することによりキーボードを検出してもよい。また、画面表示の制御手段を設け、画面に検出が可能なマーカーを表示し、撮影画像からマーカーの有無やその位置を検出して、撮影装置10の画面に対する位置を算出してもよい。 As one method, the installation state of the photographing device 10 may be detected by analyzing the photographed image. Specifically, the screen and keyboard of the PC are detected according to the characteristics of the captured image. For example, the screen may be detected by detecting straight lines on four sides, or the keyboard may be detected by detecting a large number of rectangles. Alternatively, a screen display control means may be provided, a detectable marker may be displayed on the screen, the presence or absence of the marker and its position may be detected from the captured image, and the position of the photographing device 10 with respect to the screen may be calculated.

他の方法として、撮影装置10の固定部14にセンサを設け、物を挟んでいることや立てていることを検出しても良い。 As another method, a sensor may be provided in the fixed portion 14 of the photographing device 10 to detect that an object is sandwiched or standing.

また、PCとの関係に限らず、人物との位置関係を利用して、撮影装置10の設置状態を検知してもよい。例えば、撮影画像から顔検出を行い、所定時間(例えば10秒)以上にわたって人物の顔の位置・サイズの変動が無い又は小さい場合に、撮影装置10の人物に対する位置を把握できたものとする。また、顔の位置・サイズの他に、向きを検出しても良い。これにより、例えば顔が正面向きで所定サイズ以上の場合にはWebアプリケーションを選択し、顔を見上げる角度の場合には視線入力アプリケーションを選択しても良い。 Further, the installation state of the photographing device 10 may be detected by using not only the relationship with the PC but also the positional relationship with the person. For example, it is assumed that the face is detected from the captured image and the position of the photographing device 10 with respect to the person can be grasped when the position / size of the person's face does not change or is small for a predetermined time (for example, 10 seconds) or more. In addition to the position and size of the face, the orientation may be detected. As a result, for example, the Web application may be selected when the face is facing forward and is larger than a predetermined size, and the line-of-sight input application may be selected when the face is looked up at an angle.

また、撮影装置10の設置状態の検知状況をユーザに知らせてもよい。少なくとも、撮影装置10の移動を検知したときに、撮影画像からの画面やキーボードの検知状況をPC20の表示部23に表示してもよい。例えば、撮影画像にLEDやマーカーの検出状態をスーパーインポーズしたものを表示部23に表示しても良い。これにより、ユーザは、移動させた撮影装置10が意図した被写体を含んでいるか否かを確認したり、撮影装置10の位置を微調整したりすることができる。 Further, the user may be notified of the detection status of the installation state of the photographing device 10. At least, when the movement of the photographing device 10 is detected, the detection status of the screen or keyboard from the photographed image may be displayed on the display unit 23 of the PC 20. For example, a captured image superimposed on the detection state of the LED or marker may be displayed on the display unit 23. As a result, the user can confirm whether or not the moved photographing device 10 includes the intended subject, and can finely adjust the position of the photographing device 10.

(変形例3)
上記の実施例では、撮影装置10の設定として、解像度、赤外線透過・可視光カットフィルタのオン/オフ、赤外線発光のオン/オフを行い、アプリケーションの設定としては撮影装置10に対する画面やキーボードの位置算出を行っているが、他にも機能を備え、自動設定ソフトウェアから設定を行うようにしてもよい。
(Modification example 3)
In the above embodiment, the resolution, the infrared transmission / visible light cut filter are turned on / off, and the infrared light emission is turned on / off as the setting of the photographing device 10, and the position of the screen or keyboard with respect to the photographing device 10 is set as the application setting. Although the calculation is performed, it may have other functions and the setting may be performed from the automatic setting software.

具体的には、撮影装置10がパン・チルト・ズームなどの機構を備える場合、アプリケーションに応じてこれらの機構を制御する。例えば視線入力アプリケーションでは、人物の目の周辺の高解像度画像を撮影するために顔付近にズームインする。一方、画面に対するジェスチャ操作アプリケーションを実行する場合には、ジェスチャが行われる領域全体を撮影するためにズームアウトする。 Specifically, when the photographing device 10 includes mechanisms such as pan / tilt / zoom, these mechanisms are controlled according to the application. For example, in a line-of-sight input application, a person zooms in near the face to capture a high-resolution image around the eyes. On the other hand, when executing the gesture operation application for the screen, zoom out to capture the entire area where the gesture is performed.

また、赤外線発光の範囲や方向を制御可能としても良い。例えば、視線入力アプリケーションを実行する場合には顔付近を中心に赤外線を照射し、画面に対するジェスチャ操作アプリケーションを実行する場合には広く赤外線を照射する。 Further, the range and direction of infrared light emission may be controllable. For example, when the line-of-sight input application is executed, infrared rays are irradiated mainly in the vicinity of the face, and when the gesture operation application for the screen is executed, infrared rays are widely irradiated.

また、ステレオ撮影が不要なアプリケーションを使用するときには、一方のカメラモジュール16のみで撮影するように設定しても良い。 Further, when using an application that does not require stereo shooting, it may be set to shoot with only one camera module 16.

さらに、状況に応じて、露出制御方法を切り替えてもよい。例えば、赤外線透過・可視光カットフィルタをオンにし、赤外線照射して撮影を行う場合には、通常の可視光撮影の露出制御ではなく、赤外線撮影による被写体検出に適した露出制御としてもよい。 Further, the exposure control method may be switched depending on the situation. For example, when the infrared transmission / visible light cut filter is turned on and infrared irradiation is performed for shooting, the exposure control may be suitable for subject detection by infrared shooting instead of the usual exposure control for visible light shooting.

10 撮影装置
11 本体部
12 可動部
14 固定部
16 カメラモジュール
20 PC
24 制御部
10 Imaging device 11 Main body 12 Moving part 14 Fixed part 16 Camera module 20 PC
24 Control unit

Claims (1)

撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得部と、
前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御部と、
を備えることを特徴とする情報処理装置。
An acquisition unit that acquires at least one of first information that is information on an image captured by the photographing unit and second information that is information on a photographing range photographed by the photographing unit.
Among a plurality of applications that use the information of the image captured by the photographing unit, an application control unit that provides the user with an application corresponding to the information acquired by the acquiring unit.
An information processing device characterized by being equipped with.
JP2020178874A 2020-10-26 2020-10-26 Information processing apparatus Pending JP2021036440A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020178874A JP2021036440A (en) 2020-10-26 2020-10-26 Information processing apparatus
JP2022095555A JP2022121468A (en) 2020-10-26 2022-06-14 Information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020178874A JP2021036440A (en) 2020-10-26 2020-10-26 Information processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018227095A Division JP2019050047A (en) 2018-12-04 2018-12-04 Information processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022095555A Division JP2022121468A (en) 2020-10-26 2022-06-14 Information processing apparatus

Publications (1)

Publication Number Publication Date
JP2021036440A true JP2021036440A (en) 2021-03-04

Family

ID=74716978

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020178874A Pending JP2021036440A (en) 2020-10-26 2020-10-26 Information processing apparatus
JP2022095555A Pending JP2022121468A (en) 2020-10-26 2022-06-14 Information processing apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022095555A Pending JP2022121468A (en) 2020-10-26 2022-06-14 Information processing apparatus

Country Status (1)

Country Link
JP (2) JP2021036440A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341680A (en) * 1999-03-23 2000-12-08 Canon Inc Information controller and its method and camera client device and its camera control method and camera server device and its camera control method and storage medium
JP2007089093A (en) * 2005-09-26 2007-04-05 Canon Inc Cradle device, terminal device, camera control system, and method thereof
JP2009077092A (en) * 2007-09-20 2009-04-09 Hitachi Ltd Multi-camera system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341680A (en) * 1999-03-23 2000-12-08 Canon Inc Information controller and its method and camera client device and its camera control method and camera server device and its camera control method and storage medium
JP2007089093A (en) * 2005-09-26 2007-04-05 Canon Inc Cradle device, terminal device, camera control system, and method thereof
JP2009077092A (en) * 2007-09-20 2009-04-09 Hitachi Ltd Multi-camera system

Also Published As

Publication number Publication date
JP2022121468A (en) 2022-08-19

Similar Documents

Publication Publication Date Title
US11470377B2 (en) Display apparatus and remote operation control apparatus
US7176881B2 (en) Presentation system, material presenting device, and photographing device for presentation
JP5258558B2 (en) Method for control of equipment
JP2011081506A (en) Video display device and method of controlling display thereof
KR20130108643A (en) Systems and methods for a gaze and gesture interface
US9544556B2 (en) Projection control apparatus and projection control method
US11928291B2 (en) Image projection device
JP2020204914A (en) Electronic apparatus and method for controlling the same
EP3201724A1 (en) Gesture based manipulation of three-dimensional images
JP6381361B2 (en) DATA PROCESSING DEVICE, DATA PROCESSING SYSTEM, DATA PROCESSING DEVICE CONTROL METHOD, AND PROGRAM
JP7369834B2 (en) display device
JP2014126997A (en) Operation device, and operation detection method
JP2021036440A (en) Information processing apparatus
JP2018018308A (en) Information processing device and control method and computer program therefor
JP5229928B1 (en) Gaze position specifying device and gaze position specifying program
JP2024086759A (en) Information processing device, information processing method, and information processing program
JP2019050047A (en) Information processing apparatus
KR20100030737A (en) Implementation method and device of image information based mouse for 3d interaction
JP2016045918A (en) Information processing apparatus, information processing method, and information processing program
JP2018173907A (en) Information processing apparatus, method for controlling information processing apparatus, and program
US20240184499A1 (en) Information display apparatus and method
JP2019061539A (en) Input assisting device and portable terminal
TWI780816B (en) Electronic device and operation method
JP5118663B2 (en) Information terminal equipment
JP2005190283A (en) Information input apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220315