JP2016139342A - Information input method through coordination between apparatuses, information processing apparatus, and computer program - Google Patents

Information input method through coordination between apparatuses, information processing apparatus, and computer program Download PDF

Info

Publication number
JP2016139342A
JP2016139342A JP2015014784A JP2015014784A JP2016139342A JP 2016139342 A JP2016139342 A JP 2016139342A JP 2015014784 A JP2015014784 A JP 2015014784A JP 2015014784 A JP2015014784 A JP 2015014784A JP 2016139342 A JP2016139342 A JP 2016139342A
Authority
JP
Japan
Prior art keywords
information
input
information processing
screen
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015014784A
Other languages
Japanese (ja)
Inventor
晋吾 岩崎
Shingo Iwasaki
晋吾 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015014784A priority Critical patent/JP2016139342A/en
Publication of JP2016139342A publication Critical patent/JP2016139342A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce an operation load on a user when the user inputs information to a digital camera.SOLUTION: A digital camera 51 transmits, to a smartphone 52, information, including a captured image on a display screen 53 and an item input through a user's touch operation to be displayed on a display screen 54. The smartphone 52 transmits input information received through the display of the information to the digital camera 51. The digital camera 51 inputs the input information to an item input through a touch operation.SELECTED DRAWING: Figure 4

Description

本発明は、ユーザが保持する複数の情報処理装置の連携により、文字入力などの操作負担を軽減する情報入力方法、情報処理装置およびコンピュータプログラムに関する。   The present invention relates to an information input method, an information processing apparatus, and a computer program for reducing an operation burden such as character input by cooperation of a plurality of information processing apparatuses held by a user.

近年、デジタルカメラやビデオカメラなどのデバイスの中には、撮影画像に対してタイトルやファイル名などの任意の文字を操作画面から入力する機能を搭載したものがある。さらに、ユーザの利便性の向上を目的として、ユーザが使い慣れている携帯端末を利用してデジタルカメラなどのデバイスに対して文字入力する従来技術もある(特許文献1参照)。   In recent years, some devices such as a digital camera and a video camera are equipped with a function of inputting arbitrary characters such as a title and a file name from an operation screen for a photographed image. Furthermore, for the purpose of improving the convenience of the user, there is a conventional technique for inputting characters to a device such as a digital camera using a portable terminal that is familiar to the user (see Patent Document 1).

このような従来技術では、ユーザが機器側で画面上の文字入力領域にフォーカスを合わせ、携帯端末側の動作モードを文字入力モードに切り替えて文字を入力する。文字入力モードに切り替えると、携帯端末側でアプリケーションが起動され、画面に文字入力エリアが表示され、キーボードなどを利用した文字入力が可能となる。   In such a conventional technique, the user focuses on the character input area on the screen on the device side, switches the operation mode on the portable terminal side to the character input mode, and inputs characters. When the mode is switched to the character input mode, an application is started on the mobile terminal side, a character input area is displayed on the screen, and character input using a keyboard or the like becomes possible.

特開2010−198489号公報JP 2010-198489 A

従来技術では、携帯端末側の画面には、デジタルカメラなどのデバイス側の情報が表示されない。そのため、ユーザが携帯端末へ文字などを入力する際に、自分がどのデバイスのどの部分に対して文字を入力しているかなど、デバイス側の画面表示の内容を逐一確認する必要があり、煩雑であった。このような問題は、2つ以上の情報処理装置を連携させて文字などを入力する場合に共通に生じる。   In the prior art, information on the device side such as a digital camera is not displayed on the screen on the mobile terminal side. Therefore, when the user inputs characters to the mobile terminal, it is necessary to check the contents of the screen display on the device side, such as which part of which device he / she is inputting characters, which is complicated. there were. Such a problem occurs in common when two or more information processing apparatuses are linked to input characters.

本発明は、2つ以上の情報処理装置を連携させて情報入力を行うときのユーザの操作負担を軽減する技術を提供することを主たる課題とする。   It is a main object of the present invention to provide a technique for reducing a user's operation burden when inputting information by linking two or more information processing apparatuses.

本発明は、それぞれ情報入力用の表示画面を有する複数の情報処理装置を通信路を介して接続し、いずれか一つの第1情報処理装置の前記表示画面の画面情報を他の第2情報処理装置の前記表示画面に表示させ、該画面情報の表示を通じて前記第2情報処理装置で受け付けた入力情報を前記第1情報処理装置に入力する、装置連携による情報入力方法を提供する。   According to the present invention, a plurality of information processing devices each having a display screen for inputting information are connected via a communication path, and the screen information of the display screen of any one of the first information processing devices is transferred to another second information processing. There is provided an information input method by device cooperation, in which input information displayed on the display screen of an apparatus and input information received by the second information processing apparatus through the display of the screen information is input to the first information processing apparatus.

本発明によれば、第1情報処理装置の表示画面の情報が第2情報処理装置の表示画面に表示されるので、第2情報処理装置から第1情報処理装置への情報入力を行う際のユーザの操作負担を軽減することができる。   According to the present invention, since the information on the display screen of the first information processing device is displayed on the display screen of the second information processing device, when information is input from the second information processing device to the first information processing device. The operation burden on the user can be reduced.

情報処理装置のハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of information processing apparatus. 情報処理装置の機能ブロック図。The functional block diagram of information processing apparatus. (a),(b)は第1実施例による処理手順説明図。(A), (b) is processing-process explanatory drawing by 1st Example. 第1実施例の具体的な処理内容を示す説明図。Explanatory drawing which shows the specific processing content of 1st Example. 第2実施例による処理手順説明図。Processing procedure explanatory drawing by 2nd Example. 第2実施例による具体的な処理内容を示す画面例。The example of a screen which shows the specific processing content by 2nd Example. 情報処理装置による処理手順を示すフローチャート。The flowchart which shows the process sequence by information processing apparatus. 情報処理装置の具体的な処理内容を示す説明図。Explanatory drawing which shows the specific processing content of information processing apparatus. (a),(b)は第3実施例による処理手順説明図。(A), (b) is processing-process explanatory drawing by 3rd Example. 第4実施例による処理手順説明図。Explanatory drawing of the process sequence by 4th Example. (a),(b)は第4実施例による処理手順説明図。(A), (b) is processing-process explanatory drawing by 4th Example.

以下、本発明の実施の形態例について説明する。
図1は、本実施形態に係る情報処理装置のハードウェア構成図である。後述する複数の情報処理装置に共通となるハードウェア構成例を示してある。情報処理装置1は、コントローラ部11、インターフェース部12、タッチパネルディスプレイ13、ハードディスク14を備えている。コントローラ部11は、CPU15、ROM16、RAM17を含むコンピュータである。CPU(Central Processing Unit)15は、コンピュータプログラムを実行することにより、装置全体の動作を制御する。このコンピュータプログラムは、装置全体の動作を制御するための基本プログラムのほか、タッチセンサ用プログラムなど、個別的な機能を実現するためのアプリケーションプログラムも含まれる。これらのプログラムは、ROM(Read Only Memory)16およびハードディスク14に格納されている。そして、一時記憶領域としてのRAM(Random Access Memory)17に適宜読み出される。すなわち、RAM17は、CPU15が各処理の実行の際に使用される作業領域である。RAM17には、ユーザによって入力されたデータなども一時的に記憶される。ハードディスク14には、上記のコンピュータプログラム(一部)のほか、UI(User Interface)操作を実現するためのUIデータも格納されている。UIデータは、例えばユーザが操作する操作ボタンや入力項目などのUI操作項目、表示画面のレイアウト、文字入力エリア、専用文字入力エリア、ソフトウェアキーボードなどである。ソフトウェアキーボードは、タッチパネルディスプレイ13に表示され、タッチ操作などで文字の入力や変換を行うことが可能な公知の情報入力ツールである。
Hereinafter, embodiments of the present invention will be described.
FIG. 1 is a hardware configuration diagram of the information processing apparatus according to the present embodiment. A hardware configuration example common to a plurality of information processing apparatuses to be described later is shown. The information processing apparatus 1 includes a controller unit 11, an interface unit 12, a touch panel display 13, and a hard disk 14. The controller unit 11 is a computer including a CPU 15, a ROM 16, and a RAM 17. A CPU (Central Processing Unit) 15 controls the operation of the entire apparatus by executing a computer program. This computer program includes an application program for realizing individual functions such as a program for a touch sensor, in addition to a basic program for controlling the operation of the entire apparatus. These programs are stored in a ROM (Read Only Memory) 16 and a hard disk 14. Then, it is appropriately read out to a RAM (Random Access Memory) 17 as a temporary storage area. That is, the RAM 17 is a work area used when the CPU 15 executes each process. The RAM 17 also temporarily stores data input by the user. The hard disk 14 stores UI data for realizing a UI (User Interface) operation in addition to the above computer program (part). The UI data includes, for example, UI operation items such as operation buttons and input items operated by the user, a display screen layout, a character input area, a dedicated character input area, a software keyboard, and the like. The software keyboard is a known information input tool displayed on the touch panel display 13 and capable of inputting and converting characters by a touch operation or the like.

タッチパネルディスプレイ13は、表示画面となるGUI(Graphical User Interface)を有する。GUIには、適宜、上記のUI操作項目などが表示される。タッチパネルディスプレイ13は、また、UI操作項目の一つである入力項目への入力操作を受け付ける。すなわち、タッチパネルディスプレイ13はタッチセンサを備えており、このタッチセンサで検出された信号がROM16に格納されたタッチセンサ用プログラムにより処理される。そして、ユーザによるタッチ位置がタッチパネルディスプレイ13上の座標値として算出される。この算出された座標値とタッチパネルディスプレイ13に表示されるUI操作項目の座標値との対応関係から、ユーザが操作したUI操作項目がどのような種別のもので、どのような操作内容であったのかが検出される。また、検出結果に基づいて所要の処理が実行可能になる。   The touch panel display 13 has a GUI (Graphical User Interface) serving as a display screen. The GUI operation items and the like are displayed on the GUI as appropriate. The touch panel display 13 also accepts an input operation to an input item that is one of UI operation items. That is, the touch panel display 13 includes a touch sensor, and a signal detected by the touch sensor is processed by a touch sensor program stored in the ROM 16. Then, a touch position by the user is calculated as a coordinate value on the touch panel display 13. The correspondence between the calculated coordinate value and the coordinate value of the UI operation item displayed on the touch panel display 13 indicates what type of UI operation item the user operated and what type of operation. Is detected. Moreover, a required process can be executed based on the detection result.

例えば、ユーザが表示画面に表示された入力項目を1回タッチしたとする。この場合、その入力項目と、そこに1回タッチされたという操作内容とが検出される。入力項目のうち文字入力エリアがタッチされると、ソフトウェアキーボードなどの仮想キーボードが自動的に起動する。このように、入力項目に特定の機能が割り当てられている場合、操作内容に応じた機能が実行可能になる。情報処理装置1は、インターフェース部12を介して同種の外部装置と通信路を介して接続され、各種データの送受信を行う。   For example, assume that the user touches an input item displayed on the display screen once. In this case, the input item and the operation content that is touched once are detected. When a character input area is touched among input items, a virtual keyboard such as a software keyboard is automatically activated. Thus, when a specific function is assigned to the input item, a function corresponding to the operation content can be executed. The information processing apparatus 1 is connected to the same type of external apparatus via the interface unit 12 via a communication path, and transmits and receives various data.

図2は、複数の情報処理装置のうち通信路で接続可能な2つを連携させて文字入力を行うときの機能構成図である。ここでは、一つの情報処理装置がデジタルカメラに搭載され、他の情報処理装置がスマートフォンに搭載されている場合の例を示す。デジタルカメラに搭載されている情報処理装置を第1情報処理装置2、スマートフォンに搭載されている情報処理装置を第2情報処理装置4とする。デジタルカメラは、それ自体でも文字入力が可能なデバイスであるが、ここでは、文字の入力を情報入力が比較的容易なスマートフォンで行う場合の例を説明する。第1情報処理装置2および第2情報処理装置4は、それぞれ図1に示したハードウェア構成を有するものであり、ネットワーク3を介して相互に接続されている。なお、「文字」とは、狭義の文字のほか、記号、数字、語句などを含む。デジタルカメラおよびスマートフォンに搭載されている他の構成部品については省略してある。   FIG. 2 is a functional configuration diagram when inputting characters by linking two information processing apparatuses that can be connected via a communication path. Here, an example in which one information processing apparatus is mounted on a digital camera and another information processing apparatus is mounted on a smartphone is shown. The information processing device mounted on the digital camera is referred to as the first information processing device 2, and the information processing device mounted on the smartphone is referred to as the second information processing device 4. The digital camera itself is a device that can input characters. Here, an example in which characters are input by a smartphone that can input information relatively easily will be described. The first information processing device 2 and the second information processing device 4 each have the hardware configuration shown in FIG. 1 and are connected to each other via the network 3. Note that “characters” include symbols, numbers, phrases, and the like in addition to narrowly-defined characters. Other components mounted on digital cameras and smartphones are omitted.

デジタルカメラに搭載される第1情報処理装置2は、そのCPUが、本発明の第1コンピュータプログラムを実行することにより、制御部21および通信部31として動作する。制御部21は、デジタルカメラの機能全体を統括的に制御する制御手段として機能する。制御部21は、また、操作検出部25、接続判断部26、画面キャプチャ部27、操作項目解析部28、仮想キーボード表示部29、及びデータ表示部30として機能する。操作項目とは、上述したUI操作項目である。仮想キーボードとはソフトウェアキーボードなどの情報入力ツールである。一方、スマートフォンに搭載される第2情報処理装置4は、そのCPUが第2コンピュータプログラムを実行することにより、制御部41および通信部48として動作する。制御部41は、スマートフォンの機能全体を統括的に制御する制御手段として機能する。制御部41は、また、情報解析部43、データ表示部44、仮想キーボード表示部45、操作検出部46、及び状態判断部47として機能する。   The first information processing apparatus 2 mounted on the digital camera operates as the control unit 21 and the communication unit 31 when the CPU executes the first computer program of the present invention. The control unit 21 functions as a control unit that comprehensively controls the entire function of the digital camera. The control unit 21 also functions as an operation detection unit 25, a connection determination unit 26, a screen capture unit 27, an operation item analysis unit 28, a virtual keyboard display unit 29, and a data display unit 30. The operation item is the UI operation item described above. A virtual keyboard is an information input tool such as a software keyboard. On the other hand, the second information processing apparatus 4 mounted on the smartphone operates as the control unit 41 and the communication unit 48 when the CPU executes the second computer program. The control unit 41 functions as a control unit that comprehensively controls the entire function of the smartphone. The control unit 41 also functions as an information analysis unit 43, a data display unit 44, a virtual keyboard display unit 45, an operation detection unit 46, and a state determination unit 47.

第1情報処理装置2の各部の機能を詳しく説明する。使用するハードウェアについては、適宜、図1に示したものを参照する。制御部21のうち、操作検出部25は、タッチパネルディスプレイ13の操作内容を検出する検出手段として機能する。具体的には、タッチパネルディスプレイ13の表示画面に表示されている複数の入力項目のいずれかに対する操作内容を表す操作信号を受け取り、操作内容を検出する。操作された入力項目が文字入力エリア(文字入力用のUI操作項目)であれば、文字入力の指示であることを検出する。接続判断部26は、通信路で接続されている外部装置、本例では第2情報処理装置4の有無を判断する。画面キャプチャ部27は、タッチパネルディスプレイ13の表示内容をキャプチャして、キャプチャ画像を生成するキャプチャ手段として機能する。「キャプチャ」とは表示画面を取り込んで画像データとして保存することをいう。操作項目解析部28は、操作検出部25で検出された操作項目および操作内容を解析する。例えばタッチ操作された入力項目が文字入力エリアであった場合、当該文字入力エリアの種別、表示画面のサイズ、表示画面における文字入力エリアの表示位置などを特定する。特定は、ハードディスク14に格納されたUIデータを基に行う。仮想キーボード表示部29は、ソフトウェアキーボードなどを表示する。データ表示部30は、UI部品や文字データなどをタッチパネルディスプレイ13に表示する表示手段として機能する。通信部31は画面キャプチャ部27で生成したキャプチャ画像と、操作項目解析部28の解析結果などを、通信路を形成するネットワーク3を介して第2情報処理装置4へ送信する。通信部31は、また、第2情報処理装置4から送信されてくる情報を取得する取得手段としても機能する。   The function of each part of the first information processing apparatus 2 will be described in detail. For the hardware to be used, refer to what is shown in FIG. 1 as appropriate. Of the control unit 21, the operation detection unit 25 functions as a detection unit that detects the operation content of the touch panel display 13. Specifically, an operation signal representing the operation content for any of a plurality of input items displayed on the display screen of the touch panel display 13 is received, and the operation content is detected. If the operated input item is a character input area (UI operation item for character input), it is detected that it is a character input instruction. The connection determination unit 26 determines the presence or absence of an external device connected in the communication path, in this example, the second information processing device 4. The screen capture unit 27 functions as a capture unit that captures the display content of the touch panel display 13 and generates a captured image. “Capture” means capturing a display screen and saving it as image data. The operation item analysis unit 28 analyzes the operation item and operation content detected by the operation detection unit 25. For example, when the input item touched is a character input area, the type of the character input area, the size of the display screen, the display position of the character input area on the display screen, and the like are specified. The identification is performed based on the UI data stored in the hard disk 14. The virtual keyboard display unit 29 displays a software keyboard and the like. The data display unit 30 functions as a display unit that displays UI parts, character data, and the like on the touch panel display 13. The communication unit 31 transmits the captured image generated by the screen capture unit 27, the analysis result of the operation item analysis unit 28, and the like to the second information processing apparatus 4 via the network 3 that forms a communication path. The communication unit 31 also functions as an acquisition unit that acquires information transmitted from the second information processing device 4.

第2情報処理装置4の各部の構成を詳しく説明する。通信部48は、第1情報処理装置2から送信されたキャプチャ画像および解析結果などの情報を取得する取得手段として機能する。また、入力情報を第1情報処置装置2へ送信する。制御部41のうち、情報解析部43は、第1情報処理装置2から受信した情報を解析する。例えば、第1情報処理装置2でタッチ操作された入力項目が文字入力エリアであった場合、当該文字入力エリアの種別、表示画面のサイズ、文字入力エリアの表示位置などを、予め格納されたUIデータを基に特定する。データ表示部44は、情報解析部43の解析結果に基づいて、キャプチャ画像およびこのキャプチャ画像への文字入力エリアなどの重畳表示などを行う。例えば第2情報処理装置4自体が有する文字入力エリアなどのUI操作項目を、キャプチャ画像に重畳表示する。仮想キーボード表示部45は、ソフトウェアキーボードなどを表示する。操作検出部46は、自装置のタッチパネルディスプレイ13への操作内容を検出する。例えば、ソフトウェアキーボードにおいて選択(入力)された文字を検出する。状態判断部47は、第2情報処理装置4側の動作状態を監視する。例えば文字入力が完了したか否かの判断などを行う。   The configuration of each part of the second information processing device 4 will be described in detail. The communication unit 48 functions as an acquisition unit that acquires information such as a captured image and an analysis result transmitted from the first information processing apparatus 2. Further, the input information is transmitted to the first information processing apparatus 2. Of the control unit 41, the information analysis unit 43 analyzes the information received from the first information processing apparatus 2. For example, when the input item touched by the first information processing apparatus 2 is a character input area, the type of the character input area, the size of the display screen, the display position of the character input area, and the like are stored in advance. Identify based on data. Based on the analysis result of the information analysis unit 43, the data display unit 44 performs a superimposed display of a captured image and a character input area on the captured image. For example, UI operation items such as a character input area of the second information processing apparatus 4 itself are superimposed and displayed on the captured image. The virtual keyboard display unit 45 displays a software keyboard and the like. The operation detection unit 46 detects the operation content on the touch panel display 13 of the own device. For example, a character selected (input) on the software keyboard is detected. The state determination unit 47 monitors the operation state on the second information processing device 4 side. For example, it is determined whether or not character input has been completed.

[情報入力方法]
次に、上記のように構成される各情報処理装置2,4が行う、装置連携による情報入力方法の実施の形態例を説明する。この情報入力方法は、まず、第1情報処理装置2の表示画面の画面情報を第2情報処理装置4に伝達して、第2情報処理装置4の表示画面に表示させる。また、該画面情報の表示を通じて第2情報処理装置4で受け付けた入力情報を、第2情報処理装置4から第1情報処理装置2へ伝達する。つまり、第1情報処理装置2に入力する。第1情報処理装置2は、例えば静止画と動画の少なくとも一方を撮像するデジタルカメラに搭載される。第2情報処理装置4は、情報入力がデジタルカメラよりも比較的容易なスマートフォンに搭載される。通信路は、例えばWifiなどの無線通信により形成される。
以下、情報入力の例として、デジタルカメラで撮影した画像に関連する文字を入力する場合の実施例を説明する。デジタルカメラはサーバ機能も搭載されており、通信路を介してスマートフォンに接続されているものとする。
[Information input method]
Next, an embodiment of an information input method based on device cooperation performed by each of the information processing devices 2 and 4 configured as described above will be described. In this information input method, first, the screen information of the display screen of the first information processing device 2 is transmitted to the second information processing device 4 and displayed on the display screen of the second information processing device 4. The input information received by the second information processing device 4 through the display of the screen information is transmitted from the second information processing device 4 to the first information processing device 2. That is, an input is made to the first information processing apparatus 2. The first information processing apparatus 2 is mounted on a digital camera that captures at least one of a still image and a moving image, for example. The second information processing device 4 is mounted on a smartphone whose information input is relatively easier than a digital camera. The communication path is formed by wireless communication such as WiFi.
Hereinafter, as an example of information input, an embodiment in which characters related to an image taken with a digital camera are input will be described. The digital camera has a server function and is connected to a smartphone via a communication path.

[第1実施例]
図3は、情報入力方法の第1実施例の手順説明図であり、(a)は第1情報処理装置2側、(b)は第2情報処理装置4側の手順例である。図3(a)を参照すると、第1情報処理装置2の操作検出部25は、タッチパネルディスプレイ13の表示画面の文字入力エリアに対する操作を検出する(S101)。接続判断部26は、操作検出部25で操作が検出されたときに、第2情報処理装置4が通信路を介して接続されているかどうかを判断する(S102)。第2情報処理装置4が接続されている場合(S102:YES)、画面キャプチャ部27が、タッチパネルディスプレイ13の表示内容をキャプチャし、キャプチャ画像として保存する(S103)。次いで、操作項目解析部28が、S1で検出したタッチ操作で指示された文字入力エリア関連の情報を解析する(S104)。「文字入力エリア関連の情報」は、例えば、文字入力エリアの種別(他の文字入力エリアと区別する情報)、表示画面のサイズ、当該文字入力エリアが表示画面のどの位置に配置されているかを示す座標値などである。解析は、これらの情報を特定する処理である。続いて、通信部31がキャプチャ画像とS104による解析結果を画面情報とし、この画面情報を通信路を介して第2情報処理装置4へ送信(伝達)する(S105)。通信部31は、また、第2情報処理装置4側で入力された入力情報、例えば文字データが該装置4から送信されるのを待ち、送信されたらそれを受信(取得)する(S106)。S102において、第2情報処理装置4が接続されていない場合(S102:NO)、仮想キーボード表示部29が、例えば第1情報処理装置2自身が持つソフトウェアキーボードを表示する。そして、第1情報処理装置2自身による文字データの入力を可能にする(S107)。こうしてデータ表示部30が、S106で受信した文字データ、あるいはS107でソフトウェアキーボードより入力された文字データを、文字入力エリアと関連付けてRAM17に記憶する。そしてこの文字データを、表示画面の文字入力エリアに表示し(S108)、処理を終える。
[First embodiment]
FIG. 3 is an explanatory diagram of the procedure of the first embodiment of the information input method. (A) is a procedure example on the first information processing device 2 side, and (b) is a procedure example on the second information processing device 4 side. Referring to FIG. 3A, the operation detection unit 25 of the first information processing apparatus 2 detects an operation on the character input area of the display screen of the touch panel display 13 (S101). The connection determination unit 26 determines whether or not the second information processing device 4 is connected via a communication path when an operation is detected by the operation detection unit 25 (S102). When the second information processing device 4 is connected (S102: YES), the screen capture unit 27 captures the display content of the touch panel display 13 and stores it as a captured image (S103). Next, the operation item analysis unit 28 analyzes the information related to the character input area designated by the touch operation detected in S1 (S104). “Character input area related information” includes, for example, the type of character input area (information that distinguishes it from other character input areas), the size of the display screen, and the position of the character input area on the display screen. For example, the coordinate value shown. The analysis is a process for identifying such information. Subsequently, the communication unit 31 uses the captured image and the analysis result in S104 as screen information, and transmits (transmits) the screen information to the second information processing apparatus 4 through the communication path (S105). The communication unit 31 also waits for input information input on the second information processing apparatus 4 side, for example, character data, to be transmitted from the apparatus 4, and receives (acquires) when it is transmitted (S106). In S102, when the second information processing apparatus 4 is not connected (S102: NO), the virtual keyboard display unit 29 displays, for example, a software keyboard of the first information processing apparatus 2 itself. Then, input of character data by the first information processing apparatus 2 itself is enabled (S107). Thus, the data display unit 30 stores the character data received in S106 or the character data input from the software keyboard in S107 in the RAM 17 in association with the character input area. Then, this character data is displayed in the character input area of the display screen (S108), and the process is finished.

次に、図3(b)を参照して第2情報処理装置4が行う処理の手順例を説明する。第2情報処理装置4は、通信部48が、第1情報処理装置2側から画面情報を取得する。本例ではキャプチャ画像と文字入力エリア関連の情報を画面情報として受信し、これをRAM17に記憶する(S109)。そして、情報解析部43が、受信した画面情報を解析する(S110)。具体的には、文字入力エリアの種別、表示画面のサイズ、当該文字入力エリアが表示画面のどの位置に配置されているかを示す座標値などを特定する。続いて、データ表示部44が、S110で解析した情報を基に、キャプチャ画像を表示画面に表示するとともに、文字入力エリアの位置に、第2情報処理装置4側で用意された文字入力エリアを重ねて表示する(S111)。例えば、背景画像となるキャプチャ画像のうち文字入力エリアの部分に、文字入力用のHTML部品である<input type=”text”>要素を指定して重ねる。これにより、第2情報処理装置4側での当該文字入力エリアへの文字入力が可能となる。その後、仮想キーボード表示部45が、第2情報処理装置4自身のソフトウェアキーボードなどを表示する(S112)。そして、操作検出部46が、ユーザによるソフトウェアキーボードに対するタッチ操作を検出し、文字入力を受け付ける(S113)。状態判断部47は、第2情報処理装置4側のユーザによる文字入力が完了したか否かの判断を行う(S114)。文字入力が完了していない場合(S114:NO)、S113の処理に戻る。一方、文字入力が完了している場合(S114:YES)、通信部48は、第2情報処理装置4側で入力された文字データを第1情報処理装置2に送信し(S115)、処理を終える。   Next, a procedure example of processing performed by the second information processing apparatus 4 will be described with reference to FIG. In the second information processing device 4, the communication unit 48 acquires screen information from the first information processing device 2 side. In this example, the captured image and the information related to the character input area are received as screen information and stored in the RAM 17 (S109). Then, the information analysis unit 43 analyzes the received screen information (S110). Specifically, the type of the character input area, the size of the display screen, the coordinate value indicating where the character input area is arranged on the display screen, and the like are specified. Subsequently, the data display unit 44 displays the captured image on the display screen based on the information analyzed in S110, and the character input area prepared on the second information processing device 4 side is displayed at the position of the character input area. The images are displayed in an overlapping manner (S111). For example, the <input type = “text”> element, which is an HTML component for character input, is specified and overlapped on the character input area of the captured image serving as the background image. Thereby, the character input to the said character input area in the 2nd information processing apparatus 4 side is attained. Thereafter, the virtual keyboard display unit 45 displays the software keyboard of the second information processing apparatus 4 itself (S112). And the operation detection part 46 detects the touch operation with respect to the software keyboard by a user, and receives a character input (S113). The state determination unit 47 determines whether or not the character input by the user on the second information processing device 4 side is completed (S114). When the character input is not completed (S114: NO), the process returns to S113. On the other hand, when the character input is completed (S114: YES), the communication unit 48 transmits the character data input on the second information processing device 4 side to the first information processing device 2 (S115), and performs the process. Finish.

このように、第1実施例では、第1情報処理装置2の表示画面の画面情報を第2情報処理装置4の表示画面に表示させ、この表示を通じて第2情報処理装置4側で受け付けた入力情報を第1情報処理装置2側の表示画面に入力する。そのため、第2情報処理装置4側では、第1情報処理装置2側のどの部分に対する情報入力なのかを直感的に把握できるので、装置連携による情報入力の際の操作負担を軽減することができる。   Thus, in the first embodiment, the screen information of the display screen of the first information processing device 2 is displayed on the display screen of the second information processing device 4, and the input received on the second information processing device 4 side through this display. Information is input to the display screen on the first information processing apparatus 2 side. For this reason, the second information processing apparatus 4 side can intuitively understand which part of the first information processing apparatus 2 side is used for information input, thereby reducing an operation burden when information is input through device cooperation. .

図4に、第1実施例による情報入力の様子を具体的に説明する。デジタルカメラ51の背面には表示画面53が設けられている。この表示画面53には、撮影画像(Photo01)のほか、この撮影画像に関するタイトル、コメント、タグなどの文字入力エリアが表示されている。つまり、デジタルカメラ51では、撮像された画像に対するタイトル、コメント又はタグの入力を受け付けることができる。ここで文字入力エリアの一つであるコメントの入力項目53aに対してタッチ操作が行われたとする。すると、デジタルカメラ51は、表示画面53のキャプチャ画像およびコメントの入力項目53aへの文字入力が指示されたことを表す指示情報を接続先のスマートフォン52へ送信する(#1)。なお、画像のタイトル、コメント、タグはデジタルカメラ51で入力可能な文字情報の一例であって、これに限定されない。画像に属性情報として関連付けられる文字情報であれば、例えば画像データのファイル名、その他の識別情報などを入力可能であってもよい。   FIG. 4 specifically explains the state of information input according to the first embodiment. A display screen 53 is provided on the back of the digital camera 51. In addition to the photographed image (Photo01), the display screen 53 displays a character input area such as a title, a comment, and a tag regarding the photographed image. That is, the digital camera 51 can accept input of a title, a comment, or a tag for the captured image. Here, it is assumed that a touch operation is performed on the comment input item 53a which is one of the character input areas. Then, the digital camera 51 transmits instruction information indicating that a character input to the capture image and comment input item 53a on the display screen 53 is instructed to the connection destination smartphone 52 (# 1). The image title, comment, and tag are examples of character information that can be input by the digital camera 51, and are not limited thereto. As long as it is character information associated with an image as attribute information, for example, a file name of image data, other identification information, or the like may be input.

スマートフォン52は、Webブラウザおよびアプリケーションプログラムなどを起動し、デジタルカメラ51から受信した情報を表示画面54に表示する。そして、受信した情報をもとに、キャプチャ画像の中で文字入力が指示されている位置を解析し、自身の文字入力用のUI部品(文字入力エリア)54aを重ねて表示する。また、ソフトウェアキーボード55も表示し、ユーザからの文字入力を受け付ける。デジタルカメラ51側で、コメントではなく、タイトル、タグの文字入力エリアへの入力を受け付けた場合、スマートフォン52でもこれらの文字データも入力を受け付ける。入力が完了したら、入力情報を表示画面54と関連付けて記憶する。また、この入力情報をデジタルカメラ51に向けて送信する(#2)。入力情報(文字データなど)を受信したデジタルカメラ51は、この入力情報を表示画面53と関連付けて記憶する。また、コメントの入力項目53aに文字データを表示する。これにより、デジタルカメラ51に対して情報(文字データ)を入力する際の操作負荷を軽減することができる。   The smartphone 52 activates a web browser, an application program, and the like, and displays information received from the digital camera 51 on the display screen 54. Then, based on the received information, the position where the character input is instructed in the captured image is analyzed, and its own character input UI part (character input area) 54a is superimposed and displayed. In addition, the software keyboard 55 is displayed to accept character input from the user. When the digital camera 51 receives an input to a character input area of a title and a tag instead of a comment, the smartphone 52 also receives the input of these character data. When the input is completed, the input information is stored in association with the display screen 54. Further, this input information is transmitted to the digital camera 51 (# 2). The digital camera 51 that has received the input information (such as character data) stores the input information in association with the display screen 53. Character data is displayed in the comment input item 53a. Thereby, the operation load at the time of inputting information (character data) to the digital camera 51 can be reduced.

[第2実施例]
次に、情報入力方法の第2実施例について説明する。第2実施例では、第1情報処理装置2が、第2情報処理装置4が有する表示画面のサイズ又は解像度を取得し、取得した情報に基づいて自装置の表示画面からキャプチャする領域を決定する場合の例を説明する。なお、第1実施例と重複する部分の説明を省略する。また、便宜上、第1情報処理装置2の動作をデジタルカメラの動作、第2情報処理装置4の動作をスマートフォンの動作として説明する。
[Second Embodiment]
Next, a second embodiment of the information input method will be described. In the second embodiment, the first information processing apparatus 2 acquires the size or resolution of the display screen included in the second information processing apparatus 4, and determines the area to be captured from the display screen of the own apparatus based on the acquired information. An example of the case will be described. The description of the same parts as those in the first embodiment is omitted. For convenience, the operation of the first information processing device 2 will be described as the operation of a digital camera, and the operation of the second information processing device 4 will be described as the operation of a smartphone.

図5は、デジタルカメラ(第1情報処理装置2)側で行う処理の手順説明図である。デジタルカメラ側では、表示画面の文字入力エリアに対するタッチ操作を検出する(S201)。タッチ操作は、本例では文字入力の指示を表す操作である。デジタルカメラ側では、また、スマートフォンが接続されているかどうかを判断する(S202)。接続されている場合(S202:YES)、そのスマートフォンの表示画面の画面情報を取得して解析する(S203)。「画面情報」は、例えば表示画面の縦横サイズ、解像度などの情報であり、スマートフォンへの接続時にデジタルカメラ側(画面キャプチャ部27)から要求される。なお、この情報は、予め取得して記憶しておいてもよい。続いて、デジタルカメラは、スマートフォン側の画面情報に応じたキャプチャ画像を生成する(S204)。例えば、スマートフォンの表示画面の縦横サイズに適合するように、文字入力が指示された文字入力エリアを中心に画面を切り出し、これをキャプチャ画像とする。このとき、縦横サイズのほか、解像度をも考慮して、スマートフォン側でより見やすいキャプチャ画像としてもよい。その後のS205〜S209までの処理は図3のS104〜S108の処理と同様である。   FIG. 5 is an explanatory diagram of the procedure of processing performed on the digital camera (first information processing apparatus 2) side. On the digital camera side, a touch operation on the character input area of the display screen is detected (S201). The touch operation is an operation representing a character input instruction in this example. On the digital camera side, it is also determined whether a smartphone is connected (S202). When connected (S202: YES), the screen information of the display screen of the smartphone is acquired and analyzed (S203). “Screen information” is information such as the vertical and horizontal sizes and resolution of the display screen, for example, and is requested from the digital camera side (screen capture unit 27) when connected to a smartphone. This information may be acquired and stored in advance. Subsequently, the digital camera generates a capture image corresponding to the screen information on the smartphone side (S204). For example, the screen is cut out centering on a character input area in which character input is instructed so as to match the vertical and horizontal sizes of the display screen of a smartphone, and this is used as a captured image. At this time, in addition to the vertical and horizontal sizes, the captured image may be easier to see on the smartphone side in consideration of the resolution. The subsequent processing from S205 to S209 is the same as the processing from S104 to S108 in FIG.

次に、図6を参照して、第2実施例による装置連携の情報入力の様子を詳しく説明する。図6(a)はスマートフォン52側の様子を示している。エリア61は、表示画面54のうちデジタルカメラ51からのキャプチャ画像を表示できる範囲であり、「表示画面の情報」の一例として、デジタルカメラ51へ送信される。表示画面54には、ソフトウェアキーボード62も表示される。図6(b)はデジタルカメラ51の様子を示している。エリア61の情報を受信したデジタルカメラ51では、表示画面54のどの領域を切り取ってキャプチャしたらよいかを解析する。本例では、タッチ箇所63を中心として、エリア61と同じサイズであるエリア64をキャプチャ領域とし、キャプチャ画像を生成する。図6(c)はデジタルカメラ51で生成されたキャプチャ画像65の例を示している。図6(d)は、スマートフォン52側で、キャプチャ画像65に基づく情報入力用の画像66を表示画面54に表示した例である。図示の例では、キャプチャ画像65に対して文字入力エリアのUI操作部品を重ねて表示し、文字入力を受け付ける。   Next, with reference to FIG. 6, the state of information input for device cooperation according to the second embodiment will be described in detail. FIG. 6A shows a state on the smartphone 52 side. An area 61 is a range in which a captured image from the digital camera 51 can be displayed on the display screen 54, and is transmitted to the digital camera 51 as an example of “display screen information”. A software keyboard 62 is also displayed on the display screen 54. FIG. 6B shows the state of the digital camera 51. The digital camera 51 that has received the information on the area 61 analyzes which area of the display screen 54 should be cut and captured. In this example, a capture image is generated with an area 64 having the same size as the area 61 around the touch location 63 as a capture area. FIG. 6C shows an example of a captured image 65 generated by the digital camera 51. FIG. 6D is an example in which an information input image 66 based on the capture image 65 is displayed on the display screen 54 on the smartphone 52 side. In the example shown in the drawing, the UI operation component in the character input area is displayed superimposed on the captured image 65, and character input is accepted.

このように、第2実施例では、デジタルカメラ51が、スマートフォン52の表示画面の情報(サイズ、解像度)を取得し、この情報に応じて自身の表示画面のキャプチャ領域を決定する。そのため、スマートフォン52に対して、必要最小限の情報量のキャプチャ画像が送信され、画面全体のキャプチャ画像に比べて通信時の負荷を削減することができる。   Thus, in the second embodiment, the digital camera 51 acquires information (size, resolution) of the display screen of the smartphone 52, and determines the capture area of its own display screen according to this information. Therefore, a capture image having a minimum amount of information is transmitted to the smartphone 52, and the load during communication can be reduced compared to the capture image of the entire screen.

[第3実施例]
次に、情報入力方法の第3実施例について説明する。第3実施例では、第2情報処理装置4を搭載したスマートフォン側で、情報入力が指示された部分を文字入力エリアとして予め認識できるようにする場合の例を示す。第1実施例と重複する部分の説明を省略する。また、第1情報処理装置2の動作をデジタルカメラの動作、第2情報処理装置4の動作をスマートフォンの動作として説明する。
[Third embodiment]
Next, a description will be given of a third embodiment of the information input method. In the third embodiment, an example in which a smartphone on which the second information processing device 4 is mounted can recognize in advance as a character input area a portion for which information input has been instructed. A description of the same parts as those in the first embodiment will be omitted. The operation of the first information processing device 2 will be described as the operation of a digital camera, and the operation of the second information processing device 4 will be described as the operation of a smartphone.

図7は、スマートフォン側の処理の手順説明図である。スマートフォンは、デジタルカメラからキャプチャ画像と文字入力エリア関連の情報を受信する(S301)。また、受信した画面情報を解析する(S302)。その後、キャプチャ画像のうち、情報入力が指示された文字入力エリアを示す指標、例えば矢印などのマークを重ねて表示する(S303)。これにより、スマートフォンでは、指標により特定される入力項目への情報入力を可能にする。具体的には、スマートフォン自身のソフトウェアキーボードと、専用文字入力エリアを表示する(S304)。専用文字入力エリアとは、例えばアプリケーションに関わらず、常に同じ位置に表示される文字入力用エリアである。S305〜S307の処理は、図3(b)のS113〜S115と同様である。   FIG. 7 is an explanatory diagram of the procedure on the smartphone side. The smartphone receives the captured image and information related to the character input area from the digital camera (S301). The received screen information is analyzed (S302). After that, an index indicating a character input area instructed to input information, for example, a mark such as an arrow, is superimposed and displayed in the captured image (S303). Thereby, in a smart phone, information input to an input item specified by an index is enabled. Specifically, the smartphone's own software keyboard and a dedicated character input area are displayed (S304). The dedicated character input area is, for example, a character input area that is always displayed at the same position regardless of the application. The processing of S305 to S307 is the same as S113 to S115 of FIG.

次に、図8を参照して、第3実施例による情報入力の様子を詳しく説明する。図6と重複する部分の説明は省略する。スマートフォン52は、キャプチャ画像を含む画面情報を受信し、表示画面54に表示する。また、専用文字入力エリア81を表示し、さらに、キャプチャ画像のどの入力項目に対する文字入力かを示す指標(矢印)82を表示する。そのため、スマートフォン52を使用して文字入力を行うユーザは、指標82を参照することで、キャプチャ画像上のどの入力項目に対する文字入力を行っているかを直感的に把握することができる。   Next, the state of information input according to the third embodiment will be described in detail with reference to FIG. The description of the same part as in FIG. 6 is omitted. The smartphone 52 receives screen information including the captured image and displays it on the display screen 54. Also, a dedicated character input area 81 is displayed, and an index (arrow) 82 indicating which input item of the captured image is input is displayed. Therefore, a user who performs character input using the smartphone 52 can intuitively grasp which input item on the captured image is input by referring to the index 82.

このように、第3実施例によれば、専用文字入力エリア81と指標82とを設けることで、デジタルカメラに対し、スマートフォンを利用して外部装置から文字入力を行う場合の操作負荷を更に軽減させることができる。   As described above, according to the third embodiment, by providing the dedicated character input area 81 and the index 82, the operation load when inputting characters from an external device using a smartphone to the digital camera is further reduced. Can be made.

[第4実施例]
次に、情報入力方法の第4実施例について説明する。第4実施例では、デジタルカメラで生成するキャプチャ画像に、第3実施例で説明した指標により特定される入力項目以外の入力項目の画像が含まれている場合の例を説明する。この場合、スマートフォンでは指標により特定される入力項目のほか、それ以外の入力項目への情報入力を可能にする。なお、第1乃至第3実施例と重複する部分の説明は省略する。また、第1情報処理装置2の動作をデジタルカメラの動作、第2情報処理装置4の動作をスマートフォンの動作として説明する。
[Fourth embodiment]
Next, a description will be given of a fourth embodiment of the information input method. In the fourth embodiment, an example will be described in which an image of an input item other than the input item specified by the index described in the third embodiment is included in a captured image generated by a digital camera. In this case, in addition to the input item specified by the index, the smartphone allows information input to other input items. The description of the same parts as those in the first to third embodiments is omitted. The operation of the first information processing device 2 will be described as the operation of a digital camera, and the operation of the second information processing device 4 will be described as the operation of a smartphone.

図9は第4実施例の処理手順説明図であり、(a)はデジタルカメラ側、(b)はスマートフォン側の処理例である。図9(a)において、S401ないしS404までは、図3(a)のS101〜S104の処理と同じである。第4実施例では、これらの処理の後、デジタルカメラが、キャプチャ画像の中に、情報入力が指示されていない他の文字入力エリアが含まれるかどうかを判断する(S405)。含まれる場合(S405:YES)、デジタルカメラは、当該他の文字入力エリア関連の情報も解析する(S406)。「文字入力エリア関連の情報」は、例えば、当該他の文字入力エリアの種別、当該他の文字入力エリアが表示画面のどの位置に配置されているかを示す座標値などである。こうしてデジタルカメラは、情報入力が指示されていない他の文字入力エリア関連の情報を、文字入力を指示された文字入力エリア関連に含めて、スマートフォン側へ送信する(S407)。S405において、他の文字入力エリアが含まれていないと判断した場合(S405:NO)、直ちにS407の処理に移行する。その後のS408〜S410の処理は、図3(b)のS106〜S108の処理と同様である。   FIG. 9 is an explanatory diagram of the processing procedure of the fourth embodiment, where (a) is a digital camera side, and (b) is a smartphone side processing example. In FIG. 9A, steps S401 to S404 are the same as the processes of S101 to S104 in FIG. In the fourth embodiment, after these processes, the digital camera determines whether or not the captured image includes another character input area that is not instructed to input information (S405). If included (S405: YES), the digital camera also analyzes the information related to the other character input area (S406). “Character input area-related information” is, for example, the type of the other character input area, a coordinate value indicating where the other character input area is arranged on the display screen, and the like. In this way, the digital camera includes other information related to the character input area that is not instructed to input information in the character input area that is instructed to transmit the character input to the smartphone side (S407). If it is determined in S405 that no other character input area is included (S405: NO), the process immediately proceeds to S407. The subsequent processing of S408 to S410 is the same as the processing of S106 to S108 in FIG.

図9(b)において、スマートフォン側では、S411〜S415は図7のS301〜S305の処理と同様である。第4実施例では、これらの処理の後、キャプチャ画像の中に複数の文字入力エリアが含まれているかどうかを判断する(S416)。含まれている場合(S416:YES)、スマートフォンは、他の文字入力エリアへのタッチ操作があるかどうかを判断する(S417)。他の文字入力エリアへのタッチ操作である場合(S417:YES)、S413の処理に戻る。S416において複数の文字入力エリアが含まれていない場合(S416:NO)およびS417においてタッチ操作がない場合(S417:NO)の処理は、図7のS306〜S307と同様となる(S418,S419)。   In FIG.9 (b), S411-S415 are the same as the process of S301-S305 of FIG. In the fourth embodiment, after these processes, it is determined whether or not a plurality of character input areas are included in the captured image (S416). If included (S416: YES), the smartphone determines whether there is a touch operation to another character input area (S417). When the touch operation is to another character input area (S417: YES), the process returns to S413. The processing when a plurality of character input areas are not included in S416 (S416: NO) and when there is no touch operation in S417 (S417: NO) is the same as S306 to S307 in FIG. 7 (S418, S419). .

このように、第4実施例によれば、デジタルカメラ側で情報入力が指示されていない文字入力エリアに対してもスマートフォン側で文字を入力することが可能となる。そして、スマートフォンから、デジタルカメラに向けて、スマートフォンにて入力された全ての文字データを送信できるので、文字入力時のユーザの操作負担が軽減される。   Thus, according to the fourth embodiment, it is possible to input characters on the smartphone side even in a character input area where no information input is instructed on the digital camera side. And since all the character data input with the smart phone can be transmitted toward a digital camera from a smart phone, the operation burden of the user at the time of character input is reduced.

[第5実施例]
次に、情報入力方法の第5実施例について説明する。第5実施例では、スマートフォン側の専用文字入力エリアを使用して文字入力を行う場合の例を示す。なお、第1乃至第3実施例と重複する部分の説明は省略する。また、第1情報処理装置2の動作をデジタルカメラの動作、第2情報処理装置4の動作をスマートフォンの動作として説明する。
[Fifth embodiment]
Next, a description will be given of a fifth embodiment of the information input method. In the fifth embodiment, an example is shown in which character input is performed using a dedicated character input area on the smartphone side. The description of the same parts as those in the first to third embodiments is omitted. The operation of the first information processing device 2 will be described as the operation of a digital camera, and the operation of the second information processing device 4 will be described as the operation of a smartphone.

図10は、第5実施例におけるスマートフォン側の処理手順説明図である。S501〜S502の処理は、図7のS301〜S302の処理と同じである。第5実施例では、これらの処理の後、スマートフォンが、文字入力をユーザに行わせる際に、専用文字入力エリアを使用して文字入力をさせるかどうかを判断する(S503)。専用文字入力エリアとは、例えば、図8のエリア81のようなものである。専用文字入力エリアを使用して文字入力をさせる場合(S503:YES)、図7のS303〜S304と同様の処理を行う(S504,S505)。専用文字入力エリアを使用して文字入力をさせない場合(S503:NO)は、図3(b)のS111〜S112と同様の処理を行う(S506,S507)。その後のS508〜S510の処理は、図7のS305〜S307の処理と同様となる。   FIG. 10 is an explanatory diagram of the processing procedure on the smartphone side in the fifth embodiment. The processing of S501 to S502 is the same as the processing of S301 to S302 in FIG. In the fifth embodiment, after these processes, the smartphone determines whether to use the dedicated character input area to input characters when the user inputs characters (S503). The dedicated character input area is, for example, an area 81 in FIG. When inputting characters using the dedicated character input area (S503: YES), processing similar to S303 to S304 in FIG. 7 is performed (S504, S505). When character input is not performed using the dedicated character input area (S503: NO), processing similar to S111 to S112 in FIG. 3B is performed (S506, S507). The subsequent processing of S508 to S510 is the same as the processing of S305 to S307 in FIG.

このように、第5実施例によれば、スマートフォン側において、専用文字入力エリアを使用して文字入力させるかどうかによって処理の内容を切り替えることができる。そのため、入力方式の選択の自由度が高まる。   Thus, according to 5th Example, the content of a process can be switched by the smart phone side according to whether a character input is performed using an exclusive character input area. This increases the degree of freedom in selecting the input method.

[第6実施例]
次に、情報入力方法の第6実施例について説明する。第6実施例では、デジタルカメラ側で、キャプチャする領域の縦サイズと横サイズとを比較するとともに、キャプチャ画像を表示する際に推奨する表示画面の向きを表す推奨画面向き情報を比較結果に応じて決定する場合の例を説明する。この場合、決定した推奨画面向き情報を画面情報に含めてスマートフォンへ送信する。なお、第1実施例の処理と重複する部分の説明は省略する。
[Sixth embodiment]
Next, a description will be given of a sixth embodiment of the information input method. In the sixth embodiment, on the digital camera side, the vertical size and horizontal size of the area to be captured are compared, and recommended screen orientation information indicating the recommended display screen orientation when displaying the captured image is displayed according to the comparison result. An example in the case of determination will be described. In this case, the determined recommended screen orientation information is included in the screen information and transmitted to the smartphone. The description of the same parts as those in the first embodiment is omitted.

図11は、第6実施例の処理手順説明図であり、(a)はデジタルカメラ側、(b)はスマートフォン側の例である。図11(a)において、S601〜603の処理は図9(a)のS401〜S403の処理と同様である。第6実施例では、これらの処理の後、デジタルカメラが、キャプチャ画像の縦横サイズを取得する(S604)。そして、取得したキャプチャ画像の縦サイズと横サイズとを比較する(S605)。横のサイズが縦のサイズ以上の場合(S605:YES)、スマートフォンの推奨画面向きを横に決定する(S606)。横のサイズが縦のサイズ以上でない場合(S605:NO)、推奨画面向きを縦に決定する(S607)。その後、情報入力が指定された文字入力エリア関連の情報を解析する(S608)。また、キャプチャ画像、文字入力エリア関連の情報および決定した推奨画面向きの情報をスマートフォンへ送信する(S609)。その後のS610〜S612の処理は、図9(a)のS408〜S410と同様である。   FIG. 11 is an explanatory diagram of the processing procedure of the sixth embodiment, where (a) is an example on the digital camera side and (b) is an example on the smartphone side. In FIG. 11A, the processing in S601 to 603 is the same as the processing in S401 to S403 in FIG. In the sixth embodiment, after these processes, the digital camera acquires the vertical and horizontal sizes of the captured image (S604). Then, the vertical size and horizontal size of the acquired captured image are compared (S605). When the horizontal size is equal to or larger than the vertical size (S605: YES), the recommended screen orientation of the smartphone is determined horizontally (S606). If the horizontal size is not equal to or larger than the vertical size (S605: NO), the recommended screen orientation is determined to be vertical (S607). Thereafter, the information related to the character input area in which the information input is designated is analyzed (S608). Further, the captured image, the information related to the character input area, and the determined recommended screen direction information are transmitted to the smartphone (S609). The subsequent processing of S610 to S612 is the same as S408 to S410 of FIG.

スマートフォン側では、図11(b)に示される手順で処理を行う。すなわち、キャプチャ画像、文字入力エリア関連の情報および推奨画面向きの情報を受信する(S613)。続いて、受信したキャプチャ画像と、文字入力エリア関連の情報および推奨画面向きの情報を解析する(S614)。例えば、文字入力エリアの種別、当該文字入力エリアが表示画面のどの位置に配置されているかなどを示す座標値、推奨画面向きが縦か横かなどである。そして、スマートフォン自身の現在の画面の向きと、S614で解析した推奨画面向きが異なるか否かを判断する(S615)。推奨画面向きが異ならない場合(S615:NO)、S618の処理に進む。異なる場合(S615:YES)、例えば回転方向を示す矢印(変更を促す情報)を現在画面に表示されている情報に重ねて表示させ、ユーザにスマートフォンの向きを推奨画面向きへ変更するように促す(S616)。なお、変更の促し方は上記例に限定されない。そして、スマートフォン自身の現在の画面の向きと解析した推奨画面向きが同じになったか否かを判断する(S617)。推奨画面向きが同じになっていない場合(S617:NO)、S616の処理に戻る。推奨画面向きが同じになった場合(S617:YES)、S618の処理に進む。S618〜S622の処理は、図10のS506〜S510と同様である。   On the smartphone side, processing is performed according to the procedure shown in FIG. That is, the captured image, the information related to the character input area, and the recommended screen orientation information are received (S613). Subsequently, the received captured image, the information related to the character input area and the information about the recommended screen are analyzed (S614). For example, the type of the character input area, the coordinate value indicating where the character input area is arranged on the display screen, and the recommended screen orientation is vertical or horizontal. Then, it is determined whether the current screen orientation of the smartphone itself is different from the recommended screen orientation analyzed in S614 (S615). If the recommended screen orientation is not different (S615: NO), the process proceeds to S618. If they are different (S615: YES), for example, an arrow indicating the rotation direction (information prompting the change) is displayed over the information currently displayed on the screen, and the user is prompted to change the orientation of the smartphone to the recommended screen direction. (S616). Note that the method of prompting the change is not limited to the above example. Then, it is determined whether the current screen orientation of the smartphone itself and the analyzed recommended screen orientation are the same (S617). If the recommended screen orientation is not the same (S617: NO), the process returns to S616. If the recommended screen orientations are the same (S617: YES), the process proceeds to S618. The processing of S618 to S622 is the same as S506 to S510 of FIG.

このように、第6実施例によれば、デジタルカメラ側でキャプチャ画像の縦横サイズを比較し、横のサイズが縦のサイズ以上の場合は、推奨画面向き情報を横に決定する。横のサイズが縦のサイズ以上でない場合は、推奨画面向き情報を縦に決定する。そして、キャプチャ画像と解析した文字入力用の操作項目に関する情報と共に推奨画面向き情報を関連づけてスマートフォン側に送信する。一方、スマートフォン側では、推奨画面向き情報に基づいて自身の向き推奨画面向きの方向へ変更することを促す情報を表示する。そのため、デジタルカメラから文字入力指示の通知を受け取ったときに、キャプチャ画像がスマートフォン側でより大きく表示されるため見易くなり、文字入力時の利便性が向上する。   As described above, according to the sixth embodiment, the vertical and horizontal sizes of the captured images are compared on the digital camera side, and when the horizontal size is equal to or larger than the vertical size, the recommended screen orientation information is determined to be horizontal. If the horizontal size is not greater than the vertical size, the recommended screen orientation information is determined vertically. Then, the recommended screen orientation information is associated with the captured image and the analyzed information on the operation item for character input, and transmitted to the smartphone side. On the other hand, on the smartphone side, information that prompts the user to change to the direction of the recommended screen orientation of the user is displayed based on the recommended screen orientation information. Therefore, when a notification of a character input instruction is received from the digital camera, the captured image is displayed larger on the smartphone side, so that it is easy to see and the convenience during character input is improved.

[変形例]
本実施形態および実施例では、第1情報処理装置2と第2情報処理装置4とをネットワーク3で接続した場合の例を説明した。しかし、本発明は、それぞれ情報入力用の表示画面を有する複数の情報処理装置を通信路を介して接続し、いずれか一つの情報処理装置の表示画面の画面情報を他の情報処理装置の表示画面に表示させる態様でも実施が可能である。
また、第1〜第6実施例では第1情報処理装置2がデジタルカメラに搭載され、第2情報処理装置4がスマートフォンに搭載されている場合の例を説明したが、搭載するデバイスはこれらの例に限定されない。デジタルカメラはタブレット端末や携帯端末であってもよい。スマートフォンもまた、タブレット端末やパーソナルコンピュータであってもよい。
[Modification]
In the present embodiment and example, the example in which the first information processing device 2 and the second information processing device 4 are connected via the network 3 has been described. However, in the present invention, a plurality of information processing apparatuses each having a display screen for inputting information are connected via a communication path, and the screen information on the display screen of any one information processing apparatus is displayed on the other information processing apparatus. The present invention can also be implemented in a form that is displayed on the screen.
Moreover, although the 1st information processing apparatus 2 was mounted in the digital camera and the example in case the 2nd information processing apparatus 4 was mounted in the smart phone was demonstrated in the 1st-6th Example, these mounted devices are these. It is not limited to examples. The digital camera may be a tablet terminal or a mobile terminal. The smartphone may also be a tablet terminal or a personal computer.

なお、本発明は、本発明のコンピュータプログラムを、ネットワーク又は可搬性の記憶媒体を介して、情報処理装置に供給し、そのCPUがコンピュータプログラムを読出し、実行する形態でも実施が可能である。本発明は、また、1以上の機能を実現する回路(例えば、ASIC)によっても実現が可能である。   The present invention can also be implemented in a form in which the computer program of the present invention is supplied to an information processing apparatus via a network or a portable storage medium, and the CPU reads and executes the computer program. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (15)

それぞれ情報入力用の表示画面を有する複数の情報処理装置を通信路を介して接続し、いずれか一つの第1情報処理装置の前記表示画面の画面情報を他の第2情報処理装置の前記表示画面に表示させ、該画面情報の表示を通じて前記第2情報処理装置で受け付けた入力情報を前記第1情報処理装置に入力する、
装置連携による情報入力方法。
A plurality of information processing apparatuses each having a display screen for inputting information are connected via a communication channel, and the display information of the display screen of any one of the first information processing apparatuses is displayed on the display of the other second information processing apparatus. Displaying on the screen and inputting the input information received by the second information processing apparatus through the display of the screen information to the first information processing apparatus;
Information input method by device cooperation.
前記画面情報は、前記第1情報処理装置の表示画面をキャプチャしたキャプチャ画像と、前記表示画面のうち情報入力が指示された入力項目を表す指示情報とを含む、
請求項1に記載の情報入力方法。
The screen information includes a captured image obtained by capturing a display screen of the first information processing apparatus, and instruction information representing an input item in which information input is instructed in the display screen.
The information input method according to claim 1.
前記画面情報は、前記入力項目を特定するための指標をさらに含み、
前記第2情報処理装置は、前記指標により特定される入力項目への情報入力を可能にする、
請求項2に記載の情報入力方法。
The screen information further includes an index for specifying the input item,
The second information processing apparatus enables information input to an input item specified by the index;
The information input method according to claim 2.
前記キャプチャ画像には、前記指標により特定される入力項目以外の入力項目の画像が含まれており、
前記第2情報処理装置は、前記指標により特定される入力項目のほか、それ以外の入力項目への情報入力を可能にする、
請求項3に記載の情報入力方法。
The captured image includes an image of an input item other than the input item specified by the index,
The second information processing apparatus enables information input to other input items in addition to the input item specified by the index.
The information input method according to claim 3.
前記第2情報処理装置は、前記入力項目に対応する文字入力エリアを自装置の表示画面に表示させ、該表示を介して入力された情報を当該入力項目に関連付けて記憶する、
請求項3又は4に記載の情報入力方法。
The second information processing apparatus displays a character input area corresponding to the input item on a display screen of the own apparatus, and stores information input through the display in association with the input item.
The information input method according to claim 3 or 4.
前記第2情報処理装置は、前記入力項目に対応する文字入力エリアを、前記キャプチャ画像のうち、前記情報入力が指示された入力項目に重ねて表示させる、
請求項5に記載の情報入力方法。
The second information processing apparatus causes a character input area corresponding to the input item to be displayed so as to overlap an input item instructed to input information in the captured image.
The information input method according to claim 5.
前記第1情報処理装置は、前記第2情報処理装置が有する表示画面のサイズを取得し、取得したサイズに基づいて自装置の表示画面からキャプチャする領域を決定する、
請求項2ないし6のいずれかの1項に記載の情報入力方法。
The first information processing apparatus acquires a size of a display screen included in the second information processing apparatus, and determines a region to be captured from the display screen of the own apparatus based on the acquired size.
The information input method according to any one of claims 2 to 6.
前記第1情報処理装置は、前記第2情報処理装置の前記表示画面の解像度を取得し、取得した解像度に基づいて自装置の表示画面からキャプチャする領域を決定する、
請求項2ないし7のいずれか1項に記載の情報入力方法。
The first information processing apparatus acquires the resolution of the display screen of the second information processing apparatus, and determines a region to be captured from the display screen of the own apparatus based on the acquired resolution.
The information input method according to any one of claims 2 to 7.
前記第1情報処理装置は、前記キャプチャする領域の縦サイズと横サイズとを比較するとともに、前記キャプチャ画像を表示する際に推奨する表示画面の向きを表す推奨画面向き情報を前記比較結果に応じて決定し、決定した推奨画面向き情報を前記画面情報に含めて第2情報処理装置へ送信する、
請求項5ないし7のいずれか1項に記載の情報入力方法。
The first information processing apparatus compares a vertical size and a horizontal size of the area to be captured, and recommends screen direction information indicating a recommended display screen direction when displaying the captured image according to the comparison result. The recommended screen orientation information determined is included in the screen information and transmitted to the second information processing device.
The information input method according to any one of claims 5 to 7.
前記第2情報処理装置は、受信した前記推奨画面向き情報により特定される推奨画面向きと自身の表示画面の向きとが異なるかどうかを判断し、異なる場合は自身の表示画面の向きを推奨画面向きの方向への変更をユーザに促す情報を当該表示画面に表示させる、
請求項9に記載の情報入力方法。
The second information processing apparatus determines whether the recommended screen orientation specified by the received recommended screen orientation information is different from the orientation of the display screen of the second information processing device. Display information prompting the user to change the orientation on the display screen,
The information input method according to claim 9.
前記第1情報処理装置が静止画又は動画を撮像するデジタルカメラに搭載されており、
前記第2情報処理装置は、前記デジタルカメラで撮像された画像に付与される属性情報の入力を受け付ける、
請求項1ないし10のいずれか1項に記載の情報入力方法。
The first information processing apparatus is mounted on a digital camera that captures still images or moving images,
The second information processing apparatus receives input of attribute information given to an image captured by the digital camera;
The information input method according to claim 1.
外部装置と通信路を介して接続可能な情報処理装置であって、
情報入力用の第1表示画面を表示する表示手段と、
前記第1表示画面において情報入力が指示された入力項目を検出する検出手段と、
前記入力項目が検出されたときの前記第1表示画面の表示内容をキャプチャするキャプチャ手段と、
前記表示内容と前記入力項目とを含む画面情報を前記外部装置に伝達するとともに、伝達した画面情報を通じて前記外部装置で入力された入力情報を当該外部装置から取得し、取得した入力情報を前記検出された入力項目と関連付けて記憶する制御手段と、
を備えた情報処理装置。
An information processing device that can be connected to an external device via a communication path,
Display means for displaying a first display screen for inputting information;
Detecting means for detecting an input item instructed to input information on the first display screen;
Capture means for capturing display contents of the first display screen when the input item is detected;
The screen information including the display content and the input item is transmitted to the external device, the input information input by the external device is acquired from the external device through the transmitted screen information, and the acquired input information is detected. A control means for storing in association with the input item,
An information processing apparatus comprising:
情報入力用の第1表示画面を有する外部装置と通信路を介して接続可能な情報処理装置であって、
前記第1表示画面の表示内容と当該第1表示画面において情報入力が指示された入力項目とを含む画面情報を前記外部装置から取得する取得手段と、
取得した画面情報のうち前記表示内容を自装置における情報入力用の第2表示画面に表示するとともに、前記入力項目に対応する部分に自装置の情報入力用のUI操作項目を表示し、該表示に基づいて入力された入力情報を前記外部装置へ伝達する制御手段と、
を備える情報処理装置。
An information processing apparatus connectable to an external apparatus having a first display screen for information input via a communication path,
Obtaining means for obtaining, from the external device, screen information including display contents of the first display screen and input items instructed to input information on the first display screen;
The display content of the acquired screen information is displayed on the second display screen for information input in the own device, and UI operation items for information input of the own device are displayed in a portion corresponding to the input item, and the display Control means for transmitting the input information inputted based on the external device,
An information processing apparatus comprising:
コンピュータを、外部装置と通信路を介して接続可能な情報処理装置として動作させるコンピュータプログラムであって、
前記コンピュータを、
情報入力用の第1表示画面を表示する表示手段、
前記第1表示画面において情報入力が指示された入力項目を検出する検出手段、
前記入力項目が検出されたときの前記第1表示画面の表示内容をキャプチャするキャプチャ手段、
前記表示内容と前記入力項目とを含む画面情報を前記外部装置に伝達するとともに、伝達した画面情報を通じて前記外部装置で入力された入力情報を当該外部装置から取得し、取得した入力情報を前記検出された入力項目と関連付けて記憶する制御手段、
として機能させるコンピュータプログラム。
A computer program for operating a computer as an information processing device connectable to an external device via a communication path,
The computer,
Display means for displaying a first display screen for information input;
Detecting means for detecting an input item instructed to input information on the first display screen;
Capture means for capturing display content of the first display screen when the input item is detected;
The screen information including the display content and the input item is transmitted to the external device, the input information input by the external device is acquired from the external device through the transmitted screen information, and the acquired input information is detected. Control means for storing in association with the input item
A computer program that functions as a computer program.
コンピュータを、情報入力用の第1表示画面を有する外部装置と通信路を介して接続可能な情報処理装置として動作させるためのコンピュータプログラムであって、
前記コンピュータを、
前記第1表示画面の表示内容と当該第1表示画面において情報入力が指示された入力項目とを含む画面情報を前記外部装置から取得する取得手段、
取得した画面情報のうち前記表示内容を自装置における情報入力用の第2表示画面に表示するとともに、前記入力項目に対応する部分に自装置の情報入力用のUI操作項目を表示し、該表示に基づいて入力された入力情報を前記外部装置へ伝達する制御手段、
として機能させるコンピュータプログラム。
A computer program for operating a computer as an information processing apparatus connectable to an external apparatus having a first display screen for information input via a communication path,
The computer,
Acquisition means for acquiring screen information including display contents of the first display screen and input items instructed to input information on the first display screen from the external device;
The display content of the acquired screen information is displayed on the second display screen for information input in the own device, and UI operation items for information input of the own device are displayed in a portion corresponding to the input item, and the display Control means for transmitting input information input based on the external device,
A computer program that functions as a computer program.
JP2015014784A 2015-01-28 2015-01-28 Information input method through coordination between apparatuses, information processing apparatus, and computer program Pending JP2016139342A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015014784A JP2016139342A (en) 2015-01-28 2015-01-28 Information input method through coordination between apparatuses, information processing apparatus, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015014784A JP2016139342A (en) 2015-01-28 2015-01-28 Information input method through coordination between apparatuses, information processing apparatus, and computer program

Publications (1)

Publication Number Publication Date
JP2016139342A true JP2016139342A (en) 2016-08-04

Family

ID=56559251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015014784A Pending JP2016139342A (en) 2015-01-28 2015-01-28 Information input method through coordination between apparatuses, information processing apparatus, and computer program

Country Status (1)

Country Link
JP (1) JP2016139342A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210041815A (en) * 2019-10-08 2021-04-16 한양대학교 산학협력단 Input device for operating mobile

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210041815A (en) * 2019-10-08 2021-04-16 한양대학교 산학협력단 Input device for operating mobile
KR102316514B1 (en) * 2019-10-08 2021-10-22 한양대학교 산학협력단 Input device for operating mobile

Similar Documents

Publication Publication Date Title
US9485450B2 (en) Contents display device, contents display method, and computer readable medium for storing contents display program
US20180136806A1 (en) Display control apparatus, display control method, and program
JP5798532B2 (en) User interface device, user interface method and program
US20140096052A1 (en) Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method
US9582172B2 (en) Display control apparatus and method, image display apparatus, and non-transitory computer readable medium
US9560224B2 (en) Remote control device, remote operation device, screen transmission control method, and non-transitory computer-readable recording medium encoded with screen display control program
KR20140009054A (en) Tablet device, and operation receiving method
US9377901B2 (en) Display method, a display control method and electric device
JP2015046058A (en) Image forming system and output instruction program
US9386174B2 (en) Image forming apparatus, method for guidance on operation method by image forming apparatus, and system
US9509733B2 (en) Program, communication apparatus and control method
JP2012027515A (en) Input method and input device
CN106293563B (en) Control method and electronic equipment
JP2014081789A (en) Information processor, control method for information processor, and program
US8949934B2 (en) Communication device, communication method, and program
US9036194B2 (en) Operation input apparatus, image forming system, and storage medium for operation input program
JP2016139342A (en) Information input method through coordination between apparatuses, information processing apparatus, and computer program
JP6704608B2 (en) Terminal device, diagnostic system and program
US9860395B2 (en) Data input system, data input apparatus, data input method, and non-transitory computer-readable recording medium encoded with data input program
JP2016143284A (en) Information processing apparatus, information processing system, information processing method, and program
JP2008113107A (en) Input method using camera function, and information communication terminal using input method
JP2015122124A (en) Information apparatus with data input function by virtual mouse
JP2015090514A (en) Inspection support device, inspection support system, and program
JP6409339B2 (en) Control device, control system, control method and program
JP5716057B2 (en) Display device, display method, and program