JPWO2020158955A1 - Information processing equipment - Google Patents

Information processing equipment Download PDF

Info

Publication number
JPWO2020158955A1
JPWO2020158955A1 JP2020568648A JP2020568648A JPWO2020158955A1 JP WO2020158955 A1 JPWO2020158955 A1 JP WO2020158955A1 JP 2020568648 A JP2020568648 A JP 2020568648A JP 2020568648 A JP2020568648 A JP 2020568648A JP WO2020158955 A1 JPWO2020158955 A1 JP WO2020158955A1
Authority
JP
Japan
Prior art keywords
information processing
processing apparatus
camera
image
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020568648A
Other languages
Japanese (ja)
Inventor
敬 木野内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XLEAP, INC.
Original Assignee
XLEAP, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XLEAP, INC. filed Critical XLEAP, INC.
Priority to JP2021115984A priority Critical patent/JP2021184095A/en
Publication of JPWO2020158955A1 publication Critical patent/JPWO2020158955A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/04Bodies collapsible, foldable or extensible, e.g. book type
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Accessories Of Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Telephone Function (AREA)
  • Viewfinders (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

カメラ視点画像を視認しながらも、自由な姿勢で撮影が可能な情報処理装置を提供する。撮像手段は、撮像を行う。テキストデータ生成手段は、撮像手段により撮像される撮像画像に基づいて前記文字列に対応するテキストデータを生成する。提示手段は、前記撮像手段により撮像される撮像画像と前記テキストデータとを共に提示する。Provided is an information processing device capable of taking a picture in a free posture while visually recognizing a camera viewpoint image. The imaging means performs imaging. The text data generation means generates text data corresponding to the character string based on the captured image captured by the imaging means. The presenting means presents both the captured image captured by the imaging means and the text data.

Description

本発明は、情報処理装置に関する。 The present invention relates to an information processing device.

従来から、スマートフォン等のカメラ付き携帯端末において、端末表示部裏面側に向けられたリアカメラ(相手撮り専用のカメラ)の他に、表示面側に向けられたフロントカメラ(自分撮りの専用カメラ)を別途備えるものが普及していた。
この様な端末においては、高性能カメラを2個も使用すると、端末が高額となってしまうこと、カメラ並びにレンズを大きくしなければならずデザイン上に好ましくないこと、及び、通常は相手撮りをメインとして使用されることから、フロントカメラはサブカメラとして小型で安価な低性能のものが採用されていた。
Conventionally, in mobile terminals with cameras such as smartphones, in addition to the rear camera (camera dedicated to taking pictures of the other party) facing the back side of the terminal display, the front camera (camera dedicated to taking selfies) facing the display side. Those equipped separately were widespread.
In such a terminal, if two high-performance cameras are used, the terminal will be expensive, the camera and lens must be large, which is not preferable in terms of design, and usually the other party is taken. Since it is used as the main camera, a small, inexpensive, low-performance front camera was used as the sub camera.

しかし、カメラが実際に撮影している画像(以下、「カメラ視点画像」と呼ぶ)を表示部で視認しながら自分撮りを高性能カメラで行いたいとのニーズも存在する為、相手撮りモードと自分撮りモードで、カメラを共用するものがあった。
例えば特許文献1には、イメージセンサ部が可動機構により撮影モードの選択に応じて回転し、この回転に合わせて使用するフィルタおよびレンズが自動的に切り替わる、という技術が開示されている。
However, there is also a need to take a selfie with a high-performance camera while visually recognizing the image actually taken by the camera (hereinafter referred to as "camera viewpoint image") on the display unit, so it is called the other party shooting mode. In the selfie mode, there was one that shared the camera.
For example, Patent Document 1 discloses a technique in which an image sensor unit is rotated by a movable mechanism according to a selection of a shooting mode, and a filter and a lens used are automatically switched according to the rotation.

特開2008−131555号公報Japanese Unexamined Patent Publication No. 2008-131555

しかしながら、特許文献1を含む従来の技術では、撮像方向が極めて限定されている為、機能的にはコストの問題に目を瞑って高性能カメラを2〜3個取り付けた場合と何ら変わることなく、撮影時の使用者の姿勢が限定されているという問題が有った。 However, in the conventional technology including Patent Document 1, since the imaging direction is extremely limited, functionally, there is no difference from the case where two or three high-performance cameras are attached with the eyes closed to the problem of cost. There was a problem that the posture of the user at the time of shooting was limited.

本発明は、このような状況に鑑みてなされたものであり、高性能カメラを装置本体に対して自由な方向に向けることを可能とし、カメラ視点画像を視認しながらも、自由な姿勢で撮影が可能な携帯情報装置を提供することを目的とする。 The present invention has been made in view of such a situation, and it is possible to point a high-performance camera in any direction with respect to the main body of the device, and to take a picture in a free posture while visually recognizing a camera viewpoint image. The purpose is to provide a portable information device capable of providing a portable information device.

上記目的を達成するため、本発明の一態様の情報処理装置は、
撮像を行う撮像手段と、
前記撮像手段が生成する撮像画像から被写体を抽出する被写体抽出手段と、
前記被写体が示す情報を抽出する情報抽出手段と、
前記情報を解析する情報解析手段と、
前記解析の結果に基づいてオブジェクトを生成する生成手段と、
前記オブジェクトを前記撮像画像と共に提示する提示手段と、
を備える。
In order to achieve the above object, the information processing apparatus according to one aspect of the present invention is
An imaging means for imaging and
A subject extraction means for extracting a subject from an captured image generated by the image pickup means, and a subject extraction means.
An information extraction means for extracting information indicated by the subject, and
Information analysis means for analyzing the information and
A generation means for generating an object based on the result of the analysis,
A presentation means for presenting the object together with the captured image,
To prepare for.

本発明によれば、カメラ視点画像を視認しながらも、自由な姿勢で撮影が可能な携帯情報装置を提供することができる。 According to the present invention, it is possible to provide a portable information device capable of taking a picture in a free posture while visually recognizing a camera viewpoint image.

本発明の情報処理装置の一実施形態の外観構成を示す図である。It is a figure which shows the appearance structure of one Embodiment of the information processing apparatus of this invention. 図1の情報処理装置の外観構成を示す図である。It is a figure which shows the appearance structure of the information processing apparatus of FIG. 図1の情報処理装置の連結部を回動させた様子を示す図である。It is a figure which shows the state which the connecting part of the information processing apparatus of FIG. 1 was rotated. 図1の情報処理装置のスタンド部を回動させた様子を示す図である。It is a figure which shows the state which the stand part of the information processing apparatus of FIG. 1 was rotated. 図1の情報処理装置を卓上に立て掛けて使用している様子を示す図である。It is a figure which shows the state of using the information processing apparatus of FIG. 1 leaning against a tabletop. 図1の情報処理装置に表示させる、撮影画像取捨選択画面の一例を示す図である。It is a figure which shows an example of the photographed image selection screen to be displayed on the information processing apparatus of FIG. 図1の情報処理装置で、店舗等の屋内のナビゲーションをさせている様子を示す図である。It is a figure which shows the state that the information processing apparatus of FIG. 1 is performing indoor navigation of a store or the like. 図1の情報処理装置で、位置及びカメラの方向を勘案して広告を出している様子を示す図である。It is a figure which shows the state that the information processing apparatus of FIG. 1 is issuing an advertisement in consideration of a position and a direction of a camera. 図1の情報処理装置で、ストリートビューを、リアルタイムで更新している様子を示す図である。It is a figure which shows the state which the street view is updated in real time by the information processing apparatus of FIG. 図1の情報処理装置が横位置の状態で、本体とは異なる方向に向けたカメラによる撮像時の上下(天地)の情報を写真に付加している様子、ならびに表示の仕方を示す図である。It is a figure which shows the state which the information processing apparatus of FIG. 1 is in a horizontal position, and the information of the top and bottom (top and bottom) at the time of image pickup by a camera which is directed to the direction different from the main body is added to a photograph, and how to display. .. 図1の情報処理装置が縦位置の状態で、本体とは異なる方向に向けたカメラによる撮像時の上下(天地)の情報を写真に付加している様子、ならびに表示の仕方を示す図である。It is a figure which shows the state which the information processing apparatus of FIG. 1 is in a vertical position, and the information of the top and bottom (top and bottom) at the time of image pickup by a camera which is directed to the direction different from the main body is added to a photograph, and how to display. .. 図1の情報処理装置で、シャッターリモコンを本体から取り外している様子を示す図である。It is a figure which shows the state which the shutter remote controller is removed from the main body in the information processing apparatus of FIG. 図1の情報処理装置とは異なる、固定式カメラを備える情報処理装置のフロントカメラの前に鏡をセットして、本の自動翻訳や領収書データの読み込みをしている様子を示す図である。It is a figure which shows the state that the mirror is set in front of the front camera of the information processing apparatus equipped with a fixed camera, which is different from the information processing apparatus of FIG. 1, and the book is automatically translated and the receipt data is read. .. 図1の情報処理装置で、屋外を歩きながらARのゲームをしている様子を示す図である。It is a figure which shows the state of playing an AR game while walking outdoors with the information processing apparatus of FIG. 図1の情報処理装置で、音源を追跡して撮影している様子を示す図である。It is a figure which shows the state which the sound source is tracked and photographed by the information processing apparatus of FIG. 図1の情報処理装置で、紙媒体等に記載された問題を教育に利用している様子を示す図である。It is a figure which shows the state which the information processing apparatus of FIG. 1 uses a problem described in a paper medium or the like for education. 図1の情報処理装置で、折りたたみ式のスタンドで自立安定させている様子を示す図である。It is a figure which shows the state in which the information processing apparatus of FIG. 1 is self-sustainingly stabilized by a foldable stand. 図1の情報処理装置で、位置情報に基づいて、保存した写真を探し出している様子を示す図である。It is a figure which shows the state which the information processing apparatus of FIG. 1 is searching for the saved photograph based on the position information. 図1の情報処理装置で、情報を表示すると共に、場所に基づいて該当する写真をWEB上から探し当てている様子を示す図である。It is a figure which shows the state that the information processing apparatus of FIG. 1 displays information and is searching for the corresponding photograph from the WEB based on the place. 情報処理装置がスライド式回転カメラを備える場合における、形状を変化させた各状態を示す図である。It is a figure which shows each state which changed the shape in the case where the information processing apparatus includes a slide type rotary camera. 図1の情報処理装置の、2軸回転機構部の構造を示す図である。It is a figure which shows the structure of the biaxial rotation mechanism part of the information processing apparatus of FIG. 図1の情報処理装置の表示部の切欠き部にスライド式回転カメラを備える場合における、形状を変化させた各状態を示す図である。It is a figure which shows each state which changed the shape in the case where the slide type rotary camera is provided in the notch part of the display part of the information processing apparatus of FIG. 図16の情報処理装置の翻訳画面(UI)の一例を示す図である。It is a figure which shows an example of the translation screen (UI) of the information processing apparatus of FIG. 図16の情報処理装置の翻訳及び音読のプロセスを示すフローチャートである。It is a flowchart which shows the process of translation and reading aloud of the information processing apparatus of FIG. 図16の情報処理装置の翻訳及び音読のプロセスを示すフローチャートである。It is a flowchart which shows the process of translation and reading aloud of the information processing apparatus of FIG. 図16の情報処理装置の音読画面(UI)の一例を示す図である。It is a figure which shows an example of the reading aloud screen (UI) of the information processing apparatus of FIG. 図16の情報処理装置の音読のプロセスを示すフローチャートである。It is a flowchart which shows the process of reading aloud of the information processing apparatus of FIG. 図16の情報処理装置の音読のプロセスを示すフローチャートである。It is a flowchart which shows the process of reading aloud of the information processing apparatus of FIG. 図16の情報処理装置のテキスト化のプロセスを示すフローチャートである。It is a flowchart which shows the process of textification of the information processing apparatus of FIG. 図16の情報処理装置のテキスト化のプロセスを示すフローチャートである。It is a flowchart which shows the process of textification of the information processing apparatus of FIG. 図16の情報処理装置に装着する鏡ユニットの一例を示す図である。It is a figure which shows an example of the mirror unit attached to the information processing apparatus of FIG. 図16の情報処理装置に装着する鏡ユニットの他の例を示す図である。It is a figure which shows another example of the mirror unit attached to the information processing apparatus of FIG.

以下、本発明の一実施形態を図面に基づいて説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の情報処理装置の一実施形態の外観構成を示す図である。図1(A)は、情報処理装置の正面図である。図1(B)は、情報処理装置1の上面図である。図1(C)は、情報処理装置の左側面図である。
情報処理装置1は、少なくとも表示機能とデジタルカメラ機能を備え、本体部11と連結部12より構成され、これらは回動自在に相互に接続されている。
FIG. 1 is a diagram showing an external configuration of an embodiment of the information processing apparatus of the present invention. FIG. 1A is a front view of the information processing apparatus. FIG. 1B is a top view of the information processing apparatus 1. FIG. 1C is a left side view of the information processing apparatus.
The information processing apparatus 1 has at least a display function and a digital camera function, and is composed of a main body portion 11 and a connecting portion 12, which are rotatably connected to each other.

本体部11は、平面形状四角形の短柱状に形成され、各種基板等が内蔵される第1筐体である。本体部11の所定の一面11a(以下「正面11a」と呼ぶ)には、タッチパネル式ディスプレイ等で構成される表示部13が配置される。 The main body portion 11 is a first housing that is formed in a short columnar shape of a planar quadrangle and contains various substrates and the like. A display unit 13 composed of a touch panel type display or the like is arranged on a predetermined one surface 11a (hereinafter referred to as "front surface 11a") of the main body unit 11.

図2は、図1の情報処理装置の外観構成を示す図である。図2(A)は、情報処理装置の背面図である。図2(B)は、図2(A)の線A−Aにおける断面図である。図2(C)は、図2(A)を上面からみた断面図である。 FIG. 2 is a diagram showing an external configuration of the information processing apparatus of FIG. 1. FIG. 2A is a rear view of the information processing apparatus. FIG. 2B is a cross-sectional view taken along the line AA of FIG. 2A. FIG. 2C is a cross-sectional view of FIG. 2A as viewed from above.

本体部11の背面11bは、図1で上述した正面11aに対向する側の一面である。
連結部12は、平面形状略矩形に形成され、本体部11の背面11bの一方の短辺側に回動自在に配置される。連結部12は、カメラ基部12−1と、カメラ指向部12−2とを有している。カメラ指向部12−2の正面(図2(A)で見えている側の面)には円形状のカメラ21が配置されている。即ち、連結部12は、カメラ21を内蔵する第2筐体である。カメラ21は、被写体を撮像する撮像部である。カメラ21により撮像された被写体を含む撮像画像は、表示部13に表示される。ここで、図2(C)で示す様に、凹み幅Wは、カメラ部用の凹みの幅である。そして、回転半径r2は、2軸目のヒンジの回転軸(中心)から一番長い回転半径である。これにより、凹み幅Wと回転半径r2の関係は、以下の式(1)で示す関係となる。
W/2>r2・・・(1)
The back surface 11b of the main body 11 is one surface on the side facing the front surface 11a described above in FIG.
The connecting portion 12 is formed in a substantially rectangular planar shape, and is rotatably arranged on one short side side of the back surface 11b of the main body portion 11. The connecting portion 12 has a camera base portion 12-1 and a camera-oriented portion 12-2. A circular camera 21 is arranged in front of the camera-oriented portion 12-2 (the surface on the side visible in FIG. 2A). That is, the connecting portion 12 is a second housing in which the camera 21 is built. The camera 21 is an imaging unit that captures an image of a subject. The captured image including the subject captured by the camera 21 is displayed on the display unit 13. Here, as shown in FIG. 2C, the recess width W is the width of the recess for the camera unit. The turning radius r2 is the longest turning radius from the turning axis (center) of the second hinge. As a result, the relationship between the recess width W and the turning radius r2 becomes the relationship shown by the following equation (1).
W / 2> r2 ... (1)

カメラ基部12−1は、回動軸Z1を回動中心として本体部11に対して連結部12全体を回動可能に軸支される。
より具体的には、カメラ基部12−1は、柱形の外形のうちの端面を本体部11に摺接しながら、回動軸Z1を中心として回動し得るように構成される。
The camera base portion 12-1 is rotatably supported by the entire connecting portion 12 with respect to the main body portion 11 with the rotation shaft Z1 as the rotation center.
More specifically, the camera base 12-1 is configured to be able to rotate about the rotation axis Z1 while sliding the end surface of the pillar-shaped outer shape to the main body 11.

軸支は両端面間を貫通してすることが強度上好ましいが、両端面から相互に回動軸を挿入して両持ち軸支しても良く、更には片持ちで軸支しても良い。
カメラ21が搭載されるカメラ指向部12−2は、回動軸Z1に対し略直交方向に配置された回動軸Z3を回動中心としてカメラ基部12−1に対し回動可能に片持ちで軸支される。
It is preferable that the shaft support penetrates between both end faces in terms of strength. ..
The camera-oriented unit 12-2 on which the camera 21 is mounted is rotatably cantilevered with respect to the camera base 12-1 with the rotation axis Z3 arranged in a direction substantially orthogonal to the rotation axis Z1 as the rotation center. Axial support.

ここで、カメラ21の配置方向は、回動軸Z3に対しても、略90度である。
つまり、カメラ21は、回動軸Z1と回動軸Z3という2つの略直交独立した回動軸により、本体部11に対して、立体角上でモーションを取ることが出来る。
Here, the arrangement direction of the camera 21 is approximately 90 degrees with respect to the rotation axis Z3.
That is, the camera 21 can take a motion on the solid angle with respect to the main body 11 by two substantially orthogonal and independent rotation axes, the rotation axis Z1 and the rotation axis Z3.

このように、カメラ21の光軸方向と表示部13の法線方向とのなす角度を変化させる回動軸Z1と、回動軸Z1とは異なる方向(本例では略直交方向)の回動軸Z3を含む複数の回動軸により、カメラ21を本体部11に対して相対的に回動可能に、直接的又は間接的に連結する部が、連結部12である。
連結部12は、本体部11より容積が小さい可動部を1以上有している。本例では、このような可動部として、カメラ基部12−1と、カメラ指向部12−2が設けられている。
撮像部たるカメラ21は、1以上の可動部のうち所定の1つの所定の面に配置されれば足りるが、本例では上述のようにカメラ指向部12−2の正面に配置されている。
そして、回動軸Z1の方向と、回動軸Z3の方向とのなす角度は、略90度である。
In this way, the rotation axis Z1 that changes the angle formed by the optical axis direction of the camera 21 and the normal direction of the display unit 13 and the rotation in a direction different from the rotation axis Z1 (in this example, substantially orthogonal directions). The connecting portion 12 is a portion that directly or indirectly connects the camera 21 with respect to the main body portion 11 by a plurality of rotating shafts including the shaft Z3.
The connecting portion 12 has one or more movable portions having a volume smaller than that of the main body portion 11. In this example, a camera base portion 12-1 and a camera-oriented portion 12-2 are provided as such movable portions.
It suffices if the camera 21 as an image pickup unit is arranged on a predetermined surface of one or more movable parts, but in this example, it is arranged in front of the camera-oriented unit 12-2 as described above.
The angle between the direction of the rotation axis Z1 and the direction of the rotation axis Z3 is approximately 90 degrees.

情報処理装置1には、さらに、当該情報処理装置1を机等の上に立てかけて配置させることができるように、スタンド14が設けられている。
スタンド14は、回動軸Z2を回動中心として本体部11に対して回動可能に軸支される。
即ち、スタンド14は、枠状に形成され、回動軸Z2を中心とする回動により本体部11と好適な任意の角度を成すことにより、水平面上で情報処理装置1を自立安定させる(後述する図5参照)。
なお、図示した平面形状略コの字状は一例であって、平面形状略U字状等であっても良いことは言うまでもない。
更には後述の垂直面上での使用が可能であれば、平面形状フック状等であっても良い。
The information processing apparatus 1 is further provided with a stand 14 so that the information processing apparatus 1 can be placed leaning against a desk or the like.
The stand 14 is rotatably supported with respect to the main body 11 with the rotation shaft Z2 as the rotation center.
That is, the stand 14 is formed in a frame shape and forms a suitable arbitrary angle with the main body 11 by rotation about the rotation axis Z2 to independently stabilize the information processing apparatus 1 on a horizontal plane (described later). See Figure 5).
It is needless to say that the illustrated planar U-shape is an example and may be a planar U-shape or the like.
Further, if it can be used on a vertical surface described later, it may have a planar hook shape or the like.

スタンド14は、連結部12を枠状に囲む形状とすることにより、スタンド14と連結部12を別々に離れた位置に配置するよりも大幅にスペース効率を上げることができ、無駄に情報処理装置1の筐体を大きくしないようにできる。または、内部基板を無駄に分割しないようにできる。
なお、連結部12とスタンド14は、回動軸に対する両端面についての中心線を、線A−Aのように略共有している。
By forming the stand 14 so as to surround the connecting portion 12 in a frame shape, the space efficiency can be significantly improved as compared with arranging the stand 14 and the connecting portion 12 at separate positions, which is a wasteful information processing device. The housing of 1 can be prevented from becoming large. Alternatively, the internal board can be prevented from being unnecessarily divided.
The connecting portion 12 and the stand 14 substantially share the center line of both end faces with respect to the rotation axis like the lines AA.

さらに以下、回動軸Z1乃至Z3について説明する。
回動軸Z1は、本体部11と連結部12を接続軸の回動中心であり、表示部13の短手方向に対して並行に配置されている。
回動軸Z1の回動範囲は、背面11bから略180度以上までであって、270度を超えることが望ましい。
Further, the rotation shafts Z1 to Z3 will be described below.
In the rotation shaft Z1, the main body portion 11 and the connecting portion 12 are the rotation centers of the connecting shaft, and are arranged in parallel with respect to the lateral direction of the display unit 13.
The rotation range of the rotation shaft Z1 is approximately 180 degrees or more from the back surface 11b, and it is desirable that the rotation range exceeds 270 degrees.

回動軸Z2は、本体部11とスタンド14との接続軸の回動中心である。
回動軸Z2の回動範囲は、背面11bから180度にまで達することが望ましく、特に背面11bから90度までの任意の角度を、水平面上での情報処理装置1の自重モーメントに対抗して維持できる様に、適度な回動抵抗が与えられていても良い。
これによりユーザは、情報処理装置1を、水平面上で所望の角度姿勢で自立安定させて配置することができる。
なお、スタンド14の回動軸Z2側にオフセットさせる部位を設けて、回動軸Z1と回動軸Z2の回動中心を共有させても良い。
The rotation shaft Z2 is the rotation center of the connection shaft between the main body 11 and the stand 14.
It is desirable that the rotation range of the rotation shaft Z2 reaches 180 degrees from the back surface 11b, and in particular, any angle from the back surface 11b to 90 degrees is opposed to the self-weight moment of the information processing device 1 on the horizontal plane. An appropriate rotation resistance may be given so that it can be maintained.
As a result, the user can arrange the information processing apparatus 1 independently and stably at a desired angle posture on a horizontal plane.
It should be noted that a portion to be offset may be provided on the rotation shaft Z2 side of the stand 14 so that the rotation center of the rotation shaft Z1 and the rotation shaft Z2 can be shared.

回動軸Z3は、カメラ基部12−1と、カメラ指向部12−2との接続軸の回動中心であり、表示部13の長手方向に対して並行に配置されている。
回動軸Z3は、回動軸Z1とは略直交して設けられ、回動軸Z1回りの略直交平面上を回動する。
回動軸Z3の回動範囲は、回動軸Z3が回動する回動軸Z1回りの略直交平面より左右180度ずつにまで達することが望ましい。
The rotation shaft Z3 is the rotation center of the connection shaft between the camera base portion 12-1 and the camera orientation portion 12-2, and is arranged in parallel with the longitudinal direction of the display unit 13.
The rotation shaft Z3 is provided substantially orthogonal to the rotation shaft Z1 and rotates on a substantially orthogonal plane around the rotation shaft Z1.
It is desirable that the rotation range of the rotation shaft Z3 reaches 180 degrees to the left and right from a substantially orthogonal plane around the rotation shaft Z1 in which the rotation shaft Z3 rotates.

図3は、図1の情報処理装置の連結部を回動させた様子を示す図である。
図3(A)では、図1の情報処理装置1の連結部12(より正確にはカメラ基部12−1)は、回動軸Z1を中心に90度回動した状態となっている。
図3(B)では、連結部12(より正確にはカメラ基部12−1)は、図3(A)の状態からさらに回動軸Z1を中心に回動し、回動軸Z1を中心に180度回動した状態となっている。
図3(C)では、連結部12(より正確にはカメラ指向部12−2)は、図3(B)の状態からさらに回動軸Z3を中心に90度回動した状態となっている。
図3(A)乃至図3(C)で示す様に、距離h1は、1軸目のヒンジの回転軸(中心)から、情報処理装置1(スマートフォン)の本体部11の上側面、情報処理装置1の天面(表示部13がある方)、または、情報処理装置1の底面(表示部13がない方)までの一番長い距離である。また、距離h2は、1軸目のヒンジの回転軸(中心)から2軸目のヒンジの回転断面までの距離である。そして、距離h1と距離h2との関係は、以下の式(2)で示す関係となる。
h2>h1・・・(2)
FIG. 3 is a diagram showing a state in which the connecting portion of the information processing apparatus of FIG. 1 is rotated.
In FIG. 3A, the connecting portion 12 (more accurately, the camera base portion 12-1) of the information processing apparatus 1 of FIG. 1 is in a state of being rotated 90 degrees about the rotation axis Z1.
In FIG. 3B, the connecting portion 12 (more accurately, the camera base portion 12-1) further rotates about the rotation axis Z1 from the state of FIG. 3A, and is centered on the rotation axis Z1. It is in a state of being rotated 180 degrees.
In FIG. 3C, the connecting portion 12 (more accurately, the camera-oriented portion 12-2) is in a state of being further rotated 90 degrees about the rotation axis Z3 from the state of FIG. 3B. ..
As shown in FIGS. 3A to 3C, the distance h1 is information processing from the rotation axis (center) of the first axis hinge to the upper side surface of the main body 11 of the information processing device 1 (smartphone). This is the longest distance to the top surface of the device 1 (the one with the display unit 13) or the bottom surface of the information processing device 1 (the one without the display unit 13). Further, the distance h2 is the distance from the rotation axis (center) of the hinge of the first axis to the rotation cross section of the hinge of the second axis. The relationship between the distance h1 and the distance h2 is expressed by the following equation (2).
h2> h1 ... (2)

図4は、図1の情報処理装置1のスタンド14を回動させた様子を示す図である。
図4(A)は、上述の図3(B)と同一の状態であり、スタンド14は回動しておらず、本体部11に収納されている。
図4(B)では、スタンド14は、図4(A)の状態からさらに回動軸Z2を中心に回動し、回動軸Z2を中心に180度回動した状態となっている。
また、図3と同様に、距離h1と距離h2の関係は、上記の式(2)と同様の関係である。
FIG. 4 is a diagram showing a state in which the stand 14 of the information processing apparatus 1 of FIG. 1 is rotated.
FIG. 4A is in the same state as in FIG. 3B described above, and the stand 14 is not rotated and is housed in the main body 11.
In FIG. 4B, the stand 14 is further rotated about the rotation shaft Z2 from the state of FIG. 4A, and is in a state of being rotated 180 degrees around the rotation shaft Z2.
Further, as in FIG. 3, the relationship between the distance h1 and the distance h2 is the same as that in the above equation (2).

図4(B)に示すようにスタンド14を回動軸Z2を中心に180度回動した状態にすることで、ユーザは、図4(C)に示すように、スタンド14を壁KBのクリップCL等にかけることによって、情報処理装置1を壁KBに取り付けることができる。
この図4(C)の状態では、カメラ21の光軸方向(被写体の撮影方向)及び表示部13の法線方向(ユーザが表示部13を見る方向)は、壁KBの表面に対する法線方向となっている。
したがって、ユーザは、壁KBに対向して位置することで、カメラ視点画像(自身が写る画像)をみながら、自身を被写体とした撮影、即ちセルフィショット(自撮り)をすることが容易にできる。
By rotating the stand 14 180 degrees around the rotation axis Z2 as shown in FIG. 4 (B), the user can clip the stand 14 to the wall KB as shown in FIG. 4 (C). The information processing device 1 can be attached to the wall KB by applying it to CL or the like.
In the state of FIG. 4C, the optical axis direction of the camera 21 (shooting direction of the subject) and the normal direction of the display unit 13 (direction in which the user looks at the display unit 13) are normal directions with respect to the surface of the wall KB. It has become.
Therefore, by being located facing the wall KB, the user can easily take a picture of himself / herself, that is, a selfie shot (selfie) while looking at the camera viewpoint image (the image of himself / herself). ..

以上説明したように、回動軸Z2によりスタンド14は本体部11に対して回動し、回動軸Z1及び回動軸Z3の2軸によりカメラ21(連結部12)は表示部13(本体部11)に対して回動する。
このため、ユーザは、セルフィショット(自撮り)等をする際に、図4に示すように情報処理装置1を壁KBにかけて使用することもできるし、図5に示すように情報処理装置1を卓上に立て掛けて使用することもできる。
As described above, the stand 14 is rotated with respect to the main body 11 by the rotating shaft Z2, and the camera 21 (connecting portion 12) is displayed by the display unit 13 (main body) by the two axes of the rotating shaft Z1 and the rotating shaft Z3. It rotates with respect to the part 11).
Therefore, the user can use the information processing device 1 by hanging it on the wall KB as shown in FIG. 4 when taking a selfie shot (selfie), or the information processing device 1 can be used as shown in FIG. It can also be used by leaning against the table.

図5は、図1の情報処理装置1を卓上に立て掛けて使用している様子を示す図である。
図5(A)は、表示部13が配置された正面11a側をみる視点による斜視図である。
図5(B)は、表示部13が配置された背面11b側をみる図1の情報処理装置の卓上での使用形態を示す斜視図である。本形態におけるスタンド14は、図4(A)の状態から回動軸Z2を中心に90度以内で回動した状態となっている。
FIG. 5 is a diagram showing a state in which the information processing apparatus 1 of FIG. 1 is leaned against a tabletop and used.
FIG. 5A is a perspective view from a viewpoint looking at the front surface 11a side on which the display unit 13 is arranged.
FIG. 5B is a perspective view showing a desktop usage pattern of the information processing apparatus of FIG. 1, which looks at the back surface 11b side on which the display unit 13 is arranged. The stand 14 in this embodiment is in a state of being rotated within 90 degrees around the rotation axis Z2 from the state of FIG. 4A.

回動軸Z2には、背面11bから90度までの任意の角度を、水平面上での情報処理装置1の自重モーメントに対抗して維持できる様に、適度な回動抵抗が与えられていても良い。
これによりユーザは、情報処理装置1を、水平面上で所望の角度姿勢で自立安定させて配置することができる。
Even if the rotation shaft Z2 is provided with an appropriate rotation resistance so that an arbitrary angle from the back surface 11b to 90 degrees can be maintained against the own weight moment of the information processing apparatus 1 on the horizontal plane. good.
As a result, the user can arrange the information processing apparatus 1 independently and stably at a desired angle posture on a horizontal plane.

図1の情報処理装置1に係るユーザは、自己を撮像する場合等には、図5に示すように、本体部11とスタンド14とが所定角度拡開するように変形した状態の情報処理装置1を、机上等に立設させる。
この状態でも、情報処理装置1は、回動軸Z1及び回動軸Z3を回動させることにより、カメラ21を被写体に向けることが出来る。
As shown in FIG. 5, the user related to the information processing apparatus 1 of FIG. 1 is in a state where the main body 11 and the stand 14 are deformed so as to expand by a predetermined angle when taking an image of himself / herself. 1 is erected on a desk or the like.
Even in this state, the information processing apparatus 1 can point the camera 21 at the subject by rotating the rotation shaft Z1 and the rotation shaft Z3.

さらに、情報処理装置1は、シャッターリモコン機能やセルフタイマー機能を併用することにより、本体部11を手で持たなくても撮影することができるので、後述する諸課題を解決することが出来る。 Further, by using the shutter remote control function and the self-timer function together, the information processing device 1 can take a picture without holding the main body 11 by hand, so that various problems described later can be solved.

以上説明した本発明が適用される情報処理装置1を採用することで、次のような各種各様な効果を奏することが可能である。 By adopting the information processing apparatus 1 to which the present invention described above is applied, it is possible to obtain various effects as described below.

即ち、従来のスマートフォンでのフロントカメラを用いたセルフィショット(自撮り)が全世界的に、特にアジア圏で流行っている。
しかしながら、従来のスマートフォンでは、下記のような様々な課題があった。
本発明が適用される情報処理装置1を採用することで、これら様々な課題を解決できるという効果を奏することができる。
That is, selfie shots (selfie shots) using the front camera of conventional smartphones are popular all over the world, especially in the Asian region.
However, conventional smartphones have various problems as described below.
By adopting the information processing apparatus 1 to which the present invention is applied, it is possible to achieve the effect of solving these various problems.

例えば、従来のスマートフォンを用いるユーザは、自分の手でシャッターを押すので、自分の手の長さ以上に離れた距離から自分たちの写真を撮ることができない。つまり、広角の限度があるので、一緒に撮りたい全員(家族、恋人、仲間など)が入らない可能性があったり、自分の全身写真を撮ることは不可能である。
この課題の従来の解決方法としては、セルフィスティック(自撮り棒)を用いるとい方法がある。この方法では、自分の手の長さ以上に離れた距離から写真を撮ることもできるが、セルフィスティックの長さ以上に離れた距離からは撮れない。加えて、セルフィスティックを持ち歩く必要性があり、安全性の観点からセルフィスティックの使用を禁止する場所(テーマパークやスポーツ施設やコンサート会場や駅のホームなど)も出てきており、万能な解決方法ではない。
つまり、セルフィスティックを用いないで撮影したいという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、スタンド14を有しているので、図4や図5に示すように壁や卓上に固定可能であり、セルフィスティックが不要になる。
For example, users of conventional smartphones press the shutter with their own hands, so they cannot take pictures of themselves from a distance longer than the length of their own hands. In other words, because of the wide-angle limit, it may not be possible for everyone (family, lover, friends, etc.) to take a picture together, or it is impossible to take a full-body picture of yourself.
As a conventional solution to this problem, there is a method of using a selfie stick. With this method, you can take pictures from a distance longer than the length of your hand, but you cannot take pictures from a distance longer than the length of the selfie stick. In addition, there are places where it is necessary to carry around the self-stick, and the use of the self-stick is prohibited from the viewpoint of safety (theme parks, sports facilities, concert venues, station platforms, etc.), which is a versatile solution. is not it.
In other words, there is a problem of wanting to shoot without using a selfish stick. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, since the information processing apparatus 1 to which the present invention is applied has the stand 14, it can be fixed to a wall or a table as shown in FIGS. 4 and 5, and no selfish stick is required.

また、自分の手を伸ばすので、シャッターを押した手が伸びた状態でしか撮影がされず、不自然なポーズになる。
これはセルフィスティックを使っても若干不自然さが緩和される場合もあるが、不自然さは残り、白分がとりたいポーズ(例えば、両手を使ったポーズなど)が出来ない場合がある。
Also, since I reach out my hand, I can only shoot with the hand that pressed the shutter extended, resulting in an unnatural pose.
This may be alleviated by using a selfish stick, but the unnaturalness may remain and the pose that the white part wants to take (for example, a pose using both hands) may not be possible.

つまり、セルフィスティックを用いないで撮影したいという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、スタンド14及びセルフタイマー並びにシャッターリモコン機能を有しているので、図4や図5に示すように壁や卓上に固定可能であり、セルフィスティックが不要になる。 In other words, there is a problem of wanting to shoot without using a selfish stick. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, since the information processing device 1 to which the present invention is applied has a stand 14, a self-timer, and a shutter remote control function, it can be fixed to a wall or a table as shown in FIGS. 4 and 5, and is selfish. Is no longer needed.

また、より大人数のセルフィになると、セルフィというより集合写真になるが、自分の手でも、セルフィスティックでも、全員がカメラに収まらない場合が有る。
係る場合は、仲間の一人が犠牲となって、撮影者となるが、撮影者は集合写真に入ることができない。
店舗で、パーティなどを開く際には、店員に依頼して、集合写真を撮ってもらうことが多いが、店員を呼ぶ必要があり、面倒である。
Also, when it comes to a larger number of SELPHY, it becomes a group photo rather than SELPHY, but there are cases where not everyone can fit in the camera, whether it is their own hands or SELPHY Stick.
In such a case, one of the companions will be sacrificed and become the photographer, but the photographer cannot enter the group photo.
When holding a party at a store, it is often the case to ask a clerk to take a group photo, but it is troublesome because it is necessary to call the clerk.

つまり、撮影対象者以外の人の手を煩わすことなく、撮影対象者を全員、写真に収めたいという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、スタンド14及びカメラの2軸回動機構を有しているので、図4や図5に示すように壁や卓上に固定可能であり、撮影対象者以外の人の手が不要になる。 That is, there is a problem that all the people to be photographed should be included in the photograph without bothering the hands of people other than the person to be photographed. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, since the information processing device 1 to which the present invention is applied has the stand 14 and the biaxial rotation mechanism of the camera, it can be fixed to a wall or a table as shown in FIGS. 4 and 5, and can be photographed. The hands of people other than the target person are no longer required.

また、例えば、スポーツのフォームを自分で確認する際に、スマートフォンのカメラを使って撮影したいが、スマートフォンを床や机の上などに固定するものがないと、撮影すらできず、スマートフォンでの撮影を諦める場合が多い。 Also, for example, when checking the form of sports by yourself, I want to shoot with the camera of the smartphone, but if there is nothing to fix the smartphone on the floor or desk, I can not even shoot, so I shoot with the smartphone I often give up.

同様に、机の上などにスマートフォンを置いて、セルフィショットを撮ることもあるが、被写体にフロントカメラを向けてスマートフォンを置く時に、安定して置けなかったり、設置に時間が掛かる。 Similarly, the smartphone may be placed on a desk or the like to take a selfie shot, but when the front camera is pointed at the subject and the smartphone is placed, it cannot be placed stably or it takes time to install.

つまり、三脚を用いないで撮影したいという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、スタンド14及びカメラの2軸回動機構を有しているので、図4や図5に示すように壁や卓上に固定可能であり、三脚が不要になる。
加えて、縦長の画面で撮影したい場合は、スタンド14を立て、連結部12を180度以上回動させることで、卓上に固定した状態で撮影できるので、三脚が不要になる。この場合、必ずしもスタンド14を立てる必要はない。
In other words, there is the problem of wanting to shoot without using a tripod. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, since the information processing device 1 to which the present invention is applied has the stand 14 and the two-axis rotation mechanism of the camera, it can be fixed to a wall or a table as shown in FIGS. 4 and 5, and is a tripod. Is no longer needed.
In addition, if you want to shoot on a vertically long screen, you can shoot while the stand 14 is upright and the connecting portion 12 is rotated 180 degrees or more so that it is fixed on the table, eliminating the need for a tripod. In this case, it is not always necessary to stand the stand 14.

また、スマートフォンでビデオチャットをすると、多くの人がスマートフォンのフロントカメラに自分の顔を映すために、チャットの間中ずっとスマートフォンを持っている必要がある。 Also, when video chatting on a smartphone, many people need to have the smartphone with them throughout the chat in order to see their face on the front camera of the smartphone.

調査によると80%の人が手に持ってチャットしていると答えていて、チャットする時間にも依るが、手が疲れてきてしまう。 According to the survey, 80% of people say that they are chatting with their hands in their hands, and depending on the time they chat, their hands get tired.

つまり、スマートフォンを手に持たないでビデオチャットをしたいという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、スタンド14及びカメラの回動機構を有しているので、図4や図5に示すように壁や卓上に固定可能であり、スマートフォンを手に持つことが不要になる。
加えて、縦長の画面で自分の顔を撮影してビデオチャットをしたい場合は、スタンド14を立て、連結部12を180度以上回動させることで、卓上に固定した状態で撮影できるので、スマートフォンを手に持つことが不要になる。この場合、必ずしもスタンド14を立てる必要はない。
In other words, there is the problem of wanting to have a video chat without holding a smartphone. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, since the information processing device 1 to which the present invention is applied has the stand 14 and the rotation mechanism of the camera, it can be fixed to a wall or a table as shown in FIGS. 4 and 5, and the smartphone can be held by hand. It becomes unnecessary to have it.
In addition, if you want to take a picture of your face on a vertically long screen and have a video chat, you can take a picture while fixing it on the table by standing the stand 14 and rotating the connecting part 12 by 180 degrees or more, so you can take a picture with a smartphone. It is no longer necessary to hold it in your hand. In this case, it is not always necessary to stand the stand 14.

また、これらの課題の解決策として、スマートフォンを机の上などに置くための、スタンドをスマートフォンに搭載する方法があるが、スタンドで表示画面とフロントカメラの角度が固定されてしまう為、必ずしも被写体方向にカメラが向かず、写真又は映像を撮るという目的には、こちらも万能な解決策にはならない。 In addition, as a solution to these problems, there is a method of mounting a stand on the smartphone to place the smartphone on a desk, but the angle between the display screen and the front camera is fixed by the stand, so the subject is not always the subject. Again, this is not a versatile solution for the purpose of taking a picture or video with the camera not pointing in the direction.

つまり、角度が固定されたフロントカメラを用いないで撮影したいという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、スタンド14及びカメラの2軸回動機構を有しているので、図4や図5に示すようにリアカメラを2軸回動により正面に回り込ませて自由な角度に指向させることが可能であり、角度が固定されたフロントカメラが不要になる。
加えて、縦長の画面で撮影したい場合は、スタンド14を立て、連結部12を180度以上回動させることで、卓上に固定した状態で撮影できるので、角度が固定されたフロントカメラが不要になる。この場合、必ずしもスタンド14を立てる必要はない。
That is, there is a problem that it is desired to shoot without using a front camera with a fixed angle. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, since the information processing device 1 to which the present invention is applied has the stand 14 and the two-axis rotation mechanism of the camera, the rear camera is rotated to the front by two-axis rotation as shown in FIGS. 4 and 5. It can be turned around and pointed at any angle, eliminating the need for a front camera with a fixed angle.
In addition, if you want to shoot on a vertically long screen, you can shoot while the stand 14 is upright and the connecting part 12 is rotated 180 degrees or more so that it is fixed on the table, eliminating the need for a front camera with a fixed angle. Become. In this case, it is not always necessary to stand the stand 14.

また、スマートフォンが仮にスタンドを備えても、置く場所がなく、壁しかなければ、スマートフォンを置くことは出来ない。
この課題の解決策として、壁に情報処理装置をぶら下げて固定する方法もあるが、その為のフックをスマートフォンに用意する必要があり、それもスマートフォン本体にスペースが必要になる。
Even if the smartphone is equipped with a stand, it cannot be placed if there is no place to put it and there is only a wall.
As a solution to this problem, there is a method of hanging an information processing device on the wall and fixing it, but it is necessary to prepare a hook for that purpose on the smartphone, which also requires space in the smartphone body.

つまり、フックを別途備えたくないという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、連結部12及びスタンド14を180度回動させた状態にすることで、スタンド14と連結部12の間に設けられている空隙を利用して、平面上に突起部やピン状部材を利用して懸架支持させることができるので、壁掛けでの使用に好適であり、フックを別途備える必要がなくなる。 That is, there is a problem that the hook is not provided separately. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, the information processing apparatus 1 to which the present invention is applied utilizes the gap provided between the stand 14 and the connecting portion 12 by rotating the connecting portion 12 and the stand 14 by 180 degrees. Since it can be suspended and supported on a flat surface by using a protrusion or a pin-shaped member, it is suitable for use on a wall, and it is not necessary to separately provide a hook.

また、フロントカメラは一般的に、リアカメラと比較して、
(ア)低解像度
(イ)低感度(暗いシーンではフラッシュなしでは撮影ができない)
(ウ)固定焦点で、オートフォーカスではない
(エ)オートフォーカスのものもあるが、オートフォーカスのスピードが遅い
(オ)低ズーム倍率
(カ)フラッシュライトがない
と、性能的に劣るものが多く、椅麗な画質で撮像できない。
加えて、リアカメラとフロントカメラは性能が異なる場合、1機種の為に、2つのカメラを開発する必要がある。
この課題の解決方法として、リアカメラで、セルフィショットを撮るアプリケーションソフトウェアがあるが、表示部が見えないので、声でナビゲートする等、使い勝手は非常に悪かった。
Also, the front camera is generally compared to the rear camera,
(A) Low resolution (B) Low sensitivity (Dark scenes cannot be shot without a flash)
(C) Fixed focus, not autofocus (d) Autofocus speed is slow (e) Low zoom magnification (f) Without a flashlight, many are inferior in performance. , I can't take pictures with beautiful image quality.
In addition, if the performance of the rear camera and the front camera are different, it is necessary to develop two cameras for one model.
As a solution to this problem, there is application software that takes self-shots with the rear camera, but since the display is not visible, it is very inconvenient to navigate by voice.

つまり、表示部を見ないでセルフィショットを撮る為のアプリケーションソフトウェアは、使いたくないという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、高性能カメラとしてのカメラ21を装置本体に対して自由な方向に向けることが可能であり、カメラ視点画像を視認しながらも、自由な姿勢で撮影できるので、表示部13を見ないでセルフィショットを撮る為のアプリケーションソフトウェアが不要になる。 In other words, there is a problem that application software for taking self-shots without looking at the display unit does not want to be used. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, in the information processing device 1 to which the present invention is applied, the camera 21 as a high-performance camera can be directed in any direction with respect to the device body, and the camera can be viewed in a free posture while visually recognizing the camera viewpoint image. Since it is possible to take a picture with the camera, application software for taking a selfie shot without looking at the display unit 13 becomes unnecessary.

また、上記の解決策であるスタンドと回動式カメラも、本体側に回動の為の各々の軸が必要になり、その2つの軸用にスペースを確保する必要があり、本体の筐体がより大きくなってしまう。加えて、カメラの回動の仕方にも依るが、スタンドで、立てたスマートフォンのカメラが回動しても、被写体にカメラが向かないことが多く、解決策にならないことが多い。被写体にカメラが向くように更に回動軸を増やすことも可能だが、写真を撮影する際に被写体に常にカメラを向けてから撮影するのは、面倒な場合が多い。 In addition, the stand and the rotary camera, which are the above solutions, also require each axis for rotation on the main body side, and it is necessary to secure space for the two axes, and the housing of the main body. Will be bigger. In addition, although it depends on how the camera is rotated, even if the camera of the smartphone that stands up on the stand rotates, the camera often does not face the subject, which is often not a solution. It is possible to increase the axis of rotation so that the camera faces the subject, but it is often troublesome to always point the camera at the subject when taking a picture.

つまり、少ない回動軸数で被写体に常にカメラを向けたいという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、スタンド14とカメラ21の回動軸を兼用させても良いので、図4や図5に示すように2軸回動だけで被写体に常にカメラ21を向けることが可能であり、回動軸を増やすことが不要になる。 That is, there is a problem that the camera is always aimed at the subject with a small number of rotation axes. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, since the information processing apparatus 1 to which the present invention is applied may use the rotation axes of the stand 14 and the camera 21 in combination, as shown in FIGS. 4 and 5, the camera is always rotated by only two axes. It is possible to point 21 and it is not necessary to increase the number of rotation axes.

また、従来の、リアカメラも正面表示部も本体に固定された情報処理装置では、目よりも高い位置から撮影するハイアングルショットや、腰よりも低い位置から撮影するローアングルショットは、カメラの向きと表示部の向きが対向しているので、表示部を見ながら撮影することは困難である。
例えば、ハイアングルショットは、写真を撮る際に、被写体が人垣に固まれていたりするときに、人垣の上から撮影するようなときに必要となるが、カメラを被写体に向けると表示部が上を向いてしまい、カメラ視点画像を視認しながら撮影することができない。
In addition, with the conventional information processing device in which both the rear camera and the front display are fixed to the main body, high-angle shots taken from a position higher than the eyes and low-angle shots taken from a position lower than the waist are shot by the camera. Since the orientation and the orientation of the display unit are opposite to each other, it is difficult to take a picture while looking at the display unit.
For example, a high-angle shot is necessary when taking a picture, when the subject is stuck in a crowd, or when shooting from above the crowd, but when the camera is pointed at the subject, the display section is on top. It turns to face and it is not possible to shoot while visually recognizing the camera viewpoint image.

同様に、腰よりも低い位置からカメラよりも高い位置にある被写体にカメラを向けると、表示部が下を向いてしまい、やはり、カメラ視点画像を視認しながら撮影することができない。
この課題の解決策として、カメラが回動すると、カメラの向きと表示部の向きを別々に設定できるので、カメラ視点画像を視認しながらの撮影が、可能になる。
Similarly, if the camera is pointed at a subject located higher than the camera from a position lower than the waist, the display unit faces downward, and it is still impossible to take a picture while visually recognizing the camera viewpoint image.
As a solution to this problem, when the camera is rotated, the orientation of the camera and the orientation of the display unit can be set separately, so that it is possible to take a picture while visually recognizing the camera viewpoint image.

この際に、カメラを回転させていくと、画面の上下方向が変わる時があるが、何も工夫を凝らさないと、上下方向が逆になってしまうことなどもある。
このようなハイアングルショットやローアングルショットの際には、カメラの回転する方向が決まっている(正位置から時計回りにしか回転しないとか)と撮影がしにくい為、両方向に回動可能であることが望ましい。
At this time, if you rotate the camera, the vertical direction of the screen may change, but if you do not devise anything, the vertical direction may be reversed.
In such high-angle shots and low-angle shots, if the direction of rotation of the camera is fixed (such as rotating only clockwise from the normal position), it is difficult to shoot, so it can rotate in both directions. Is desirable.

つまり、角度が固定されたリアカメラを用いないで撮影したいという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、スタンド14及びカメラ21の2軸回動機構を有しているので、図4や図5に示すようにリアのカメラ21を2軸回動により上下に自由な角度に指向させることが可能であり、角度が固定されたリアカメラが不要になる。
カメラ21を回動させていると、どこかのタイミングで、撮影できる画角(広角か通常か狭角か等)を自動で切り替えられると望ましい。一般的にはフロントカメラの光軸方向側は、被写体までの距離が短い場合が多いので、広角で撮影したいが、リアカメラの光軸方向側は、通常や狭角で撮影したい。よって、カメラの向きによって、画角が自動で変わると望ましい。
That is, there is a problem that it is desired to shoot without using a rear camera with a fixed angle. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, since the information processing device 1 to which the present invention is applied has a biaxial rotation mechanism of the stand 14 and the camera 21, the rear camera 21 is biaxially rotated as shown in FIGS. 4 and 5. This makes it possible to direct the camera up and down at any angle, eliminating the need for a rear camera with a fixed angle.
When the camera 21 is rotated, it is desirable that the angle of view (wide-angle, normal, narrow-angle, etc.) that can be photographed can be automatically switched at some timing. Generally, the distance to the subject is short on the optical axis side of the front camera, so I want to shoot at a wide angle, but I want to shoot at a normal or narrow angle on the optical axis side of the rear camera. Therefore, it is desirable that the angle of view changes automatically depending on the orientation of the camera.

また、セルフィショットを撮るときに、シャッターボタンやタッチパネルを押して、シャッターを下ろす必要があり、しっかりとスマートフォンをホールド出来ず、不安定になったスマートフォンを落としてしまうこともある。
この課題の解決策として、タイマー設定や、ジェスチャ認識や音声認識によるシャッター押下があるが、シャッターが下ろされるタイミングがわかりにくかったり、反応が悪かったりして、例えば、5人でジャンプした瞬間を撮りたいといった時には使いにくい。
Also, when taking a selfie shot, it is necessary to press the shutter button or touch panel to release the shutter, and it is not possible to hold the smartphone firmly, and the unstable smartphone may be dropped.
As a solution to this problem, there is a timer setting and shutter pressing by gesture recognition or voice recognition, but it is difficult to understand when the shutter is released or the reaction is bad, so for example, take a picture of the moment when five people jump. It is difficult to use when you want to.

つまり、スマートフォンから手を放してシャッターボタンを押して撮影したいという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、シャッターリモコン対応機能を有しているので、図4や図5に示すようにセルフィショットを撮るときに、シャッターボタンやタッチパネルを押すことなくシャッターを下ろすことが可能であり、しっかりとスマートフォンをホールドすることが不要になる。 In other words, there is a problem that you want to take a picture by releasing your hand from the smartphone and pressing the shutter button. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, since the information processing device 1 to which the present invention is applied has a shutter remote control compatible function, as shown in FIGS. 4 and 5, when taking a selfie shot, the shutter is not pressed without pressing the shutter button or the touch panel. It is possible to lower the smartphone, eliminating the need to hold the smartphone firmly.

ここで、シャッターリモコン対応機能があっても、例えば、10人でグループショットを撮影する際に、上述の情報処理装置1を机の上などに設置し、10人に向けカメラ21を回転させ、情報処理装置1から遠く離れると、表示部13が小さくて見えなくなってしまい、カメラ視点画像のフレームに全員が収まっているかわからないか又は各々の表情がわからない等の理由から、シャッターを切りにくい場合がある。
つまり、カメラ視点画像を何らかの方法で確認しながら、撮影したいという課題がある。
この課題の解決方法は、次のような手法を採用することである。即ち、本発明が適用される情報処理装置1に対して、カメラ視点画像を別のスマートフォンやパーソナルコンピュータなどの情報処理装置に、有線、もしくは無線で転送し、操作も可能にする画面共有機能を搭載するという手法を採用するとよい。
これにより、情報処理装置1のカメラ視点画像を他の情報処理装置と共有しながら、離れた位置から静止画や動画の撮影をすることが可能になる。情報処理装置同士が直接繋がる場合もあれば、インターネット回線を使って、自宅に置いた情報処理装置1のカメラ視点画像をオフィスのパーソナルコンピュータと画面共有し、そのパーソナルコンピュータの画面を見ながら、自宅に残っているペットの撮影をしたりすることも可能である。
Here, even if there is a shutter remote control compatible function, for example, when a group shot is taken by 10 people, the above-mentioned information processing device 1 is installed on a desk or the like, and the camera 21 is rotated toward 10 people. If the information processing device 1 is far away, the display unit 13 becomes too small to be seen, and it may be difficult to release the shutter because it may not be possible to see if everyone fits in the frame of the camera viewpoint image or the facial expressions of each may not be known. be.
That is, there is a problem that one wants to take a picture while checking the camera viewpoint image by some method.
The solution to this problem is to adopt the following method. That is, for the information processing device 1 to which the present invention is applied, a screen sharing function that transfers a camera viewpoint image to another information processing device such as a smartphone or a personal computer by wire or wirelessly and enables operation is provided. It is advisable to adopt the method of mounting.
This makes it possible to shoot a still image or a moving image from a distant position while sharing the camera viewpoint image of the information processing device 1 with another information processing device. In some cases, the information processing devices are directly connected to each other, or the camera viewpoint image of the information processing device 1 placed at home is shared with the personal computer in the office by using the Internet line, and the screen of the personal computer is viewed at home. It is also possible to take pictures of the remaining pets.

また、従来のデジタルカメラやスマートフォンでも、カメラを横移動させることによって、合成のパノラマショットを撮ることができる。
しかし、スマートフォンやカメラを様々な方向に向けて横移動しながら撮影する必要があり、綺麗に合成できない場合が多い。
Also, with a conventional digital camera or smartphone, you can take a composite panoramic shot by moving the camera sideways.
However, it is necessary to shoot while moving the smartphone or camera sideways in various directions, and it is often not possible to combine them neatly.

つまり、本体を横移動させることなくカメラで周囲を撮影したいという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、カメラ21の回動軸Z1及びZ3についての回動は電動であって良いので、図3に示すように本体を止めたままカメラ21をパンさせることが可能であり、カメラ21を横移動させることが不要になる。 That is, there is a problem that the camera wants to take a picture of the surroundings without moving the main body sideways. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, in the information processing apparatus 1 to which the present invention is applied, the rotation of the rotation axes Z1 and Z3 of the camera 21 may be electric, so that the camera 21 is panned while the main body is stopped as shown in FIG. It is possible to make the camera 21 move laterally, and it is not necessary to move the camera 21 laterally.

また、従来より、人間のジェスチャを機器やゲームの操作に活かそうという試みがあるが、ジェスチャを認識するカメラは常に被写体を向いている必要があることから、カメラ装置とゲーム装置とは別に用意する必要があり、スマートフォン1台で処理することが出来なかった。
かつ、ジェスチャ認識用のカメラは非常に高価であり、追加の費用が発生していた。
In addition, there have been attempts to utilize human gestures in the operation of devices and games, but since the camera that recognizes gestures must always face the subject, a camera device and a game device are prepared separately. I had to do it, and I couldn't handle it with one smartphone.
Moreover, the camera for gesture recognition is very expensive, and an additional cost is incurred.

つまり、ジェスチャ認識専用のカメラを使わずジェスチャ認識したいという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、人に向けるカメラ21が高機能(例えば、Exvisionのジェスチャ認識)であれば可能であり、ジェスチャ認識専用のカメラが不要になる。 In other words, there is a problem of wanting to recognize gestures without using a camera dedicated to gesture recognition. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, the information processing apparatus 1 to which the present invention is applied is possible if the camera 21 aimed at a person has high functionality (for example, gesture recognition of exhibition), and a camera dedicated to gesture recognition becomes unnecessary.

また、従来から、スマートフォンには、歩行者用のナビゲーションソフトがあるが、それでも特に屋外だと、自分が向いている方向が簡単にわからず、自分の進むべき方向がわからなかったり、わかるのに時間が掛かったりする。
この課題の解決策として、カメラを使ったARによるナビゲーションがある。
In addition, smartphones have traditionally had navigation software for pedestrians, but even so, especially outdoors, it is not easy to know the direction you are facing, and you do not know or know the direction you should go. It takes time.
As a solution to this problem, there is AR navigation using a camera.

当該ナビゲーションは、実際にカメラに写っている映像に矢印を重ね合わせたりするユーザインターフェースにより、方角を認識するのに時間が掛かかることもなく、直ぐに使えるようになる。
ただし、本体部背面に直交する角度で固定されたカメラで撮影するためには、常にスマートフォン本体部を地面と垂直に持つ必要があり、その際の表示部は非常に見難い角度になったり、ずっと持つのに疲れたりする。
The navigation can be used immediately without taking a long time to recognize the direction by the user interface that superimposes the arrow on the image actually captured by the camera.
However, in order to shoot with a camera fixed at an angle orthogonal to the back of the main unit, it is necessary to always hold the smartphone main unit perpendicular to the ground, and the display unit at that time may be at a very difficult angle to see. I'm tired of having it all the time.

屋外での歩行中にスマートフォンを使用する行為である「歩きスマホ」も社会現象となっているが、画面に集中しているので、ぶつかりそうになるまで、なかなか気付かない。
これら2つの課題も、回動式のカメラがあれば、解決できる場合がある。
「歩きスマホ」時に、回動したカメラ21の映像を表示部13にウィンドウの一つとして表示したり、障害物の存在を、音や画面や振動で伝えることも可能になり、危険を回避できる。
"Walking smartphone", which is the act of using a smartphone while walking outdoors, is also a social phenomenon, but since it is concentrated on the screen, it is hard to notice until it is about to collide.
These two problems may be solved if there is a rotary camera.
During "Walking smartphone", the image of the rotated camera 21 can be displayed on the display unit 13 as one of the windows, and the existence of obstacles can be communicated by sound, screen or vibration, and danger can be avoided. ..

本形態では、表示面に対してカメラが縦方向に回動する為、上記2つの解になりうるが、カメラの向きがスムーズに回動する場合は、カメラが遊動して安定しない、という問題もある。 In this embodiment, since the camera rotates in the vertical direction with respect to the display surface, the above two solutions can be obtained, but if the direction of the camera rotates smoothly, the camera is idle and unstable. There is also.

つまり、本体を把持して安定させても、カメラが遊動して安定しないという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、カメラ21の回動を特定の角度でロックできて良く、本体部11を把持して安定させれば、カメラ21も安定する。 That is, even if the main body is gripped and stabilized, there is a problem that the camera is idle and unstable. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, the information processing apparatus 1 to which the present invention is applied may be able to lock the rotation of the camera 21 at a specific angle, and if the main body 11 is gripped and stabilized, the camera 21 is also stabilized.

また、近年、万が一の事故の際、映像データやGPS(Global Positioning System)によるデータなどを記録することにより、事故の客観的な検証に寄与することを目的とする、自動車や自転車に搭載するドライブレコーダが急速に広がっている。
スマートフォンにアプリケーションソフトウェアをインストールすることで、ドライブレコーダ代わりにすることも可能であるが、あまり、広まっていない。
自動車の場合の理由として、車のダッシュボードの上に吸盤や両面テープなどでスマートフォン等を固定するホルダを使って、ドライバから表示部を見やすいようにスマートフォンを固定すると、そのスマートフォンのカメラの光軸方向は、撮影したい車前方や後方を向かず、ダッシュボードが写ってしまう。
つまり、ドライバから見やすい位置かつ運転の妨げにならない位置にスマートフォンを置くと、ドライブレコーダの役割を果たせない。一方、ドライブレコーダとしての映像を優先すると、スマートフォンをドライバから見にくい位置に設置しなければならない。そうすることによって、スマートフォンをドライブレコーダ兼ナビゲーションシステムとして利用したいなどの兼用用途を満たすことができなくなってしまう。自転車の場合も同様である。その為、スマートフォンをドライブレコーダとして使うことがあまり広まっていないと考えられる。
つまり、スマートフォンをドライブレコーダとして利用しながら、他の用途にも同時に使いたいという課題がある。
この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、カメラ21を装置本体に対して自由な方向に向けることが可能であり、ナビゲーションの地図を表示しながら、画面の一部にカメラ視点画像をPicture in Pictureのような形で表示できるので、スマートフォンをドライブレコーダとして利用しながら、他の用途にも同時に使うことができる。よって、専用のドライブレコーダが不要になる。
なお、自動車への設置は、横長画面になるように設置するが、自転車への設置は、縦長画面になるように設置するなど、カメラ21が2軸で回転できるので、幅広い設置の仕方に対応が可能である。
Also, in recent years, in the event of an accident, a drive mounted on a car or bicycle, which aims to contribute to the objective verification of the accident by recording video data and data by GPS (Global Positioning System). Recorders are spreading rapidly.
It is possible to use it as a drive recorder by installing application software on a smartphone, but it is not widely used.
The reason for the case of a car is that if you use a holder on the dashboard of the car to fix the smartphone etc. with a sucker or double-sided tape and fix the smartphone so that the driver can easily see the display part, the optical axis of the camera of the smartphone The direction is not the front or the back of the car you want to shoot, and the dashboard is reflected.
In other words, if the smartphone is placed in a position that is easy for the driver to see and does not interfere with driving, it cannot play the role of a drive recorder. On the other hand, if priority is given to the image as a drive recorder, the smartphone must be installed in a position that is difficult for the driver to see. By doing so, it becomes impossible to satisfy the dual purpose such as wanting to use the smartphone as a drive recorder and a navigation system. The same applies to bicycles. Therefore, it is considered that the use of smartphones as drive recorders is not widely used.
In other words, there is a problem that while using a smartphone as a drive recorder, we want to use it for other purposes at the same time.
The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, in the information processing apparatus 1 to which the present invention is applied, the camera 21 can be directed in any direction with respect to the apparatus main body, and the camera viewpoint image is displayed on a part of the screen while displaying the navigation map. Since it can be displayed in the form of a Picture in Picture, it can be used for other purposes at the same time while using the smartphone as a drive recorder. Therefore, a dedicated drive recorder becomes unnecessary.
The camera 21 can be rotated on two axes, such as installing it on a car so that it has a horizontally long screen, but installing it on a bicycle so that it has a vertically long screen, so it can be installed in a wide range of ways. Is possible.

また、今後、スマートフォンの業界では、リアカメラにセンサを複数個搭載して、写真撮影だけではなく、距離を測定したり、ズームに活用したりする例が増えてくると見られている。だが、フロントカメラ側も同じ対応をすると、コストが倍掛かってしまうので、見送られる可能性が高く、フロントとリアでカメラの機能差が出てしまう。 In the future, in the smartphone industry, it is expected that there will be an increasing number of cases where multiple sensors are mounted on the rear camera and used not only for taking pictures but also for measuring distances and zooming. However, if the same measures are taken on the front camera side, the cost will be doubled, so there is a high possibility that it will be forgotten, and there will be a difference in camera functions between the front and rear.

つまり、リアカメラしか高機能化させられないという課題がある。この課題の解決方法は、本発明が適用される情報処理装置1を採用することである。即ち、本発明が適用される情報処理装置1は、ステレオカメラへの応用を想定し、回動するカメラ21があれば、解決が可能であり、フロントカメラへの機能追加の対応が不要になる。 In other words, there is a problem that only the rear camera can be made highly functional. The solution to this problem is to adopt the information processing apparatus 1 to which the present invention is applied. That is, the information processing device 1 to which the present invention is applied can be solved if there is a rotating camera 21 assuming application to a stereo camera, and it is not necessary to add a function to the front camera. ..

従来の情報処理装置では、撮影した画像をフルサイズで表示させた画面で確認しながら、取捨選択していく作業は容易ではなかった。
本発明の情報処理装置1の一実施形態によれば、図6に示すように、カメラで撮影した画像をスライドショーで自動再生し、逐次、取捨選択できる機能を提供することができる。削除ボタンB1、検討中ボタンB2、保持ボタンB3の3つのボタンが表示されているイメージである。
すなわち、ユーザがいずれか1つのボタン選ぶと、次の写真に切り替わっていく。
当該操作は必ずしも人手による必要は無く、AI等により自動化して良い。これはアプリケーションソフトウェアの機能なので、従来の情報処理装置でも実現は可能である。
With conventional information processing devices, it has not been easy to select images while checking them on a screen that displays captured images in full size.
According to one embodiment of the information processing apparatus 1 of the present invention, as shown in FIG. 6, it is possible to provide a function of automatically reproducing an image taken by a camera in a slide show and sequentially selecting the images. It is an image in which three buttons, a delete button B1, a review button B2, and a hold button B3, are displayed.
That is, when the user selects any one button, the picture switches to the next picture.
The operation does not necessarily have to be done manually and may be automated by AI or the like. Since this is a function of application software, it can be realized even with a conventional information processing device.

従来の情報処理装置(例えばスマートフォン)では、店舗等の屋内(A)Rによるナビゲーションを行う際には、スマートフォンを垂直に立てながら、撮影する必要があり、歩きながら、スマートフォンを垂直に保つのは、不自然な持ち方になり、疲れてしまう。
本発明の情報処理装置1の一実施形態によれば、図7(B)に示すように、2軸回転カメラ、1軸回転カメラ、又は360度カメラで撮影した画像に対して、カメラが回転させることができ、ディスプレイを見やすい角度で保持した状態でカメラを進行方向に向けることができるので、図7(A)Aに示すように、AR上で屋内のナビゲーションを行う機能を提供することができる。
With conventional information processing devices (for example, smartphones), when navigating indoors (A) R in stores, etc., it is necessary to take pictures while standing the smartphone vertically, and keeping the smartphone vertical while walking is not necessary. , It becomes an unnatural way of holding and I get tired.
According to one embodiment of the information processing apparatus 1 of the present invention, as shown in FIG. 7B, the camera rotates with respect to an image taken by a 2-axis rotating camera, a 1-axis rotating camera, or a 360-degree camera. Since the camera can be turned in the direction of travel while the display is held at an easy-to-see angle, it is possible to provide a function for indoor navigation on the AR as shown in FIG. 7 (A) A. can.

例えば、ガイド情報GI1は、砂糖が少ないこと(例えばユーザ宅の貯蔵量や、売り場の陳列量)を、AR上で示している。
例えば、ガイド情報GI2は、値引き品売り場の方向を、AR上で示している。
例えば、ガイド情報GI3は、10%値引き商品の陳列位置を、AR上で示している。
例えば、ガイド情報GI4は、10色のカラーバリエーションの商品の陳列位置を、AR上で示している。
更に、情報処理装置1は、購入したいアイデムがどこにあるか等の、店舗の中のナビゲーションを行う。
情報処理装置1は、カメラにユーザが探している対象物がカメラ視点画像に入ると画面上にマークや音や振動を出して良い。
情報処理装置1は、対象物から遠ざかると音量を下げる、又は上げるなどによりユーザに通知して良い。
更に、従来のカメラの角度が固定された情報処理装置でも、同じ機能を搭載しても良い。
For example, the guide information GI1 indicates on the AR that the amount of sugar is low (for example, the amount of storage in the user's house or the amount of display in the sales floor).
For example, the guide information GI2 indicates the direction of the discounted goods section on AR.
For example, the guide information GI3 indicates the display position of the 10% discount product on the AR.
For example, the guide information GI4 indicates the display position of the product of 10 color variations on the AR.
Further, the information processing device 1 performs navigation in the store, such as where the ideal to be purchased is located.
The information processing device 1 may generate a mark, sound, or vibration on the screen when the object that the user is looking for enters the camera viewpoint image on the camera.
The information processing apparatus 1 may notify the user by lowering or raising the volume when the object is moved away from the object.
Further, a conventional information processing device having a fixed angle of the camera may be equipped with the same function.

従来の情報処理装置(例えばスマートフォン)では、屋外における歩行者(A)Rによるナビゲーションの際には、スマートフォンを垂直に立てながら、周辺を撮影する必要があった。
そのため、歩きながら、スマートフォンを垂直に保つのは、不自然な持ち方になり、疲れてしまう。よって、ARによるナビゲーションは一般的ではなく、ほとんど使われていない。よって、歩行者(A)Rナビ中に位置及びカメラの方向を勘案して広告を出すことはほとんど行われていない。
本発明の情報処理装置1の一実施形態によれば、図8(B)に示すように、2軸回転カメラ、1軸回転カメラ、又は360度カメラで撮影した画像に対して、ディスプレイを見やすい角度で保持した状態でカメラを進行方向に向けることができるので、見やすく、疲れにくい状態で図8(A)に示すように、ARによるナビゲーションが行える。よって、そ(A)R上で画像または、音声による広告を出す機能を提供することができて良い。
In a conventional information processing device (for example, a smartphone), when navigating by a pedestrian (A) R outdoors, it is necessary to take a picture of the surroundings while standing the smartphone vertically.
Therefore, keeping the smartphone vertical while walking is an unnatural way to hold it and makes you tired. Therefore, navigation by AR is not common and is rarely used. Therefore, advertisements are rarely placed in the pedestrian (A) R navigation in consideration of the position and the direction of the camera.
According to one embodiment of the information processing apparatus 1 of the present invention, as shown in FIG. 8B, it is easy to see the display for an image taken by a 2-axis rotating camera, a 1-axis rotating camera, or a 360-degree camera. Since the camera can be pointed in the direction of travel while being held at an angle, navigation by AR can be performed as shown in FIG. 8 (A) in a state where it is easy to see and does not get tired easily. Therefore, it may be possible to provide a function of displaying an image or a voice advertisement on the (A) R.

例えば、広告AD1は、全品10%値引きセールを実施中である旨の位置情報付きの広告を、AR上で示している。
例えば、広告AD2は、近日営業を開始する店舗又は開店から日が浅い店舗の店舗名の、位置情報付きの広告を、AR上で示している。
ここで、情報処理装置1は、AR広告を出す又は出さないについて、ユーザがメニューで選択できて良い。
更に、情報処理装置1は、内容について、例えばセール情報に限定したり、レストランの広告に限定する等をメニューで選択できて良い。
また、広告主側も、メニューで出稿対象ユーザの属性等を指定できて良い。
更に、情報処理装置1は、広告が表示されると、音や振動によりユーザに通知して良い。
更に、情報処理装置1は、広告が表示されている場所に向けて、広告に気づくように、カメラが自動で回転する機能を備えて良い。
更に、従来のカメラの角度が固定された情報処理装置でも、同じ機能を搭載しても良い。
For example, the advertisement AD1 shows an advertisement with location information indicating that a 10% discount sale for all products is being carried out on AR.
For example, the advertisement AD2 shows an advertisement with location information of a store name of a store that will start business soon or a store that has just opened, on AR.
Here, the information processing apparatus 1 may allow the user to select in the menu whether or not to display the AR advertisement.
Further, the information processing apparatus 1 may be able to select from the menu, for example, the content is limited to sale information, restaurant advertisements, and the like.
In addition, the advertiser side may also be able to specify the attributes and the like of the advertisement target user in the menu.
Further, the information processing apparatus 1 may notify the user by sound or vibration when the advertisement is displayed.
Further, the information processing apparatus 1 may have a function of automatically rotating the camera toward the place where the advertisement is displayed so as to notice the advertisement.
Further, a conventional information processing device having a fixed angle of the camera may be equipped with the same function.

従来の情報処理装置(例えばスマートフォン)にも、カメラの撮影映像に対して、ARで翻訳を表示する機能があった。しかしながら、上述したように、ARのナビゲーションは、スマートフォンを不自然な体勢で持つ必要があるので、あまり一般的ではなく、その中で、ARのナビゲーションからアプリケーションソフトウェアを切り替えることなく、ARで翻訳等を出すことは容易ではなかった。
本発明の情報処理装置1の一実施形態によれば、2軸回転カメラ、1軸回転カメラ、又は360度カメラで撮影した画像に対して、(ナビゲーションの最中などで)AR上で翻訳等の情報を出す機能を提供することができる。
Conventional information processing devices (for example, smartphones) also have a function of displaying translations in AR for images taken by a camera. However, as mentioned above, AR navigation is not very common because it is necessary to hold the smartphone in an unnatural posture, and in that, translation etc. with AR without switching application software from AR navigation etc. It was not easy to issue.
According to one embodiment of the information processing apparatus 1 of the present invention, an image taken by a 2-axis rotating camera, a 1-axis rotating camera, or a 360-degree camera is translated on AR (during navigation, etc.). It is possible to provide a function to output information.

Google LLCが始めたストリートビューサービスは、過去に撮影した映像を表示するだけなので、地図上の各ポイントに対して、ほぼリアルタイムで表示することは容易ではなかった。
本発明の情報処理装置1の一実施形態によれば、図9に示すように、自動車の運転中に2軸回転カメラ、1軸回転カメラ、又は360度カメラで撮影したARナビゲーションで使用する背景映像のデータをクラウドCDにアップロードすることで、ストリートビューの地図上のポイントに対して、そこをナビゲーションサービスなどで通過した背景映像を表示することで、ほぼリアルタイムのストリートビューを表示する機能を提供することができる。
ここで、ほぼリアルタイムのストリートビューには、絶対時刻だけではなく、相対時間つまり、何分前の情報かを表示させて良い。
また、クラウドCDに接続されたサーバ等は、複数台のカメラ映像を組み合わせて、映像を作成して良い。
また、情報処理装置1は、ある地点を指定すると、その前を通過した映像を時間順で最新のものから表示して良い。
この様にすることにより、ユーザは、例えば、ラーメン店の行列の映像RMを携帯情報端末で事前に閲覧し、有名ラーメン店の前に並んでいる人の数を確認したり、ガソリンスタンドの映像GSの価格情報を見るといった利用が可能となる。
上記に加えて、ある地点を指定した場合に、それ以降にその場所の画像が撮られる度にユーザに通知を出して良い。
更に、クラウドCDに接続されたサーバ等は、上記データからリアルタイムのガソリンスタンドの値段を一覧できるデータベースを作成して良い。
The Street View service started by Google LLC only displays images taken in the past, so it was not easy to display each point on the map in near real time.
According to one embodiment of the information processing apparatus 1 of the present invention, as shown in FIG. 9, a background used in AR navigation taken by a 2-axis rotating camera, a 1-axis rotating camera, or a 360-degree camera while driving a car. By uploading the video data to the cloud CD, it provides a function to display the street view in near real time by displaying the background video that passed through the point on the map of the street view with a navigation service etc. can do.
Here, in the near real-time street view, not only the absolute time but also the relative time, that is, the information of how many minutes ago may be displayed.
Further, the server or the like connected to the cloud CD may create an image by combining the images of a plurality of cameras.
Further, when the information processing apparatus 1 specifies a certain point, the image passing in front of the point may be displayed in chronological order from the latest one.
By doing so, for example, the user can browse the video RM of the procession of the ramen shop in advance on a mobile information terminal, check the number of people lined up in front of the famous ramen shop, or the video of the gas station. You can use it to see the price information of GS.
In addition to the above, if a certain point is specified, the user may be notified each time an image of that place is taken after that.
Further, the server or the like connected to the cloud CD may create a database that can list the prices of gas stations in real time from the above data.

従来の情報処理装置では、本体とカメラは固定されており、本体の向きとカメラの向きは同じであったが、カメラが回転する情報処理装置1の場合は、本体とカメラの向きは、異なっている場合が多いので、それぞれに向きを判定する仕組みが情報処理装置1には必要となる。
そこで、本発明の情報処理装置1の一実施形態は、図10又は図11に示すように、被写体を撮像する撮像部と、前記撮像部により撮像される前記被写体を含む撮像画像を表示する表示部が所定の一面に配置された、前記撮像部よりも容積が大きい本体部と、前記撮像部の光軸方向と前記表示部の法線方向とのなす角度を変化させるように前記撮像部を、前記表示部の短手方向に平行な回転軸で両持ち軸支しながら、前記本体部に対して相対的に回動可能に支持するヒンジ部と、前記本体部の前記一面と対向する他の一面に設けられ、前記ヒンジ部により前記他の一面側に回転された前記撮像部を前記本体部と厚み方向で重なる形で収容可能な凹みと、前記本体部に配置され、単体で前記本体部の方向を検出する第1センサと、前記撮像部に配置され、単体で前記撮像部の方向を検出する第2センサと、を備える。そして、前記第2のセンサにより検出された前記撮像部の方向に基づき、デジタル写真ファイルに方向の情報を付与するよう構成される。
本発明の情報処理装置1の一実施形態によれば、図10又は図11に示すように、ホール素子で、カメラの画面との相対角度に合わせて画面を切り替えて、加速度センサで、写真の方向の情報を付加する。
図10は、情報処理装置1が横位置の状態で、本体とは異なる方向に向けたカメラによる撮像時の方向の情報を写真に付加している様子、ならびに表示の仕方を示す図である。
図10(A)は、横位置の状態での使用状態であり、回動軸Z1及び回動軸Z3を中心にカメラ21を回動させた場合の共通の本体姿勢を示している。即ち、表示部13は略垂直でユーザ側に向けられており、表示部13の背面側には、リアカメラであれば撮像可能な位置関係に、被写体が存在していることを示している。
図10(B)は、横位置の状態での、通常のリアカメラと同様の使用状態であり、本体と同じ、上下(天地)の情報が、写真に付加される。
図10(C)は、横位置の状態で、回動軸Z1を中心にカメラ21を90度回動した状態である。係る状態においては、情報処理装置1は、上下については表示を反転させないが、左右については鏡モードがONであれば、表示が左右で反転する切り替えポイントである。鏡モードとは、ディスプレイに表示しているカメラの撮像画像を左右反転させて鏡のように表示し、撮影するモードのことで、通常、情報処理装置は、ONになっている場合が多い。もちろん、ユーザが設定することも可能になっている場合が多い。即ち、回動軸Z1を中心にカメラ21を略90度以上又は略90度を超えて回動させることにより、左右については鏡モードがONの場合、反転をさせることとなる。
図10(D)は、横位置の状態で、回動軸Z1を中心にカメラ21を180度回動した状態である。係る状態においては、上下は反転させないが、鏡モードがONなら、左右を反転させる。
図10(E)は、横位置の状態で、回動軸Z1を中心にカメラ21を180度回動させ、回動軸Z3を中心にカメラ21を45度回動した状態である。係る状態においては、上下は反転させないが、鏡モードがONなら、左右を反転させる。
図10(F)は、横位置の状態で、回動軸Z1を中心にカメラ21を180度回動させ、回動軸Z3を中心にカメラ21を90度回動した状態である。係る状態においては、上下については反転を切替ポイントであると同時に、左右についても、反転をさせる鏡モードがONなら、表示の切替ポイントである。
図10(G)は、横位置の状態で、回動軸Z1を中心にカメラ21を180度回動させ、回動軸Z3を中心にカメラ21を180度回動した状態である。係る状態においては、上下については反転させ、左右については(C)の段階と、(F)の段階で切り替わり、もとに戻ったので、反転をさせない。
In the conventional information processing device, the main body and the camera are fixed, and the direction of the main body and the direction of the camera are the same, but in the case of the information processing device 1 in which the camera rotates, the directions of the main body and the camera are different. In many cases, the information processing apparatus 1 needs a mechanism for determining the direction of each.
Therefore, in one embodiment of the information processing apparatus 1 of the present invention, as shown in FIGS. 10 or 11, a display that displays an image pickup unit that captures a subject and an image pickup image including the subject imaged by the image pickup unit. The image pickup unit is arranged so as to change the angle between the main body portion having a larger volume than the image pickup unit and the optical axis direction of the image pickup unit and the normal direction of the display unit. , A hinge portion that supports the display unit so as to be relatively rotatably supported with respect to the main body portion while supporting both holding shafts with a rotation axis parallel to the lateral direction of the display unit, and the other that faces the one surface of the main body portion. A recess provided on one surface and capable of accommodating the image pickup portion rotated to the other one surface side by the hinge portion so as to overlap the main body portion in the thickness direction, and the main body is arranged on the main body portion as a single unit. It includes a first sensor that detects the direction of the unit, and a second sensor that is arranged in the image pickup unit and detects the direction of the image pickup unit by itself. Then, it is configured to add direction information to the digital photo file based on the direction of the image pickup unit detected by the second sensor.
According to one embodiment of the information processing apparatus 1 of the present invention, as shown in FIG. 10 or 11, the Hall element switches the screen according to the relative angle with the screen of the camera, and the accelerometer is used to capture a photograph. Add direction information.
FIG. 10 is a diagram showing a state in which the information processing apparatus 1 is in a horizontal position, and information on a direction at the time of imaging by a camera directed in a direction different from that of the main body is added to a photograph, and a display method is shown.
FIG. 10A shows a usage state in the horizontal position, and shows a common main body posture when the camera 21 is rotated around the rotation shaft Z1 and the rotation shaft Z3. That is, the display unit 13 is substantially vertical and faces the user side, indicating that the subject exists on the back side of the display unit 13 in a positional relationship that can be captured by a rear camera.
FIG. 10B shows a usage state similar to that of a normal rear camera in the horizontal position, and the same vertical (top and bottom) information as the main body is added to the photograph.
FIG. 10C shows a state in which the camera 21 is rotated 90 degrees around the rotation axis Z1 in the horizontal position. In such a state, the information processing apparatus 1 does not invert the display up and down, but is a switching point where the display is inverted left and right if the mirror mode is ON for the left and right. The mirror mode is a mode in which an image captured by a camera displayed on a display is flipped horizontally and displayed like a mirror to take a picture. Normally, the information processing device is often turned on. Of course, it is often possible for the user to set it. That is, by rotating the camera 21 around the rotation axis Z1 by about 90 degrees or more or more than about 90 degrees, the left and right sides are reversed when the mirror mode is ON.
FIG. 10D shows a state in which the camera 21 is rotated 180 degrees around the rotation axis Z1 in the horizontal position. In such a state, the top and bottom are not inverted, but if the mirror mode is ON, the left and right are inverted.
FIG. 10E shows a state in which the camera 21 is rotated 180 degrees around the rotation axis Z1 and the camera 21 is rotated 45 degrees around the rotation axis Z3 in the horizontal position. In such a state, the top and bottom are not inverted, but if the mirror mode is ON, the left and right are inverted.
FIG. 10F shows a state in which the camera 21 is rotated 180 degrees around the rotation axis Z1 and the camera 21 is rotated 90 degrees around the rotation axis Z3 in the horizontal position. In such a state, inversion is a switching point for up and down, and at the same time, it is a display switching point for left and right if the mirror mode for inversion is ON.
FIG. 10 (G) shows a state in which the camera 21 is rotated 180 degrees around the rotation axis Z1 and the camera 21 is rotated 180 degrees around the rotation axis Z3 in the horizontal position. In such a state, the top and bottom are inverted, and the left and right are switched between the stage (C) and the stage (F), and since they have returned to their original positions, they are not inverted.

図11は、図1の情報処理装置が縦位置の状態で、本体とは異なる方向に向けたカメラによる撮像時の上下(天地)の情報を写真に付加している様子、ならびに表示の仕方を示す図である。
図11(A)は、縦位置の状態での使用状態であり、回動軸Z1及び回動軸Z3を中心にカメラ21を回動させた場合の共通の本体姿勢を示している。即ち、表示部13は略垂直でユーザ側に向けられており、表示部13の背面側には、リアカメラであれば撮像可能な位置関係に、被写体が存在していることを示している。
図11(B)は、縦位置の状態での、通常のリアカメラと同様の使用状態であり、本体と同じ、上下(天地)の情報が、写真に付加される。
図11(C)は、縦位置の状態で、回動軸Z1を中心にカメラ21を90度回動した状態である。係る状態においては、上下については反転する切替ポイントであると同時に、左右についても、反転をさせる鏡モードがONなら、表示の切替ポイントである。
図11(D)は、縦位置の状態で、回動軸Z1を中心にカメラ21を180度回動した状態である。係る状態においては、上下については反転させ、鏡モードがONなら、左右についても反転をさせる。
図11(E)は、縦位置の状態で、回動軸Z1を中心にカメラ21を180度回動させ、回動軸Z3を中心にカメラ21を45度回動した状態である。係る状態においては、上下については反転させ、鏡モードがONなら、左右についても反転をさせる。
図11(F)は、縦位置の状態で、回動軸Z1を中心にカメラ21を180度回動させ、回動軸Z3を中心にカメラ21を90度回動した状態である。係る状態においては、上下については反転させる。左右については、鏡モードがONなら、反転をさせる切り替えポイントである。
図11(G)は、縦位置の状態で、回動軸Z1を中心にカメラ21を180度回動させ、回動軸Z3を中心にカメラ21を180度回動した状態である。係る状態においては、上下については反転させ、左右については、左右については(C)の段階と、(F)の段階で切り替わり、もとに戻ったので、反転をさせない。
FIG. 11 shows a state in which the information processing device of FIG. 1 is in a vertical position, and information on the top and bottom (top and bottom) at the time of imaging by a camera oriented in a direction different from that of the main body is added to the photograph, and how to display the photograph. It is a figure which shows.
FIG. 11A shows a usage state in a vertical position, and shows a common main body posture when the camera 21 is rotated around the rotation shaft Z1 and the rotation shaft Z3. That is, the display unit 13 is substantially vertical and faces the user side, indicating that the subject exists on the back side of the display unit 13 in a positional relationship that can be captured by a rear camera.
FIG. 11B shows a state of use similar to that of a normal rear camera in a vertical position, and the same vertical (top and bottom) information as that of the main body is added to the photograph.
FIG. 11C shows a state in which the camera 21 is rotated 90 degrees around the rotation axis Z1 in the vertical position. In such a state, it is a switching point for flipping up and down, and at the same time, it is a switching point for displaying when the mirror mode for flipping left and right is ON.
FIG. 11D shows a state in which the camera 21 is rotated 180 degrees around the rotation axis Z1 in the vertical position. In such a state, the top and bottom are inverted, and if the mirror mode is ON, the left and right are also inverted.
FIG. 11E shows a state in which the camera 21 is rotated 180 degrees around the rotation axis Z1 and the camera 21 is rotated 45 degrees around the rotation axis Z3 in the vertical position. In such a state, the top and bottom are inverted, and if the mirror mode is ON, the left and right are also inverted.
FIG. 11F shows a state in which the camera 21 is rotated 180 degrees around the rotation axis Z1 and the camera 21 is rotated 90 degrees around the rotation axis Z3 in the vertical position. In such a state, the top and bottom are reversed. For left and right, if the mirror mode is ON, it is a switching point to invert.
FIG. 11G shows a state in which the camera 21 is rotated 180 degrees around the rotation axis Z1 and the camera 21 is rotated 180 degrees around the rotation axis Z3 in the vertical position. In such a state, the top and bottom are inverted, and the left and right are switched between the stage (C) and the stage (F) for the left and right, and since they have returned to their original positions, they are not inverted.

従来の情報処理装置でも、例えばサムスン社の製品である「Galaxy note 9」のようにシャッターリモコンを本体から取り外し可能としているものがあるが、そのシャッター用のボタンは、本体に装着された状態では押すことができなかった。
本発明の情報処理装置1の一実施形態によれば、図12に示すように、シャッターリモコンRCを情報処理装置1の本体から取り外し式にする。
図12(A)は、本体に装着した状態のシャッターリモコンRCを示している。
シャッターリモコンRCは本体の横に固定することにより、シャッターリモコンRCが備えるシャッターボタンを本体装着時にも押せるようにする。なお、シャッターリモコンRCのボタンより先の部分は、本体内部に収納されて良い。また、シャッターリモコンRCは、本体装着時は、本体から電力の供給を受けて良い。また、シャッターリモコンRCは、本体装着時は、本体と接触式で通信をして良い。これにより、ディスプレイ上に表示されるボタン以外に、物理的なシャッターボタンを設けることができ、使い勝手及び操作感が向上する。
図12(B)は、本体から取り外した状態のシャッターリモコンRCを示している。
即ち、本体装着時もボタンを押すとシャッターを切ることができ、本体から外しても、電池またはキャパシタに電気を蓄えることによって、シャッターをリモートで切ることができる。
また、シャッターリモコンRCにマイクが搭載されていて、音声でコマンドをリモートで情報処理装置1に送ることができて良い。
Some conventional information processing devices, such as Samsung's product "Galaxy note 9", have a shutter remote control that can be removed from the main body, but the shutter button is attached to the main body. I couldn't press it.
According to one embodiment of the information processing apparatus 1 of the present invention, as shown in FIG. 12, the shutter remote controller RC is removable from the main body of the information processing apparatus 1.
FIG. 12A shows a shutter remote controller RC attached to the main body.
By fixing the shutter remote controller RC to the side of the main body, the shutter button provided on the shutter remote controller RC can be pressed even when the main body is attached. The portion beyond the button of the shutter remote controller RC may be stored inside the main body. Further, the shutter remote controller RC may be supplied with electric power from the main body when the main body is attached. Further, when the shutter remote controller RC is attached to the main body, the shutter remote controller RC may communicate with the main body in a contact manner. As a result, in addition to the buttons displayed on the display, a physical shutter button can be provided, which improves usability and operability.
FIG. 12B shows the shutter remote controller RC in a state of being removed from the main body.
That is, the shutter can be released by pressing a button even when the main body is attached, and the shutter can be released remotely by storing electricity in a battery or a capacitor even if the shutter is removed from the main body.
Further, the shutter remote controller RC may be equipped with a microphone so that commands can be remotely sent to the information processing apparatus 1 by voice.

図13は、図1の情報処理装置とは異なる、固定式カメラを備える情報処理装置SPのフロントカメラの前に鏡MLをセットして、本の自動翻訳や領収書データの読み込みをしている様子を示す図である。
図13(A)は、フロントカメラの前に鏡MLをセットして、本の自動翻訳をしている例での様子を示している。
図13(B)は、実際の鏡MLによる反射画像の例を示している。
図13(C)は、台BSに乗せた固定式カメラを備える情報処理装置SPのフロントカメラの前に鏡MLをセットした場合の撮像可能範囲の例を示している。
最初に、情報処理装置SPのフロントカメラに鏡MLを取り付け、情報処理装置SPの本の自動翻訳音読アプリを起動し、翻訳先の言語を指定する。初期設定はOSの言語で良く、次回以降は、この指定を省略しても良い。本の翻訳+音読アプリで鏡MLに写った書物のタイトルをフロントカメラで撮影する。
ただし、フロントカメラで撮影する場合、鏡MLを取り付けると、プロントカメラで撮像される画像は、鏡像になり、鏡モードがONであれば、鏡像の鏡像になるため、正しい向きに戻るので、鏡モードはONにする必要がある。
その後、必要に応じて、撮影した画像の補正を行う。例えば、本の回転、本の湾曲補正、本の台形補正、本のコントラストの調整、本部分だけの切り抜き、写り込んでしまった指の削除等を行い、文字を認識しやすい状態に変換してから、OCR(Optical Character Recognition/Reader)を掛けることで、一つの文字や数字や単語ではなく、テキストを文章として認識及び抽出する。テキストの内容から、本に記載されている言語を特定する。これらの処理の際に、AIによる画像認識、AIによる文章解析を行い、OCRでテキスト化したことで誤読しているテキストを自動またはユーザによる手入力で修正する。テキストデータは、クラウドCDの翻訳サービスに送信され、元の言語を認識し、設定中の言語に翻訳を行い、対訳データを瞬時に情報処理装置SPに送信する。
FIG. 13 shows an automatic translation of a book and reading of receipt data by setting a mirror ML in front of a front camera of an information processing apparatus SP equipped with a fixed camera, which is different from the information processing apparatus of FIG. It is a figure which shows the state.
FIG. 13A shows an example in which a mirror ML is set in front of the front camera and the book is automatically translated.
FIG. 13B shows an example of a reflection image by an actual mirror ML.
FIG. 13C shows an example of the imageable range when the mirror ML is set in front of the front camera of the information processing apparatus SP provided with the fixed camera mounted on the base BS.
First, the mirror ML is attached to the front camera of the information processing device SP, the automatic translation reading aloud application of the book of the information processing device SP is started, and the language of the translation destination is specified. The initial setting may be in the language of the OS, and this specification may be omitted from the next time onward. Take a picture of the title of the book reflected in the mirror ML with the front camera with the book translation + reading aloud application.
However, when shooting with the front camera, if the mirror ML is attached, the image captured by the Pront camera will be a mirror image, and if the mirror mode is ON, it will be a mirror image of the mirror image, so it will return to the correct direction. The mode needs to be turned on.
Then, if necessary, the captured image is corrected. For example, rotate the book, correct the curvature of the book, correct the trapezoidal shape of the book, adjust the contrast of the book, cut out only the book part, delete the reflected finger, etc. to convert the characters into a state that is easy to recognize. By multiplying OCR (Optical Character Recognition / Reader) from, the text is recognized and extracted as a sentence, not one letter, number or word. Identify the language described in the book from the content of the text. At the time of these processes, image recognition by AI and sentence analysis by AI are performed, and the text misread by being converted into text by OCR is automatically corrected or manually input by the user. The text data is transmitted to the translation service of the cloud CD, recognizes the original language, translates into the language being set, and instantly transmits the bilingual data to the information processing apparatus SP.

なお、本実施形態では、クラウドCDの翻訳サービスを用いて翻訳したが、この他、情報処理装置SP単体で翻訳してもよい。必要に応じて、翻訳されたテキストデータから音読データを作り出す。音読データは、クラウドCDで作成しても良く、また情報処理装置SP単体で作成しても良い。
その後、情報処理装置SPの表示部に、元の本の言語のテキストと翻訳した言語のテキストとを共に表示し、情報処理装置SPのスピーカで音読データを再生する。
元の本のテキストデータとその対訳データ以外にも、現在、フロントカメラが撮影中の画像を小さく表示しても良い。これにより、ユーザは、フロントカメラから本がずれている等の情報がほぼリアルタイムで把握できる。表示されたテキストに対してユーザが修正を加えたい場合は、修正機能によりテキストを修正可能とした上で手入力で行う。これは、翻訳動作の途中に割り込ませることになる。
本のタイトルが確定した際には、そのタイトルと既存の本のデータベースや既に電子書籍化されたリファレンスデータに同一のものがないかを検索し、以前の翻訳終了位置がわかれば、それをユーザに情報処理装置SPを通じて伝えるようにしても良い。
In this embodiment, the translation is performed using the translation service of the cloud CD, but in addition to this, the information processing apparatus SP may be used alone for translation. If necessary, read aloud data is created from the translated text data. The reading aloud data may be created by a cloud CD, or may be created by the information processing apparatus SP alone.
After that, both the text in the language of the original book and the text in the translated language are displayed on the display unit of the information processing apparatus SP, and the reading data is reproduced by the speaker of the information processing apparatus SP.
In addition to the text data of the original book and its bilingual data, the image currently being captured by the front camera may be displayed in a small size. As a result, the user can grasp information such as the book being displaced from the front camera in almost real time. If the user wants to modify the displayed text, the text can be modified by the modification function and then manually input. This will interrupt the translation operation.
When the title of a book is confirmed, the user searches for the same title in the existing book database or reference data that has already been converted into an ebook, and if the previous translation end position is known, the user can use it. May be communicated through the information processing device SP.

次に、本の中身の翻訳プロセスを説明する。
上述したタイトルの翻訳プロセスとほぼ同じであるが、前のページで完成していない文章があれば、今のページの文章と合わせて、1文として完成させてから翻訳することが、違いである。
更に、過去のデータベースやリファレンスデータと同じデータがあれば、その過去のデータやリファレンスデータをもってくることも追加プロセスとして考えられる。
翻訳したいページがまだあれば、本のページをめくる、または隣の次のページを撮影することで、再度、翻訳のプロセスがスタートする。
本発明は、書物の1ページ1ページをいちいちシャッターを押すことなく静止画として撮影し、ページがめくられたことや撮像画像が大きく変わったこと、例えば、カメラが撮影しているページをユーザが意図的に左のページから右のページにずらしたりしたときに、これを検出してページを再度読み込み、前述した一連の翻訳のプロセスを繰り返し、翻訳を行う。
ページの再読込は、音声で行っても良く、また音で行っても良い。さらに、ページの再読込は、画面上のボタンやリモコンで行っても良い。
これ以外にも、一部を翻訳して途中から翻訳プロセスをスキップして、翻訳済みの電子書籍化されたリファレンスデータを使っても良い。一度翻訳を行い、翻訳を停止した際には、ページとページ内の位置を覚えておき、次回、再開するときには、翻訳を停止したページを表示や音読でユーザに通知しても良い。
音読プロセスは、翻訳プロセスとほぼ同様で、翻訳を掛けずにOCRでテキスト化したデータを音読することになる。音読のプロセスは、翻訳のプロセスから翻訳する箇所だけを抜いたものになる。
本に限らず、紙媒体のテキスト化もほぼ同様で、翻訳や音読のプロセスをスキップし、テキストを表示させたものになる。表示するだけではなく、領収書などのデータは、入力項目を理解し、適切な項目として、数字やテキストを自動でカラムに入力する。例えば、領収書の金額や日付や宛名などを正しく自動入力できる。
スマートフンタイプの情報処理装置以外にも、ノート型のコンピュータ(以下「パソコン」と呼ぶ)のフロントカメラに鏡MLを装着して、机の上のユーザ本や領収書などの紙のデータを読み取ることも可能である。
パソコンのフロントカメラに付ける鏡の場合、パソコンの表示部の上にカメラが搭載していることが多く、表示部の角度はユーザが自由に変えられるので、鏡の角度を自由に変えられる回転機構を搭載しても良い。
撮影された本、領収書などにOCRを掛けることで、テキストデータを認識し、入力することができるようになる。ユーザは、情報処理装置1をほとんど操作する必要なく、領収書などを並べることに集中するだけで良く、動作が大幅に省略できる。特に机のような平面の上でやると、領収書などを並べやすい。
更に、情報処理装置SPに取り付ける鏡MLは、普通の平面の鏡ではなく、凸面鏡等の広角鏡を使えば、より広い画角で撮影できるので、書物を見開きでフロントカメラで撮影でき、書物を左右に移動させたりする手間を省くことができる。また、情報処理装置SPを置くスタンドの高さを低くできるメリットもある。ただし、このようなメリットだけではなく、デメリットとしては、歪が大きく撮影されてしまうので、撮像画像については補正が必要になる場合がある。
Next, the translation process of the contents of the book will be explained.
It is almost the same as the translation process of the title mentioned above, but if there is a sentence that is not completed on the previous page, it is different that it is completed as one sentence together with the sentence on the current page and then translated. ..
Furthermore, if there is the same data as the past database or reference data, it can be considered as an additional process to bring the past data or reference data.
If you still have the pages you want to translate, you can turn the pages of the book or shoot the next page next to it to start the translation process again.
In the present invention, each page of a book is photographed as a still image without pressing the shutter, and the page is turned or the captured image is significantly changed. For example, the user captures a page captured by a camera. When the page on the left is intentionally shifted to the page on the right, this is detected and the page is reloaded, and the above-mentioned series of translation processes are repeated to perform translation.
The page may be reloaded by voice or by sound. Furthermore, the page may be reloaded using the buttons on the screen or the remote controller.
Alternatively, you may translate part of it, skip the translation process, and use the translated e-booked reference data. You may perform translation once, remember the page and its position in the page when the translation is stopped, and notify the user by displaying or reading aloud the page where the translation was stopped the next time when the translation is restarted.
The reading aloud process is almost the same as the translation process, and the data converted into text by OCR is read aloud without translation. The reading aloud process is the translation process with only the parts to be translated removed.
Not limited to books, the process of converting paper media into text is almost the same, skipping the process of translation and reading aloud, and displaying the text. In addition to displaying, for data such as receipts, understand the input items and automatically enter numbers and text in the columns as appropriate items. For example, the amount, date, address, etc. of the receipt can be automatically entered correctly.
In addition to the smart-type information processing device, a mirror ML is attached to the front camera of a notebook computer (hereinafter referred to as "personal computer") to read paper data such as user books and receipts on the desk. Is also possible.
In the case of a mirror attached to the front camera of a personal computer, the camera is often mounted on the display of the personal computer, and the angle of the display can be freely changed by the user, so the rotation mechanism that can freely change the angle of the mirror. May be installed.
By applying OCR to photographed books, receipts, etc., text data can be recognized and input. The user hardly needs to operate the information processing apparatus 1, and only needs to concentrate on arranging receipts and the like, and the operation can be largely omitted. Especially if you do it on a flat surface like a desk, it is easy to arrange receipts.
Furthermore, the mirror ML attached to the information processing device SP can be taken with a wider angle of view by using a wide-angle mirror such as a convex mirror instead of an ordinary flat mirror. You can save the trouble of moving it from side to side. There is also an advantage that the height of the stand on which the information processing apparatus SP is placed can be lowered. However, not only such a merit but also a demerit is that a large amount of distortion is taken, so it may be necessary to correct the captured image.

従来の情報処理装置(例えはスマートフォン)では、屋外を歩きながら、ARのゲームを楽しむ際には、スマートフォンを垂直に立てながら、周辺を撮影する必要があり、歩きながら、スマートフォンを垂直に保つのは、不自然な持ち方になり、疲れてしまう。よって、ARによる歩きながらのゲームは一般的ではなく、ほとんど使われていない。よって、歩行者(A)Rゲームはあまり行われていない。
本発明の情報処理装置1の一実施形態によれば、図8に示したように、2軸回転カメラ、1軸回転カメラ、又は360度カメラで撮影した画像に対して、ディスプレイを見やすい角度で保持した状態でカメラを進行方向に向けることができるので、ARによるゲームが行える。よって、同時に参加している人と協力するとか戦うなどが、可能となる。
即ち、図14に示す例においては、2人のプレーヤの位置に応じて、1のゲームキャラクタGCを、情報処理装置1−1には背後から撮像しているとするARのゲーム画像G1が表示され、情報処理装置1−2には正面から撮像しているとするARのゲーム画像G2が表示されるのである。
With a conventional information processing device (for example, a smartphone), when enjoying an AR game while walking outdoors, it is necessary to take a picture of the surroundings while standing the smartphone vertically, and keep the smartphone vertical while walking. Becomes unnatural and tired. Therefore, walking games using AR are not common and are rarely used. Therefore, the pedestrian (A) R game is not often played.
According to one embodiment of the information processing apparatus 1 of the present invention, as shown in FIG. 8, the display is easily seen at an angle with respect to an image taken by a 2-axis rotating camera, a 1-axis rotating camera, or a 360-degree camera. Since the camera can be pointed in the direction of travel while holding it, an AR game can be played. Therefore, it is possible to cooperate with or fight with people who are participating at the same time.
That is, in the example shown in FIG. 14, the game image G1 of AR, which is supposed to capture one game character GC from behind, is displayed on the information processing device 1-1 according to the positions of the two players. Then, the information processing apparatus 1-2 displays the AR game image G2, which is supposed to be captured from the front.

従来の情報処理装置では、カメラが電動で回転したりしないので、音源SSを追跡して撮影することは容易ではなかった。
本発明の情報処理装置1の一実施形態によれば、図15に示すように、2軸回転カメラ、1軸回転カメラで撮影している最中に、複数のマイクを使って、音が鳴っている方向に電動でカメラを向かせる機能である。即ち、音と何かしら連動してカメラ21が回転する機能を提供することができる。
ユーザは、自分たちで撮影出来ていることをある程度確認できるように、情報処理装置1を机等の上に置くことが好適である。
In the conventional information processing device, since the camera does not rotate electrically, it is not easy to track and shoot the sound source SS.
According to one embodiment of the information processing apparatus 1 of the present invention, as shown in FIG. 15, a sound is produced by using a plurality of microphones while shooting with a 2-axis rotating camera and a 1-axis rotating camera. It is a function that electrically directs the camera in the direction in which it is facing. That is, it is possible to provide a function of rotating the camera 21 in conjunction with sound.
It is preferable that the information processing apparatus 1 is placed on a desk or the like so that the user can confirm to some extent that he / she can take a picture by himself / herself.

従来の情報処理装置では、紙媒体等に記載された問題を教育に利用することは、容易ではなかった。紙をカメラで撮影するには、ある程度の高さが必要となり、従来の情報処理装置では、フロントカメラで紙を撮影するには、前述したような鏡を使うか、カメラが回転する必要があるからである。
本発明の情報処理装置1の一実施形態によれば、図16に示すように、2軸回転カメラ、1軸回転カメラ、又は360度カメラで紙等に書かれた問題を撮影すると、自動で、AIが問題のヒント、例えば、図形問題の補助線ALを引く等が与えられる。
図16(A)は、情報処理装置1を用いて問題用紙QPを撮像する様子を示している。
図16(B)は、問題用紙QPに記載された問題から、処理の対象とする問題PQが、情報処理装置1に認識されたことを示している。
図16(C)は、問題PQについて、情報処理装置1が備えるAIがヒント、例えば、図形問題の補助線ALを引く等、を与えている問題画像QGの例を示している。
図13のような鏡をフロントカメラに装着して、このような問題を撮影し、問題のヒントを与えても良い。
With conventional information processing devices, it has not been easy to utilize the problems described in paper media for education. Taking a picture of paper with a camera requires a certain height, and in a conventional information processing device, in order to take a picture of paper with a front camera, it is necessary to use a mirror as described above or rotate the camera. Because.
According to one embodiment of the information processing apparatus 1 of the present invention, as shown in FIG. 16, when a problem written on paper or the like is photographed by a 2-axis rotating camera, a 1-axis rotating camera, or a 360-degree camera, the problem is automatically taken. , AI is given a hint of the problem, for example, drawing an auxiliary line AL of the graphic problem.
FIG. 16A shows a state in which the question paper QP is imaged using the information processing apparatus 1.
FIG. 16B shows that the problem PQ to be processed has been recognized by the information processing apparatus 1 from the problem described in the problem sheet QP.
FIG. 16C shows an example of a problem image QG in which the AI included in the information processing apparatus 1 gives a hint, for example, an auxiliary line AL of a graphic problem, to the problem PQ.
A mirror as shown in FIG. 13 may be attached to the front camera to photograph such a problem and give a hint of the problem.

従来の情報処理装置では、折りたたみ式のスタンドで自立安定させることは容易ではなかった。
本発明の情報処理装置1の一実施形態によれば、図17に示すように、折りたたみ式のスタンド14は、スマートフォン本体の重心を考慮して配設する。
図17(A)は、情報処理装置1を自立させた場合の、情報処理装置1本体と、折りたたみ式のスタンド14とが接地する3点で囲まれる領域を示す図である。
即ち、情報処理装置1を、例えば机に置いた場合に、机の表面に三角形を描くとして、三角形の頂点は、机と接しているスタンド14の先端の頂点VA、情報処理装置1の本体角の頂点VB、及び情報処理装置1の本体角の頂点VCの3つになることを示している。
図17(B)は、情報処理装置1を自立させた場合における、情報処理装置1本体の重心の位置と、接地する3点で囲まれる領域との、真上から見下ろした場合の位置関係を示す図である。
即ち、情報処理装置1本体の重心Gの位置の真下にある点が、接地する3頂点VA、VB及びVCで囲まれる領域内であって、これらの2点を繋ぐ直線である如何なる3辺からも遠く、かつ、情報処理装置1本体の重心Gを低くすることを考慮して、折りたたみ式のスタンド14を配設する。
この様にすることにより、情報処理装置1を自立させた場合に、より安定させることが可能になる。
スタンドと机との接点が、図17(A)のように1つではなく、接点が複数、例えば、2つあるときであれば、情報処理装置1の本体角の頂点VB、及び情報処理装置1の本体角の頂点VCの2点と合わせて、4点で構成される四角形の中に、真上から見下ろした場合の情報処理装置1本体の重心Gがはいれば、情報処理装置1を自立させた場合に、より安定させることが可能になる。
With conventional information processing equipment, it has not been easy to self-stabilize with a foldable stand.
According to one embodiment of the information processing apparatus 1 of the present invention, as shown in FIG. 17, the foldable stand 14 is arranged in consideration of the center of gravity of the smartphone body.
FIG. 17A is a diagram showing a region surrounded by three points where the information processing apparatus 1 main body and the foldable stand 14 are in contact with each other when the information processing apparatus 1 is made independent.
That is, when the information processing device 1 is placed on a desk, for example, a triangle is drawn on the surface of the desk. It is shown that there are three vertices, the vertex VB of the information processing device 1 and the vertex VC of the main body angle of the information processing device 1.
FIG. 17B shows the positional relationship between the position of the center of gravity of the information processing apparatus 1 main body and the area surrounded by the three points to be grounded when the information processing apparatus 1 is made independent, when viewed from directly above. It is a figure which shows.
That is, the point directly below the position of the center of gravity G of the information processing apparatus 1 is within the region surrounded by the three vertices VA, VB, and VC that are in contact with the ground, and from any three sides that are straight lines connecting these two points. The foldable stand 14 is arranged in consideration of being far away and lowering the center of gravity G of the information processing apparatus 1 main body.
By doing so, when the information processing apparatus 1 is made independent, it becomes possible to make it more stable.
If the contact point between the stand and the desk is not one as shown in FIG. 17 (A) but a plurality of contacts, for example, two, the apex VB of the main body angle of the information processing apparatus 1 and the information processing apparatus. If the information processing device 1 has the center of gravity G of the information processing device 1 when viewed from directly above in a square composed of four points including the two points of the apex VC of the main body angle of 1, the information processing device 1 is installed. When it is made independent, it becomes possible to make it more stable.

従来の情報処理装置では、写真を撮影しようとしている位置の情報に基づいて、過去に撮影された写真の中から、同じまたは近い位置で撮影された写真を探し出す機能は無かった。
本発明の情報処理装置1の一実施形態によれば、図27に示すように、同じロケーションで撮影した過去の写真の存在を教示し、当該写真を表示する。この様にすることにより、ユーザは、例えば過去、子どもたちとこの場所で撮った写真と同じポーズを取って撮像し、情報処理装置1は、並べて対比して表示する等が可能となる。
この場合に、情報処理装置1は、自宅等を非表示エリアとして、機能を制限して良い。この様にすることにより、情報処理装置1は、大量の写真が該当することを防ぐことができる。
図18(A)は、同じロケーションで撮影した過去の写真OPの存在を教示するメッセージMSの例を示している。
図18(B)は、同じロケーションで撮影した過去の写真OPの小窓表示と、半透過でカメラ撮像画像との重ね合わせ表示をさせる半透過ボタンHBの表示の例を示している。
図18(C)は、同じロケーションで撮影した過去の写真OPの半透過画像と、カメラ撮像画像との重ね合わせ表示の例を示している。
The conventional information processing device does not have a function of searching for a photograph taken at the same or close position from the photographs taken in the past based on the information of the position where the photograph is to be taken.
According to one embodiment of the information processing apparatus 1 of the present invention, as shown in FIG. 27, the existence of a past photograph taken at the same location is taught and the photograph is displayed. By doing so, the user can take the same pose as the photograph taken at this place with the children in the past, for example, and the information processing apparatus 1 can display them side by side in comparison.
In this case, the information processing apparatus 1 may limit the function by setting the home or the like as a non-display area. By doing so, the information processing apparatus 1 can prevent a large number of photographs from being applied.
FIG. 18A shows an example of a message MS that teaches the existence of past photo OPs taken at the same location.
FIG. 18B shows an example of a small window display of a past photograph OP taken at the same location and a display of a semi-transparent button HB that superimposes and displays an image captured by a camera in a semi-transparent manner.
FIG. 18C shows an example of a superposed display of a semi-transparent image of a past photograph OP taken at the same location and an image captured by a camera.

従来の情報処理装置では、分からない単語や食事の名称を検索する際には、テキストや写真情報から、検索するしかなく、検索された場所に基づいて該当する写真をWEB上から探し当てることは容易ではなかった。
本発明の情報処理装置1の一実施形態によれば、図28に示すように、例えばレストランメニューMNを撮影し、撮影した画像中の料理名OWをなぞると、翻訳文TWが表示されるだけではなく、GPSやWi−Fi(登録商標)の検索位置情報から、同じエリアで撮影された該当する料理画像写真IMを表示するアプリケーションソフトウェアを提供する。これにより、精度の高い写真検索が可能になる。
更に、料理名OWが地名由来である場合、情報処理装置1は、該当地点を表示する地図MP及び地名PWを、表示する。
With conventional information processing devices, when searching for unknown words or meal names, there is no choice but to search from text or photo information, and it is easy to find the corresponding photo on the WEB based on the searched location. It wasn't.
According to one embodiment of the information processing apparatus 1 of the present invention, as shown in FIG. 28, for example, when a restaurant menu MN is photographed and the dish name OW in the photographed image is traced, only the translated text TW is displayed. Instead, it provides application software that displays the corresponding food image photograph IM taken in the same area from the search position information of GPS or Wi-Fi (registered trademark). This enables highly accurate photo search.
Further, when the dish name OW is derived from the place name, the information processing apparatus 1 displays the map MP and the place name PW displaying the corresponding points.

図20は、情報処理装置1がスライド式回転カメラを備える場合における、形状を変化させた各状態を示す図である。
即ち、本体が、表示部13を備える正面側と、回転カメラ21のカメラ基部12−1及びカメラ指向部12−2を備える本体部11の背面側との少なくとも2つの部位からなるスライド可動部から構成されている情報処理装置1における、各状態を示している。
FIG. 20 is a diagram showing each state in which the shape is changed when the information processing apparatus 1 is provided with a sliding rotary camera.
That is, the main body is from a slide movable portion consisting of at least two parts, a front side including the display unit 13 and a back side of the main body portion 11 including the camera base portion 12-1 of the rotating camera 21 and the camera pointing portion 12-2. Each state in the configured information processing apparatus 1 is shown.

図20(A)は、2つのスライド可動部分を、最大限重ねた状態を示す図である。
図20(B)は、2つのスライド可動部分を、最大限スライドさせた状態を示す図である。なお、図中、符号Pは、カメラ指向部12−2(回転カメラ21)の回転方向を示している。
図20(C)は、2つのスライド可動部分を、最大限スライドさせて、回転カメラ21を回転させた状態を示す図である。表示部13と本体部11とを相対的にスライドさせることによって、カメラ基部12−1とカメラ指向部12−2を含むカメラ部全体を180度以上回転させることが可能になっている。相対的にスライドとは、本体部11をもって表示部13を指で押してスライドさせたり、その逆もあることをいう。
FIG. 20A is a diagram showing a state in which two slide movable parts are overlapped to the maximum extent.
FIG. 20B is a diagram showing a state in which the two slide movable parts are slid to the maximum. In the figure, reference numeral P indicates the rotation direction of the camera-oriented unit 12-2 (rotating camera 21).
FIG. 20C is a diagram showing a state in which the rotating camera 21 is rotated by sliding the two sliding movable portions to the maximum extent. By relatively sliding the display unit 13 and the main body unit 11, the entire camera unit including the camera base unit 12-1 and the camera-oriented unit 12-2 can be rotated by 180 degrees or more. The relative slide means that the display unit 13 is pushed by the main body portion 11 with a finger and slid, and vice versa.

スライド式回転カメラを備える情報処理装置1は、被写体を撮像する撮像部と、前記撮像部と厚み方向で重なり、前記撮像部により撮像される前記被写体を含む撮像画像を表示する表示部と、前記撮像部の光軸方向と前記表示部に対する法線方向とのなす角度を変化させるように、前記撮像部を前記表示部の短手方向に平行な第1の回転軸で両持ち軸支しながら、本体部に対して相対的に回動可能に支持するヒンジ部と、を備える。
前記撮像部は、前記第1の回転軸が表示部と厚み方向で重なる位置から重ならない位置まで、前記表示部に対して、相対的に平行移動可能である。
情報処理装置1の場合、スライド可動部分を最大限スライドさせた状態では、回転カメラ21は、0°から270°、さらにそれ以上の範囲が可動域となる。
なお、0°は、回転カメラ21が本体部11の溝又は切り欠き部に収容された状態(回転カメラ21と本体部11が厚み方向に重なった状態)である。180°は、回転カメラ21が本体部11の外部で直線状に並んだ状態である。180°を超えると、回転カメラ21は、本体部11の正面11a側に突出し、270°では、回転カメラ21の光軸が本体部11の真下に向いた状態である。
この様にすることにより、情報処理装置1は、表示部13の画面占有率を最大化しつつ、回転カメラの為の切り欠きを作らないデザインとすることが、可能となる。加えて、手などによる手動操作やボタンを押すなどの電動操作によって、表示部13をスライドさせると、カメラが自動で回転しても良い。これは、ねじりコイルばねや、モータによる電動回転でも行っても良い。
The information processing apparatus 1 including the slide-type rotating camera includes an image pickup unit that captures a subject, a display unit that overlaps the image pickup unit in the thickness direction and displays an image captured image including the subject imaged by the image pickup unit, and the above-mentioned. While supporting the image pickup unit with a first rotation axis parallel to the lateral direction of the display unit so as to change the angle formed by the optical axis direction of the image pickup unit and the normal direction with respect to the display unit. A hinge portion that rotatably supports the main body portion is provided.
The image pickup unit can be translated relative to the display unit from a position where the first rotation axis overlaps with the display unit in the thickness direction to a position where the first rotation axis does not overlap with the display unit.
In the case of the information processing apparatus 1, when the slide movable portion is slid to the maximum, the rotation camera 21 has a range of motion from 0 ° to 270 ° and further.
Note that 0 ° is a state in which the rotating camera 21 is housed in a groove or a notch portion of the main body portion 11 (a state in which the rotating camera 21 and the main body portion 11 overlap in the thickness direction). 180 ° is a state in which the rotating cameras 21 are linearly arranged outside the main body 11. When it exceeds 180 °, the rotating camera 21 protrudes toward the front surface 11a of the main body portion 11, and at 270 °, the optical axis of the rotating camera 21 faces directly below the main body portion 11.
By doing so, the information processing apparatus 1 can be designed so as not to make a notch for the rotating camera while maximizing the screen occupancy of the display unit 13. In addition, the camera may automatically rotate when the display unit 13 is slid by a manual operation such as by hand or an electric operation such as pressing a button. This may be done by a torsion coil spring or electric rotation by a motor.

図21は、図1の情報処理装置1の、2軸回転機構部の構造を示す図である。
図21(A)は、2軸回転機構部の筐体を示す図である。
図21(B)は、2軸回転機構部として、2軸ヒンジを使用した場合を示す図である。
FIG. 21 is a diagram showing the structure of the biaxial rotation mechanism portion of the information processing apparatus 1 of FIG.
FIG. 21 (A) is a diagram showing a housing of the biaxial rotation mechanism unit.
FIG. 21B is a diagram showing a case where a biaxial hinge is used as the biaxial rotation mechanism portion.

図21(C)は、2軸回転機構部として、筐体そのものに回転軸を含むヒンジ機構を設けた構成例を示す図である。 FIG. 21C is a diagram showing a configuration example in which a hinge mechanism including a rotation shaft is provided on the housing itself as a two-axis rotation mechanism portion.

図20(A)乃至図21(C)に示すように、情報処理装置1は、被写体を撮像する撮像部と、前記撮像部と厚み方向で重なり、前記撮像部により撮像される前記被写体を含む撮像画像を表示する表示部と、前記撮像部の光軸方向と前記表示部に対する法線方向とのなす角度を変化させるように、前記撮像部を前記表示部の短手方向に平行な第1の回転軸で両持ち軸支しながら、前記本体部に対して相対的に回動可能に支持するヒンジ部とを備える。
前記撮像部は、前記第1の回転軸が表示部と厚み方向で重なる位置から重ならない位置まで、前記表示部に対して、相対的に平行移動可能である。
前記撮像部は、前記ヒンジ部を駆動し前記撮像部を回転させる駆動部と、前記撮像部に対する移動指示に応じて、前記撮像部を指示方向へ回転させるように前記駆動部を制御する制御部とを含む。
前記撮像部は、前記表示部の長手方向に平行な第2の回転軸で回動可能である。
前記撮像部は、前記表示部と厚み方向で重ならない位置で、前記第2の回転軸で回動可能である。
前記表示部は、前記移動指示をタッチ操作で行うためのタッチパネルを含む。
前記ヒンジ部は、前記表示部の短手方向に対して平行に配置された第1の回転軸と、前記表示部の長手方向に対して平行に配置された第2の回転軸とを備える。前記第1の回転軸は、前記第2の回転軸を中心に前記撮像部を回動させる際、前記撮像部の回転に合わせて回転しないよう構成されている。
As shown in FIGS. 20A to 21C, the information processing apparatus 1 includes an image pickup unit that captures an image of a subject, the subject that overlaps the image pickup unit in the thickness direction, and is imaged by the image pickup unit. The first image pickup unit is parallel to the short side of the display unit so as to change the angle formed by the display unit that displays the captured image and the optical axis direction of the image pickup unit and the normal direction with respect to the display unit. It is provided with a hinge portion that rotatably supports the main body portion while supporting both holding shafts with the rotating shaft of the above.
The image pickup unit can be translated relative to the display unit from a position where the first rotation axis overlaps with the display unit in the thickness direction to a position where the first rotation axis does not overlap with the display unit.
The image pickup unit is a drive unit that drives the hinge unit to rotate the image pickup unit, and a control unit that controls the drive unit so as to rotate the image pickup unit in an instruction direction in response to a movement instruction to the image pickup unit. And include.
The image pickup unit can be rotated by a second rotation axis parallel to the longitudinal direction of the display unit.
The image pickup unit can rotate on the second rotation axis at a position that does not overlap with the display unit in the thickness direction.
The display unit includes a touch panel for performing the movement instruction by a touch operation.
The hinge portion includes a first rotation shaft arranged parallel to the lateral direction of the display portion and a second rotation shaft arranged parallel to the longitudinal direction of the display portion. The first rotation axis is configured so as not to rotate in accordance with the rotation of the image pickup unit when the image pickup unit is rotated about the second rotation axis.

2軸回転機構部を駆動するモータやユーザの画面操作や遠隔からの操作に応じてモータを制御するコントローラ等を筐体内に設けるものとする。コントローラとして、特別なものを設けるのではなく、情報処理装置1のCPUにコントロールさせてもよい。
回転軸HS1、HS3の内部には、軸方向に貫通する空洞を設けて、中にFPCを通す、または、回転軸HS1、HS3の周りにFPCを巻く等の配線の実現方法が考えられる。
この様にすることにより、情報処理装置1は、2軸ヒンジを使用する場合と比較して、2軸回転機構部を、小型化することができる。
A motor for driving the two-axis rotation mechanism unit, a controller for controlling the motor in response to a user's screen operation or remote operation, and the like shall be provided in the housing. Instead of providing a special controller, the CPU of the information processing apparatus 1 may control the controller.
It is conceivable to realize wiring such as providing a cavity penetrating in the axial direction inside the rotating shafts HS1 and HS3 and passing the FPC through the cavity, or winding the FPC around the rotating shafts HS1 and HS3.
By doing so, the information processing apparatus 1 can reduce the size of the biaxial rotation mechanism unit as compared with the case of using the biaxial hinge.

図22は、図1の情報処理装置の表示部の切欠き部に回転カメラを備える場合における、形状を変化させた各状態を示す図である。
図22(A)は、カメラをリアカメラとする状態を示す図である。
図22(B)は、カメラを回転させた状態を示す図である。
図22の情報処理装置1は、表示部13の一部を切り欠き(ノッチと呼ばれるもの)を設けて、当該切欠き部分に回転式カメラを備えている。
この様にすることにより、表示部13の本体に対する画面占有率を最大化しつつ、カメラ基部12−1とカメラ指向部12−2を180度以上回転させることが可能になっている。
FIG. 22 is a diagram showing each state in which the shape is changed when a rotating camera is provided in the notch portion of the display unit of the information processing apparatus of FIG. 1.
FIG. 22A is a diagram showing a state in which the camera is a rear camera.
FIG. 22B is a diagram showing a state in which the camera is rotated.
The information processing apparatus 1 of FIG. 22 is provided with a notch (what is called a notch) in a part of the display unit 13, and the notch portion is provided with a rotary camera.
By doing so, it is possible to rotate the camera base 12-1 and the camera-oriented unit 12-2 by 180 degrees or more while maximizing the screen occupancy ratio of the display unit 13 with respect to the main body.

一般に、自分が理解できない言語で書かれた書物を読むためには、その言語を習得し意味を理解するか、自分の母国語に翻訳されるまで待つ必要があり、海外の話題の本をすぐに読みたい人にとっては、大きなハードルがあった。日本で外国語の書物を読みたい人だけではなく、外国人も同じハードルがある。例えば、日本の漫画がすぐに母国語に翻訳されない時や、日本に居る外国人には、日本のガイドブックが分からない、日本で暮らす外国人にとって、外国人の子供の学校で配布されるプリント等の意味が分からないという不満を良く聞く。
このような不満を解決する方法の一つとして、図13のような形態で翻訳することが考えられる。
以下、翻訳機能とこの翻訳機能に加えて音読機能とを備える情報処理装置SPについて説明する。
(翻訳機能+音読機能)
図13に示した状態の情報処理装置SPとクラウドCD(図示せず)を含むシステムが行う翻訳及び音読の機能について詳細に説明する。クラウドCDは、AI翻訳機能や音読データ生成機能等を搭載するサーバである。
このシステムは、情報処理装置SPとクラウドCDがネットワークを介して接続されたものである。情報処理装置SPとクラウドCDとの間では、情報のやり取りが行われる。例えば情報処理装置SPは、フロントカメラで撮像した画像を含む翻訳や音読の処理の要求をクラウドCDへ送信し、要求に対してクラウドCDで処理した結果としてテキストデータや音読データを含む応答を受信する。
In general, in order to read a book written in a language that you do not understand, you need to learn that language and understand its meaning, or wait until it is translated into your native language. There was a big hurdle for those who wanted to read. Not only those who want to read books in foreign languages in Japan, but also foreigners have the same hurdles. For example, prints distributed at foreign children's schools for foreigners living in Japan, for example, when Japanese manga is not immediately translated into their native language, or foreigners in Japan do not understand Japanese guidebooks. I often hear complaints that I don't understand the meaning of such things.
As one of the methods for resolving such dissatisfaction, it is conceivable to translate in the form shown in FIG.
Hereinafter, the information processing apparatus SP having a translation function and a reading aloud function in addition to the translation function will be described.
(Translation function + reading aloud function)
The translation and reading aloud functions performed by the information processing apparatus SP in the state shown in FIG. 13 and the system including the cloud CD (not shown) will be described in detail. The cloud CD is a server equipped with an AI translation function, a reading aloud data generation function, and the like.
In this system, the information processing apparatus SP and the cloud CD are connected via a network. Information is exchanged between the information processing device SP and the cloud CD. For example, the information processing apparatus SP transmits a request for translation and reading aloud processing including an image captured by a front camera to a cloud CD, and receives a response including text data and reading aloud data as a result of processing the request with the cloud CD. do.

情報処理装置SPは、装置本体に、無線通信部、CPU、メモリ、表示部、スピーカ、マイク、カメラを含む撮像部等を備える。無線通信部は、携帯通信網や無線LAN等を通じて他の情報処理装置(他のスマートフォンやクラウドCDのサーバ等)と通信を行う。メモリには、翻訳及び音読の処理を実行するアプリケーションソフトウェア(以下「自動翻訳音読アプリ」と称す)のソフトウェアがインストールされており、CPUがメモリの自動翻訳音読アプリを読み込むことで、翻訳と音読の機能を実現する。
自動翻訳音読アプリを読み込んだCPUは、撮像部の光軸方向を屈折させる、装置本体とは別体の鏡MLを介して、本を撮影させて得られた撮像画像をクラウドCDに送信し、クラウドCDにより、撮像画像に基づいて生成された文字列に対応するテキストデータを受信し、装置本体の表示部に表示する制御手段として機能する。
The information processing apparatus SP includes a wireless communication unit, a CPU, a memory, a display unit, a speaker, a microphone, an image pickup unit including a camera, and the like in the device main body. The wireless communication unit communicates with other information processing devices (other smartphones, cloud CD servers, etc.) through a mobile communication network, wireless LAN, or the like. Software for application software (hereinafter referred to as "automatic translation reading application") that executes translation and reading aloud processing is installed in the memory, and the CPU reads the automatic translation reading application in the memory to perform translation and reading aloud. Realize the function.
The CPU loaded with the automatic translation aloud application transmits the captured image obtained by shooting a book to the cloud CD via a mirror ML separate from the main body of the device, which refracts the optical axis direction of the image pickup unit. The cloud CD functions as a control means for receiving the text data corresponding to the character string generated based on the captured image and displaying it on the display unit of the main body of the apparatus.

即ち、自動翻訳音読アプリは、文章が記載されたが本を撮像するカメラと、カメラにより撮像される撮像画像やテキストデータなどを表示できる表示部とを備える情報処理装置SPで利用される。なお、文章は、縦書きであってもよい。 That is, the automatic translation reading aloud application is used in an information processing apparatus SP including a camera in which a sentence is described but a book is imaged, and a display unit capable of displaying an image captured by the camera, text data, and the like. The text may be written vertically.

自動翻訳音読アプリは、装置本体に搭載される撮像部により、撮像部の光軸方向を屈折させる、装置本体とは別体の鏡MLを介して、文字列が配置された記録媒体を撮影させるステップと、その撮像画像をクラウドCDに送信させるステップと、撮像画像に基づいて文字列に対応するテキストデータを生成させるステップと、テキストデータを情報処置装置の表示部に表示するステップとを実行させるコンピュータプログラムである。
具体的に説明すると、自動翻訳音読アプリは、情報処置装置の本体に取り付けられた鏡MLを介して屈折させた光軸の方向から文章が記載された本を撮像部のカメラに撮影させ、撮像された写真をクラウドCDに送信し、クラウドCDにより、撮像画像に基づいて生成された文章に対応するテキストデータを受信し、受信したテキストデータと撮像部のカメラによりほぼリアルタイムで撮像される撮像画像とを共に提示するUI画面を表示部に表示する機能を有する。文章は縦書きであっても横書きであってもよい。
さらに、この自動翻訳音読アプリは、撮像画像を、クラウドCD上で、テキストデータを生成するために適した画像に補正する画像補正機能を有する。自動翻訳音読アプリは、テキストデータの翻訳及び音読のうち少なくとも一方を行う処理機能を有する。
また、自動翻訳音読アプリは、テキストデータが文章として未完成の場合、撮像画像の他の部位又は次の撮像画像から得られたテキストデータと結合して1つの文章を完成させる結合機能を有する。
In the automatic translation reading app, the image pickup unit mounted on the device body causes the image pickup unit to refrain the optical axis direction of the image pickup unit, and the recording medium on which the character string is arranged is photographed via a mirror ML separate from the device body. A step of transmitting the captured image to the cloud CD, a step of generating text data corresponding to the character string based on the captured image, and a step of displaying the text data on the display unit of the information processing device are executed. It is a computer program.
Specifically, the automatic translation reading app causes the camera of the image pickup unit to take a picture of a book in which sentences are written from the direction of the optical axis refracted through the mirror ML attached to the main body of the information processing device, and takes an image. The photograph is transmitted to a cloud CD, text data corresponding to a sentence generated based on the captured image is received by the cloud CD, and the received text data and the captured image captured by the camera of the imaging unit in near real time. It has a function to display a UI screen that presents both and on the display unit. The text may be written vertically or horizontally.
Further, this automatic translation reading aloud application has an image correction function of correcting an captured image into an image suitable for generating text data on a cloud CD. The automatic translation reading aloud application has a processing function for performing at least one of translation and reading aloud of text data.
Further, the automatic translation reading aloud application has a combining function of combining with other parts of the captured image or text data obtained from the next captured image to complete one sentence when the text data is incomplete as a sentence.

なお、上記実施形態では、自動翻訳音読アプリを、図13に示した情報処理装置SPにインストールして翻訳及び音読等の機能を実現したが、この他、自動翻訳音読アプリを情報処理装置1にインストールして翻訳及び音読等の機能を実現しても良い。
この場合、情報処理装置1は、図20乃至図22に示した、文章が記載された本を撮像する回転カメラ21と、回転カメラ21により撮像される撮像画像やテキストデータ等を表示できる表示部13とを備える。情報処理装置1の回転カメラ21は、光軸が情報処理装置1の本体部11の背面側からテキストデータが提示される正面側に向くように回転機構により回動可能に支持されている。
このような情報処理装置1にインストールされる自動翻訳音読アプリは、文章が記載された本を撮影した写真をクラウドに送信することで、クラウドにより、撮像画像に基づいて生成された文字列に対応するテキストデータを受信し、受信したテキストデータと回転カメラによりほぼリアルタイムに撮像されている撮像画像とを共に提示する提示機能を有する。
また、この自動翻訳音読アプリの提示機能は、前記文字列が配置された媒体の前記テキストデータまたは前記媒体に記載のバーコード情報から、過去の前記テキストデータまたは前記バーコード情報と所定の関連付けられたリファレンスデータを参照し、前記リファレンスデータを提示する。
自動翻訳音読アプリは、クラウドに送信された撮像画像に対して、左右反転、上下反転、回転、文字列が配置された媒体部の湾曲補正、文字列が配置された媒体部の台形補正、コントラストの調整、文字列が配置された媒体部だけの切り抜き、写り込んでしまった指の画像の削除のうちの少なくとも一つの画像補正を行う補正機能を有する。
In the above embodiment, the automatic translation reading application is installed in the information processing device SP shown in FIG. 13 to realize functions such as translation and reading aloud. In addition, the automatic translation reading application is installed in the information processing device 1. It may be installed to realize functions such as translation and reading aloud.
In this case, the information processing apparatus 1 has a rotating camera 21 for capturing a book in which sentences are described, and a display unit capable of displaying an captured image, text data, etc. captured by the rotating camera 21, as shown in FIGS. 20 to 22. 13 and. The rotating camera 21 of the information processing device 1 is rotatably supported by a rotating mechanism so that the optical axis faces the front side on which text data is presented from the back side of the main body 11 of the information processing device 1.
The automatic translation aloud reading application installed in such an information processing device 1 corresponds to a character string generated based on a captured image by the cloud by sending a photograph of a book containing sentences to the cloud. It has a presentation function that receives the text data to be processed and presents both the received text data and the captured image captured in near real time by the rotating camera.
Further, the presentation function of this automatic translation reading application is predetermined to be associated with the past text data or the barcode information from the text data of the medium on which the character string is arranged or the barcode information described in the medium. The reference data is presented with reference to the reference data.
The automatic translation aloud reading application flips left and right, flips vertically, rotates, corrects the curvature of the medium part where the character string is placed, corrects the trapezoidal part of the medium part where the character string is placed, and contrasts the captured image sent to the cloud. It has a correction function that corrects at least one of the adjustment of, cutting out only the medium part in which the character string is arranged, and deleting the image of the finger that has been reflected.

ここで、図23を参照して自動翻訳音読アプリのUIについて説明する。
自動翻訳音読アプリは、ユーザが情報処理装置SPの画面に表示されているアイコンをクリック操作することで起動し、表示部の画面に、図23に示すユーザインターフェース31(以下「UI31」と称す)を表示する。
Here, the UI of the automatic translation reading aloud application will be described with reference to FIG. 23.
The automatic translation aloud application is activated by the user clicking an icon displayed on the screen of the information processing apparatus SP, and the user interface 31 shown in FIG. 23 (hereinafter referred to as "UI 31") is displayed on the screen of the display unit. Is displayed.

図23に示すように、UI31には、表示エリア32、表示エリア33、言語指定部34、撮像画像表示エリア35、修正ボタン36、37、スクロールバーS1、S2等が配設されている。
表示エリア32は、撮像画像の文字認識処理(OCR)により得られた翻訳元のテキストが行方向(横方向)に画面端で折り返して表示されるエリアである。表示エリア33は、翻訳元のテキストを翻訳先の言語に翻訳(変換)したテキストが行方向(横方向)に画面端で折り返して表示されるエリアである。
言語指定部34は、翻訳元の言語と翻訳先の言語を指定する部位であり、翻訳元言語を指定するためのプルダウンメニューと翻訳先言語を指定するためのプルダウンメニューが設けられている。
撮像画像表示エリア35は、フロントカメラにより撮像される撮像画像がリアルタイムに表示されるエリアであり、撮像画像が縮小表示される。
修正ボタン36は、クリック操作されることにより、自動翻訳音読アプリのテキスト編集機能が起動し、表示エリア32のテキストの修正が可能になる。修正ボタン37は、クリック操作されることにより、自動翻訳音読アプリのテキスト編集機能が起動し、表示エリア33のテキストの修正が可能になる。
スクロールバーS1は、表示エリア32を超える行のテキストをユーザの操作で画面の長手方向にスクロール表示するためのものである。スクロールバーS2は、表示エリア33を超える行のテキストをユーザの操作で画面の長手方向にスクロール表示するためのものである。
自動翻訳音読アプリでは、UI31から機能選択ボタンで翻訳か音読の何れかを選択することで夫々の機能が動作する。
クラウドCDは、例えば翻訳や音読の処理を行うサーバ等であり、情報処理装置SPの自動翻訳音読アプリからの画像を含む画像処理の要求を受けて翻訳処理及び音読処理を行い、要求に対する応答として翻訳結果及び音読結果のテキストデータ及び音読データを情報処理装置SPの自動翻訳音読アプリに返信する。
As shown in FIG. 23, the UI 31 is provided with a display area 32, a display area 33, a language designation unit 34, a captured image display area 35, correction buttons 36, 37, scroll bars S1, S2, and the like.
The display area 32 is an area in which the translation source text obtained by the character recognition process (OCR) of the captured image is folded back at the edge of the screen in the line direction (horizontal direction) and displayed. The display area 33 is an area in which the text obtained by translating (converting) the translation source text into the translation destination language is folded back at the edge of the screen in the line direction (horizontal direction) and displayed.
The language designation unit 34 is a part for designating the language of the translation source and the language of the translation destination, and is provided with a pull-down menu for designating the translation source language and a pull-down menu for designating the translation destination language.
The captured image display area 35 is an area in which the captured image captured by the front camera is displayed in real time, and the captured image is reduced and displayed.
When the correction button 36 is clicked, the text editing function of the automatic translation reading aloud application is activated, and the text in the display area 32 can be corrected. When the correction button 37 is clicked, the text editing function of the automatic translation reading aloud application is activated, and the text in the display area 33 can be corrected.
The scroll bar S1 is for scrolling and displaying the text of the line exceeding the display area 32 in the longitudinal direction of the screen by the user's operation. The scroll bar S2 is for scrolling and displaying the text of the line exceeding the display area 33 in the longitudinal direction of the screen by the user's operation.
In the automatic translation reading aloud application, each function is operated by selecting either translation or reading aloud from the UI 31 with the function selection button.
The cloud CD is, for example, a server that performs translation and reading aloud, and receives a request for image processing including an image from an automatic translation reading application of an information processing apparatus SP, performs translation processing and reading aloud, and responds to the request. The text data and the reading data of the translation result and the reading result are returned to the automatic translation reading application of the information processing apparatus SP.

ここで、図24及び図25のフローチャートを参照して、翻訳及び音読の動作例を説明する。図24及び図25は、情報処理装置SPとクラウドCDを含むシステムにおける翻訳及び音読のプロセスを示すフローチャート例である。
図24のステップS101において、鏡MLをフロントカメラに対応させて装置本体に取り付ける。
ユーザは、読み取り対象のページを開いた本を読み取り台(図13(C)参照)にセットし、ステップS102において、情報処理装置SPのアイコンをクリックし、自動翻訳音読アプリを起動し、これにより表示部にUI31が表示される。
ステップS103において、ユーザがUI31の言語指定部34のプルダウンメニューから翻訳元と翻訳先の言語を選択し指定すると、自動翻訳音読アプリは、フロントカメラを起動し、ステップS104において、フロントカメラにより読み取り対象の本のタイトルを含むページの画像が撮像される。なお、翻訳元の言語ならびに翻訳先の言語は、予め所定の言語(例えば「日本語」や「英語」等)が規定値として設定されていてもよく、翻訳元の言語は、後述するS107で自動で判定しても良い。フロントカメラにより撮像されたページを含む画像は、UI31の上部の撮像画像表示エリア35に画角(縦横比)を保持したまま縮小表示される。撮像画像表示エリア35では、本のページがフロントカメラの撮像エリア35からずれているかどうかを確認することができる。
Here, an operation example of translation and reading aloud will be described with reference to the flowcharts of FIGS. 24 and 25. 24 and 25 are flowchart examples showing the process of translation and reading aloud in a system including the information processing apparatus SP and the cloud CD.
In step S101 of FIG. 24, the mirror ML is attached to the main body of the apparatus so as to correspond to the front camera.
The user sets the book that opened the page to be read on the reading table (see FIG. 13C), clicks the icon of the information processing apparatus SP in step S102, and starts the automatic translation reading aloud application. The UI 31 is displayed on the display unit.
In step S103, when the user selects and specifies the translation source and translation destination languages from the pull-down menu of the language specification unit 34 of the UI 31, the automatic translation aloud reading application activates the front camera, and in step S104, the reading target is read by the front camera. An image of the page containing the title of the book is captured. The translation source language and the translation destination language may be set in advance as predetermined languages (for example, "Japanese", "English", etc.), and the translation source language is described in S107, which will be described later. It may be determined automatically. The image including the page captured by the front camera is reduced and displayed in the captured image display area 35 at the upper part of the UI 31 while maintaining the angle of view (aspect ratio). In the captured image display area 35, it is possible to check whether or not the pages of the book are deviated from the captured image area 35 of the front camera.

ユーザは、撮像画像表示エリア35の撮像画像を確認することで、撮像画像表示エリア35内に本の読み取り対象ページ全体が入るように本の位置又は情報処理装置SP全体の位置を調整し撮像範囲を調整する。撮像範囲が調整されると、自動翻訳音読アプリは、調整された撮像範囲で撮像した撮像画像をクラウドCDへ送信する。
ステップS105において、クラウドCDでは、サーバが、情報処理装置SPの自動翻訳音読アプリから受信した撮像画像に対して、左右反転、上下反転、回転、文字列が配置された媒体部の湾曲補正、文字列が配置された媒体部の台形補正、コントラストの調整、文字列が配置された媒体部だけの切り抜き、写り込んでしまった指の画像の削除等の画像の補正を行い、本1ページ分の幅や文字列の位置を検出する。
ステップS106において、サーバは、向き等を補正した撮像画像から文字認識することで、テキストデータ(以下「テキスト」と称す)を抽出する。文字認識をOCRと呼ぶ。
ステップS107において、サーバは、抽出したテキストから本に記載されている文字の言語を判定する。
ステップS108では、サーバは、必要に応じて、判定した文字の言語に基づいてテキストを補正する。「必要に応じて」とは、例えば誤読しやすい文字や未認識文字が多く文字認識率が一定値より低い場合等である。加えて、本や章のタイトルやページ数をテキストに含めない、漢字にルビ(よみ)が振られている場合は、重複して取り込まない、といった補正が加えられる。
ステップS109では、サーバは、AI翻訳機能によりテキストを、指定言語に翻訳する。
ステップS110では、サーバは、音読データ作成機能により、翻訳したテキストから音読データを生成し、処理結果のデータを情報処理装置SPへ送信する。処理結果のデータは、生成した音読データ、翻訳前のテキスト及び翻訳後のテキスト等である。音読データは、テキストに、音読用のテキストの文言の単位に属性データ(句読点やアクセントデータやルビ等)を付与したものである。
By confirming the captured image in the captured image display area 35, the user adjusts the position of the book or the position of the entire information processing apparatus SP so that the entire page to be read of the book is contained in the captured image display area 35, and the imaging range is adjusted. To adjust. When the imaging range is adjusted, the automatic translation reading aloud application transmits the captured image captured in the adjusted imaging range to the cloud CD.
In step S105, in the cloud CD, the server reverses left and right, flips vertically, rotates, corrects the curvature of the medium portion in which the character string is arranged, and characters with respect to the captured image received from the automatic translation reading application of the information processing apparatus SP. Image correction such as trapezoidal correction of the medium part where columns are arranged, contrast adjustment, cropping of only the medium part where character strings are arranged, deletion of the image of the finger that has been reflected, etc. are performed, and it is equivalent to one page of this book. Detects the width and the position of the character string.
In step S106, the server extracts text data (hereinafter referred to as "text") by recognizing characters from the captured image whose orientation and the like have been corrected. Character recognition is called OCR.
In step S107, the server determines the language of the characters described in the book from the extracted text.
In step S108, the server corrects the text based on the language of the determined characters, if necessary. “As needed” means, for example, a case where there are many characters that are easily misread or unrecognized characters and the character recognition rate is lower than a certain value. In addition, corrections are made such that the title and number of pages of books and chapters are not included in the text, and if ruby (reading) is added to the kanji, it will not be included in duplicate.
In step S109, the server translates the text into the designated language by the AI translation function.
In step S110, the server generates the read-aloud data from the translated text by the read-aloud data creation function, and transmits the processing result data to the information processing apparatus SP. The processing result data is the generated reading aloud data, the text before translation, the text after translation, and the like. The reading aloud data is obtained by adding attribute data (punctuation marks, accent data, ruby, etc.) to the text as a unit of the wording of the text for reading aloud.

情報処理装置SPの自動翻訳音読アプリでは、サーバから処理結果のデータを受信すると、ステップS111において、自動翻訳音読アプリが、受信した処理結果のデータを表示部のUI31に表示すると共に音読を行う。
UI31には、表示エリア32に翻訳元の言語(元言語)のテキスト、表示エリア33に翻訳後の言語(翻訳言語)のテキストが夫々表示される。これと共に、自動翻訳音読アプリの音読機能により、受信された翻訳後のテキストの音読データが音読され、スピーカから音声が出力される。
ここで、ユーザが翻訳前又は翻訳後のテキストに間違いを発見し、訂正したい場合は、ステップS112において、ユーザが修正ボタン36又は修正ボタン37をクリック操作すると、編集機能が有効になり修正ボタン36又は修正ボタン37に対応する表示エリア(表示エリア32又は表示エリア33)のテキストが編集可能になるので、ステップS113において、表示エリアのテキストを手操作(手入力)で修正する。
When the automatic translation aloud reading application of the information processing apparatus SP receives the processing result data from the server, in step S111, the automatic translation aloud reading application displays the received processing result data on the UI 31 of the display unit and reads aloud.
In the UI 31, the text of the translation source language (original language) is displayed in the display area 32, and the text of the translated language (translation language) is displayed in the display area 33, respectively. At the same time, the reading aloud function of the automatic translation reading aloud application reads aloud the read aloud data of the received translated text and outputs the voice from the speaker.
Here, if the user finds an error in the text before or after translation and wants to correct it, in step S112, when the user clicks the correction button 36 or the correction button 37, the editing function is enabled and the correction button 36 is activated. Alternatively, since the text in the display area (display area 32 or display area 33) corresponding to the correction button 37 can be edited, the text in the display area is manually corrected (manually input) in step S113.

一方、翻訳前又は翻訳後のテキストに間違いがない場合は、ユーザがUI31の確定ボタン(図示せず)をクリック操作すると、クラウドCDに翻訳が確定した旨が通知される。確定ボタンを押さなくても、修正ボタンが押されない限り、修正はなく確定されていると考えることも可能である。
この通知を受けたクラウドCDのサーバは、ステップS114において、翻訳前のテキストから本のタイトル(題名)を抽出する。
そして、サーバは、ステップS115において、抽出した本のタイトル(題名)と本の記載言語に基づいて、出版本のデータベースや予めメモリに記憶している翻訳済みの電子書籍化されたリファレンスデータ等を参照して既存の本の内容(テキスト)とマッチングし、本の内容が合致した既存の本のタイトル(題名)を特定しそれを情報処理装置SPに通知する。マッチングの結果、既存の本のタイトル(題名)が合致しない場合は、その旨を情報処理装置SPの自動翻訳音読アプリに通知する。
On the other hand, if there is no mistake in the text before or after translation, when the user clicks the confirmation button (not shown) of UI31, the cloud CD is notified that the translation has been confirmed. Even if the confirmation button is not pressed, it can be considered that there is no correction and the confirmation is made as long as the correction button is not pressed.
Upon receiving this notification, the cloud CD server extracts the title (title) of the book from the untranslated text in step S114.
Then, in step S115, the server selects the database of the published book, the translated electronic book-converted reference data stored in the memory in advance, and the like, based on the extracted book title (title) and the description language of the book. It matches with the contents (text) of the existing book by reference, identifies the title (title) of the existing book that matches the contents of the book, and notifies the information processing apparatus SP of it. If the title (title) of the existing book does not match as a result of matching, the automatic translation reading aloud application of the information processing apparatus SP is notified to that effect.

情報処理装置SPの自動翻訳音読アプリでは、サーバからの既存の本のタイトルが合致した旨の通知があると、自動翻訳音読アプリは、既存の本のタイトルに基づいて本のテキストを含むデータを出版本のデータベースやメモリ、インターネットの本のサイト等から取得して、ステップS116において、直前に翻訳したページの終了位置が保持されていれば、その位置からテキストを表示及び音読する。
一方、サーバからの既存の本のタイトルが合致しなかった旨の通知を受信すると、自動翻訳音読アプリは、ステップS117において、直前に翻訳したページの次のページを撮像し、撮像した撮像画像をクラウドCDへ送信する。
In the automatic translation reading app of the information processing device SP, when the server notifies that the title of the existing book matches, the automatic translation reading app reads the data including the text of the book based on the title of the existing book. If the end position of the page translated immediately before is held in step S116 by acquiring from the database or memory of the published book, the site of the book on the Internet, or the like, the text is displayed and read aloud from that position.
On the other hand, when the notification from the server that the title of the existing book does not match is received, the automatic translation reading aloud application captures the next page of the page translated immediately before in step S117, and captures the captured image. Send to cloud CD.

クラウドCDでは、サーバが、ステップS118乃至ステップS121において、ステップS105乃至ステップS108と同様の処理を行う。
そして、ステップS122において、サーバは、前ページで文章として完成していないページのテキスト(以下これを「未完成文章」と呼ぶ)の有無を確認し、未完成文章があれば、未完成文章のテキストと新たに読み取ったテキストとを連結して1文の文章を完成させる。日本語の場合の例では、テキストを構成する文字列のうち少なくとも句点「。」が設けられている部位まで連結する。
続いて、ステップS123において、サーバは、1文の文章と本の記載言語に基づいて、出版本のデータベースやリファレンスデータ等を参照して既存の本(出版本等)と本の内容をマッチングし、互いのデータが合致すれば、つまりマッチングできれば、その本のテキストを含むデータを取得する。
その後、ステップS124において、サーバは、ステップS109と同様に、AI翻訳機能によりテキストを、指定言語へ翻訳する。
ステップS125において、サーバは、音読データ作成機能により、翻訳したテキストから音読データを生成し、処理結果のデータを情報処理装置SPの自動翻訳音読アプリへ送信する。
In the cloud CD, the server performs the same processing as in steps S105 to S108 in steps S118 to S121.
Then, in step S122, the server confirms the presence or absence of the text of the page that has not been completed as a sentence on the previous page (hereinafter, this is referred to as "unfinished sentence"), and if there is an unfinished sentence, the unfinished sentence. Concatenate the text and the newly read text to complete one sentence. In the example in the case of Japanese, at least the part of the character string constituting the text where the punctuation mark "." Is provided is concatenated.
Subsequently, in step S123, the server matches the existing book (published book, etc.) with the content of the book by referring to the published book database, reference data, etc., based on the sentence of one sentence and the description language of the book. , If the data match each other, that is, if they can be matched, the data including the text of the book is acquired.
After that, in step S124, the server translates the text into the designated language by the AI translation function as in step S109.
In step S125, the server generates reading data from the translated text by the reading data creation function, and transmits the processing result data to the automatic translation reading application of the information processing apparatus SP.

情報処理装置SPの自動翻訳音読アプリでは、サーバから処理結果のデータを受信すると、ステップS126において、自動翻訳音読アプリが、受信した処理結果のデータを表示部のUI31に表示すると共に音読を行う。
UI31に表示された翻訳前後のテキストに間違いがあれば、ステップS127、S128において、ステップS112、S113と同様にテキストの修正を行う。
翻訳前後のテキストに間違いがなく、次の翻訳ページがあれば(ステップS129のYes)、ユーザは、本のページをめくって、めくったページを撮像させる。
次の翻訳ページの有無については、撮像画像の隣接ページの有無を検出してもよく、ユーザにより新たなページがめくられたか否かを検出してもよい。
また、撮像画像に2ページ分の本の画像が写っていた場合、自動翻訳音読アプリは、撮像画像の中から隣の次のページの画像を切り出して、サーバへ送信し、ステップS118へ進む。
When the automatic translation aloud reading application of the information processing apparatus SP receives the processing result data from the server, in step S126, the automatic translation aloud reading application displays the received processing result data on the UI 31 of the display unit and reads aloud.
If there is an error in the text before and after translation displayed on the UI 31, the text is corrected in steps S127 and S128 in the same manner as in steps S112 and S113.
If there is no mistake in the text before and after the translation and there is the next translation page (Yes in step S129), the user turns the page of the book and has the turned page imaged.
Regarding the presence / absence of the next translation page, the presence / absence of an adjacent page of the captured image may be detected, or it may be detected whether or not a new page has been turned by the user.
Further, when the image of the book for two pages is included in the captured image, the automatic translation aloud reading application cuts out the image of the next next page from the captured image, sends it to the server, and proceeds to step S118.

ステップS129において、次の翻訳ページがなければ(ステップS129のNo)、翻訳終了の通知をクラウドCDへ送信する。
クラウドCDでは、サーバが、情報処理装置SPの自動翻訳音読アプリからの受信した翻訳終了の通知によって、テキストの翻訳終了位置を記憶し、ステップS130において、サーバ側の翻訳及び音読処理を終了する。
このように動作する情報処理装置SPの自動翻訳音読アプリによれば、鏡MLを取り付けた情報処理装置SPを台BSにセットし、ページを開いた本をフロントカメラで撮像すると、撮像されたページの撮像画像がUI31の撮像画像表示エリア35に表示されるので、撮像画像表示エリア35の撮像画像を確認しながら本の撮像範囲の位置合わせができ、正しい撮像範囲で本のページを撮像することができる。この結果、ページの見切れ等がなくなり、本から読み取ったテキストを情報処理装置SPに翻訳及び音読させる際のミスを少なくすることができる。
また、情報処理装置SPによれば、本のページの撮像画像を文字認識処理してテキストを抽出し、跨るページのテキストを連結して1文したテキストを情報処理装置SPの自動翻訳音読アプリに取り込み、UI31の表示エリア32に表示するので、紙媒体の本を電子化するのを短い作業時間で行うことができる。
さらに、情報処理装置SPの自動翻訳音読アプリによれば、本の見開きページ等から本のタイトルを抽出し、そのテキストに基づいて、既存の本を特定し、既存の本のデータを取得することも可能なので、全文をOCRして翻訳及び音読するのに比べて誤読や未読がなくなり、本の翻訳精度を向上することができると共に音読をスムーズに行うことができる。
If there is no next translation page in step S129 (No in step S129), a notification of the end of translation is transmitted to the cloud CD.
In the cloud CD, the server stores the translation end position of the text by the notification of the translation end received from the automatic translation aloud reading application of the information processing apparatus SP, and ends the translation and aloud processing on the server side in step S130.
According to the automatic translation reading app of the information processing device SP that operates in this way, when the information processing device SP with the mirror ML attached is set on the base BS and the book with the opened page is imaged with the front camera, the captured page is taken. Since the captured image of is displayed in the captured image display area 35 of the UI 31, the image of the book can be aligned while checking the captured image of the captured image display area 35, and the page of the book can be captured in the correct imaging range. Can be done. As a result, it is possible to eliminate page breaks and reduce mistakes when the information processing apparatus SP translates and reads aloud the text read from the book.
Further, according to the information processing device SP, the captured image of the book page is subjected to character recognition processing to extract the text, and the texts of the straddling pages are concatenated to convert the text into one sentence into the automatic translation reading application of the information processing device SP. Since it is captured and displayed in the display area 32 of the UI 31, it is possible to digitize a paper-based book in a short working time.
Furthermore, according to the automatic translation reading aloud application of the information processing apparatus SP, the title of the book is extracted from the spread pages of the book, the existing book is specified based on the text, and the data of the existing book is acquired. It is also possible to eliminate misreading and unreading as compared with translating and reading aloud the whole sentence by OCR, and it is possible to improve the translation accuracy of the book and to read aloud smoothly.

なお、上記動作例では、UI31の上部に撮像画像表示エリア35を設けたが、撮像画像表示エリア35はこの例に限定されるものではなく、UI31のどこかに翻訳前や翻訳後のテキストよりも小さく表示していればよい。
また、テキストを抽出したときに、文章が途中で切れているときには、その文章が途切れているテキストは、そのページで翻訳や音読をせずに、次のページをスキャンして、1つの文章になってから、翻訳や音読をしてもよい。
さらに、画像を読み取った本がかつて誰かが一度スキャンしており、既に本のテキストデータや電子ブック等のデータがメモリ等に記憶されていた場合は、そのメモリの情報から翻訳及び音読を行うようにしてもよい。
この翻訳及び音読機能では、書物の1ページ1ページをいちいちシャッターを押すことなく静止画として撮影し、ページがめくられたことや撮像画像が大きく変わったこと、例えば、カメラが撮影しているページをユーザが意図的に左のページから右のページにずらしたりしたときに、これを検出してページを再度読み込み、前述した一連の翻訳のプロセスを繰り返し、翻訳を行う。
ページの再読込は、音声で行っても良く、また音で行っても良い。さらに、ページの再読込は、画面上のボタンやリモコンで行っても良い。
これ以外にも、一部を翻訳して途中から翻訳プロセスをスキップして、翻訳済みの電子書籍化されたリファレンスデータを使っても良い。一度翻訳を行い、翻訳を停止した際には、ページとページ内の位置を覚えておき、次回、再開するときには、翻訳を停止したページを表示や音読でユーザに通知しても良い。
In the above operation example, the captured image display area 35 is provided on the upper part of the UI 31, but the captured image display area 35 is not limited to this example, and the text before or after translation is used somewhere in the UI 31. Should be displayed small.
Also, when the text is extracted, if the sentence is interrupted in the middle, the text that is interrupted scans the next page without translating or reading aloud on that page to make one sentence. After that, you may translate or read aloud.
Furthermore, if the book whose image was read was once scanned by someone and the text data of the book or data such as an electronic book is already stored in a memory or the like, the information in the memory should be used for translation and reading aloud. You may do it.
With this translation and reading function, each page of a book is taken as a still image without pressing the shutter, and the pages are turned or the captured image has changed significantly, for example, the page taken by the camera. When the user intentionally shifts from the left page to the right page, this is detected and the page is reloaded, and the above-mentioned series of translation processes are repeated to perform translation.
The page may be reloaded by voice or by sound. Furthermore, the page may be reloaded using the buttons on the screen or the remote controller.
Alternatively, you may translate part of it, skip the translation process, and use the translated e-booked reference data. You may perform translation once, remember the page and its position in the page when the translation is stopped, and notify the user by displaying or reading aloud the page where the translation was stopped the next time when the translation is restarted.

(音読機能)
次に、図26を参照して、音読機能のUIを説明する。図26は、音読機能のUIを示す図である。なお、図26において、図23と同じ構成には同一の符号を付しその説明省略する。
図26示すように、音読機能のUI31は、表示エリア32が広く設けられており、図23で示した翻訳済みテキストの表示エリア33が設けられていない。言語指定部34は、テキスト化言語を指定するためのプルダウンメニューが一つだけ設けられている。
(Reading aloud function)
Next, the UI of the reading aloud function will be described with reference to FIG. 26. FIG. 26 is a diagram showing a UI of the reading aloud function. In FIG. 26, the same reference numerals are given to the same configurations as those in FIG. 23, and the description thereof will be omitted.
As shown in FIG. 26, the UI 31 of the reading aloud function is provided with a wide display area 32, and is not provided with the display area 33 of the translated text shown in FIG. 23. The language designation unit 34 is provided with only one pull-down menu for designating a text-based language.

次に、図27及び図28のフローチャートを参照して、音読機能の動作例を説明する。図27及び図28は、情報処理装置SPとクラウドCDを含むシステムにおける音読のプロセスを示すフローチャートである。
図27のステップS201において、鏡MLをフロントカメラに対応させて装置本体に取り付ける。
ユーザは、読み取り対象のページを開いた本を読み取り用の台BS(図13(C)参照)にセットし、ステップS202において、情報処理装置SPのアイコンをクリックし、自動音読アプリを起動し、これにより表示部にUI31が表示される。
ステップS203において、ユーザがUI31の言語指定部34のプルダウンメニューから音読言語を指定すると、自動音読アプリは、フロントカメラを起動し、ステップS204において、フロントカメラにより読み取り対象の本のタイトルを含むページの画像が撮像される。なお、音読言語は、予め所定の言語(例えば「日本語」や「英語」等)が規定値として設定されていてもよく、この場合はデフォルト設定のまま音読言語を指定する必要はない。音読言語は、後述するS207で自動で判定しても良い。
フロントカメラにより撮像されたページを含む画像は、UI31の上部の撮像画像表示エリア35に画角(縦横比)を保持したまま縮小表示される。撮像画像表示エリア35では、本のページがフロントカメラの撮像エリア35からずれているかどうかを確認することができる。
ユーザは、撮像画像表示エリア35の撮像画像を確認することで、撮像画像表示エリア35内に本の読み取り対象ページ全体が入るように本の位置又は情報処理装置SP全体の位置を調整し撮像範囲を調整する。撮像範囲が調整されると、自動音読アプリは、調整された撮像範囲で撮像した撮像画像をクラウドCDへ送信する。
Next, an operation example of the reading aloud function will be described with reference to the flowcharts of FIGS. 27 and 28. 27 and 28 are flowcharts showing a reading process in a system including an information processing apparatus SP and a cloud CD.
In step S201 of FIG. 27, the mirror ML is attached to the main body of the apparatus so as to correspond to the front camera.
The user sets the book that opened the page to be read on the reading table BS (see FIG. 13C), clicks the icon of the information processing apparatus SP in step S202, starts the automatic reading aloud application, and launches the automatic reading aloud application. As a result, the UI 31 is displayed on the display unit.
In step S203, when the user specifies a reading language from the pull-down menu of the language specification unit 34 of the UI 31, the automatic reading application activates the front camera, and in step S204, the page including the title of the book to be read by the front camera is displayed. The image is captured. As the reading aloud language, a predetermined language (for example, "Japanese" or "English") may be set as a default value in advance. In this case, it is not necessary to specify the reading aloud language with the default setting. The reading aloud language may be automatically determined by S207 described later.
The image including the page captured by the front camera is reduced and displayed in the captured image display area 35 at the upper part of the UI 31 while maintaining the angle of view (aspect ratio). In the captured image display area 35, it is possible to check whether or not the pages of the book are deviated from the captured image area 35 of the front camera.
By confirming the captured image in the captured image display area 35, the user adjusts the position of the book or the position of the entire information processing apparatus SP so that the entire page to be read of the book is contained in the captured image display area 35, and the imaging range is adjusted. To adjust. When the imaging range is adjusted, the automatic reading aloud application transmits the captured image captured in the adjusted imaging range to the cloud CD.

ステップS205において、クラウドCDでは、サーバが、情報処理装置SPの自動音読アプリから受信した撮像画像に対して、左右反転、上下反転、回転、文字列が配置された媒体部の湾曲補正、文字列が配置された媒体部の台形補正、コントラストの調整、文字列が配置された媒体部だけの切り抜き、写り込んでしまった指の画像の削除等の画像の補正を行い、本1ページ分の幅や文字列の位置を検出する。
ステップS206において、サーバは、向き等を補正した撮像画像から文字を認識することで、テキストを抽出する。画像から文字を認識する処理をOCRと呼ぶ。
ステップS207において、サーバは、抽出したテキストから本に記載されている文字の言語(記載言語)を判定する。
ステップS208では、サーバは、必要に応じて、判定した文字の言語に基づいてテキストを補正する。「必要に応じて」とは、例えば誤読文字や未認識文字が多く文字認識率が一定値より低い場合等である。加えて、本や章のタイトルやページ数をテキストに含めない、漢字にルビ(よみ)が振られている場合は、重複して取り込まない、といった補正が加えられる。
ステップS209では、サーバは、音読データ作成機能により、抽出したテキストから音読データを生成し、処理結果のデータを情報処理装置SPへ送信する。処理結果のデータは、生成した音読データ、テキスト等である。音読データは、テキストに、音読用のテキストの文言の単位に属性データ(句読点やアクセントデータやルビ等)を付与したものである。
In step S205, in the cloud CD, the server reverses left and right, flips up and down, rotates, corrects the curvature of the medium portion in which the character string is arranged, and the character string with respect to the captured image received from the automatic reading application of the information processing apparatus SP. The width of one page is corrected by correcting the trapezoidal shape of the medium part where the character string is placed, adjusting the contrast, cutting out only the medium part where the character string is placed, and deleting the image of the finger that has been reflected. And detect the position of the character string.
In step S206, the server extracts text by recognizing characters from the captured image whose orientation and the like have been corrected. The process of recognizing characters from an image is called OCR.
In step S207, the server determines the language (description language) of the characters described in the book from the extracted text.
In step S208, the server corrects the text based on the language of the determined characters, if necessary. “As needed” means, for example, a case where there are many misread characters and unrecognized characters and the character recognition rate is lower than a certain value. In addition, corrections are made such that the title and number of pages of books and chapters are not included in the text, and if ruby (reading) is added to the kanji, it will not be included in duplicate.
In step S209, the server generates reading aloud data from the extracted text by the reading aloud data creation function, and transmits the processing result data to the information processing apparatus SP. The processing result data is the generated reading aloud data, text, and the like. The reading aloud data is obtained by adding attribute data (punctuation marks, accent data, ruby, etc.) to the text as a unit of the wording of the text for reading aloud.

情報処理装置SPの自動音読アプリでは、サーバから処理結果のデータを受信すると、ステップS210において、自動音読アプリが、受信した処理結果のデータを表示部のUI31に表示すると共に音読を行う。
UI31には、表示エリア32に音読言語のテキストが表示される。これと共に、自動音読アプリの音読機能により、受信された翻訳後のテキストの音読データが音読され、情報処理装置SPのスピーカから音声が出力される。
ここで、ユーザが音読内容やテキストに間違いを発見し、訂正したい場合は、ステップS211において、ユーザが修正ボタン36をクリック操作すると、編集機能が有効になり表示エリア32のテキストが編集可能になるので、ステップS212において、表示エリア32のテキストを手操作(手入力)で修正する。修正後、テキストは、サーバへ送られて、ステップ209において、音読データが生成される。
一方、音読内容やテキストに間違いがない場合は、ユーザがUI31の確定ボタン(図示せず)をクリック操作すると、クラウドCDに音読内容が確定した旨が通知される。確定ボタンを押さなくても、修正ボタンが押されない限り、修正はなく確定されていると考えることも可能である。
When the automatic reading aloud application of the information processing apparatus SP receives the processing result data from the server, in step S210, the automatic reading aloud application displays the received processing result data on the UI 31 of the display unit and reads aloud.
In the UI 31, the text in the reading language is displayed in the display area 32. At the same time, the reading aloud function of the automatic reading aloud application reads aloud the read aloud data of the received translated text, and outputs the voice from the speaker of the information processing apparatus SP.
Here, if the user finds an error in the reading content or the text and wants to correct it, the user clicks the correction button 36 in step S211 to enable the editing function and edit the text in the display area 32. Therefore, in step S212, the text in the display area 32 is manually corrected (manually input). After modification, the text is sent to the server and reading data is generated in step 209.
On the other hand, if there is no mistake in the reading content or the text, when the user clicks the confirmation button (not shown) of the UI 31, the cloud CD is notified that the reading content has been confirmed. Even if the confirmation button is not pressed, it can be considered that there is no correction and the confirmation is made as long as the correction button is not pressed.

情報処理装置SPの自動音読アプリから通知を受けたクラウドCDのサーバは、ステップS213において、文字認識したテキストから本のタイトル(題名)を抽出する。
そして、サーバは、ステップS214において、抽出した本のタイトル(題名)と本の記載言語に基づいて、出版本のデータベースや予めメモリに記憶しているリファレンスデータ等を参照して既存の本の内容(テキスト)とマッチングし、本の内容が合致した既存の本のタイトル(題名)を特定しそれを情報処理装置SPの自動音読アプリに通知する。マッチングの結果、既存の本のタイトル(題名)が合致しない場合は、その旨を情報処理装置SPの自動音読アプリに通知する。
The server of the cloud CD that has received the notification from the automatic reading application of the information processing apparatus SP extracts the title (title) of the book from the text recognized by the characters in step S213.
Then, in step S214, the server refers to the database of the published book, the reference data stored in the memory in advance, and the like based on the title (title) of the extracted book and the description language of the book, and the contents of the existing book. Matches with (text), identifies the title (title) of an existing book that matches the content of the book, and notifies the automatic reading aloud application of the information processing apparatus SP. If the title (title) of the existing book does not match as a result of matching, the automatic reading aloud application of the information processing apparatus SP is notified to that effect.

情報処理装置SPの自動音読アプリでは、サーバからの既存の本のタイトルが合致した旨の通知があると、自動音読アプリは、既存の本のタイトルに基づいて本のデータを出版本のデータベースやメモリ、インターネットの本のサイト等から取得して、ステップS215において、直前に音読したページの終了位置が保持されていれば、その位置からテキストを表示及び音読する。
また、サーバからの既存の本のタイトルが合致しなかった旨の通知を受信すると、自動音読アプリは、ステップS216において、直前に音読したページの次のページを撮像し、撮像した撮像画像をクラウドCDへ送信する。
In the automatic reading app of the information processing device SP, when there is a notification from the server that the title of the existing book matches, the automatic reading app publishes the book data based on the title of the existing book or the database of the book. If the end position of the page read aloud immediately before is held in step S215 after acquiring from a memory, a book site on the Internet, or the like, the text is displayed and read aloud from that position.
Further, when the notification from the server that the title of the existing book does not match is received, the automatic reading aloud application captures the next page of the page read aloud immediately before in step S216, and captures the captured image in the cloud. Send to CD.

クラウドCDでは、サーバが、ステップS217乃至ステップS220において、ステップS205乃至ステップS208と同様の処理を行う。
そして、ステップS221において、サーバは、前ページで文章として完成していないページのテキスト(以下これを「未完成文章」と呼ぶ)の有無を確認し、未完成文章があれば、未完成文章のテキストと新たに読み取ったテキストとを連結して1文の文章を完成させる。日本語の場合の例では、テキストを構成する文字列のうち少なくとも句点「。」が設けられている部位まで連結する。
In the cloud CD, the server performs the same processing as in steps S205 to S208 in steps S217 to S220.
Then, in step S221, the server confirms the presence or absence of the text of the page that has not been completed as a sentence on the previous page (hereinafter, this is referred to as "unfinished sentence"), and if there is an unfinished sentence, the unfinished sentence. Concatenate the text and the newly read text to complete one sentence. In the example in the case of Japanese, at least the part of the character string constituting the text where the punctuation mark "." Is provided is concatenated.

続いて、ステップS222において、サーバは、1文の文章と本の記載言語に基づいて、出版本のデータベースやリファレンスデータ等を参照して既存の本(出版本等)との本の内容をマッチングし、互いのデータが合致すれば、つまりマッチングできれば、その本のテキストを含むデータを取得する。
その後、ステップS223において、サーバは、ステップS209と同様に、音読データ作成機能により、文字認識したテキストから音読データを生成し、処理結果のデータを情報処理装置SPの自動音読アプリへ送信する。
Subsequently, in step S222, the server matches the contents of the book with the existing book (published book, etc.) by referring to the database of the published book, reference data, etc., based on the sentence of one sentence and the description language of the book. Then, if the data match each other, that is, if they can be matched, the data including the text of the book is acquired.
After that, in step S223, the server generates the reading data from the text recognized by the character by the reading data creation function, and transmits the processing result data to the automatic reading application of the information processing apparatus SP, as in the step S209.

情報処理装置SPの自動音読アプリでは、サーバから処理結果のデータを受信すると、ステップS224において、自動音読アプリが、受信した処理結果のデータを表示部のUI31に表示すると共に音読を行う。
UI31に表示されたテキストに間違いがあれば、ステップS225、S226において、ステップS211、S212と同様にテキストの修正を行う。
音読したテキストに間違いがなく、次の翻訳ページがあれば(ステップS227のYes)、ステップS228において、ユーザは、本のページをめくって、めくったページを情報処理装置SPの自動音読アプリに撮像させる。次の音読ページの有無については、撮像画像の隣接ページの有無を検出してもよく、ユーザにより新たなページがめくられたか否かを検出してもよい。
また、撮像画像に2ページ分の本の画像が写っていた場合、自動音読アプリは、撮像画像の中から隣の次のページの画像を切り出して、サーバへ送信し、ステップS217へ進む。
一方、ステップS227において、次の音読ページがなければ(ステップS227のNo)、音読終了の通知がクラウドCDに送信される。
When the automatic reading aloud application of the information processing apparatus SP receives the processing result data from the server, in step S224, the automatic reading aloud application displays the received processing result data on the UI 31 of the display unit and reads aloud.
If there is an error in the text displayed on the UI 31, the text is corrected in steps S225 and S226 in the same manner as in steps S211 and S212.
If there is no mistake in the text read aloud and there is the next translation page (Yes in step S227), in step S228, the user turns the page of the book and captures the turned page in the automatic reading application of the information processing device SP. Let me. Regarding the presence / absence of the next reading aloud page, the presence / absence of an adjacent page of the captured image may be detected, or whether or not a new page has been turned by the user may be detected.
Further, when the image of the book for two pages is included in the captured image, the automatic reading aloud application cuts out the image of the next next page from the captured image, sends it to the server, and proceeds to step S217.
On the other hand, if there is no next reading aloud page in step S227 (No in step S227), a notification of the end of reading aloud is transmitted to the cloud CD.

クラウドCDでは、サーバが、情報処理装置SPの自動音読アプリから受信された音読終了の通知によって、ステップS229において、音読データ及びテキストの音読終了位置を記憶し、ステップS230において、サーバ側の音読処理を終了する。 In the cloud CD, the server stores the reading aloud data and the reading aloud end position of the text in step S229 by the notification of the reading aloud end received from the automatic reading aloud application of the information processing apparatus SP, and the reading process on the server side in step S230. To finish.

このように動作する情報処理装置SPの自動音読アプリによれば、鏡MLを取り付けた情報処理装置SPを台BSにセットし、ページを開いた本をフロントカメラで撮像すると、撮像されたページの撮像画像がUI31の撮像画像表示エリア35に表示されるので、撮像画像表示エリア35の撮像画像を確認しながら本の撮像範囲の位置合わせができ、正しい撮像範囲で本のページを撮像することができる。この結果、ページの見切れ等がなくなり、本から読み取ったテキストを情報処理装置SPの自動音読アプリに音読させる際の音読ミスを少なくすることができる。
また、情報処理装置SPの自動音読アプリによれば、本のページの撮像画像を文字認識処理してテキストを抽出し、跨るページのテキストを連結して1文したテキストを情報処理装置SPに取り込み、UI31の表示エリア32に表示するので、紙媒体の本を電子化するのを短い作業時間で行うことができる。
さらに、情報処理装置SPの自動音読アプリによれば、抽出したテキストに基づいて、既存の本を特定し、既存の本のデータを取得するので、全文をOCRして音読するのに比べて誤読や未読がなくなり、本の音読をスムーズに行うことができる。
According to the automatic reading app of the information processing device SP that operates in this way, when the information processing device SP with the mirror ML attached is set on the base BS and the book whose page is opened is imaged by the front camera, the imaged page is displayed. Since the captured image is displayed in the captured image display area 35 of the UI 31, the image of the book can be aligned while checking the captured image of the captured image display area 35, and the page of the book can be captured in the correct imaging range. can. As a result, the page is not cut off, and the reading aloud error when the text read from the book is read aloud by the automatic reading aloud application of the information processing apparatus SP can be reduced.
Further, according to the automatic reading aloud application of the information processing apparatus SP, the captured image of the book page is subjected to character recognition processing to extract the text, and the texts of the straddling pages are concatenated and the text of one sentence is taken into the information processing apparatus SP. Since the information is displayed in the display area 32 of the UI 31, it is possible to digitize a paper-based book in a short working time.
Furthermore, according to the automatic reading aloud application of the information processing device SP, an existing book is identified based on the extracted text and the data of the existing book is acquired, so that the entire text is read aloud as compared with OCR. You can read aloud a book smoothly without reading aloud.

(テキスト化機能)
次に、テキスト化機能について説明する。なお、テキスト化機能のUIは、図26のUI31と基本的に同じでありその説明は省略する。
ここで、図29及び図30のフローチャートを参照して、テキスト化機能の動作例を説明する。図29及び図30は、情報処理装置SPとクラウドCDを含むシステムにおけるテキスト化のプロセスを示すフローチャートである。
図29のステップS301において、鏡MLをフロントカメラに対応させて装置本体に取り付ける。
ユーザは、読み取り対象のページを開いた本を読み取り台(図13(C)参照)にセットし、ステップS302において、情報処理装置SPのテキスト化機能のアイコンをクリックし、自動テキスト化アプリを起動し、これにより表示部にUI31が表示される。
ステップS303において、ユーザがUI31の言語指定部34のプルダウンメニューからテキスト化言語を指定すると、自動テキスト化アプリは、フロントカメラを起動し、ステップS304において、フロントカメラにより読み取り対象の本のタイトルを含むページの画像が撮像される。なお、テキスト化言語は、予め所定の言語(例えば「日本語」や「英語」等)が規定値として設定されていてもよく、この場合はデフォルト設定のままテキスト化言語を指定する必要はない。テキスト化言語は、後述するステップS307の処理により自動的に判定しても良い。
フロントカメラにより撮像されたページを含む画像は、UI31の上部の撮像画像表示エリア35に画角(縦横比)を保持したまま縮小表示される。撮像画像表示エリア35では、本のページがフロントカメラの撮像エリア35からずれているかどうかを確認することができる。
ユーザは、撮像画像表示エリア35の撮像画像を確認することで、撮像画像表示エリア35内に本の読み取り対象ページ全体が入るように本の位置又は情報処理装置SP全体の位置を調整し撮像範囲を調整する。撮像範囲が調整されると、自動テキスト化アプリは、調整された撮像範囲で撮像した撮像画像をクラウドCDへ送信する。
(Text conversion function)
Next, the text conversion function will be described. The UI of the text conversion function is basically the same as the UI 31 of FIG. 26, and the description thereof will be omitted.
Here, an operation example of the text conversion function will be described with reference to the flowcharts of FIGS. 29 and 30. 29 and 30 are flowcharts showing a text conversion process in a system including an information processing apparatus SP and a cloud CD.
In step S301 of FIG. 29, the mirror ML is attached to the main body of the apparatus so as to correspond to the front camera.
The user sets the book that opened the page to be read on the reading table (see FIG. 13C), clicks the icon of the text conversion function of the information processing apparatus SP in step S302, and starts the automatic text conversion application. As a result, the UI 31 is displayed on the display unit.
In step S303, when the user specifies a text conversion language from the pull-down menu of the language specification unit 34 of the UI 31, the automatic text conversion application activates the front camera, and in step S304, the title of the book to be read by the front camera is included. The image of the page is captured. As the text language, a predetermined language (for example, "Japanese" or "English") may be set as a default value in advance. In this case, it is not necessary to specify the text language with the default settings. .. The text language may be automatically determined by the process of step S307 described later.
The image including the page captured by the front camera is reduced and displayed in the captured image display area 35 at the upper part of the UI 31 while maintaining the angle of view (aspect ratio). In the captured image display area 35, it is possible to check whether or not the pages of the book are deviated from the captured image area 35 of the front camera.
By confirming the captured image in the captured image display area 35, the user adjusts the position of the book or the position of the entire information processing apparatus SP so that the entire page to be read of the book is contained in the captured image display area 35, and the imaging range is adjusted. To adjust. When the imaging range is adjusted, the automatic text conversion application transmits the captured image captured in the adjusted imaging range to the cloud CD.

ステップS305において、クラウドCDでは、サーバが、情報処理装置SPの自動テキスト化アプリから受信した撮像画像から書類の回転、湾曲補正、台形補正、コントラストの調整、本部分だけの切り抜き、写り込んでしまった指の画像の削除等の画像の補正を行い、本1ページ分の幅や文字列の位置を検出する。
ステップS306において、サーバは、向き等を補正した撮像画像から文字を認識することで、テキストを抽出する。画像から文字を認識する処理をOCRと呼ぶ。
ステップS307において、サーバは、抽出したテキストから本に記載されている文字の言語(記載言語)を判定する。
ステップS308では、サーバは、必要に応じて、判定した文字の言語に基づいてテキストを補正する。「必要に応じて」とは、例えば誤読文字や未認識文字が多く文字認識率が一定値より低い場合等である。加えて、本や章のタイトルやページ数をテキストに含めない、漢字にルビ(よみ)が振られている場合は、重複して取り込まない、といった補正が加えられる。
In step S305, in the cloud CD, the server rotates the document, corrects the curvature, corrects the trapezoidal shape, adjusts the contrast, cuts out only this part, and reflects it from the captured image received from the automatic text conversion application of the information processing device SP. The image is corrected, such as deleting the image of the finger, and the width of one page and the position of the character string are detected.
In step S306, the server extracts text by recognizing characters from the captured image whose orientation and the like have been corrected. The process of recognizing characters from an image is called OCR.
In step S307, the server determines the language (description language) of the characters described in the book from the extracted text.
In step S308, the server corrects the text based on the language of the determined characters, if necessary. “As needed” means, for example, a case where there are many misread characters and unrecognized characters and the character recognition rate is lower than a certain value. In addition, corrections are made such that the title and number of pages of books and chapters are not included in the text, and if ruby (reading) is added to the kanji, it will not be included in duplicate.

情報処理装置SPの自動テキスト化アプリでは、サーバからテキストを受信すると、ステップS309において、自動テキスト化アプリが、受信した処理結果のデータを表示部のUI31に表示する。
UI31には、表示エリア32にテキスト化言語のテキストが表示される。
ここで、ユーザがテキストに間違いを発見し、訂正したい場合は、ステップS310において、ユーザが修正ボタン36をクリック操作すると、編集機能が有効になり表示エリア32のテキストが編集可能になるので、ステップS311において、表示エリア32のテキストを手操作(手入力)で修正する。修正後、テキストは、サーバへ送られる。
一方、テキストに間違いがない場合は、ユーザがUI31の確定ボタン(図示せず)をクリック操作すると、クラウドCDにテキストの内容が確定した旨が通知される。確定ボタンを押さなくても、修正ボタンが押されない限り、修正はなく確定されていると考えることも可能である。
When the text is received from the server in the automatic text conversion application of the information processing apparatus SP, in step S309, the automatic text conversion application displays the received processing result data on the UI 31 of the display unit.
In the UI 31, the text in the text language is displayed in the display area 32.
Here, if the user finds an error in the text and wants to correct it, in step S310, when the user clicks the correction button 36, the editing function is enabled and the text in the display area 32 can be edited. In S311 the text in the display area 32 is manually corrected (manually input). After modification, the text is sent to the server.
On the other hand, if there is no mistake in the text, when the user clicks the confirmation button (not shown) of the UI 31, the cloud CD is notified that the content of the text has been confirmed. Even if the confirmation button is not pressed, it can be considered that there is no correction and the confirmation is made as long as the correction button is not pressed.

情報処理装置SPの自動テキスト化アプリから通知を受けたクラウドCDのサーバは、ステップS312において、情報処理装置SPにおいて修正したテキスト又はサーバでテキスト化したテキストから本のタイトル(題名)と本の記載言語を抽出する。
そして、サーバは、ステップS313において、抽出した本のタイトル(題名)と本の記載言語に基づいて、出版本のデータベースや予めメモリに記憶しているリファレンスデータ等を参照して既存の本の内容(テキスト)とマッチングし、本の内容が合致した既存の本のタイトル(題名)を特定し、特定した本のタイトル(題名)と記載言語を情報処理装置SPに通知する。マッチングの結果、既存の本のタイトル(題名)が合致しない場合は、その旨を情報処理装置SPの自動テキスト化アプリに通知する。
In step S312, the server of the cloud CD notified by the automatic text conversion application of the information processing device SP has the title (title) of the book and the description of the book from the text modified by the information processing device SP or the text converted by the server. Extract the language.
Then, in step S313, the server refers to the database of the published book, the reference data stored in the memory in advance, and the contents of the existing book based on the title (title) of the extracted book and the description language of the book. Matches with (text), identifies the title (title) of an existing book that matches the content of the book, and notifies the information processing apparatus SP of the title (title) of the specified book and the description language. As a result of matching, if the title (title) of the existing book does not match, the automatic text conversion application of the information processing apparatus SP is notified to that effect.

情報処理装置SPの自動テキスト化アプリでは、サーバからの既存の本のタイトル(題名)と本の記載言語の通知があると、自動テキスト化アプリは、既存の本のタイトル(題名)と本の記載言語に基づいて本のデータを出版本のデータベースやメモリ、インターネットの本のサイト等から取得して、ステップS314において、直前にテキスト化したページの終了位置が保持されていれば、その位置からテキストを表示する。
また、情報処理装置SPの自動テキスト化アプリでは、サーバからの既存の本のタイトルが合致しなかった旨の通知を受信すると、自動テキスト化アプリは、本のテキスト化を進めるため、ステップS315において、直前に音読したページの次のページを撮像し、撮像した撮像画像をクラウドCDへ送信する。
In the automatic text conversion application of the information processing device SP, when the server notifies the existing book title (title) and the description language of the book, the automatic text conversion application uses the existing book title (title) and the book. If the book data is acquired from the published book database, memory, Internet book site, etc. based on the description language, and the end position of the page converted into text immediately before is held in step S314, from that position. Display text.
Further, in the automatic text conversion application of the information processing apparatus SP, when the notification from the server that the title of the existing book does not match is received, the automatic text conversion application advances the text conversion of the book, so that in step S315. , The next page of the page read aloud immediately before is imaged, and the captured image is transmitted to the cloud CD.

クラウドCDでは、サーバが、ステップS316乃至ステップS319において、ステップS305乃至ステップS308と同様の処理を行う。
そして、ステップS320において、サーバは、本の記載言語とテキストとに基づいて、出版本のデータベースや予めメモリに記憶しているリファレンスデータ等を参照して既存の本(出版本等)との本の内容とマッチングし、互いのデータが合致すれば、つまりマッチングできれば、その本のテキストを含むデータを、出版本のデータベースやメモリから取得する。その後、サーバは、取得したテキストを情報処理装置SPの自動テキスト化アプリへ送信する。
In the cloud CD, the server performs the same processing as in steps S305 to S308 in steps S316 to S319.
Then, in step S320, the server refers to the book of the published book, the reference data stored in the memory in advance, and the like based on the description language and the text of the book, and the book with the existing book (published book, etc.). If the data matches the contents of the book, that is, if the data can be matched, the data including the text of the book is acquired from the database or memory of the published book. After that, the server sends the acquired text to the automatic text conversion application of the information processing apparatus SP.

情報処理装置SPの自動テキスト化アプリでは、サーバからテキストを受信すると、ステップS321において、自動テキスト化アプリが、テキストを表示部のUI31に表示する。
UI31に表示されたテキストに間違いがあれば、ステップS322、S323において、ステップS311、S312と同様にテキストの修正を行う。
表示したテキストに間違いがなく、ステップS324において、次のテキスト化ページがあれば(ステップS324のYes)、ステップS325において、ユーザは、本のページをめくって、めくったページを情報処理装置SPに撮像させる。次の音読ページの有無については、撮像画像の隣接ページの有無を検出してもよく、ユーザにより新たなページがめくられたか否かを検出してもよい。
また、撮像画像に2ページ分の本の画像が写っていた場合、自動テキスト化アプリは、撮像画像の中から隣の次のページの画像を切り出して、サーバへ送信し、ステップS316へ進む。
一方、ステップS324において、次のテキスト化したいページがなければ(ステップS324のNo)、テキスト化終了の通知がクラウドCDに送信される。
In the automatic text conversion application of the information processing apparatus SP, when the text is received from the server, the automatic text conversion application displays the text on the UI 31 of the display unit in step S321.
If there is an error in the text displayed on the UI 31, the text is corrected in steps S322 and S323 in the same manner as in steps S311 and S312.
If there is no mistake in the displayed text and there is a next text page in step S324 (Yes in step S324), in step S325, the user turns the page of the book and turns the turned page into the information processing apparatus SP. Have an image taken. Regarding the presence / absence of the next reading aloud page, the presence / absence of an adjacent page of the captured image may be detected, or whether or not a new page has been turned by the user may be detected.
Further, when the image of the book for two pages is included in the captured image, the automatic text conversion application cuts out the image of the next next page from the captured image, sends it to the server, and proceeds to step S316.
On the other hand, in step S324, if there is no next page to be converted into text (No in step S324), a notification of the end of text conversion is transmitted to the cloud CD.

クラウドCDでは、サーバが、情報処理装置SPから受信されたテキスト化終了の通知によって、ステップS326において、テキストの終了位置を記憶し、ステップS327において、サーバ側のテキスト化処理を終了する。 In the cloud CD, the server stores the end position of the text in step S326 by the notification of the end of text conversion received from the information processing apparatus SP, and ends the text conversion process on the server side in step S327.

このように動作するテキスト化機能を有する情報処理装置SPによれば、鏡MLを取り付けた情報処理装置SPを台BSにセットし、ページを開いた本をフロントカメラで撮像すると、撮像されたページの撮像画像がUI31の撮像画像表示エリア35に表示されるので、撮像画像表示エリア35の撮像画像を確認しながら本の撮像範囲の位置合わせができ、正しい撮像範囲で本のページを撮像することができる。この結果、ページの見切れ等がなくなり、本をテキスト化する際のミスを少なくすることができる。
また、情報処理装置SPの自動テキスト化アプリによれば、本のページの撮像画像を文字認識処理してテキストを抽出し、情報処理装置SPの自動テキスト化アプリに取り込み、UI31の表示エリア32に表示するので、紙媒体の本を電子化するのを短い作業時間で行うことができる。
さらに、情報処理装置SPの自動テキスト化アプリによれば、抽出したテキストに基づいて、既存の本を特定し、既存の本のデータを取得するので、全文をテキスト化するのに比べて誤読や未読がなくなり、本のテキスト化の精度を向上することができる。
According to the information processing device SP having a text conversion function that operates in this way, when the information processing device SP with the mirror ML attached is set on the base BS and the book whose page is opened is imaged by the front camera, the imaged page is taken. Since the captured image of is displayed in the captured image display area 35 of the UI 31, the image of the book can be aligned while checking the captured image of the captured image display area 35, and the page of the book can be captured in the correct imaging range. Can be done. As a result, it is possible to eliminate page breaks and reduce mistakes when converting a book into text.
Further, according to the automatic text conversion application of the information processing device SP, the captured image of the book page is subjected to character recognition processing to extract the text, and the text is taken into the automatic text conversion application of the information processing device SP and displayed in the display area 32 of the UI 31. Since it is displayed, it is possible to digitize a paper-based book in a short working time.
Furthermore, according to the automatic text conversion application of the information processing device SP, an existing book is identified based on the extracted text and the data of the existing book is acquired. There is no unread, and the accuracy of text conversion of books can be improved.

なお、上記翻訳機能、音読機能及びテキスト化機能の動作例では、図13に示した固定式カメラを備える情報処理装置SPに鏡MLをセットした例について説明したが、これらの機能は、図1乃至図4に示す情報処理装置1や図20及び図21に示した、スライド式回転カメラを備える情報処理装置1にも適用することができる。
図1乃至図4に示す情報処理装置1や図20及び図21に示す情報処理装置1では、必要に応じて、表示部をスライドして情報処理装置1を立てた状態で、図16に示す台BSにセットし、回転カメラを情報処理装置1の後側から前方向に回転させて回転カメラの光軸を下方に向けることができるので、鏡MLを取り付けることなく、読み取り対象のページを広げた本の読み取りが可能になる。左右を反転させる鏡モードも不要になる。ただし、撮影設定次第で、上下の反転が必要になる場合がある。
また、上記翻訳機能、音読機能及びテキスト化機能は、図22に示した、回転カメラを備える情報処理装置1にも適用できることは言うまでもない。
In the operation examples of the translation function, the reading function, and the text conversion function, an example in which the mirror ML is set in the information processing apparatus SP provided with the fixed camera shown in FIG. 13 has been described, but these functions are shown in FIG. It can also be applied to the information processing apparatus 1 shown in FIG. 4 and the information processing apparatus 1 provided with the sliding rotary camera shown in FIGS. 20 and 21.
In the information processing apparatus 1 shown in FIGS. 1 to 4 and the information processing apparatus 1 shown in FIGS. 20 and 21, the information processing apparatus 1 is shown in FIG. 16 in a state where the information processing apparatus 1 is erected by sliding the display unit as necessary. Since the rotating camera can be set on the base BS and rotated forward from the rear side of the information processing device 1 to direct the optical axis of the rotating camera downward, the page to be read can be expanded without attaching the mirror ML. You can read the information processing. There is no need for a mirror mode that flips left and right. However, depending on the shooting settings, it may be necessary to flip it upside down.
Needless to say, the translation function, the reading aloud function, and the text conversion function can also be applied to the information processing device 1 provided with the rotating camera shown in FIG.

次に、図31、図32を参照して、図13に示した情報処理装置SPの他の実施形態を説明する。図31、図32は、情報処理装置SPの他の実施形態を示す図である。
図31に示すように、この実施形態の情報処理装置SPは、情報処理装置本体SP1の上端部分にフロントカメラFCが搭載されている。情報処理装置本体SP1は、所定の厚みT1を有する。
情報処理装置本体SP1には、フロントカメラFCの部分を覆うように、鏡ユニットMUが取り付けられている。鏡ユニットMUには、溝MZが設けられている。図に向かって溝MZの右側が支持部MU1、左側が反射部MU2とされている。
反射部MU2の内側は、傾斜した壁面とその左右端をカバーする壁面とを有しており、下方と情報処理装置本体SP1側の側方に開口されている。
反射部MU2の傾斜した壁面には、情報処理装置本体SP1のフロントカメラFCの光軸方向に鏡MLが傾斜して配置されており、情報処理装置本体SP1を立てた状態で、下方の面(台BSが置かれた面)に、ページを開いて置かれた本が鏡MLによりフロントカメラFCで撮像可能にされている。
鏡ユニットMUの溝MZは、情報処理装置本体SP1の厚みT1よりも広い幅で設けられている。このため、情報処理装置本体SP1に鏡ユニットMUを取り付けると、隙間が空く。この隙間を埋めるように情報処鏡ユニットMUの溝MZには、情報処理装置本体SP1との間にアタッチメントAT1が配置されている。
アタッチメントAT1は、情報処理装置本体SP1の厚みT1に対応して情報処鏡ユニットMUの溝MZとの隙間を塞ぎ、情報処鏡ユニットMUを情報処理装置本体SP1に固定するためのものである。
他の実施形態として、例えば図32に示すように、厚みT1よりも厚い厚みT2の情報処理装置本体SP2の場合、図31に示したアタッチメントAT1よりも薄いアタッチメントAT2が用意されている。
情報処理装置本体SP2に鏡ユニットMUを装着する際に、溝MZにアタッチメントAT2を挿入することで、溝MZの部分に隙間なく鏡ユニットMUを情報処理装置本体SP2に固定することができる。
Next, another embodiment of the information processing apparatus SP shown in FIG. 13 will be described with reference to FIGS. 31 and 32. 31 and 32 are diagrams showing other embodiments of the information processing apparatus SP.
As shown in FIG. 31, in the information processing apparatus SP of this embodiment, the front camera FC is mounted on the upper end portion of the information processing apparatus main body SP1. The information processing apparatus main body SP1 has a predetermined thickness T1.
A mirror unit MU is attached to the information processing apparatus main body SP1 so as to cover the front camera FC. The mirror unit MU is provided with a groove MZ. Facing the figure, the right side of the groove MZ is the support portion MU1, and the left side is the reflection portion MU2.
The inside of the reflecting portion MU2 has an inclined wall surface and a wall surface covering the left and right ends thereof, and is opened downward and sideways on the information processing apparatus main body SP1 side.
A mirror ML is arranged on the inclined wall surface of the reflecting unit MU2 so as to be inclined in the optical axis direction of the front camera FC of the information processing apparatus main body SP1. A book placed with its pages opened on the surface on which the base BS is placed) can be imaged by the front camera FC by the mirror ML.
The groove MZ of the mirror unit MU is provided with a width wider than the thickness T1 of the information processing apparatus main body SP1. Therefore, when the mirror unit MU is attached to the information processing apparatus main body SP1, a gap is created. An attachment AT1 is arranged between the groove MZ of the information processing unit MU and the information processing apparatus main body SP1 so as to fill this gap.
The attachment AT1 is for closing the gap between the information processing unit MU and the groove MZ corresponding to the thickness T1 of the information processing device main body SP1 and fixing the information processing unit MU to the information processing device main body SP1.
As another embodiment, for example, as shown in FIG. 32, in the case of the information processing apparatus main body SP2 having a thickness T2 thicker than the thickness T1, an attachment AT2 thinner than the attachment AT1 shown in FIG. 31 is prepared.
By inserting the attachment AT2 into the groove MZ when the mirror unit MU is attached to the information processing device main body SP2, the mirror unit MU can be fixed to the information processing device main body SP2 without a gap in the groove MZ portion.

このように構成される情報処理装置SPでは、厚みの異なる情報処理装置本体SP1や情報処理装置本体SP2の厚み方向を吸収するためのアタッチメントAT1、AT2を取り付けることにより、様々な厚みやケース付きの情報処理装置SPに対応し、鏡ユニットMUを情報処理装置本体SP1、SP2にしっかり固定することができる。
即ち、情報処理装置本体SP1、SP2の厚みT1、T2に応じてアタッチメントAT1、AT2を用意することで、様々な厚みの情報処理装置SPに鏡ユニットMUを装着して、本の読み取りが可能になる。
In the information processing apparatus SP configured in this way, by attaching attachments AT1 and AT2 for absorbing the thickness direction of the information processing apparatus main body SP1 and the information processing apparatus main body SP2 having different thicknesses, various thicknesses and cases are attached. Corresponding to the information processing apparatus SP, the mirror unit MU can be firmly fixed to the information processing apparatus main bodies SP1 and SP2.
That is, by preparing attachments AT1 and AT2 according to the thicknesses T1 and T2 of the information processing apparatus main bodies SP1 and SP2, the mirror unit MU can be attached to the information processing apparatus SP of various thicknesses to read a book. Become.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での省略を含む変形、改良等は本発明に含まれるものである。
例えば、既存の本の内容(テキスト)とマッチングは、必ずしも行う必要はない。マッチングを行うにしても、本のタイトルを撮影するのではなく、本のバーコードを撮影することでマッチングを図っても良い。
上記実施形態では、本を読み取る例について説明したが、これに限らず、雑誌等の書物を含む紙の記録媒体のテキスト化もほぼ同様である。紙の記録媒体を紙葉類という。紙葉類以外にも、電子書籍のような、紙の表示に近いもののテキスト化もほぼ同様である。
上記実施形態では、翻訳や音読のプロセスを行ったが、これらのプロセスをスキップし、撮像画像から抽出したテキストと撮像画像をUI31に共に表示させるだけでも良い。
また、UI31にテキストを表示するだけではなく、領収書等のデータを入力する書式データ(フォーマット)をメモリに登録しておき、そのフォーマットのカラム(入力項目)に数字を含むテキストを入力することで、例えば金額や日付や宛名等を入力した領収書又は領収書に対する支払い伝票等を自動的に生成することができる。
The present invention is not limited to the above-described embodiment, and modifications, improvements, and the like including omissions to the extent that the object of the present invention can be achieved are included in the present invention.
For example, matching with the content (text) of an existing book does not necessarily have to be done. Even if matching is performed, matching may be attempted by shooting the barcode of the book instead of shooting the title of the book.
In the above embodiment, an example of reading a book has been described, but the present invention is not limited to this, and the text conversion of a paper recording medium including a book such as a magazine is almost the same. Paper recording media are called paper leaves. In addition to paper leaves, the same is true for text conversion of things that are similar to paper displays, such as e-books.
In the above embodiment, the translation and reading aloud processes are performed, but these processes may be skipped and the text extracted from the captured image and the captured image may be displayed together on the UI 31.
In addition to displaying the text on the UI31, the format data (format) for inputting data such as receipts is registered in the memory, and the text including numbers is input in the column (input item) of the format. Then, for example, a receipt in which an amount, a date, an address, etc. are entered, or a payment slip for the receipt can be automatically generated.

例えば、連結部12は、上述の実施形態では、カメラ基部12−1と、カメラ指向部12−2という2つの可動部から構成されていたが、特に上述の実施形態に限定されず、本体部11より容積が小さい可動部を1以上有していれば足りる。
この場合、撮像部たるカメラ21は、1以上の可動部のうち所定の1つの所定の面に配置されれば足りる。
さらに、1以上の可動部のうち任意の個数の任意の種類の可動部(撮像部が配置された可動部含む)には、任意の機能を有するデバイスを搭載させることができる。
For example, in the above-described embodiment, the connecting portion 12 is composed of two movable portions, a camera base portion 12-1 and a camera-oriented portion 12-2, but the connection portion 12 is not particularly limited to the above-described embodiment and is not limited to the main body portion. It suffices to have one or more movable parts having a volume smaller than 11.
In this case, it is sufficient that the camera 21 as the image pickup unit is arranged on a predetermined surface of one or more movable parts.
Further, a device having an arbitrary function can be mounted on an arbitrary number of movable portions (including a movable portion in which an imaging unit is arranged) of one or more movable portions.

例えば、本発明の情報処理装置1は、赤外線式リモコン(リモートコントローラ)として使用できて良い。
例えば、本発明の情報処理装置1の一実施形態によれば、カメラでリモコンを撮影すると、画像認識して、1つ1つのボタンの機能を情報処理装置のディスプレイとタッチパネルで実現し、情報処理装置から赤外線コマンドを出すか、情報処理装置からWi−Fi(登録商標)やBluetooth(登録商標)などの無線で、赤外線発信機にコマンドを送ることとして良い。
For example, the information processing device 1 of the present invention may be used as an infrared remote controller (remote controller).
For example, according to one embodiment of the information processing apparatus 1 of the present invention, when a remote controller is photographed by a camera, the image is recognized and the function of each button is realized by the display and the touch panel of the information processing apparatus to process information. An infrared command may be issued from the device, or a command may be sent from the information processing device to the infrared transmitter by radio such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).

例えば、本発明の情報処理装置1の一実施形態によれば、2軸回転カメラ、1軸回転カメラ、360度カメラで撮影した画像に対して、AR上でナビゲーションを行う機能を実現することができる。
この場合において、ナビゲーションシステムは、例えば、画像は表示せず、音声のみであって良い。
また、情報処理装置1は、例えば、ハプティクスで曲がり角を報知して良い。
また、情報処理装置1は、例えば、カメラ21が自動で回転して、方向を報知して良い。
For example, according to one embodiment of the information processing apparatus 1 of the present invention, it is possible to realize a function of navigating on an AR for an image taken by a 2-axis rotating camera, a 1-axis rotating camera, and a 360-degree camera. can.
In this case, the navigation system may be, for example, not displaying an image but only a voice.
Further, the information processing apparatus 1 may notify the corner by haptics, for example.
Further, in the information processing device 1, for example, the camera 21 may automatically rotate to notify the direction.

図23乃至図30に示した、翻訳、音読及びテキスト化の各機能は、情報処理装置SPとクラウドCDとをネットワークを介して接続したシステムにより実現したが、クラウドCD側の機能を情報処理装置SPに含めて、翻訳、音読及びテキスト化の各機能を情報処理装置SP単体で実現してもよい。 The translation, reading aloud, and text conversion functions shown in FIGS. 23 to 30 were realized by a system in which the information processing apparatus SP and the cloud CD were connected via a network, but the functions on the cloud CD side were realized by the information processing apparatus. Each function of translation, reading aloud, and converting into text may be realized by the information processing apparatus SP alone, including the SP.

このように、本発明が適用される情報処理装置1は、各種各様な実施形態を取ることが可能である。換言すると、本発明が適用される情報処理装置1は、次のような構成を取れば足り、その実施形態は特に限定されない。
即ち、本発明が適用される情報処理装置(例えば、図1の情報処理装置1)は、
撮像を行う撮像手段(例えば、図2のカメラ21)と、
前記撮像手段が生成する撮像画像から被写体を抽出する被写体抽出手段と、
前記被写体が示す情報を抽出する情報抽出手段と、
前記情報を解析する情報解析手段と、
前記解析の結果に基づいてオブジェクトを生成する生成手段と、
前記オブジェクトを前記撮像画像と共に提示する提示手段と、
を備える。
As described above, the information processing apparatus 1 to which the present invention is applied can take various embodiments. In other words, the information processing apparatus 1 to which the present invention is applied may have the following configuration, and the embodiment thereof is not particularly limited.
That is, the information processing apparatus to which the present invention is applied (for example, the information processing apparatus 1 in FIG. 1) is
An imaging means for imaging (for example, the camera 21 in FIG. 2) and
A subject extraction means for extracting a subject from an captured image generated by the image pickup means, and a subject extraction means.
An information extraction means for extracting information indicated by the subject, and
Information analysis means for analyzing the information and
A generation means for generating an object based on the result of the analysis,
A presentation means for presenting the object together with the captured image,
To prepare for.

また、本発明が適用される情報処理装置(例えば、図13の情報処理装置SP)は、
文字列が配置された記録媒体(図13(B)の本等)を撮像する撮像手段(例えば図13(C)の情報処理装置SPのフロントカメラ)と、
前記撮像手段により撮像される撮像画像に基づいて前記文字列に対応するテキストデータを生成するテキストデータ生成手段(例えば図13(A)の情報処理装置SPの自動翻訳音読アプリ)と、
前記撮像手段により撮像される撮像画像と前記テキストデータとを共に提示する提示手段(例えば図23のUI31)と、
を備える。
このように構成することにより、カメラ視点画像を視認しながらも、自由な姿勢で撮影することができる。また、この構成によれば、ユーザは、撮像画像の写り(記録媒体の文字列の位置)を確認し記録媒体を調整しながら、生成されるテキストデータを閲覧できるので、テキストデータをミスなく生成することができる。
上記情報処理装置の前記撮像手段(例えば図20の回転カメラ21)は、
情報処理装置本体(例えば図20の情報処理装置1)の端部に、光軸が前記情報処理装置本体の背面側から前記テキストデータが提示される正面側に向くように回動可能に支持される。
このように構成することにより、光軸を屈折させる鏡等の部材を取り付けることなく、テキストデータを生成することができる。
上記情報処理装置SPの前記撮像手段(例えば図13(C)または図31のフロントカメラFC)は、
情報処理装置本体SP1の端部に、前記テキストデータが提示される表示部13の法線方向に光軸を向けて設けられ、
前記情報処理装置本体SP1に取り付けられた鏡MLを介して屈折させた前記光軸の方向から前記記録媒体(例えば図13(B)の本)のページを撮像するよう構成される。
このように構成することにより、情報処理装置SPを台BSに立てた状態で、平面に開いて配置した本のページを撮像することができるようになり、ユーザが情報処理装置本体SP1を持つことなく、本のページめくりや本の位置調整等を行うことができようなる。
上記情報処理装置1の前記撮像手段(例えば図20の回転カメラ21)は、
情報処理装置本体(例えば図20の本体部11)の端部に、光軸を前記情報処理装置本体の背面側から前記テキストデータが提示される正面側に向くように回動可能に支持され、
前記情報処理装置本体の正面にスライド移動可能に設けられた表示部13が前記情報処理装置本体と重なる第1の状態(例えば図20(A)では第1の範囲(0°から180°)を可動域とし、
前記表示部13をスライドさせた、前記表示部13の一部が前記情報処理装置本体と重ならない第2の状態(例えば図20(B)では、前記第1の範囲よりも広い前記第2の範囲(0°乃至270°)を可動域とする。さらにはスライドした表示部13の端面に回転カメラ21が当接するまで、270°以上の範囲を可動域とする。
なお、0°は、回転カメラ21が本体部11の溝又は切り欠き部に収容された状態(回転カメラ21と本体部11が厚み方向に重なった状態)であり、180°は、回転カメラ21が本体部11の外部で直線状に並んだ状態である。180°を超えると、回転カメラ21は本体部11の正面11a側に突出し、270°は、回転カメラ21の光軸が本体部11の真下に向いた状態である。
このように構成することにより、情報処理装置1を台BSに立てた状態で、鏡MLを取り付けることなく台BSが置かれた面に開いて配置した本のページを撮像することができるようになり、ユーザが情報処理装置本体を持つことなく、本のページめくりや本の位置調整等を行うことができようなる。
上記情報処理装置1(例えば図10又は図11の情報処理装置1)は、
前記撮像手段により撮像される撮像画像に、前記撮像手段の向きを示す情報を付与する。
このように構成することにより、ユーザは、写真撮影時の情報処理装置1の状況がどのようであったか(本体部11を横位置して回転カメラ21を縦長の画角にして撮像した、本体部11を縦位置して回転カメラ21を横長の画角で撮った等)を把握することができる。
上記情報処理装置1(例えば図13又は図20の情報処理装置SP)は、
前記撮像画像を、前記テキストデータを生成するために適した画像に補正する補正手段(例えば図13又は図20の情報処理装置SPの自動翻訳音読アプリ等)、
を備える。
このように構成することにより、OCRの際の誤読または未読が減少し、テキストデータの文字認識精度を向上することができる。
上記情報処理装置SP(例えば図13、図20の情報処理装置SP又はクラウドCD)は、
前記テキストデータの翻訳及び音読のうち少なくとも一方を行う処理手段(例えば図13、図20の情報処理装置SPの自動翻訳音読アプリ等)、
を備える。
このように構成することにより、情報処理装置SPにおいて翻訳されたテキストデータの閲覧や音読再生が可能になる。
上記情報処理装置SP(例えば図13、図20の情報処理装置SP又はクラウドCD)は、
前記テキストデータが文章として未完成の場合、前記撮像画像の他の部位又は次の撮像画像から得られた前記テキストデータと結合する結合手段、
を備える。
このように構成することにより、テキストデータが結合されて1つの文章として完成するので、ユーザは、情報処理装置SPにおいて本の文章を途切れることなく閲覧したり音読再生が可能になる。
Further, the information processing apparatus to which the present invention is applied (for example, the information processing apparatus SP in FIG. 13) is
An image pickup means (for example, the front camera of the information processing apparatus SP in FIG. 13 (C)) for imaging a recording medium (such as a book in FIG. 13 (B)) on which a character string is arranged, and
A text data generation means (for example, an automatic translation reading application of the information processing apparatus SP of FIG. 13A) that generates text data corresponding to the character string based on the captured image captured by the imaging means.
A presentation means (for example, UI31 in FIG. 23) that presents both an image captured by the image pickup means and the text data.
To prepare for.
With this configuration, it is possible to shoot in a free posture while visually recognizing the camera viewpoint image. Further, according to this configuration, the user can browse the generated text data while checking the image of the captured image (position of the character string of the recording medium) and adjusting the recording medium, so that the text data can be generated without any mistake. can do.
The image pickup means (for example, the rotating camera 21 in FIG. 20) of the information processing apparatus is
An optical axis is rotatably supported at the end of the information processing apparatus main body (for example, the information processing apparatus 1 in FIG. 20) so as to face from the back side of the information processing apparatus main body to the front side where the text data is presented. NS.
With this configuration, text data can be generated without attaching a member such as a mirror that refracts the optical axis.
The image pickup means (for example, the front camera FC of FIG. 13C or FIG. 31) of the information processing apparatus SP is
An optical axis is provided at the end of the information processing apparatus main body SP1 so that the optical axis is directed in the normal direction of the display unit 13 on which the text data is presented.
The page of the recording medium (for example, the book of FIG. 13B) is configured to be imaged from the direction of the optical axis refracted through the mirror ML attached to the information processing apparatus main body SP1.
With this configuration, the information processing device SP can be placed upright on the base BS to image the pages of a book arranged on a flat surface, and the user has the information processing device main body SP1. You will be able to turn the pages of the book and adjust the position of the book.
The image pickup means (for example, the rotating camera 21 in FIG. 20) of the information processing apparatus 1 is
An optical axis is rotatably supported at the end of the information processing apparatus main body (for example, the main body portion 11 in FIG. 20) so as to face the front side on which the text data is presented from the back side of the information processing apparatus main body.
The first state (for example, in FIG. 20A, the first range (0 ° to 180 °)) in which the display unit 13 provided so as to be slidable on the front surface of the information processing device main body overlaps with the information processing device main body is set. As a range of motion
In the second state in which the display unit 13 is slid so that a part of the display unit 13 does not overlap with the information processing apparatus main body (for example, in FIG. 20B, the second range is wider than the first range). The range of motion (0 ° to 270 °) is defined as the range of motion. Further, the range of 270 ° or more is defined as the range of motion until the rotating camera 21 comes into contact with the end face of the slid display unit 13.
Note that 0 ° is a state in which the rotating camera 21 is housed in a groove or a notch in the main body 11 (a state in which the rotating camera 21 and the main body 11 overlap in the thickness direction), and 180 ° is a state in which the rotating camera 21 is overlapped in the thickness direction. Are in a linearly arranged state outside the main body 11. When it exceeds 180 °, the rotating camera 21 protrudes toward the front surface 11a of the main body portion 11, and in 270 °, the optical axis of the rotating camera 21 faces directly below the main body portion 11.
With this configuration, the information processing device 1 can be set up on the table BS and the pages of the book placed open on the surface on which the table BS is placed can be imaged without attaching the mirror ML. Therefore, the user can turn the pages of the book, adjust the position of the book, and the like without having to hold the information processing apparatus main body.
The information processing device 1 (for example, the information processing device 1 of FIG. 10 or FIG. 11) is
Information indicating the direction of the image pickup means is added to the image captured by the image pickup means.
With this configuration, the user can see what the situation of the information processing device 1 was at the time of taking a picture (the main body portion 11 was positioned horizontally and the rotating camera 21 was imaged with a vertically long angle of view. 11 is positioned vertically and the rotating camera 21 is photographed at a horizontally long angle of view, etc.).
The information processing device 1 (for example, the information processing device SP of FIG. 13 or FIG. 20) is
A correction means for correcting the captured image to an image suitable for generating the text data (for example, an automatic translation reading application of the information processing apparatus SP of FIG. 13 or FIG. 20).
To prepare for.
With such a configuration, misreading or unreading at the time of OCR can be reduced, and the character recognition accuracy of the text data can be improved.
The information processing apparatus SP (for example, the information processing apparatus SP of FIGS. 13 and 20 or a cloud CD) is
A processing means that performs at least one of translation and reading aloud of the text data (for example, an automatic translation reading aloud application of the information processing apparatus SP of FIGS. 13 and 20).
To prepare for.
With this configuration, the text data translated by the information processing apparatus SP can be viewed and read aloud.
The information processing apparatus SP (for example, the information processing apparatus SP of FIGS. 13 and 20 or a cloud CD) is
When the text data is incomplete as a sentence, a coupling means for combining with the text data obtained from another part of the captured image or the next captured image.
To prepare for.
With this configuration, the text data is combined and completed as one sentence, so that the user can browse and read aloud the sentence of the book without interruption in the information processing apparatus SP.

1・・・情報処理装置
1−1乃至1−3・・・情報処理装置
11・・・本体部
11a・・・正面
11b・・・背面
12・・・連結部
12−1・・・カメラ基部
12−2・・・カメラ指向部
13・・・表示部
14・・・スタンド
21・・・カメラ
AD1、AD2・・・広告
AL・・・補助線
B1・・・削除ボタン
B2・・・検討中ボタン
B3・・・保持ボタン
BS・・・台
CD・・・クラウド
CL・・・クリップ
CO・・・対象物
EP1、EP2・・・換算価格表示
G1、G2・・・ゲーム画像
GC・・・ゲームキャラクタ
GI1乃至GI4・・・ガイド情報
GS・・・ガソリンスタンドの映像
HB・・・半透過ボタン
MD・・・ユーザ
ML・・・鏡
MN・・・レストランメニュー
MP・・・地図
MS・・・メッセージ
OB・・・原文ボタン
OT・・・原文
OP1、OP2・・・原価格表示
OP・・・過去の写真
OW・・・料理名
PL・・・人
PQ・・・問題
PW・・・地名
QG・・・問題画像
QP・・・問題用紙
RC・・・シャッターリモコン
RM・・・ラーメン店の行列の映像
SC・・・画面
SP・・・固定式カメラを備える情報処理装置
SS・・・音源
TB・・・翻訳ボタン
TT・・・翻訳文
TW・・・翻訳文
U・・・ユーザ
WK・・・対象物
Z1、Z2、Z3、Z4・・・回動軸
1 ... Information processing device 1-1 to 1-3 ... Information processing device 11 ... Main body 11a ... Front 11b ... Back 12 ... Connecting part 12-1 ... Camera base 12-2 ... Camera oriented part 13 ... Display part 14 ... Stand 21 ... Camera AD1, AD2 ... Advertisement AL ... Auxiliary line B1 ... Delete button B2 ... Under consideration Button B3 ... Holding button BS ... Stand CD ... Cloud CL ... Clip CO ... Object EP1, EP2 ... Converted price display G1, G2 ... Game image GC ... Game Characters GI1 to GI4 ... Guide information GS ... Gas station image HB ... Semi-transparent button MD ... User ML ... Mirror MN ... Restaurant menu MP ... Map MS ... Message OB ・ ・ ・ Original button OT ・ ・ ・ Original OP1, OP2 ・ ・ ・ Original price display OP ・ ・ ・ Past photos OW ・ ・ ・ Cooking name PL ・ ・ ・ People PQ ・ ・ ・ Problem PW ・ ・ ・ Place name QG ・・ ・ Problem image QP ・ ・ ・ Problem paper RC ・ ・ ・ Shutter remote control RM ・ ・ ・ Ramen shop line image SC ・ ・ ・ Screen SP ・ ・ ・ Information processing device with fixed camera SS ・ ・ ・ Sound source TB ・・ ・ Translation button TT ・ ・ ・ Translated text TW ・ ・ ・ Translated text U ・ ・ ・ User WK ・ ・ ・ Object Z1, Z2, Z3, Z4 ・ ・ ・ Rotating axis

Claims (19)

文字列が配置された媒体を撮像する撮像手段と、
前記撮像手段の光軸方向を屈折させる別体の鏡と、
前記鏡を介して、撮像した撮像画像をクラウドに送信する送信手段と、
前記撮像手段により撮像される撮像画像に基づいて前記文字列に対応するテキストデータを生成するテキストデータ生成手段と、
を備える、情報処理装置。
An imaging means that captures an image of a medium on which a character string is placed,
A separate mirror that refracts the optical axis direction of the imaging means, and
A transmission means for transmitting the captured image to the cloud via the mirror, and
A text data generation means that generates text data corresponding to the character string based on an image captured by the image pickup means, and a text data generation means.
An information processing device.
前記クラウドに送信された撮像画像に対して、左右反転、上下反転、回転、文字列が配置された媒体部の湾曲補正、文字列が配置された媒体部の台形補正、コントラストの調整、文字列が配置された媒体部だけの切り抜き、写り込んでしまった指の画像の削除のうちの少なくとも一つの画像補正を行う補正手段、
を備える、請求項1記載の情報処理装置。
For the captured image transmitted to the cloud, horizontal inversion, vertical inversion, rotation, curvature correction of the medium part in which the character string is arranged, trapezoidal correction of the medium part in which the character string is arranged, contrast adjustment, character string A correction means that corrects at least one of the cutout of only the medium part where the image is placed and the deletion of the image of the finger that has been reflected.
The information processing apparatus according to claim 1.
前記テキストデータの翻訳及び音読のうち少なくとも一方を行う処理手段、
を備える、請求項1記載の情報処理装置。
A processing means that performs at least one of translation and reading aloud of the text data.
The information processing apparatus according to claim 1.
前記文字列が配置された媒体の前記テキストデータまたは前記媒体に記載のバーコード情報から、過去の前記テキストデータまたは前記バーコード情報と所定の関連付けられたリファレンスデータを参照し、前記リファレンスデータを提示する提示手段をもつ、
請求項1記載の情報処理装置。
From the text data of the medium on which the character string is arranged or the barcode information described in the medium, the reference data is presented by referring to the reference data predetermined to be associated with the past text data or the barcode information. Have a means of presentation,
The information processing apparatus according to claim 1.
前記撮像手段により撮像された撮像画像と前記テキストデータとをともに提示する提示手段をもつ、
請求項1記載の情報処理装置。
It has a presentation means for presenting both the captured image captured by the imaging means and the text data.
The information processing apparatus according to claim 1.
前記テキストデータが文章として未完成の場合、前記撮像画像の他の部位又は次の撮像画像から得られた前記テキストデータと結合して1つの文章を完成させる結合手段をもつ、
請求項1記載の情報処理装置。
When the text data is incomplete as a sentence, the text data is combined with the text data obtained from another part of the captured image or the next captured image to complete one sentence.
The information processing apparatus according to claim 1.
文字列が配置された記録媒体を撮像する撮像手段と、
前記撮像手段の光軸方向を変化させるように、前記撮像手段を回動させるヒンジ部と、
撮像した撮像画像をクラウドに送信する送信手段と、
前記撮像手段により撮像された撮像画像に基づいて前記文字列に対応するテキストデータを生成するテキストデータ生成手段と、
を備える、情報処理装置。
An imaging means for imaging a recording medium on which a character string is arranged, and
A hinge portion that rotates the image pickup means so as to change the optical axis direction of the image pickup means, and a hinge portion.
A transmission means for transmitting the captured image to the cloud,
A text data generation means that generates text data corresponding to the character string based on an image captured by the image pickup means, and a text data generation means.
An information processing device.
前記撮像画像に対して、左右反転、上下反転、回転、文字列が配置された媒体部の湾曲補正、文字列が配置された媒体部の台形補正、コントラストの調整、文字列が配置された媒体部だけの切り抜き、写り込んでしまった指の画像の削除のうちの少なくとも一つの画像補正を行う補正手段、
を備える、請求項7記載の情報処理装置。
Horizontal inversion, vertical inversion, rotation, curvature correction of the medium part in which the character string is arranged, trapezoidal correction of the medium part in which the character string is arranged, contrast adjustment, and a medium in which the character string is arranged with respect to the captured image. A correction means that corrects at least one of the cropping of only the part and the deletion of the image of the finger that has been reflected.
7. The information processing apparatus according to claim 7.
前記テキストデータの翻訳及び音読のうち少なくとも一方を行う処理手段、
を備える、請求項7記載の情報処理装置。
A processing means that performs at least one of translation and reading aloud of the text data.
7. The information processing apparatus according to claim 7.
前記文字列が配置された媒体のテキストデータまたは前記媒体に記載のバーコード情報から、過去の前記テキストデータまたは前記バーコード情報と所定の関連付けられたリファレンスデータを参照し、前記リファレンスデータを提示する提示手段をもつ、
請求項7記載の情報処理装置。
From the text data of the medium on which the character string is arranged or the barcode information described in the medium, the text data in the past or the reference data predetermined to be associated with the barcode information is referred to, and the reference data is presented. Have a means of presentation,
The information processing apparatus according to claim 7.
前記撮像手段により撮像された撮像画像と前記テキストデータとをともに提示する提示手段をもつ、
請求項7記載の情報処理装置。
It has a presentation means for presenting both the captured image captured by the imaging means and the text data.
The information processing apparatus according to claim 7.
前記テキストデータが文章として未完成の場合、前記撮像画像の他の部位又は次の撮像画像から得られた前記テキストデータと結合して1つの文章を完成させる結合手段をもつ、
請求項7記載の情報処理装置。
When the text data is incomplete as a sentence, the text data is combined with the text data obtained from another part of the captured image or the next captured image to complete one sentence.
The information processing apparatus according to claim 7.
被写体を撮像する撮像部と、
前記撮像部と厚み方向で重なり、前記撮像部により撮像される前記被写体を含む撮像画像を表示する表示部と、
前記撮像部の光軸方向と前記表示部に対する法線方向とのなす角度を変化させるように、前記撮像部を前記表示部の短手方向に平行な第1の回転軸で両持ち軸支しながら、本体部に対して相対的に回動可能に支持するヒンジ部と、
を備え、
前記撮像部は、
前記第1の回転軸が表示部と厚み方向で重なる位置から重ならない位置まで、前記表示部に対して、相対的に平行移動可能なスマートホン。
An image pickup unit that captures the subject and
A display unit that overlaps with the image pickup unit in the thickness direction and displays an image captured image including the subject imaged by the image pickup unit.
The image pickup unit is supported by a first rotation axis parallel to the lateral direction of the display unit so as to change the angle formed by the optical axis direction of the image pickup unit and the normal direction with respect to the display unit. However, the hinge part that supports the main body part so as to be relatively rotatable,
Equipped with
The image pickup unit is
A smart phone capable of relatively parallel movement with respect to the display unit from a position where the first rotation axis overlaps with the display unit in the thickness direction to a position where the first rotation axis does not overlap with the display unit.
前記撮像部は、
前記ヒンジ部を駆動し前記撮像部を回転させる駆動部と、
前記撮像部に対する移動指示に応じて、前記撮像部を指示方向へ回転させるように前記駆動部を制御する制御部と、
を含む、
請求項13に記載のスマートホン。
The image pickup unit is
A drive unit that drives the hinge unit and rotates the image pickup unit,
A control unit that controls the drive unit so as to rotate the image pickup unit in an instruction direction in response to a movement instruction to the image pickup unit.
including,
The smart phone according to claim 13.
前記撮像部は、
前記表示部の長手方向に平行な第2の回転軸で回動可能に支持するヒンジ部、
を含む、
請求項13に記載のスマートホン。
The image pickup unit is
A hinge portion that is rotatably supported by a second rotation axis parallel to the longitudinal direction of the display portion,
including,
The smart phone according to claim 13.
前記撮像部は、
前記表示部と厚み方向で重ならない位置で、前記第2の回転軸で回動可能に支持するヒンジ部、
を含む、
請求項13に記載のスマートホン。
The image pickup unit is
A hinge portion that is rotatably supported by the second rotating shaft at a position that does not overlap with the display portion in the thickness direction.
including,
The smart phone according to claim 13.
前記表示部が、
前記並行移動指示をタッチ操作で行うためのタッチパネル、
を含む、
請求項13に記載のスマートホン。
The display unit
A touch panel for performing the translation instruction by touch operation,
including,
The smart phone according to claim 13.
前記ヒンジ部が、
前記表示部の短手方向に対して平行に配置された第1の回転軸と、
前記表示部の長手方向に対して平行に配置された第2の回転軸と、
を備え、
前記第2の回転軸を中心に前記撮像部を回動させる際、前記撮像部の回転に合わせて前記第1の回転軸が回転しない、
請求項13乃至17のうち何れか1項に記載のスマートホン。
The hinge part
A first rotation axis arranged parallel to the lateral direction of the display unit,
A second rotation axis arranged parallel to the longitudinal direction of the display unit,
Equipped with
When the image pickup unit is rotated around the second rotation axis, the first rotation axis does not rotate in accordance with the rotation of the image pickup unit.
The smart phone according to any one of claims 13 to 17.
撮像部により撮像される前記被写体を含む撮像画像を表示する表示部が所定の一面に配置された、前記撮像部よりも容積が大きい本体部と、
前記撮像部の光軸方向と前記表示部の法線方向とのなす角度を変化させるように前記撮像部を、前記表示部の短手方向に平行な回転軸で両持ち軸支しながら、前記本体部に対して相対的に回動可能に支持するヒンジ部と、
前記本体部の前記一面と対向する他の一面に設けられ、前記ヒンジ部により前記他の一面側に回転された前記撮像部を前記本体部と厚み方向で重なる形で収容可能な凹みと、
前記本体部に配置され、単体で前記本体部の方向を検出する第1センサと、
前記撮像部に配置され、単体で前記撮像部の方向を検出する第2センサと、
を備え、
前記第2のセンサにより検出された前記撮像部の方向に基づき、デジタル写真ファイルに方向の情報を付与する、
スマートホン。
A main body unit having a larger volume than the image pickup unit, in which a display unit for displaying an image captured image including the subject imaged by the image pickup unit is arranged on a predetermined surface.
The imaging unit is supported by a rotation axis parallel to the lateral direction of the display unit so as to change the angle formed by the optical axis direction of the imaging unit and the normal direction of the display unit. A hinge part that supports the body part so that it can rotate relatively, and
A recess provided on the other surface of the main body portion facing the one surface and capable of accommodating the image pickup portion rotated to the other one surface side by the hinge portion so as to overlap the main body portion in the thickness direction.
The first sensor, which is arranged in the main body and detects the direction of the main body by itself,
A second sensor, which is arranged in the image pickup unit and detects the direction of the image pickup unit by itself,
Equipped with
Based on the direction of the image pickup unit detected by the second sensor, the direction information is given to the digital photo file.
smart phone.
JP2020568648A 2019-02-01 2020-02-03 Information processing equipment Pending JPWO2020158955A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021115984A JP2021184095A (en) 2019-02-01 2021-07-13 Information processing device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019017442 2019-02-01
JP2019017442 2019-02-01
PCT/JP2020/003977 WO2020158955A1 (en) 2019-02-01 2020-02-03 Information processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021115984A Division JP2021184095A (en) 2019-02-01 2021-07-13 Information processing device

Publications (1)

Publication Number Publication Date
JPWO2020158955A1 true JPWO2020158955A1 (en) 2021-12-02

Family

ID=71841100

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020568648A Pending JPWO2020158955A1 (en) 2019-02-01 2020-02-03 Information processing equipment
JP2021115984A Pending JP2021184095A (en) 2019-02-01 2021-07-13 Information processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021115984A Pending JP2021184095A (en) 2019-02-01 2021-07-13 Information processing device

Country Status (2)

Country Link
JP (2) JPWO2020158955A1 (en)
WO (1) WO2020158955A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102518438B1 (en) * 2021-05-04 2023-04-05 주식회사 에코플레이 Reflector for coupling to camera

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366892A (en) * 2001-06-05 2002-12-20 Sharp Corp Optical character recognition device
JP2010074389A (en) * 2008-09-17 2010-04-02 Ricoh Co Ltd Information processing apparatus, processing control system, processing control method, processing control program, and recording medium
JP2016032145A (en) * 2014-07-28 2016-03-07 セイコーエプソン株式会社 Imaging assistant device, camera, and imaging control program
JP2016076753A (en) * 2014-10-02 2016-05-12 ジェイモードエンタープライズ株式会社 Shooting table device and document shooting system
JP2017016549A (en) * 2015-07-06 2017-01-19 株式会社日立システムズ Character recognition device, character recognition method, and program
WO2018043615A1 (en) * 2016-08-30 2018-03-08 エックスリープ株式会社 Information processing terminal
JP2018151925A (en) * 2017-03-14 2018-09-27 日本電気株式会社 Terminal, character recognition system, control method of terminal and program
JP2018159972A (en) * 2017-03-22 2018-10-11 株式会社東芝 Information processing apparatus, method, and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001136254A (en) * 1999-11-10 2001-05-18 Nec Corp Portable radio communication apparatus
JP4001314B2 (en) * 2000-08-29 2007-10-31 株式会社リコー Camera and portable terminal device
JP4261302B2 (en) * 2003-10-03 2009-04-30 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 Mobile phone terminal
KR100733032B1 (en) * 2005-07-15 2007-06-28 엘지전자 주식회사 Camera assembly and mobile communication terminal having the same
CN101958942A (en) * 2009-07-16 2011-01-26 鸿富锦精密工业(深圳)有限公司 Portable electronic device
KR20160001330A (en) * 2014-06-27 2016-01-06 에릭슨엘지엔터프라이즈 주식회사 Camera assembly and telephone including the same
CN206433032U (en) * 2017-02-20 2017-08-22 广东欧珀移动通信有限公司 Mobile terminal
CN107864242A (en) * 2017-11-28 2018-03-30 上海量科电子科技有限公司 Full frame mobile phone and its movable camera device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366892A (en) * 2001-06-05 2002-12-20 Sharp Corp Optical character recognition device
JP2010074389A (en) * 2008-09-17 2010-04-02 Ricoh Co Ltd Information processing apparatus, processing control system, processing control method, processing control program, and recording medium
JP2016032145A (en) * 2014-07-28 2016-03-07 セイコーエプソン株式会社 Imaging assistant device, camera, and imaging control program
JP2016076753A (en) * 2014-10-02 2016-05-12 ジェイモードエンタープライズ株式会社 Shooting table device and document shooting system
JP2017016549A (en) * 2015-07-06 2017-01-19 株式会社日立システムズ Character recognition device, character recognition method, and program
WO2018043615A1 (en) * 2016-08-30 2018-03-08 エックスリープ株式会社 Information processing terminal
JP2018151925A (en) * 2017-03-14 2018-09-27 日本電気株式会社 Terminal, character recognition system, control method of terminal and program
JP2018159972A (en) * 2017-03-22 2018-10-11 株式会社東芝 Information processing apparatus, method, and program

Also Published As

Publication number Publication date
WO2020158955A1 (en) 2020-08-06
JP2021184095A (en) 2021-12-02

Similar Documents

Publication Publication Date Title
US11659074B2 (en) Information processing terminal
CN100461212C (en) Display control device, display control method, program, and portable apparatus
US10187520B2 (en) Terminal device and content displaying method thereof, server and controlling method thereof
JP5951781B2 (en) Multidimensional interface
US9583032B2 (en) Navigating content using a physical object
JP6455977B2 (en) Flying object
EP2400733A1 (en) Mobile terminal for displaying augmented-reality information
JP2014524062A (en) Extended live view
CN102804182A (en) Electronic text manipulation and display
US9355499B1 (en) Augmented reality content for print media
JP2021184095A (en) Information processing device
WO2013025215A1 (en) Graphical communications device
JP5519751B2 (en) Image viewing system, image viewing method, image viewing server, and terminal device
JP2016200884A (en) Sightseeing customer invitation system, sightseeing customer invitation method, database for sightseeing customer invitation, information processor, communication terminal device and control method and control program therefor
CN115249441A (en) Foldable electronic equipment
US20070284450A1 (en) Image handling
JP5583479B2 (en) Portable electronic device and image projection unit
JP5519750B2 (en) Image viewing system, image viewing method, image viewing server, and terminal device
JP5090135B2 (en) Image viewing system, image viewing method, image viewing server, and terminal device
CN102298697A (en) card information acquisition device
Watson Teach Yourself VISUALLY IPad 2

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240213