JP6551363B2 - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP6551363B2
JP6551363B2 JP2016211162A JP2016211162A JP6551363B2 JP 6551363 B2 JP6551363 B2 JP 6551363B2 JP 2016211162 A JP2016211162 A JP 2016211162A JP 2016211162 A JP2016211162 A JP 2016211162A JP 6551363 B2 JP6551363 B2 JP 6551363B2
Authority
JP
Japan
Prior art keywords
image
unit
control unit
cut
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016211162A
Other languages
Japanese (ja)
Other versions
JP2018073071A (en
Inventor
文弥 坂下
文弥 坂下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2016211162A priority Critical patent/JP6551363B2/en
Publication of JP2018073071A publication Critical patent/JP2018073071A/en
Application granted granted Critical
Publication of JP6551363B2 publication Critical patent/JP6551363B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、情報処理装置に関するものである。   The present invention relates to an information processing apparatus.

画像情報の処理、例えば、画像情報の表示の処理に関する技術が、特開2012−3442号公報(特許文献1)、および特開2013−114467号公報(特許文献2)に開示されている。   Techniques related to processing of image information, for example, processing of displaying image information are disclosed in Japanese Patent Application Laid-Open No. 2012-3442 (Patent Document 1) and Japanese Patent Application Laid-Open No. 2013-114467 (Patent Document 2).

特許文献1に開示の展示物用情報提示装置は、複数の展示物のうち閲覧者が注意を向けた特定の展示物についての情報を選択的に提示する。展示物用情報提示装置は、複数の展示物について、それぞれ三次元空間上での配置位置を示す配置位置情報を格納した配置位置情報格納部と、複数の展示物について、それぞれ提示対象情報を格納した提示対象情報格納部と、点を指し示す構造を有し、閲覧者による配置動作によって三次元空間上の所定の参照点を指し示す機能を有する位置指定ツールと、閲覧者の頭部もしくはその近傍に定められた所定の基準点の位置と、位置指定ツールによって指し示された参照点の位置と、を検出する位置検出手段と、位置検出手段によって検出された「基準点の位置」と「参照点の位置」とに基づいて、閲覧者が注意を向けていると推定される注視方向を予測する注視方向予測手段と、配置位置情報格納部内に格納されている配置位置情報を参照することにより、注視方向もしくはその近傍に配置されている展示物を注視展示物として特定する注視展示物特定手段と、提示対象情報格納部から、注視展示物についての展示対象情報を読み出し、これを閲覧者に提示する情報提示手段と、を備えることを特徴としている。   The exhibit information presentation device disclosed in Patent Literature 1 selectively presents information about a specific exhibit to which a viewer has paid attention among a plurality of exhibits. The information presentation apparatus for exhibit stores an arrangement position information storage unit storing arrangement position information indicating arrangement positions in a three-dimensional space for a plurality of exhibits, and stores presentation target information for a plurality of exhibits, respectively. A position designation tool having a function of pointing at a predetermined reference point in a three-dimensional space by a placement operation by a viewer, and a structure for pointing a point to a presentation target information storage unit Position detection means for detecting the position of the predetermined reference point determined and the position of the reference point pointed by the position specification tool, "position of reference point" detected by the position detection means, and "reference point" Gaze direction predicting means for predicting the gaze direction estimated that the viewer is turning attention based on the “position of the user” and the arrangement position information stored in the arrangement position information storage unit. The display object information about the gaze display object is read from the gaze display object specifying means for specifying the display object arranged in the gaze direction or the vicinity as the gaze display object, and the information is browsed Information presenting means for presenting to a person.

また、特許文献2に開示の表示システムは、実空間における対象領域に対するユーザーの操作を検出する操作検出部と、対象領域に対してユーザーに予め定められたコピー操作をしたことに応じて、対象領域を撮像した画像におけるコピー操作により指定された範囲を取得する画像取得部と、対象領域に対してユーザーが予め定められたペースト操作をしたことに応じて、実空間に画像を表示するための表示装置を制御して、コピー操作により取得された画像をペースト操作により指定された位置に表示する表示制御部と、を備える。   In addition, the display system disclosed in Patent Document 2 includes an operation detection unit that detects a user operation on a target area in real space, and a target copy operation performed in response to a user's predetermined copy operation on the target area. An image acquisition unit for acquiring a range designated by a copy operation in an image obtained by imaging an area, and for displaying an image in real space in response to the user performing a predetermined paste operation on the target area A display control unit that controls the display device to display an image acquired by the copy operation at a position specified by the paste operation.

特開2012−3442号公報JP, 2012-3442, A 特開2013−114467号公報JP, 2013-114467, A

上記した特許文献1〜2に開示の技術では、画像情報の表示において、いずれも作業対象となる空間や領域が限定されているものである。そうすると、ユーザーの望む領域内における画像情報に対する処理、例えば、印刷領域の特定等が行えない。その結果、ユーザーの要望に応じた適切な画像情報の処理を行うことができないこととなる。   In the techniques disclosed in Patent Documents 1 and 2 described above, in the display of image information, the space and area to be worked are limited. Then, processing for image information in an area desired by the user, for example, specification of a print area cannot be performed. As a result, it is impossible to perform appropriate image information processing according to the user's request.

この発明の目的は、ユーザーの要望に応じた適切な画像情報の処理を行うことができる情報処理装置を提供することである。   An object of the present invention is to provide an information processing apparatus capable of performing appropriate image information processing according to a user's request.

この発明に係る情報処理装置は、表示部と、認識部と、切り出し部と、第一制御部と、第二制御部とを備える。表示部は、光学透過式であって、ユーザーに視認可能な電子画像を表示させる。認識部は、表示部を透過した所定の物体の所定箇所を認識する。切り出し部は、認識部により認識された所定箇所によって指定された領域を切り出し画像として切り出す。第一制御部は、切り出し部により切り出された切り出し画像を表示部に表示するよう制御する。第二制御部は、切り出し画像のデータを処理するよう制御する。第一制御部は、情報処理装置と通信可能な外部装置に対して、第一制御部により切り出し画像のデータを送信している際に表示部に切り出し画像のデータの送信状態を表示するよう制御する。第一制御部は、切り出し画像を、切り出し画像のデータの送信状態に応じて、外部装置側へ移動するように、かつ、ユーザーから遠ざかるに従って小さく表示するよう制御する。第二制御部は、認識部により表示部において切り出し画像と外部装置との間に遮蔽物が表れたことを認識すれば、切り出し画像のデータの送信を中止するよう制御する。
The information processing apparatus according to the present invention includes a display unit, a recognition unit, a cutout unit, a first control unit, and a second control unit. The display unit is an optical transmission type and displays an electronic image that can be visually recognized by the user. The recognition unit recognizes a predetermined portion of a predetermined object that has passed through the display unit. The cutout unit cuts out an area specified by the predetermined location recognized by the recognition unit as a cutout image. The first control unit performs control so that the cut-out image cut out by the cut-out unit is displayed on the display unit. The second control unit controls to process the cut-out image data. The first control unit controls the display unit to display a transmission state of the cut-out image data when the first control unit transmits the cut-out image data to an external device capable of communicating with the information processing device. Do. The first control unit controls the clipped image so as to move to the external apparatus side according to the transmission state of the clipped image data and to display the clipped image smaller as the user moves away from the user. The second control unit controls the transmission of the cut-out image data to be stopped when the recognition unit recognizes that a shielding object appears between the cut-out image and the external device on the display unit.

このような情報処理装置によれば、表示部により表示された領域内において、所定箇所によって指定された領域を切り出し画像として切り出し、切り出し画像のデータを処理することとしている。そうすると、ユーザーの望む領域内における画像情報に対する処理を行うことができる。したがって、ユーザーの要望に応じた適切な画像情報の処理を行うことができる。   According to such an information processing apparatus, in the area displayed by the display unit, the area designated by the predetermined location is cut out as a cut-out image, and the data of the cut-out image is processed. Then, it is possible to perform processing on image information in an area desired by the user. Therefore, it is possible to perform appropriate image information processing according to the user's request.

この発明の一実施形態に係る情報処理装置を頭部装着型端末装置であるスマートグラスに適用した場合のスマートグラスを含む情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system containing the smart glass at the time of applying the information processing apparatus which concerns on one Embodiment of this invention to the smart glass which is a head-mounted terminal device. スマートグラスを用いて領域を指定して画像を切り出す処理を行う場合の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the case of performing the process which specifies an area | region using a smart glass and cuts out an image. 切り出し画像の一例を示す図である。It is a figure which shows an example of a cut-out image. レンズに表示された複合機の状態に関するデータの表示態様の一例を示す図である。FIG. 6 is a diagram illustrating an example of a display mode of data regarding the state of a multifunction peripheral displayed on a lens. レンズに表示された切り出し画像のデータの送信状態を示す図である。It is a figure which shows the transmission state of the data of the cutout image displayed on the lens.

以下、この発明の実施の形態を説明する。図1は、この発明の一実施形態に係る情報処理装置を頭部装着型端末装置であるスマートグラスに適用した場合のスマートグラスを含む情報処理システムの構成を示すブロック図である。   Embodiments of the present invention will be described below. FIG. 1 is a block diagram showing the configuration of an information processing system including a smart glass when the information processing apparatus according to an embodiment of the present invention is applied to a smart glass which is a head-mounted terminal device.

図1を参照して、情報処理システム24は、画像を形成する外部装置である画像形成装置としての複合機11と、この発明の一実施形態に係る情報処理装置としての頭部装着型端末装置、具体的には、スマートグラス31とを含む。スマートグラス31は、複合機11と通信可能に構成されている。   Referring to FIG. 1, an information processing system 24 includes a multifunction machine 11 as an image forming apparatus that is an external apparatus for forming an image, and a head-mounted terminal device as an information processing apparatus according to an embodiment of the present invention. Specifically, the smart glass 31 is included. The smart glass 31 is configured to be able to communicate with the multifunction machine 11.

次に、複合機11の構成について説明する。複合機11は、複合機制御部12と、操作部13と、読み取り部14と、印刷部15と、給紙カセット16と、画像や設定の情報を記憶する記憶部としての複合機ハードディスク17と、ネットワーク(図示せず)と接続するためのネットワークインターフェース部18と、複合機通信部23とを備える。   Next, the configuration of the multifunction machine 11 will be described. The multifunction machine 11 includes a multifunction machine control unit 12, an operation unit 13, a reading unit 14, a printing unit 15, a sheet feeding cassette 16, and a multifunction machine hard disk 17 as a storage unit for storing information of images and settings. , A network interface unit 18 for connecting to a network (not shown), and a multifunction device communication unit 23.

複合機制御部12は、複合機11全体の制御を行う。複合機制御部12は、CPU等から構成されており、一時的にデータを記憶する記憶部としての主記憶メモリ19を含む。操作部13は、情報を表示する表示画面としてのタッチパネル21を含む。読み取り部14は、原稿の画像を読み取る。印刷部15は、読み取り部14によって読み取られた画像や複合機通信部23、ネットワークを介して外部機器から送信され、取得した画像等を基に形成した画像を用紙に印刷する。   The multifunction device control unit 12 controls the entire multifunction device 11. The MFP control unit 12 includes a CPU or the like, and includes a main storage memory 19 as a storage unit for temporarily storing data. The operation unit 13 includes a touch panel 21 as a display screen for displaying information. The reading unit 14 reads an image of a document. The printing unit 15 prints an image formed on the basis of an image read by the reading unit 14 or an external device transmitted from an external device via the MFP communication unit 23 or the network, on a sheet.

複合機通信部23は、外部機器、この場合、例えば、スマートグラス31との通信を確立させて、データの送受信を行うことができる。複合機通信部23により、複合機11は、スマートグラス31側から送信された画像を受信することができる。ここで、通信については、無線による通信でもよいし、有線による通信でもよい。   The multifunction device communication unit 23 can establish communication with an external device, in this case, for example, the smart glass 31, and can transmit and receive data. The multifunction machine communication unit 23 allows the multifunction machine 11 to receive an image transmitted from the smart glass 31 side. Here, the communication may be wireless communication or wired communication.

次に、スマートグラス31の構成について説明する。スマートグラス31は、いわゆるメガネ型の頭部装着型端末装置である。スマートグラス31は、スマートグラス制御部32と、スマートグラス通信部33と、データを記憶するスマートグラス記憶部34と、表示部としての光学透過式の一対のレンズ35と、ユーザーがスマートグラス31を頭部に装着した際に耳にかかる部分に相当する一対のアーム部(図示せず)とを含む。さらに、図示はしないが、各種のボタンがアーム部等に設けられている。   Next, the configuration of the smart glass 31 will be described. The smart glass 31 is a so-called glasses-type head-mounted terminal device. The smart glass 31 includes a smart glass control unit 32, a smart glass communication unit 33, a smart glass storage unit 34 for storing data, a pair of optical transmission type lenses 35 as a display unit, and a user can use the smart glass 31. It includes a pair of arm portions (not shown) corresponding to the portion that is worn by the ear when worn on the head. Further, although not shown, various buttons are provided on the arm portion and the like.

スマートグラス制御部32は、スマートグラス31全体の制御を行う。スマートグラス制御部32についても、CPU等から構成されており、一時的にデータを記憶する記憶部としての主記憶メモリ(不図示)を含む。スマートグラス通信部33は、外部機器、この場合、例えば、複合機11との通信を確立させて、データの送受信を行うことができる。一対のレンズ35については、それぞれユーザーに視認可能な電子画像を表示させる。この表示については、後述する第一制御部43により制御される。   The smart glass control unit 32 controls the entire smart glass 31. The smart glass control unit 32 is also composed of a CPU or the like, and includes a main memory (not shown) as a storage unit for temporarily storing data. The smart glass communication unit 33 can establish communication with an external device, in this case, for example, the multi-function device 11 to transmit and receive data. About a pair of lens 35, the electronic image which a user can visually recognize is displayed, respectively. This display is controlled by a first control unit 43 described later.

次に、スマートグラス31に備えられるスマートグラス制御部32の構成について説明する。スマートグラス制御部32は、認識部41と、切り出し部42と、第一制御部43と、第二制御部44とを備える。認識部41は、レンズ35を透過した所定の物体の所定箇所を認識する。切り出し部42は、切り出し部42は、認識部41により認識された所定箇所によって指定された領域を切り出し画像として切り出す。第一制御部43は、切り出し部42により切り出された切り出し画像をレンズ35に表示するよう制御する。第二制御部44は、切り出し画像のデータを処理するよう制御する。これらの構成については、後に詳述する。   Next, the configuration of the smart glass control unit 32 provided in the smart glass 31 will be described. The smart glass control unit 32 includes a recognition unit 41, a cutout unit 42, a first control unit 43, and a second control unit 44. The recognition unit 41 recognizes a predetermined portion of a predetermined object that has passed through the lens 35. The cutout unit 42 cuts out an area specified by a predetermined location recognized by the recognition unit 41 as a cutout image. The first control unit 43 performs control so that the cutout image cut out by the cutout unit 42 is displayed on the lens 35. The second control unit 44 performs control so as to process the data of the cutout image. These configurations will be described in detail later.

次に、スマートグラス31を用いて領域を指定して画像を切り出す処理を行う場合について説明する。図2は、スマートグラス31を用いて領域を指定して画像を切り出す処理を行う場合の処理の流れを示すフローチャートである。   Next, a description will be given of a case where a process for cutting out an image by designating an area using the smart glass 31 is performed. FIG. 2 is a flowchart showing a flow of processing in the case of performing processing of specifying an area using the smart glass 31 and cutting out an image.

図2を参照して、まず、ユーザーは、スマートグラス31を頭部に装着する。そうすると、レンズ35に、ユーザーの望む作業対象となる空間や領域がユーザーの視野に表れる。そして、ユーザーによってスマートグラス31のレンズ35越しに視認される画像について、画像の切り出しの要求を受け付ける(図3において、ステップS11、以下、「ステップ」を省略する)。この要求の受け付けについては、例えば、スマートグラス31に設けられた切り出しボタン(図示せず)の押下を検知することにより行われる。   Referring to FIG. 2, first, the user wears smart glass 31 on the head. Then, a space or a region that is a work target desired by the user appears on the lens 35 in the user's field of view. Then, for the image visually recognized through the lens 35 of the smart glass 31 by the user, a request for cutting out the image is received (step S11 in FIG. 3, hereinafter, the “step” is omitted). The acceptance of this request is performed, for example, by detecting the pressing of a cutout button (not shown) provided on the smart glass 31.

その後、認識部41は、レンズ35を透過した所定の物体の所定箇所を認識する(S12)。この場合、レンズ35を透過して視認され、所定の物体として特定されるもの、例えば、レンズ35越しの表れたユーザーの手を所定の物体とし、所定箇所としてユーザーの指を認識する。この認識については、例えば、レンズ35に表れた画像に対し、新たに出現したユーザーの手が表れた際に、スマートグラス31に設けられた認識ボタン(図示せず)を押下することにより行われる。   Thereafter, the recognition unit 41 recognizes a predetermined portion of a predetermined object that has passed through the lens 35 (S12). In this case, an object which is viewed through the lens 35 and identified as a predetermined object, for example, a user's hand appearing through the lens 35 is a predetermined object, and the user's finger is recognized as a predetermined position. This recognition is performed, for example, by pressing a recognition button (not shown) provided on the smart glass 31 when a newly appearing user's hand appears on an image appearing on the lens 35. .

その後、ユーザーの手のうち、認識部41により認識された指を所定箇所として、ユーザーにより切り出す画像の軌跡が描かれる。軌跡の始点、および終点の認識については、これもスマートグラス31に設けられた図示しない始点認識ボタン、および終点認識ボタンのそれぞれの押下の検知により行われる。また、この場合、始点から開始した指の軌跡が再び始点に戻ってくることを検知してもよい。   Thereafter, a trajectory of an image cut out by the user is drawn with a finger recognized by the recognition unit 41 in the user's hand as a predetermined location. The recognition of the start point and the end point of the trajectory is also performed by detecting the depression of the start point recognition button (not shown) and the end point recognition button provided on the smart glass 31. In this case, it may be detected that the finger trajectory started from the starting point returns to the starting point again.

そして、切り出し部42は、軌跡によって囲われ、指定された領域を、切り出し画像として切り出す(S13)。すなわち、切り出し部42は、認識部41により認識された所定箇所によって指定された領域を切り出し画像として切り出す。この場合、切り出し画像は、いわゆる二次元の画像として切り出される。この時、切り出し画像のデータについては、スマートグラス31に設けられた記憶ボタン(図示せず)の押下の検知を契機として、スマートグラス記憶部34に記憶させるようにしてもよい。   Then, the cutout unit 42 cuts out the specified area surrounded by the trajectory as a cutout image (S13). That is, the cutout unit 42 cuts out a region specified by a predetermined location recognized by the recognition unit 41 as a cutout image. In this case, the cut-out image is cut out as a so-called two-dimensional image. At this time, the data of the cutout image may be stored in the smart glass storage unit 34 in response to the detection of pressing of a storage button (not shown) provided on the smart glass 31.

切り出し画像については、第一制御部43により、レンズ35に表示するよう制御される。すなわち、第一制御部43は、切り出し画像をレンズ35に表示するよう制御する(S14)。   The clipped image is controlled to be displayed on the lens 35 by the first control unit 43. That is, the first control unit 43 controls to display the cut-out image on the lens 35 (S14).

なお、切り出し画像については、三次元のものとして、軌跡とは別に表示するようにしてもよい。図3は、切り出し画像の一例を示す図である。図3は、レンズ35越しに視認された状態を示している。   Note that the clipped image may be displayed separately from the trajectory as a three-dimensional image. FIG. 3 is a diagram illustrating an example of a cut-out image. FIG. 3 shows a state visually recognized through the lens 35.

図3を参照して、レンズ35越しに視認される新聞紙等のような原稿51において、ユーザーの指52によって始点から終点まで描かれた軌跡53に囲まれ、指定された領域が、切り出し画像54として切り出される。なお、切り出し画像54については、図3中において一点鎖線で示している。この場合、切り出し画像54の境界については、識別しやすい色、例えば、赤色で表示されている。第一制御部43は、切り出し画像54を、切り出される前の原稿51の軌跡53から間隔を開けて矢印Dで示す上側に表示するよう制御する。具体的には、数センチメートル〜十数センチメートル程度、原稿51から距離を開けて切り出し画像54を表示するよう制御する。この場合、切り出し画像54は、原稿51上に、レンズ35越しにいわゆる浮いたように見える。なお、この切り出し画像54については、第一制御部43によるレンズ35における表示上において、レンズ35越しに指52で掴んだり、掴んで移動させたりすることができる。すなわち、切り出し画像54を移動可能とするよう構成されている。 Referring to FIG. 3, in a document 51 such as newspaper that is visually recognized through a lens 35, a specified region is surrounded by a locus 53 drawn from the start point to the end point by a user's finger 52. Cut out as The clipped image 54 is indicated by a one-dot chain line in FIG. In this case, the boundary of the cutout image 54 is displayed in a color that can be easily identified, for example, red. The first control unit 43, the cutout image 54 is controlled so as to display the locus 53 of the front of the document 51 on the upper side indicated by the arrow D 1 with a space to be cut out. Specifically, control is performed so that the cutout image 54 is displayed at a distance from the document 51 by about several centimeters to several tens of centimeters. In this case, the cut-out image 54 appears to float on the document 51 through the lens 35. The clipped image 54 can be grasped by the finger 52 through the lens 35 or moved by grabbing the lens 35 on the display by the first control unit 43. That is, the clipped image 54 is configured to be movable.

ここで、切り出し画像54については、元の画像が変更された場合に、その変更を反映できる構成としてもよい。すなわち、原稿51が新聞紙のような印刷物ではなく、例えば、テレビの画像やパソコンの画面上のインターネットの画像等、電子的に画像を表示させる表示装置であった場合、軌跡53によって囲まれた領域内の画像が変化したり、変更されたりする場合がある。この変化や変更の内容のデータを、スマートグラス31と通信可能な表示装置から受信し、第一制御部43により変化や変更を切り出し画像54に反映して表示することにしてもよい。こうすることにより、元の画像をリアルタイムで切り出し画像54に反映して、元の画像の経時変化を切り出し画像54でレンズ35越しに視認することができる。   Here, the cutout image 54 may be configured to reflect the change when the original image is changed. That is, when the original 51 is not a printed matter such as newspaper, but is a display device for electronically displaying an image, such as an image of a television or an image of the Internet on a personal computer screen, The images inside may change or change. The data of the contents of the change or change may be received from the display device that can communicate with the smart glass 31, and the first control unit 43 may reflect the change or change in the cutout image 54 and may display it. By doing so, the original image can be reflected in the cutout image 54 in real time, and the temporal change of the original image can be visually recognized through the lens 35 in the cutout image 54.

次に、第二制御部44は、切り出し画像54のデータを処理するよう制御する。この場合、複合機11に切り出し画像54のデータを送信して処理するよう制御する(S15)。すなわち、切り出し画像54のデータについては、第二制御部44により、スマートグラス通信部33を介して、複合機11に送信される。   Next, the second control unit 44 performs control to process the data of the cutout image 54. In this case, control is performed so that the data of the cut-out image 54 is transmitted to the multifunction device 11 for processing (S15). That is, the data of the cutout image 54 is transmitted to the multi-function device 11 by the second control unit 44 via the smart glass communication unit 33.

ここで、第二制御部44は、認識部41により切り出し画像54の複合機11に向けてのフリック操作を認識すれば、複合機11に切り出し画像54のデータを送信するようにしてもよい。複合機通信部23は、スマートグラス31側から送信された切り出し画像54のデータを受信する(S16)。受信が完了した後、複合機11は、印刷部15により切り出し画像54を基に用紙に印刷する(S17)。   Here, the second control unit 44 may transmit the data of the cutout image 54 to the multifunction device 11 if the flick operation of the cutout image 54 toward the multifunction device 11 is recognized by the recognition unit 41. The multi-function device communication unit 23 receives the data of the cutout image 54 transmitted from the smart glass 31 side (S16). After the reception is completed, the multifunction machine 11 prints on the paper based on the cutout image 54 by the printing unit 15 (S17).

このようなスマートグラス31によれば、レンズ35により表示された領域内において、所定箇所によって指定された領域を切り出し画像54として切り出し、切り出し画像54のデータを処理することとしている。そうすると、ユーザーの望む領域内における画像情報に対する処理を行うことができる。したがって、ユーザーの要望に応じた適切な画像情報の処理を行うことができる。   According to such smart glass 31, in the area displayed by the lens 35, the area designated by the predetermined place is cut out as the cutout image 54, and the data of the cutout image 54 is processed. Then, it is possible to perform processing on image information in an area desired by the user. Therefore, it is possible to perform appropriate image information processing according to the user's request.

この場合、第一制御部43は、切り出し画像54を、切り出される前の箇所から間隔を開けて上側に表示するよう制御している。したがって、切り出し画像54を視覚的に容易に認識することができる。   In this case, the first control unit 43 performs control so that the cutout image 54 is displayed on the upper side with an interval from the portion before being cut out. Therefore, the cutout image 54 can be easily recognized visually.

また、この場合、第二制御部44は、認識部41により切り出し画像54の複合機11に向けてのフリック操作を認識すれば、複合機11に切り出し画像54のデータを送信することとしている。したがって、より手軽に切り出し画像54を複合機11に送信することができる。   Further, in this case, when the second control unit 44 recognizes the flick operation of the cutout image 54 toward the multifunction device 11 by the recognition unit 41, the second control unit 44 transmits the data of the cutout image 54 to the multifunction device 11. Therefore, the cut-out image 54 can be transmitted to the multifunction device 11 more easily.

なお、上記の実施の形態において、第一制御部43は、通信可能な複合機11の状態に関するデータを取得し、取得した状態に関するデータをレンズ35に表示するよう制御してもよい。   In the above-described embodiment, the first control unit 43 may acquire data regarding the state of the communicable multifunction device 11 and control the acquired data regarding the state to be displayed on the lens 35.

図4は、レンズ35に表示された複合機11の状態に関するデータの表示態様の一例を示す図である。なお、図4において、理解の容易の観点から、各複合機11、26、27へ切り出し画像54のデータを送信する際のフリック操作の方向を二点鎖線で示している。図4を参照して、第一制御部43は、各複合機11、26、27の状態に関するデータを取得する。そして、第一制御部43は、各複合機11、26、27の状態、例えば、各複合機11、26、27に対応する消耗品、例えば、各複合機11、26、27のトナーおよび用紙の残量に関するデータ56a、56b、56bを、レンズ35に表示する。具体的には、データ56aについては、「残トナー情報 K 良 C 良 M 良 Y 良」という情報、および「残紙情報 A4 多 B4 良 A3 多」という情報が表示されている。なお、「K」はブラックのトナー、「C」はシアンのトナー、「M」はマゼンタのトナー、「Y」はイエローのトナーを示している。A4、B4、A3は、それぞれ用紙のサイズを示している。また、データ56bについては、「残トナー情報 K 良 C 少 M 少 Y 少」という情報、および「残紙情報 A4 少 B4 良 A3 少」という情報が表示されている。また、データ56cについては、「残トナー情報 K 良 C 良 M 良 Y 少」という情報、および「残紙情報 A4 多 B4 良 A3 少」という情報が表示されている。このように構成することにより、各複合機11、26、27の消耗品の状態に応じて、ユーザーは、切り出し画像54のデータの送信先を決めることができる。そうすると、消耗品の不足によって印刷できないといった状況を回避したり、印刷可能な範囲でユーザーに近い複合機11、26、27を選択したりすることができる。なお、各複合機26、27の構成については、複合機11の構成と同様であるため、それらの説明を省略する。   FIG. 4 is a diagram illustrating an example of a display mode of data related to the state of the multifunction machine 11 displayed on the lens 35. In FIG. 4, the direction of the flick operation at the time of transmitting the data of the cutout image 54 to each of the multi-function devices 11, 26, 27 is indicated by a two-dot chain line from the viewpoint of easy understanding. Referring to FIG. 4, the first control unit 43 acquires data related to the states of the multifunction machines 11, 26, and 27. Then, the first control unit 43 determines the state of each of the multifunction machines 11, 26 and 27, for example, consumables corresponding to each of the multifunction machines 11, 26 and 27, for example, toner and paper of each of the multifunction machines 11, 26 and 27. Data 56a, 56b, and 56b relating to the remaining amount of are displayed on the lens 35. Specifically, for the data 56a, the information “remaining toner information K good C good M good Y good” and information “remaining paper information A4 many B4 good A3 many” are displayed. Note that “K” indicates a black toner, “C” indicates a cyan toner, “M” indicates a magenta toner, and “Y” indicates a yellow toner. A4, B4, and A3 each indicate the size of the paper. In addition, with regard to the data 56b, information “remaining toner information K good C small M small Y small” and information “remaining paper information A4 small B4 good A3 small” are displayed. Further, for the data 56c, information "remaining toner information K good C good M good Y small" and information "remaining paper information A4 many B4 good A3 little" are displayed. By configuring in this manner, the user can determine the transmission destination of the data of the cut-out image 54 in accordance with the state of the consumables of each of the multifunction machines 11, 26, 27. In this case, it is possible to avoid a situation where printing can not be performed due to a shortage of consumables, or to select MFPs 11, 26, 27 as close to the user as possible within the printable range. The configuration of each of the multi-function devices 26 and 27 is the same as that of the multi-function device 11, and thus the description thereof is omitted.

また、上記の実施の形態において、第一制御部43は、第二制御部44により切り出し画像54のデータを送信している際に、レンズ35に切り出し画像54のデータの送信状態を表示するよう制御してもよい。また、第一制御部43は、切り出し画像54を、切り出し画像54のデータの送信状態に応じて、複合機11側へ移動するように、かつ、ユーザーから遠ざかるに従って小さく表示するよう制御してもよい。   In the above embodiment, the first control unit 43 displays the transmission state of the data of the cutout image 54 on the lens 35 when the data of the cutout image 54 is transmitted by the second control unit 44. You may control. In addition, the first control unit 43 controls the cutout image 54 to move toward the multifunction peripheral 11 according to the transmission state of the data of the cutout image 54 and to display the cutout image 54 as being smaller from the user. Good.

図5は、レンズ35に表示された切り出し画像54のデータの送信状態を示す図である。図5を参照して、レンズ35には、切り出し画像54と、三つの複合機11、26、27が表示されている。   FIG. 5 is a diagram illustrating a transmission state of data of the cutout image 54 displayed on the lens 35. Referring to FIG. 5, a cutout image 54 and three multifunction peripherals 11, 26, and 27 are displayed on the lens 35.

ユーザーのフリック操作により、複合機11側に切り出し画像54のデータが送信される。そうすると、やや切り出し画像54のサイズを小さくした切り出し画像57aが表示される。その後、送信が進行するにしたがって、さらにサイズを小さくした切り出し画像57bが、複合機11に近い側に表示される。このように構成することにより、送信状態を視覚的に容易に認識することができる。   The data of the cut-out image 54 is transmitted to the multifunction device 11 side by the user's flick operation. Then, a cutout image 57a in which the size of the cutout image 54 is slightly reduced is displayed. Thereafter, as the transmission progresses, the cut-out image 57b having a further reduced size is displayed on the side closer to the multifunction machine 11. With this configuration, the transmission state can be easily recognized visually.

ここで、第二制御部44は、認識部41によりレンズ35において切り出し画像54と複合機11との間に遮蔽物が表れたことを認識すれば、第二制御部44による切り出し画像54のデータの送信を中止するよう制御するようにしてもよい。例えば、図5に示す切り出し画像57aの送信状態において、切り出し画像57aと複合機11との間の領域58に遮蔽物、例えば、ユーザーの手を配置し、遮蔽物が表示されたとする。そうすると、このユーザーの手が認識部41によって認識され、第二制御部44は、切り出し画像57aの送信を中止する。こうすることにより、切り出し画像54のデータの送信後、送信を中止する操作を容易に行うことができる。   Here, if the second control unit 44 recognizes that the shielding object appears between the cutout image 54 and the multifunction machine 11 in the lens 35 by the recognition unit 41, the data of the cutout image 54 by the second control unit 44 Control may be performed so as to cancel the transmission of. For example, in the transmission state of the cutout image 57a shown in FIG. 5, it is assumed that a shield, for example, a user's hand is placed in the area 58 between the cutout image 57a and the multifunction machine 11, and the shield is displayed. Then, the user's hand is recognized by the recognition unit 41, and the second control unit 44 stops transmission of the cutout image 57a. By doing so, it is possible to easily perform an operation of stopping the transmission after the transmission of the data of the cutout image 54.

なお、複合機11、26、27は、複数備えられており、第一制御部43は、フリック操作の向きに複数の複合機11、26、27が存在していることを認識すれば、いずれの複合機11、26、27への送信かを問い合わせる画面をレンズ35に表示するよう制御し、第二制御部44は、問い合わせ画面により指定された複合機11、26、27へ切り出し画像54のデータを送信するよう制御してもよい。こうすることにより、より確実に、ユーザーの要望する複合機11、26、27へ切り出し画像54のデータを送信することができる。すなわち、図4においては、二点鎖線で示す矢印がそれぞれ異なる方向に向いているが、これらの方向が近接したり、重なった場合に、このような制御を行うようにしてもよい。   A plurality of multifunction machines 11, 26, 27 are provided, and the first control unit 43 recognizes that the plurality of multifunction machines 11, 26, 27 are present in the direction of the flick operation. Control to display on the lens 35 a screen asking whether to send to the multifunction devices 11, 26, 27 and the second control unit 44 cuts out the image 54 to the multifunction devices 11, 26, 27 specified by the query screen. It may be controlled to transmit data. By doing so, the data of the cut-out image 54 can be transmitted to the multifunction peripherals 11, 26, and 27 desired by the user more reliably. That is, in FIG. 4, arrows shown by two-dot chain lines point in different directions, but such control may be performed when these directions approach or overlap.

なお、上記の実施の形態においては、ユーザーの指52を所定の物体の所定の箇所として認識部41により認識されたが、これに限らず、例えば、ペンや棒状の部材を所定の物体として認識するようにしてもよい。すなわち、認識部41により認識される所定の物体の所定の箇所は、棒状の部材の端部およびユーザーの指のうちの少なくともいずれか一方であるよう構成してもよい。この場合、例えば、ペン先が点灯するペンを用い、軌跡を描いている最中は、ペン先を点灯させ、それ以外には、ペン先を消灯するようにして、始点と終点とを認識させるような構成としてもよい。   In the above embodiment, although the recognition unit 41 recognizes the user's finger 52 as a predetermined part of a predetermined object, the present invention is not limited to this. For example, a pen or a rod-like member is recognized as a predetermined object You may do it. That is, the predetermined part of the predetermined object recognized by the recognition unit 41 may be configured to be at least one of the end of the rod-shaped member and the user's finger. In this case, for example, using a pen with a lit pen tip, the pen tip is turned on while drawing a locus, and otherwise the pen tip is turned off to recognize the start point and the end point. It is good also as composition like this.

また、上記の実施の形態においては、第二制御部44は、印刷部15により切り出し画像54のデータを基に用紙に印刷することとしたが、これに限らず、第二制御部44は、他の処理、例えば、複合機11に備えられる複合機ハードディスク17に切り出し画像54のデータを記憶させるよう処理してもよい。ここで、上記した複合機11、26、27の状態として、複合機ハードディスク17の容量や、保存先となるボックス名の状態を第一制御部43により表示するよう制御してもよい。なお、複合機ハードディスク17に記憶された切り出し画像54のデータについては、タッチパネル21に表示させて、何らかの加工や編集を行うことを可能としてもよい。   In the above embodiment, the second control unit 44 causes the printing unit 15 to print on a sheet based on the data of the cut-out image 54. However, the present invention is not limited to this. Other processing, for example, processing may be performed so that the data of the cut-out image 54 is stored in the multifunction device hard disk 17 provided in the multifunction device 11. Here, the first control unit 43 may control to display the capacity of the MFP hard disk 17 and the state of the box name as the storage destination as the states of the MFPs 11, 26 and 27 described above. Note that the data of the cutout image 54 stored in the multi-function device hard disk 17 may be displayed on the touch panel 21 so that some processing or editing can be performed.

なお、上記の実施の形態において、切り出し画像54に加筆や書き込みを可能な構成を採用してもよい。すなわち、スマートグラス31側の設定において、ユーザーの指52を加筆用のペンとして設定し、切り出し画像54上に書き込む。具体的には、文章の画像に対して下線を引いたり、マーカーを引いたりする。この書き込まれた画像については、第一制御部43によりスマートグラス31のレンズ35上で視認できる。このように構成することにより、よりユーザーの要望に応じた適切な画像処理を行うことができる。   In the above-described embodiment, a configuration in which the clipped image 54 can be added or written can be adopted. That is, in the setting on the smart glass 31 side, the user's finger 52 is set as a writing pen and written on the cutout image 54. Specifically, an underline is drawn or a marker is drawn on the text image. The written image can be visually recognized on the lens 35 of the smart glass 31 by the first control unit 43. By configuring in this way, it is possible to perform appropriate image processing according to the user's request.

また、上記の実施の形態において、切り出し部42により切り出される箇所を複数とし、切り出された複数の切り出し画像について、第一表示部43により表示される仮想空間内において、合成可能な構成としてもよい。   Further, in the above embodiment, a plurality of portions cut out by the cut-out unit 42 may be configured, and the plurality of cut-out images cut out may be composited in the virtual space displayed by the first display unit 43. .

なお、上記の実施の形態においては、この発明に係る情報処置装置を頭部装着型端末装置であるスマートグラス31に適用することとしたが、これに限らず、例えば、画像を表示する表示機能を有するスマートフォンや他の携帯端末装置に適用することとしてもよい。この場合、もちろん、頭部装着型でなくともよい。   In the above embodiment, the information processing apparatus according to the present invention is applied to the smart glass 31, which is a head-mounted terminal apparatus. However, the present invention is not limited to this. For example, a display function for displaying an image It is good also as applying to the smart phone which has, and another portable terminal device. In this case, of course, it may not be a head-mounted type.

今回開示された実施の形態はすべての点で例示であって、どのような面からも制限的なものではないと理解されるべきである。本発明の範囲は上記した説明ではなく、特許請求の範囲によって規定され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be understood that the embodiments disclosed herein are illustrative in all respects and are not restrictive in any aspect. The scope of the present invention is defined by the scope of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the scope of the claims.

この発明に係る情報処理装置は、ユーザーの要望に応じた適切な画像情報の処理が要求される場合に、特に有効に利用される。   The information processing apparatus according to the present invention is particularly effectively used when processing of appropriate image information according to a user's request is required.

11,26,27 複合機、12 複合機制御部、13 操作部、14 読み取り部、15 印刷部、16 給紙カセット、17 複合機ハードディスク、18 ネットワークインターフェース部、19 主記憶メモリ、21 タッチパネル、23 複合機通信部、24 情報処理システム、31 スマートグラス、32 スマートグラス制御部、33 スマートグラス通信部、34 スマートグラス記憶部、35 レンズ、41 認識部、42 切り出し部、43 第一制御部、44 第二制御部、51 原稿、52 指、53 軌跡、54,57a,57b 切り出し画像、56a,56b,56c データ、58 領域。   11, 26 and 27 MFPs, 12 MFP control parts, 13 operation parts, 14 reading parts, 15 printing parts, 16 paper feed cassettes, 17 MFP hard disks, 18 network interface parts, 19 main memory, 21 touch panels, 23 MFP communication unit, 24 information processing system, 31 smart glasses, 32 smart glass control units, 33 smart glass communication units, 34 smart glass storage units, 35 lenses, 41 recognition units, 42 cutout units, 43 first control units, 44 Second control unit, 51 document, 52 fingers, 53 locus, 54, 57a, 57b cut image, 56a, 56b, 56c data, 58 area.

Claims (6)

情報処理装置であって、
ユーザーに視認可能な電子画像を表示させる光学透過式の表示部と、
前記表示部を透過した所定の物体の所定箇所を認識する認識部と、
前記認識部により認識された前記所定箇所によって指定された領域を切り出し画像として切り出す切り出し部と、
前記切り出し部により切り出された前記切り出し画像を前記表示部に表示するよう制御する第一制御部と、
前記切り出し画像のデータを処理するよう制御する第二制御部とを備え
前記第一制御部は、前記情報処理装置と通信可能な外部装置に対して、前記第一制御部により前記切り出し画像のデータを送信している際に前記表示部に前記切り出し画像のデータの送信状態を表示するよう制御し、
前記第一制御部は、前記切り出し画像を、前記切り出し画像のデータの送信状態に応じて、前記外部装置側へ移動するように、かつ、前記ユーザーから遠ざかるに従って小さく表示するよう制御し、
前記第二制御部は、前記認識部により前記表示部において前記切り出し画像と前記外部装置との間に遮蔽物が表れたことを認識すれば、前記切り出し画像のデータの送信を中止するよう制御する、情報処理装置。
An information processing apparatus,
An optically transmissive display that displays an electronic image visible to the user;
A recognition unit for recognizing a predetermined part of a predetermined object that has passed through the display unit;
A cutout unit that cuts out an area designated by the predetermined location recognized by the recognition unit as a cutout image;
A first control unit that controls to display the cut-out image cut out by the cut-out unit on the display unit;
A second control unit that controls to process the data of the cut-out image ,
The first control unit transmits the cut-out image data to the display unit when the first control unit is transmitting the cut-out image data to an external device capable of communicating with the information processing apparatus. Control to display the status,
The first control unit controls the clipped image to move toward the external device according to a transmission state of the clipped image data, and to display the clipped image smaller as the user moves away from the user.
The second control unit controls the transmission of the cut-out image data to be stopped when the recognizing unit recognizes that a shielding object appears between the cut-out image and the external device on the display unit. , Information processing device.
前記第一制御部は、前記切り出し画像を、前記切り出される前の箇所から間隔を開けて上側に表示するよう制御する、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first control unit controls the clipped image to be displayed on the upper side with a space from the portion before being clipped. 前記第二制御部は、前記認識部により前記切り出し画像の前記外部装置に向けてのフリック操作を認識すれば、前記外部装置に前記切り出し画像のデータを送信するよう制御する、請求項1または2に記載の情報処理装置。 The second control unit, if recognizing the flick operation toward the external apparatus of the cutout image by the recognition unit, and controls to transmit the data of the clipped image to the external device, according to claim 1 or 2 The information processing apparatus according to claim 1. 前記外部装置は、複数備えられており、
前記第一制御部は、前記フリック操作の向きに複数の前記外部装置が存在していることを認識すれば、いずれの前記外部装置への送信かを問い合わせる問い合わせ画面を前記表示部に表示するよう制御し、
前記第二制御部は、前記問い合わせ画面により指定された前記外部装置へ前記切り出し画像のデータを送信するよう制御する、請求項に記載の情報処理装置。
A plurality of the external devices are provided,
If the first control unit recognizes that there are a plurality of the external devices in the direction of the flick operation, the first control unit displays an inquiry screen asking which of the external devices is to be transmitted to the display unit. Control
The information processing apparatus according to claim 3 , wherein the second control unit performs control so that the data of the cut-out image is transmitted to the external apparatus specified by the inquiry screen.
前記外部装置は、画像データを基に用紙に画像を印刷する印刷部を含み、
前記第二制御部は、前記印刷部により前記切り出し画像のデータを基に用紙に印刷するよう制御する、請求項1〜のいずれか1項に記載の情報処理装置。
The external device includes a printing unit that prints an image on paper based on image data,
It said second control unit controls to print on paper on the basis of data of the clipped image by the printing unit, the information processing apparatus according to any one of claims 1-4.
前記認識部により認識される所定の物体の所定箇所は、棒状の部材の端部および前記ユーザーの指のうちの少なくともいずれか一方である、請求項1〜のいずれか1項に記載の情報処理装置。 Said predetermined portion of the predetermined object to be recognized by the recognition unit, at least at either of the ends and the user's finger bar-shaped member, information according to any one of claims 1 to 5 Processing unit.
JP2016211162A 2016-10-28 2016-10-28 Information processing device Expired - Fee Related JP6551363B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016211162A JP6551363B2 (en) 2016-10-28 2016-10-28 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016211162A JP6551363B2 (en) 2016-10-28 2016-10-28 Information processing device

Publications (2)

Publication Number Publication Date
JP2018073071A JP2018073071A (en) 2018-05-10
JP6551363B2 true JP6551363B2 (en) 2019-07-31

Family

ID=62115402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016211162A Expired - Fee Related JP6551363B2 (en) 2016-10-28 2016-10-28 Information processing device

Country Status (1)

Country Link
JP (1) JP6551363B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69430967T2 (en) * 1993-04-30 2002-11-07 Xerox Corp Interactive copying system
JP4681629B2 (en) * 2008-05-21 2011-05-11 日本電信電話株式会社 Display device calibration method and apparatus
JP2012256110A (en) * 2011-06-07 2012-12-27 Sony Corp Information processing apparatus, information processing method, and program
JP5255674B2 (en) * 2011-06-14 2013-08-07 シャープ株式会社 Data transmission operation device and data transmission control method
JP2014228945A (en) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 Area designating device
JP2014229164A (en) * 2013-05-24 2014-12-08 コニカミノルタ株式会社 Setting device, portable mobile terminal, image formation system, setting device control method, and setting device control program
JP5848811B2 (en) * 2014-10-01 2016-01-27 シャープ株式会社 Transmitter, receiver, and program
JP2016170528A (en) * 2015-03-11 2016-09-23 株式会社リコー Head mounted display and method for connecting with external device at head mounted display

Also Published As

Publication number Publication date
JP2018073071A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
US9760168B2 (en) Guidance information display device
US9098223B2 (en) Job information display device
JP5696908B2 (en) Operation display system
US8648820B2 (en) Operation console, electronic equipment and image processing apparatus with the console, and operation method
JP5929572B2 (en) Operation display device and program
US20160269578A1 (en) Head mounted display apparatus and method for connecting head mounted display apparatus to external device
JP6222440B2 (en) AR display system, AR display device, information processing device, and program
US9141269B2 (en) Display system provided with first display device and second display device
US9325868B2 (en) Image processor displaying plural function keys in scrollable state
EP2779612B1 (en) Image forming apparatus and method, and tangible computer-readable recording medium
US20160191730A1 (en) Image processing apparatus
US20160316081A1 (en) Augmented reality operation system, and non-transitory computer-readable recording medium storing augmented reality operation program
US9924050B2 (en) Operation display apparatus, portable terminal, programs therefor, and operation display system
US10120627B2 (en) Processing device, non-transitory recording medium storing a computer readable program and substitute process setting method
JP2016110379A (en) Operation input system
US20120105900A1 (en) Image processing apparatus and method of forming images
JP6551363B2 (en) Information processing device
US10681229B2 (en) Image processing apparatus for controlling display of a condition when the displayed condition is obscured by a hand of a user and method and non-transitory recording medium storing computer readable program
US20210386178A1 (en) Storage medium, computer control method, and information processing apparatus
JP7172030B2 (en) Display device and program
US20130057914A1 (en) Image forming apparatus and non-transitory computer readable recording medium stored with control program for image forming apparatus
JP6610602B2 (en) Display input device
US11206337B2 (en) Image output apparatus, recording medium having control program for image output apparatus, and method for controlling image output apparatus
US10545445B2 (en) Image forming apparatus that forms image on recording sheet, and image forming system
JP2017199298A (en) Information display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190617

R150 Certificate of patent or registration of utility model

Ref document number: 6551363

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees