WO2020050055A1 - 文書作成支援装置、文書作成支援システム、及びプログラム - Google Patents

文書作成支援装置、文書作成支援システム、及びプログラム Download PDF

Info

Publication number
WO2020050055A1
WO2020050055A1 PCT/JP2019/032971 JP2019032971W WO2020050055A1 WO 2020050055 A1 WO2020050055 A1 WO 2020050055A1 JP 2019032971 W JP2019032971 W JP 2019032971W WO 2020050055 A1 WO2020050055 A1 WO 2020050055A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
user
report
screen
document creation
Prior art date
Application number
PCT/JP2019/032971
Other languages
English (en)
French (fr)
Inventor
茂木 学
阿希子 林
駿介 高宮
松井 龍也
幸博 中村
佐久間 聡
木下 真吾
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Publication of WO2020050055A1 publication Critical patent/WO2020050055A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/908Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Definitions

  • the present invention relates to a document creation support device, a document creation support system, and a program.
  • Patent Document 1 discloses a report creation device capable of displaying or printing a report in which multimodal information such as image information, audio information, and text information is associated with each other.
  • a report can be created based on image information captured by a camera or voice information input by a voice, but a report is created by adding information other than the information. It was difficult to do. Therefore, there is a problem that a user needs time and effort to create a report with high added value.
  • An object of the present invention which has been made in view of such circumstances, is to provide a document creation support device, a document creation support system, and a program capable of creating a high-value-added report without requiring the user's time and effort. To provide.
  • a document creation support device has a recognition result information acquisition unit that acquires recognition result information of an object based on the identification information of the object, and a recognition result information acquiring unit that acquires the recognition result information of the object.
  • An editing information acquiring unit that acquires the editing information of the object, a related information acquiring unit that acquires the related information of the object based on the recognition result information and the editing information, and a screen information including the related information.
  • a display unit for displaying a report on the object based on the report.
  • a document creation support system includes a recognition engine that determines recognition result information of an object based on identification information of the object, and a recognition engine that determines the recognition result information and a user.
  • a database server that associates and accumulates the editing information of the object according to the operation, and extracts the relevant information of the object based on the recognition result information and the editing information, and screen information including the relevant information. It is characterized by comprising a site information server to generate, and a user terminal that displays a report on the object based on the screen information.
  • a program according to the present invention causes a computer to function as the above-mentioned summary display device.
  • a high value-added report can be created without requiring the user's time and effort.
  • FIG. 1 is a block diagram illustrating an example of a configuration of a document creation support device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a display screen of a display unit in the document creation support device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a display screen of a display unit in the document creation support device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a display screen of a display unit in the document creation support device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a display screen of a display unit in the document creation support device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a display screen of a display unit in the document creation support device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a display screen of a display unit in the document creation support device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a display screen of a display unit in the document creation support device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a display screen of a display unit in the document creation support device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a display screen of a display unit in the document creation support device according to an embodiment of the present invention.
  • 4 is a flowchart illustrating an example of a document creation support method according to an embodiment of the present invention.
  • 4 is a flowchart illustrating an example of a document creation support method according to an embodiment of the present invention.
  • FIG. 1 is a diagram illustrating an example of a configuration of a document creation support system 100 according to the present embodiment.
  • the document creation support system 100 includes a user terminal (document creation support device) 110, a site information server 120, a DB server (database server) 130, a recognition server 140, and a recognition engine 150. , Is provided.
  • the user terminal 110 communicates with the site information server 120 or the recognition server 140 via the network 50.
  • the user terminal 110 is a mobile terminal held by the user, and is, for example, a smart device such as a smartphone or a tablet PC. Using the user terminal 110, the user creates various reports on the object, such as an exhibit to be displayed at an event, a device to be subjected to maintenance work, and the like. In the present embodiment, a case where the report is displayed on the display unit of the user terminal 110 will be described as an example. However, after the report is displayed on the display unit of the user terminal 110, May be printed.
  • the user terminal 110 acquires the specific information of the target object from various sensors, and transmits the specific information to the recognition server 140 via the network 50.
  • the target object specifying information is information for specifying the target object, and is, for example, image information, audio information, position information, or the like.
  • the type of the sensor is not particularly limited, and is, for example, a camera, a microphone, a beacon sensor, or the like.
  • the sensor may be mounted on the user terminal 110 or may be provided on an object.
  • the user terminal 110 receives the recognition result information of the target object from the recognition server 140 via the network 50 based on the specific information of the target object, and temporarily stores the information.
  • the target object recognition result information is, for example, a target object recognition result ID set for each target object.
  • the user terminal 110 acquires the editing information of the object according to the operation of the user, and transmits the editing information to the site information server 120 via the network 50.
  • the object editing information is information of the object to be edited in response to the user's editing operation, such as additional image information of the object in response to the user's additional shooting operation, user's comment input operation , The tag information of the object according to the user's tag selection operation, or the voice memo information of the object according to the user's voice recording operation, etc.
  • the user terminal 110 receives the relevant information of the target from the site information server 120 via the network 50 based on the recognition result information of the target and the editing information of the target.
  • the relevant information of the target object is information other than the specific information of the target object and the editing information of the target object, and is information that adds value to the report. For example, statistical information of an object, information on a prepared report, and the like can be given.
  • the user terminal 110 receives the screen information including the specific information of the object, the editing information of the object, and the related information of the object from the site information server 120 via the network 50, and based on the screen information. And display a report on the object.
  • the report on the object includes, for example, an image of the object based on the specific information of the object, specifically, an additional image of the object or an audio memo based on the editing information of the object.
  • an outline of the target and a usage scene are displayed (see FIG. 6).
  • the site information server 120 receives target object recognition result information, target object editing information, and the like from the user terminal 110 via the network 50, and stores the recognition result information, the relevant editing information, and the like in the DB server. Send to 130. Further, the site information server 120 receives the relevant information of the target corresponding to the recognition result information of the target from the DB server 130, and specifies the specific information of the target, the editing information of the target, and the relevant information of the target. It generates screen information including the screen information and transmits the screen information to the user terminal 110 via the network 50. For example, the site information server 120 generates screen information including information indicating an outline of the object and a usage scene in addition to the image information of the object and the voice memo information of the object.
  • the DB server 130 receives the recognition result information of the object, the editing information of the object, and the like from the site information server 120, and accumulates the recognition result information of the object and the editing information of the object in association with each other. Further, the DB server 130 extracts the relevant information of the target object corresponding to the target object recognition result information based on the target object recognition result information, the target object editing information, and the like. Further, the DB server 130 transmits the relevant information to the site information server 120.
  • the DB server 130 may recognize the recognition result ID of the object, additional image information of the object, text comment information of the object or voice comment information of the object, tag information of the object, voice memo information of the object, and the like. Is stored in association with the information.
  • the DB server 130 extracts a keyword related to the object based on the editing information of the object, and accumulates the keyword as statistical information of the object. For example, the DB server 130 performs a text conversion process on the text comment information of the object or the voice comment information of the object, the tag information of the object, the voice memo information of the object, and the like, and further performs the morphological analysis process. Then, keywords related to the object are extracted and accumulated as statistical information of the object.
  • the DB server 130 associates the object recognition result information with the attribute information of the user (other user) and accumulates the information as statistical information of the object.
  • the attribute information of the user (other user) is stored in association with each terminal based on the user (other user) terminal ID and the like.
  • the DB server 130 ranks each user attribute by associating the recognition result ID of the object with information such as the user's business type information, the user's occupation type information, and the user's position information.
  • Information indicating the title of the target is stored as statistical information of the target.
  • the DB server 130 holds the above-described statistical information of the target object, keywords related to the target object, user attribute information, attribute information of other users, and the like.
  • the recognition server 140 receives the specific information of the object from the user terminal 110 via the network 50, and transmits the specific information to the recognition engine 150. Further, the recognition server 140 receives the recognition result information of the object from the recognition engine 150 and transmits the recognition result information to the user terminal 110 via the network 50.
  • the recognition engine 150 receives the specific information of the target object from the recognition server 140, compares the specific information with the specific information of the target object registered in advance, determines the recognition result information of the target object, The recognition result information is transmitted to the recognition server 140.
  • specific information of a predetermined target, a recognition result of the predetermined target, and the like are registered in advance.
  • the recognition engine 150 determines target object recognition result information based on the target object identification information, and the DB server 130 performs the recognition result information and the user operation.
  • the relevant information of the target is extracted based on the corresponding editing information of the target, the site information server 120 generates screen information including the relevant information of the target, and the user terminal 110 receives the screen information.
  • the site information server 120 generates screen information including the relevant information of the target
  • the user terminal 110 receives the screen information.
  • a document creation support system 100 capable of creating a high value-added report without the need for such a report can be realized.
  • FIG. 2 is a diagram illustrating an example of a configuration of the user terminal 110 according to the embodiment.
  • the user terminal 110 includes a specific information acquisition unit 111, a recognition result information acquisition unit 112, a related information acquisition unit 113, an edit information acquisition unit 114, a control unit 115, a storage unit 116, and a display unit 117. , An operation unit 118, and the like.
  • the specific information acquisition unit 111 acquires specific information of an object from various sensors. For example, the specific information acquisition unit 111 acquires image information of an object from a camera mounted on the user terminal 110. For example, the specific information acquisition unit 111 acquires audio information of a target object from a microphone mounted on the user terminal 110. For example, the specific information acquisition unit 111 acquires position information of the target from a beacon sensor provided on the target.
  • the recognition result information acquisition unit 112 acquires the recognition result information of the target based on the specific information of the target.
  • the user terminal 110 acquires the recognition result ID of the target based on image information of the target, audio information of the target, position information of the target, and the like.
  • the related information acquisition unit 113 acquires related information of the target based on the recognition result information of the target and the editing information of the target. For example, the related information acquisition unit 113 may recognize the recognition result ID of the object (recognition result information of the object), additional image information of the object, text comment information of the object or voice comment information of the object, Based on information such as tag information and audio memo information of the target (editing information of the target), information indicating the outline of the target and usage scenes (related information of the target) is acquired.
  • the editing information acquisition unit 114 acquires the editing information of the object according to the operation of the user. For example, the editing information acquisition unit 114 acquires additional image information of a target object according to a user's additional shooting operation. For example, the editing information acquisition unit 114 acquires text comment information of a target object or audio comment information of the target object according to a user's comment input operation. For example, the editing information acquisition unit 114 acquires tag information of an object according to a user's tag selection operation. For example, the editing information acquisition unit 114 acquires voice memo information of an object according to a user's voice memo recording operation.
  • the control unit 115 is transmitted and received between the user terminal 110 and the site information server 120 or the recognition server 140 via the recognition result information acquisition unit 112, the related information acquisition unit 113, the edit information acquisition unit 114, and the like. Control information. Further, the control unit 115 includes, for example, a CPU, a memory, and the like, and controls each unit of the user terminal 110.
  • the control unit 115 associates the object specifying information, the object editing information, and the object related information with each other, applies a predetermined design format, and specifies the object specifying information, the object editing information, and the object. Shapes screen information including object related information.
  • the control unit 115 outputs various types of information to the display unit 117, and causes the display unit 117 to display a predetermined screen. For example, the control unit 115 outputs screen information shaped according to a predetermined design format to the display unit 117, and causes the display unit 117 to display a report on the target object. Further, the control unit 115 appropriately sets the language (for example, Japanese, English, or the like) of the screen displayed on the display unit 117.
  • the control unit 115 appropriately sets the language (for example, Japanese, English, or the like) of the screen displayed on the display unit 117.
  • the control unit 115 changes the design of the report in accordance with the user's design change operation.
  • the design of the report can be any design, for example, a town magazine style design, a culture magazine style design, a sports newspaper style design, and the like. Further, the control unit 115 changes the cover image of the report according to the cover image changing operation of the user. Various designs applied to the report, various images applied to the cover of the report, and the like are stored in the storage unit 116 in advance.
  • the storage unit 116 may have any function of storing information such as a hard disk.
  • the storage unit 116 stores, for example, object recognition result information, various designs applied to the report, various images applied to the cover of the report, various programs and data, and the like.
  • the display unit 117 may be any device that can display images, characters, and the like, such as a liquid crystal display and an organic EL (Electro-Luminescence) display.
  • a liquid crystal display and an organic EL (Electro-Luminescence) display.
  • organic EL Electro-Luminescence
  • the display unit 117 displays a predetermined screen based on various information input from the control unit 115.
  • the display unit 117 displays a report on the target object based on the screen information shaped by the control unit 115.
  • the display form of the report is not particularly limited.
  • a display form in which a plurality of reports are collectively displayed on the same screen may be used.
  • a display form displayed in a ranking form or a gcloud form may be used.
  • the display unit 117 includes, in addition to the report, for example, a user attribute setting screen (see FIG. 3) described later, a start screen for the user to start the camera (see FIG. 4A), and a target for the user.
  • a photographing screen for photographing an object see FIG. 4 (B)
  • a report confirmation screen for a user see FIG. 4 (C)
  • a report list confirmation screen for other users see FIG. 4 (D)
  • Report input form screen see FIG. 5 (A)
  • comment input form screen see FIG. 5 (B)
  • report completion screen after user performs editing operation see FIG. 6
  • report A cover screen is displayed.
  • the operation unit 118 may be any device as long as the user can perform various operations, and is, for example, a touch panel, a software keyboard, or the like. The user can arbitrarily create a report on the object by performing various operations using the operation unit 118.
  • the acquisition of the target object identification information from the various sensors obtains the target object recognition result information, and edits the target object according to the operation of the user. Acquires information and, based on this information, acquires relevant information of the object, and displays the specified information of the object, edited information of the object, related information of the object, etc. as a report in association with each other be able to.
  • User terminal 110 capable of creating a high-quality report.
  • ⁇ Display screen of display unit> An example of a display screen of the display unit 117 in the user terminal 110 according to the present embodiment will be described with reference to FIGS. When the user creates a report, various screens are displayed on the display unit 117.
  • FIG. 3 is a diagram showing an example of a user attribute setting screen 210.
  • the user attribute setting screen 210 includes, for example, an industry button 211, a job type button 212, a job title button 213, a completion button 214, and the like.
  • the type of business button 211 is a button for the user to set his / her business type, for example, software, hardware, system integrator, communication business, and the like.
  • the job type button 212 is a button for the user to set his / her own job type, for example, planning, technology, sales, office work, and the like.
  • the post button 213 is a button for a user to set his / her post, for example, a manager, an officer, a manager, a section manager, and the like.
  • the completion button 214 is a button for completing the user attribute setting.
  • a user attribute setting screen 210 is displayed on the display unit 117.
  • FIG. 4A is a diagram showing an example of a start screen 220 for a user to start a camera.
  • FIG. 4B is a diagram illustrating an example of a photographing screen 230 for a user to photograph a target.
  • FIG. 4C is a diagram showing an example of the report confirmation screen 240 of the user.
  • FIG. 4D is a diagram illustrating an example of a report list confirmation screen 250 of another user.
  • the startup screen 220 includes, for example, an operation area 221 for camera startup, a user report viewing icon 222, a report viewing icon 223 for another user, and another menu button 224.
  • the shooting screen 230 includes, for example, a preview screen 231, a shutter button 232, and the like.
  • the user's report confirmation screen 240 includes, for example, a report display screen 241, a design change button 242, a cover image change button 243, a share others button 244, and the like.
  • the report list confirmation screen 250 of another user includes a report cover thumbnail 251 of another user, a report creation date / time 252 of another user, an attribute 253 of another user, and the like.
  • the image capturing screen 230 is displayed on the display unit 117.
  • the user adjusts the orientation of the user terminal 110 to the target and taps the shutter button 232 while viewing the preview screen 231 on the shooting screen 230, the target is shot.
  • a user's report confirmation screen 240 is displayed on the display unit 117.
  • the user can confirm the report created by himself on the report display screen 241 in the user's report confirmation screen 240.
  • the user can change the design on each page of the report by tapping the design change button 242.
  • the user can change the cover image on the cover of the report by tapping the cover image change button 243.
  • the user can tap the other person sharing button 244 to share the report created by himself / herself with other users.
  • a report list confirmation screen 250 of another user is displayed on the display unit 117.
  • the report list confirmation screen 250 displays a list of thumbnails of the report covers of other users, the date and time when the report was created by other users, the type of business of the other user, the occupation type of the other user, the position of the other user, and the like. Is done. For this reason, the user can confirm the reports of a plurality of other users in a list on the report list confirmation screen 250 of another user.
  • the report confirmation screen of another user is displayed on the display unit 117. You. When the user taps the share other button 244 on the report confirmation screen of another user, the other user copies the report created by the user via the report list confirmation screen 250 of the other user. Can be viewed.
  • FIG. 5A is a diagram showing an example of a report input form screen 260 for a user to perform an editing operation.
  • FIG. 5B is a diagram illustrating an example of a comment input form screen 270 for a user to perform a comment input operation.
  • the report input form screen 260 includes, for example, a recording start button 261, a comment input button 262, a tag selection button 263, a completion button 264, a display field 265, a display area 266, an additional shooting button 267, and the like.
  • the comment input form screen 270 includes, for example, a comment edit field 271, a voice input button 272, an OK button 273, and the like.
  • a recording start button 261, a comment input button 262, a tag selection button 263, a completion button 264, a display field 265, a display area 266, an additional shooting button 267, and the like are set by the user terminal 110.
  • the comment edit field 271, the voice input button 272, the OK button 273, and the like are displayed in the language set by the user terminal 110.
  • the user can check the category name of the object, the title of the object, and the like in the display field 265 in the report input form screen 260, for example, based on the related information of the object. Further, in the display area 266 in the report input form screen 260, for example, the user associates the image of the object based on the specific information of the object with the object based on the editing information of the object. An additional image of the subject can be confirmed.
  • the shooting screen 230 is displayed on the display unit 117.
  • the user adjusts the orientation of the user terminal 110 to the subject related to the target and taps the shutter button 232 while viewing the preview screen 231 on the shooting screen 230, the subject related to the target is shot. .
  • a predetermined tag is added to the report.
  • the tag may be set in the user terminal 110 in advance, or may be newly set by the user using the user terminal 110.
  • a comment input form screen 270 is displayed on the display unit 117.
  • the user inputs a text comment in the comment edit field 271 using the operation unit 118 and taps the OK button 273, the text comment is added to the report.
  • the voice input button 272 on the comment input form screen 270 inputs a voice comment, and taps the OK button 273, the voice comment is added to the report.
  • FIG. 6 is a diagram showing an example of the report completion screen 280 after the user performs an editing operation.
  • the report completion screen 280 based on the relevant information of the target object, specifically, the category name of the target object, the title name of the target object, the outline of the target object, the use scene of the target object (281), etc. Based on the specific information of the target, specifically, an image (282) of the target, etc., based on the editing information of the target, specifically, a voice memo (283) of the target, A text comment (284), an object tag (285), an image of a subject related to the object (286), and the like are displayed in a language set by the user terminal 110.
  • FIG. 7 is a diagram illustrating an example of the cover screen 310 of the report.
  • a design selected by the user from a plurality of designs is displayed.
  • the report cover screen 310 displays the culture magazine style cover. The screen is displayed.
  • FIG. 8 is a diagram showing an example of the report screen 320.
  • a report screen 320 in which a plurality of reports are arranged is displayed on the display unit 117. The user can check a plurality of reports on the report screen 320 at a time.
  • FIG. 9 is a diagram showing an example of the report screen 330.
  • the display unit 117 displays a report screen 330 in which the category names of the objects are summarized in a ranking format for each type of user. Is displayed.
  • the user can confirm the relationship between the type of business of the user and the category name of the target object for each type of business of the user.
  • FIG. 10 is a diagram showing an example of the report screen 340.
  • the display unit 117 displays a report screen 340 in which tags of the objects are grouped in the tag cloud format for each category name of the object. Is displayed.
  • the user can confirm, for each category name of the object, a tag that is strongly associated with the object and a tag that is weakly associated with the object.
  • FIG. 11 is a flowchart illustrating an example of a document creation support method in the document creation support system 100 according to the present embodiment. The processing until the screen 260 is displayed is shown.
  • FIG. 12 is a flowchart illustrating an example of a document creation support method in the document creation support system 100 according to the present embodiment. 280 is displayed.
  • step S1 the user taps the operation area 221 for camera activation on the activation screen 220.
  • the screen displayed on the user terminal 110 transitions from the startup screen 220 to the shooting screen 230.
  • the user adjusts the orientation of the user terminal 110 to the target object and taps the shutter button 232 while viewing the preview screen 231 on the shooting screen 230.
  • step S2 the user terminal 110 captures an image of the target and holds image data of the target. Note that the processing from step S1 to step S2 is repeatedly performed every time the user photographs the target.
  • step S3 the user terminal 110 transmits the image data of the target to the recognition server 140 via the network 50.
  • step S4 the recognition server 140 transmits the image data of the object received from the user terminal 110 to the recognition engine 150.
  • step S5 the recognition engine 150 compares the image data of the object received from the recognition server 140 with the image data of the object registered in advance. Then, the recognition engine 150 determines the recognition result ID of the target based on the image data of the target.
  • step S6 the recognition engine 150 transmits the recognition result ID of the target object to the recognition server 140.
  • step S7 the recognition server 140 transmits the recognition result ID of the object received from the recognition engine 150 to the user terminal 110 via the network 50.
  • step S8 the user terminal 110 temporarily holds the recognition result ID of the object received from the recognition server 140.
  • step S9 the user terminal 110 transmits the target object recognition result ID and the language setting data to the site information server 120 via the network 50.
  • the language setting data is set by the user terminal 110.
  • step S10 the site information server 120 transmits the target object recognition result ID and the language setting data received from the user terminal 110 to the DB server 130.
  • step S11 the DB server 130 extracts the relevant information of the target based on the target recognition result ID and the language setting data received from the site information server 120.
  • the object related information corresponds to a predetermined language set by the user terminal 110.
  • step S12 the DB server 130 transmits to the site information server 120 the target information corresponding to the target recognition result ID and the language setting data.
  • step S13 the site information server 120 generates report input form information including the relevant information of the object received from the DB server 130.
  • the report input form information corresponds to a predetermined language set by the user terminal 110.
  • step S14 the site information server 120 transmits the report input form information to the user terminal 110 via the network 50.
  • step S15 the user terminal 110 displays the report input form screen 260 on the display unit 117 based on the report input form information. For example, if the language set by the user terminal 110 is English, even if the user photographs an object written in Japanese (for example, an exhibition panel), the report input form screen 260 displays English. The displayed image of the object is displayed. For example, when the language set by the user terminal 110 is Japanese, even if the user photographs an object written in English (for example, an exhibition panel), the report input form screen 260 displays Japanese An image of the word-written object is displayed.
  • step S1001 the user taps the additional shooting button 267 on the report input form screen 260.
  • the screen displayed on the user terminal 110 transitions from the report input form screen 260 to the shooting screen 230.
  • the user adjusts the direction of the user terminal 110 to a subject to be additionally photographed in relation to the target while viewing the preview screen 231 on the photographing screen 230, and taps the shutter button 232.
  • step S1002 the user terminal 110 photographs the subject and holds image data of the subject related to the target.
  • the processing from step S1001 to step S1002 is repeatedly performed every time the user photographs the subject related to the target.
  • the report input form screen 260 can display a plurality of images of the subject related to the object in addition to the image of the object.
  • step S1003 the user taps the comment input button 262 on the report input form screen 260.
  • the screen displayed on the user terminal 110 transitions from the report input form screen 260 to the comment input form screen 270.
  • the user inputs a text comment of the target object into the comment edit field 271 via the operation unit 118.
  • the user taps the voice input button 272 to input a voice comment on the target.
  • the contents of the text comment of the object and the contents of the voice comment of the object can be arbitrarily determined by the user.
  • step S1004 the user terminal 110 holds the text comment of the target or the voice comment of the target.
  • the processing from step S1003 to step S1004 is repeated each time the user inputs a comment on the target object.
  • step S1005 the user taps a predetermined tag selection button 263 on the report input form screen 260.
  • the tag of the target object is “awesome”
  • the user taps the “awesome” tag selection button 263.
  • the tag of the object is “not good”
  • the user taps the “not good” tag selection button 263.
  • the tag of the target object is “popular”
  • the user taps the “popular” tag selection button 263.
  • the user taps a “newly created” tag selection button 263 and then, via the operation unit 118, displays a tag of the object in a tag editing field (not shown). Enter a new tag.
  • step S1006 the user terminal 110 holds the tag of the object.
  • the number of retained tags is not particularly limited.
  • the processing from step S1005 to step S1006 is repeated each time the user selects the tag of the target object.
  • the user terminal 110 displays the tag selection button 263 tapped by the user and the tag not tapped by the user, for example, by changing the color of the display of the tag selection button 263 tapped by the user.
  • the selection button 263 is displayed so that the user can see and distinguish it. Thus, the user can confirm the tapped tag selection button 263.
  • step S1007 when the user taps the recording start button 261 on the report input form screen 260, recording starts.
  • the user inputs a voice memo of the object for a predetermined time using a microphone, for example.
  • the recording time is preset by the user terminal 110, but can be arbitrarily changed according to the length of the voice memo of the target object.
  • the contents of the voice memo of the object can be arbitrarily determined by the user.
  • step S1008 the user terminal 110 holds the voice memo of the target.
  • the processing from step S1007 to step S1008 is repeated each time the user records the voice memo of the target object.
  • step S1009 the user taps the completion button 264 on the report input form screen 260.
  • the editing operation of the user is completed.
  • the processing from step S1001 to step S1002 additional shooting
  • the processing from step S1003 to step S1004 component input
  • the processing from step S1005 to step S1006 tag selection
  • the processing from step S1007 to step S1008 Voice memo recording
  • step S1010 the user terminal 110 reads the additional image data of the subject related to the target, the comment data of the target, the tag data of the target, the voice memo data of the target, the recognition result ID of the target, and the language setting data. , Etc., to the site information server 120 via the network 50.
  • the language setting data is set by the user terminal 110.
  • step S1011 the site information server 120 receives the additional image data of the subject related to the target, the comment data of the target, the tag data of the target, the voice memo data of the target, and the voice memo data of the target received from the user terminal 110.
  • Various data such as a recognition result ID and language setting data are transmitted to the DB server 130.
  • step S1012 the DB server 130 extracts the relevant information of the target based on the recognition result ID of the target and the language setting data received from the site information server 120.
  • the object related information corresponds to a predetermined language set by the user terminal 110.
  • the DB server 130 generates a report ID of the object, and adds additional image data of the object related to the object, comment data of the object, tag data of the object, voice memo data of the object, and audio data of the object.
  • Various data such as a recognition result ID and language setting data are stored in association with the report ID.
  • the report ID of the target is an ID for identifying the report of the target, and is set for each report.
  • the DB server 130 performs a text conversion process by voice recognition based on the voice memo data of the object, and holds the conversion result.
  • the DB server 130 performs a text conversion process based on the comment data of the target object, the tag data of the target object, and the voice memo data of the target object, and performs a morphological analysis process on the text data that has been subjected to the text conversion process. To extract keywords related to the object, and hold the extraction result.
  • step S1013 the DB server 130 transmits the target object recognition result ID and the relevant information of the target object corresponding to the language setting data to the site information server 120.
  • step S1014 the site information server 120 generates report completion screen information including the relevant information of the object received from the DB server 130.
  • the report completion screen information corresponds to a predetermined language set by the user terminal 110.
  • step S1015 the site information server 120 transmits the report completion screen information to the user terminal 110 via the network 50.
  • step S1016 the user terminal 110 displays a report completion screen 280 on the display unit 117 based on the report completion screen information.
  • the report completion screen 280 displays the English notation.
  • the image of the target object is displayed.
  • the report completion screen 280 displays Japanese
  • the displayed image of the object is displayed.
  • the document creation support method it is possible to create a report to which information other than the specific information of the target and the editing information of the target according to the operation of the user is added. become.
  • a computer can be suitably used to function as the above-described document creation support device, and such a computer stores a program describing processing contents for realizing each function of the document creation support device in a database of the computer. It can be realized by storing the program and reading and executing the program by the CPU of the computer.
  • the program may be recorded on a computer-readable medium. If a computer-readable medium is used, it can be installed in a computer.
  • the computer-readable medium on which the program is recorded may be a non-transitory recording medium.
  • the non-transitory recording medium is not particularly limited, but may be, for example, a recording medium such as a CD-ROM or a DVD-ROM.
  • Network 100 Document Creation Support System 110 User Terminal (Document Creation Support Device) 111 Specific information acquisition unit 112 Recognition result information acquisition unit 113 Related information acquisition unit 114 Editing information acquisition unit 115 Control unit 116 Storage unit 117 Display unit 118 Operation unit 120 Site information server 130 DB server (database server) 140 recognition server 150 recognition engine

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

文書作成支援装置(110)は、対象物の特定情報に基づいて、前記対象物の認識結果情報を取得する認識結果情報取得部(112)と、利用者の操作に応じた前記対象物の編集情報を取得する編集情報取得部(114)と、前記認識結果情報及び前記編集情報に基づいて、前記対象物の関連情報を取得する関連情報取得部(113)と、前記関連情報を含む画面情報に基づいて、前記対象物に関する報告書を表示する表示部(117)と、を備える。

Description

文書作成支援装置、文書作成支援システム、及びプログラム
 本発明は、文書作成支援装置、文書作成支援システム、及びプログラムに関する。
 近年、イベントで展示される展示物に関する報告書、保守作業の対象となる機器に関する報告書などを、スマートフォンやタブレットPC(personal computer)などのスマートデバイスで作成する機運が高まってきている。スマートデバイスは、テキスト入力のみならず、撮影や音声入力が可能であるため、スマートデバイスを利用して、対象物(例えば、展示物、機器、など)に関する報告書を作成することで、利用者にとって利便性の向上が図られている。
 例えば、特許文献1には、画像情報、音声情報、テキスト情報、などのマルチモーダル情報が互いに対応付けされた報告書を、表示或いは印刷することが可能な報告書作成装置が開示されている。
特開2000-259750号公報
 しかしながら、従来の技術では、利用者がカメラで撮影した画像情報や音声入力した音声情報などに基づいて報告書を作成することはできるものの、当該情報以外の情報を付加して、報告書を作成することは困難であった。従って、付加価値の高い報告書を作成するためには、利用者の時間や手間を要してしまうという問題があった。
 かかる事情に鑑みてなされた本発明の目的は、利用者の時間や手間を要することなく、付加価値の高い報告書を作成することが可能な文書作成支援装置、文書作成支援システム、及びプログラムを提供することにある。
 上記課題を解決するため、本発明に係る文書作成支援装置は、対象物の特定情報に基づいて、前記対象物の認識結果情報を取得する認識結果情報取得部と、利用者の操作に応じた前記対象物の編集情報を取得する編集情報取得部と、前記認識結果情報及び前記編集情報に基づいて、前記対象物の関連情報を取得する関連情報取得部と、前記関連情報を含む画面情報に基づいて、前記対象物に関する報告書を表示する表示部と、を備えることを特徴とする。
 また、上記課題を解決するため、本発明に係る文書作成支援システムは、対象物の特定情報に基づいて、前記対象物の認識結果情報を決定する認識エンジンと、前記認識結果情報と利用者の操作に応じた前記対象物の編集情報とを関連付けて蓄積し、前記認識結果情報及び前記編集情報に基づいて、前記対象物の関連情報を抽出するデータベースサーバと、前記関連情報を含む画面情報を生成する現場情報サーバと、前記画面情報に基づいて、前記対象物に関する報告書を表示する利用者端末と、を備えることを特徴とする。
 また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記要約文表示装置として機能させることを特徴とする。
 本発明によれば、利用者の時間や手間を要することなく、付加価値の高い報告書を作成することが可能となる。
本発明の一実施形態に係る文書作成支援システムの構成の一例を示すブロック図である。 本発明の一実施形態に係る文書作成支援装置の構成の一例を示すブロック図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援装置における表示部の表示画面の一例を示す図である。 本発明の一実施形態に係る文書作成支援方法の一例を示すフローチャートである。 本発明の一実施形態に係る文書作成支援方法の一例を示すフローチャートである。
 以下、本発明の一実施形態について、図面を参照して詳細に説明する。
<文書作成支援システム100の構成>
 図1を参照して、本実施形態に係る文書作成支援システム100について説明する。図1は、本実施形態に係る文書作成支援システム100の構成の一例を示す図である。
 図1に示すように、文書作成支援システム100は、利用者端末(文書作成支援装置)110と、現場情報サーバ120と、DBサーバ(データベースサーバ)130と、認識サーバ140と、認識エンジン150と、を備える。利用者端末110は、ネットワーク50を介して、現場情報サーバ120或いは認識サーバ140と通信する。
 利用者端末110は、利用者が保持する携帯端末であり、例えば、スマートフォンやタブレットPCなどのスマートデバイスである。利用者は、利用者端末110を利用して、例えば、イベントで展示される展示物、保守作業の対象となる機器、など対象物に関する各種の報告書を作成する。なお、本実施形態では、報告書が、利用者端末110の表示部に表示される場合を一例に挙げて説明するが、報告書は利用者端末110の表示部に表示された後、紙などに印刷されてもよい。
 利用者端末110は、各種のセンサから対象物の特定情報を取得し、当該特定情報を、ネットワーク50を介して、認識サーバ140へと送信する。対象物の特定情報とは、対象物を特定するための情報であり、例えば、画像情報、音声情報、位置情報、などである。センサは、その種類が特に限定されるものではなく、例えば、カメラ、マイク、ビーコンセンサ、などである。センサは、利用者端末110に搭載されていてもよいし、対象物に設けられていてもよい。
 利用者端末110は、対象物の特定情報に基づいて、対象物の認識結果情報を、ネットワーク50を介して、認識サーバ140から受信し、一時的に保存する。対象物の認識結果情報とは、例えば、対象物ごとに設定される対象物の認識結果IDである。
 利用者端末110は、利用者の操作に応じた対象物の編集情報を取得し、当該編集情報を、ネットワーク50を介して、現場情報サーバ120へと送信する。対象物の編集情報とは、利用者の編集操作に応じて編集される対象物の情報であり、例えば、利用者の追加撮影操作に応じた対象物の追加画像情報、利用者のコメント入力操作に応じた対象物のコメント情報、利用者のタグ選択操作に応じた対象物のタグ情報、或いは、利用者の音声録音操作に応じた対象物の音声メモ情報、などである、
 利用者端末110は、対象物の認識結果情報及び対象物の編集情報に基づいて、対象物の関連情報を、ネットワーク50を介して、現場情報サーバ120から受信する。対象物の関連情報とは、対象物の特定情報や対象物の編集情報以外の情報であり、報告書の付加価値を高める情報である。例えば、対象物の統計情報、作成済みの報告書に関する情報、などが挙げられる。
 利用者端末110は、対象物の特定情報、対象物の編集情報、及び対象物の関連情報を含む画面情報を、ネットワーク50を介して、現場情報サーバ120から受信し、当該画面情報に基づいて、対象物に関する報告書を表示する。対象物に関する報告書には、例えば、対象物の特定情報に基づいて、具体的には対象物の画像が、対象物の編集情報に基づいて、具体的には対象物の追加画像や音声メモが、対象物の関連情報に基づいて、具体的には対象物の概要や利用シーンが、表示される(図6参照)。
 現場情報サーバ120は、対象物の認識結果情報、対象物の編集情報、などを、ネットワーク50を介して、利用者端末110から受信し、当該認識結果情報、当該編集情報、などを、DBサーバ130へと送信する。また、現場情報サーバ120は、対象物の認識結果情報に対応する対象物の関連情報を、DBサーバ130から受信し、対象物の特定情報、対象物の編集情報、及び対象物の関連情報を含む画面情報を生成し、当該画面情報を、ネットワーク50を介して、利用者端末110へと送信する。例えば、現場情報サーバ120は、対象物の画像情報や対象物の音声メモ情報以外に、対象物の概要や利用シーンを示す情報を含む画面情報を生成する。
 DBサーバ130は、対象物の認識結果情報、対象物の編集情報、などを、現場情報サーバ120から受信し、対象物の認識結果情報と対象物の編集情報とを関連付けて蓄積する。また、DBサーバ130は、対象物の認識結果情報、対象物の編集情報、などに基づいて、対象物の認識結果情報に対応する対象物の関連情報を抽出する。また、DBサーバ130は、当該関連情報を、現場情報サーバ120へと送信する。
 例えば、DBサーバ130は、対象物の認識結果IDと、対象物の追加画像情報、対象物のテキストコメント情報或いは対象物の音声コメント情報、対象物のタグ情報、対象物の音声メモ情報、などの情報とを関連付けて蓄積する。
 DBサーバ130は、対象物の編集情報に基づいて、対象物に関連するキーワードを抽出し、対象物の統計情報として蓄積する。例えば、DBサーバ130は、対象物のテキストコメント情報或いは対象物の音声コメント情報、対象物のタグ情報、対象物の音声メモ情報、などに対してテキスト変換処理を行い、更に、形態素解析処理を行って、対象物に関連するキーワードを抽出し、対象物の統計情報として蓄積する。
 DBサーバ130は、対象物の認識結果情報と利用者(他利用者)の属性情報とを関連付けて、対象物の統計情報として蓄積する。なお、利用者(他利用者)の属性情報は、利用者(他利用者)端末IDなどに基づいて、各端末と関連付けられて、蓄積される。
 例えば、DBサーバ130は、対象物の認識結果IDと、利用者の業種情報、利用者の職種情報、利用者の職位情報、などの情報とを関連付けて、利用者の属性ごとにランキングされた対象物のタイトル名を示す情報を、対象物の統計情報として蓄積する。
 DBサーバ130は、上述した対象物の統計情報、対象物に関連するキーワード、利用者の属性情報、他利用者の属性情報、などを保持する。
 認識サーバ140は、対象物の特定情報を、ネットワーク50を介して、利用者端末110から受信し、当該特定情報を、認識エンジン150へと送信する。また、認識サーバ140は、対象物の認識結果情報を、認識エンジン150から受信し、当該認識結果情報を、ネットワーク50を介して、利用者端末110へと送信する。
 認識エンジン150は、対象物の特定情報を、認識サーバ140から受信し、当該特定情報と予め登録されている対象物の特定情報とを比較して、対象物の認識結果情報を決定し、当該認識結果情報を、認識サーバ140へと送信する。認識エンジン150には、所定の対象物の特定情報、所定の対象物の認識結果、などが予め登録されている。
 本実施形態に係る文書作成支援システム100によれば、認識エンジン150が対象物の特定情報に基づいて対象物の認識結果情報を決定し、DBサーバ130が当該認識結果情報及び利用者の操作に応じた対象物の編集情報に基づいて対象物の関連情報を抽出し、現場情報サーバ120が対象物の関連情報を含む画面情報を生成し、利用者端末110が当該画面情報を受信する。これにより、対象物の特定情報及び利用者の操作に応じた対象物の編集情報以外の情報(対象物の関連情報)を付加した報告書を作成することができるため、利用者の時間や手間を要することなく、付加価値の高い報告書を作成することが可能な文書作成支援システム100を実現できる。
<利用者端末110の構成>
 図2を参照して、本実施形態に係る利用者端末110について詳細に説明する。図2は、本実施形態に係る利用者端末110の構成の一例を示す図である。
 図2に示すように、利用者端末110は、特定情報取得部111、認識結果情報取得部112と、関連情報取得部113、編集情報取得部114、制御部115、記憶部116、表示部117、操作部118、などを備える。
 特定情報取得部111は、各種のセンサから対象物の特定情報を取得する。例えば、特定情報取得部111は、利用者端末110に搭載されるカメラから対象物の画像情報を取得する。例えば、特定情報取得部111は、利用者端末110に搭載されるマイクから対象物の音声情報を取得する。例えば、特定情報取得部111は、対象物に設けられるビーコンセンサから対象物の位置情報を取得する。
 認識結果情報取得部112は、対象物の特定情報に基づいて、対象物の認識結果情報を取得する。例えば、利用者端末110は、対象物の画像情報、対象物の音声情報、対象物の位置情報などに基づいて、対象物の認識結果IDを取得する。
 関連情報取得部113は、対象物の認識結果情報及び対象物の編集情報に基づいて、対象物の関連情報を取得する。例えば、関連情報取得部113は、対象物の認識結果ID(対象物の認識結果情報)、及び、対象物の追加画像情報、対象物のテキストコメント情報或いは対象物の音声コメント情報、対象物のタグ情報、対象物の音声メモ情報などの情報(対象物の編集情報)に基づいて、対象物の概要や利用シーンを示す情報(対象物の関連情報)を取得する。
 編集情報取得部114は、利用者の操作に応じた対象物の編集情報を取得する。例えば、編集情報取得部114は、利用者の追加撮影操作に応じた対象物の追加画像情報を取得する。例えば、編集情報取得部114は、利用者のコメント入力操作に応じた対象物のテキストコメント情報或いは対象物の音声コメント情報を取得する。例えば、編集情報取得部114は、利用者のタグ選択操作に応じた対象物のタグ情報を取得する。例えば、編集情報取得部114は、利用者の音声メモ録音操作に応じた対象物の音声メモ情報を取得する。
 制御部115は、認識結果情報取得部112と、関連情報取得部113、編集情報取得部114、などを介して、利用者端末110と現場情報サーバ120或いは認識サーバ140との間で送受信される情報を制御する。また、制御部115は、例えば、CPU、メモリ等を含み、利用者端末110の各部を制御する。
 制御部115は、対象物の特定情報、対象物の編集情報、及び対象物の関連情報を互いに関連付け、所定のデザインフォーマットを適用して、対象物の特定情報、対象物の編集情報、及び対象物の関連情報を含む画面情報を整形する。
 制御部115は、各種の情報を、表示部117へと出力し、所定の画面を、表示部117に表示させる。例えば、制御部115は、所定のデザインフォーマットにより整形した画面情報を、表示部117へと出力し、対象物に関する報告書を、表示部117に表示させる。また、制御部115は、表示部117に表示させる画面の言語(例えば、日本語、英語、など)を適宜設定する。
 制御部115は、利用者のデザイン変更操作に応じて、報告書のデザインを変更する。報告書のデザインは、任意のデザインとすることができ、例えば、タウン雑誌風のデザイン、カルチャー雑誌風のデザイン、スポーツ新聞紙風のデザイン、などが挙げられる。また、制御部115は、利用者の表紙画像変更操作に応じて、報告書の表紙画像を変更する。なお、報告書に適用される各種のデザイン、報告書の表紙に適用される各種の画像、などは、予め記憶部116に記憶されている。
 記憶部116は、例えば、ハードディスクなどの情報を記憶する機能を有するものであればよい。記憶部116は、例えば、対象物の認識結果情報、報告書に適用される各種のデザイン、報告書の表紙に適用される各種の画像、各種のプログラムやデータ、などを記憶する。
 表示部117は、画像や文字などの表示が可能であればどのようなデバイスでもよく、例えば、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ、などである。 
 表示部117は、制御部115から入力される各種の情報に基づいて、所定の画面を、表示する。例えば、表示部117は、制御部115によって整形された画面情報に基づいて、対象物に関する報告書を表示する。なお、報告書は、その表示形態が、特に限定されるものではなく、例えば、複数の報告書が同じ画面に一括で表示される表示形態であってもよいし、複数の報告書の内容がランキング形式或いはグクラウド形式で表示される表示形態であってもよい。
 表示部117は、報告書の他、例えば、後述する利用者の属性設定画面(図3参照)、利用者がカメラを起動させるための起動画面(図4(A)参照)、利用者が対象物を撮影するための撮影画面(図4(B)参照)、利用者の報告書確認画面(図4(C)参照)、他利用者の報告書一覧確認画面(図4(D)参照)、報告書入力フォーム画面(図5(A)参照)、コメント入力フォーム画面(図5(B)参照)、利用者が編集操作を行った後の報告書完成画面(図6参照)、報告書表紙画面(図7参照)、などを表示する。
 操作部118は、利用者による各種の操作が可能であればどのようなデバイスでもよく、例えば、タッチパネル、ソフトウェアキーボード、などである。利用者は、操作部118を用いて、あらゆる操作を行うことで、対象物に関する報告書を任意に作成することができる。
 本実施形態に係る利用者端末110によれば、各種センサから対象物の特定情報を取得することを契機として、対象物の認識結果情報を取得し、利用者の操作に応じた対象物の編集情報を取得し、これらの情報に基づいて、対象物の関連情報を取得することで、対象物の特定情報、対象物の編集情報、対象物の関連情報、などを関連付けて報告書として表示することができる。これにより、対象物の特定情報及び利用者の操作に応じた対象物の編集情報以外の情報を付加した報告書を作成することができるため、利用者の時間や手間を要することなく、付加価値の高い報告書を作成することが可能な利用者端末110を実現できる。
<表示部の表示画面>
 図3乃至図10を参照して、本実施形態に係る利用者端末110における表示部117の表示画面の一例について説明する。利用者が報告書を作成する際、表示部117には、種々の画面が表示される。
 図3は、利用者の属性設定画面210の一例を示す図である。
 利用者の属性設定画面210は、例えば、業種ボタン211、職種ボタン212、役職ボタン213、完了ボタン214、などを含む。業種ボタン211は、例えば、ソフトウェア関係、ハードウェア関係、システムインテグレータ、通信事業、など、利用者が自身の業種を設定するボタンである。職種ボタン212は、例えば、企画、技術、営業、事務、など、利用者が自身の職種を設定するボタンである。役職ボタン213は、例えば、経営者、役員、部長、課長、など、利用者が自身の役職を設定するボタンである。完了ボタン214は、利用者属性設定を完了するボタンである。
 利用者が、利用者端末110を起動させると、表示部117には、利用者の属性設定画面210が表示される。利用者が、業種ボタン211、職種ボタン212、役職ボタン213を、それぞれタップして、自身の業種、自身の職種、自身の役職を選択し、完了ボタン214をタップすると、利用者端末110において、利用者の属性が設定される。
 図4(A)は、利用者がカメラを起動させるための起動画面220の一例を示す図である。図4(B)は、利用者が対象物を撮影するための撮影画面230の一例を示す図である。図4(C)は、利用者の報告書確認画面240の一例を示す図である。図4(D)は、他利用者の報告書一覧確認画面250の一例を示す図である。
 起動画面220は、例えば、カメラ起動のための操作エリア221、利用者の報告書閲覧アイコン222、他利用者の報告書閲覧アイコン223、他メニューボタン224、などを含む。撮影画面230は、例えば、プレビュー画面231、シャッターボタン232などを含む。利用者の報告書確認画面240は、例えば、報告書表示画面241、デザイン変更ボタン242、表紙画像変更ボタン243、他者共有ボタン244、などを含む。他利用者の報告書一覧確認画面250は、他利用者の報告書表紙サムネイル251、他利用者の報告書作成日時252、他利用者の属性253、などを含む。
 利用者が、起動画面220において、カメラ起動のための操作エリア221をタップすると、表示部117には、撮影画面230が表示される。利用者が、撮影画面230において、プレビュー画面231を見ながら、対象物に利用者端末110の向きを合わせて、シャッターボタン232をタップすると、対象物が撮影される。
 利用者が、起動画面220において、利用者の報告書閲覧アイコン222をタップすると、表示部117には、利用者の報告書確認画面240が表示される。例えば、利用者は、利用者の報告書確認画面240内の報告書表示画面241において、自身が作成した報告書を確認することができる。例えば、利用者は、デザイン変更ボタン242をタップして、報告書の各ページにおけるデザインを変更することができる。例えば、利用者は、表紙画像変更ボタン243をタップして、報告書の表紙における表紙画像を変更することができる。例えば、利用者は、他者共有ボタン244をタップして、自身が作成した報告書を他利用者に共有させることができる。
 利用者が、起動画面220において、他利用者の報告書閲覧アイコン223をタップすると、表示部117には、他利用者の報告書一覧確認画面250が表示される。報告書一覧確認画面250には、他利用者の報告書表紙サムネイル、他利用者の報告書作成日時、他利用者の業種、他利用者の職種、他利用者の役職、などが一覧で表示される。このため、利用者は、他利用者の報告書一覧確認画面250において、複数の他利用者の報告書を一覧で確認することができる。
 更に、利用者が、他利用者の報告書一覧確認画面250内の特定の他利用者の報告書表紙サムネイル251をタップすると、表示部117には、他利用者の報告書確認画面が表示される。利用者が、他利用者の報告書確認画面において、他者共有ボタン244をタップすると、他利用者は、他利用者の報告書一覧確認画面250を介して、利用者が作成した報告書を閲覧することができる。
 図5(A)は、利用者が編集操作を行うための報告書入力フォーム画面260の一例を示す図である。図5(B)は、利用者がコメント入力操作を行うためのコメント入力フォーム画面270の一例を示す図である。
 報告書入力フォーム画面260は、例えば、録音開始ボタン261、コメント入力ボタン262、タグ選択ボタン263、完了ボタン264、表示欄265、表示領域266、追加撮影ボタン267、などを含む。コメント入力フォーム画面270は、例えば、コメント編集欄271、音声入力ボタン272、OKボタン273、などを含む。
 報告書入力フォーム画面260において、録音開始ボタン261、コメント入力ボタン262、タグ選択ボタン263、完了ボタン264、表示欄265、表示領域266、追加撮影ボタン267、などは、利用者端末110によって設定された言語で表示される。また、コメント入力フォーム画面270において、コメント編集欄271、音声入力ボタン272、OKボタン273、などは、利用者端末110によって設定された言語で表示される。
 利用者は、報告書入力フォーム画面260内の表示欄265において、例えば、対象物の関連情報に基づいて、対象物のカテゴリ名や対象物のタイトル名などを確認することができる。また、利用者は、報告書入力フォーム画面260内の表示領域266において、例えば、対象物の特定情報に基づいて、対象物の画像を、対象物の編集情報に基づいて、対象物に関連する被写体の追加画像を確認することができる。
 利用者が、報告書入力フォーム画面260において、追加撮影ボタン267をタップすると、表示部117には、撮影画面230が表示される。利用者が、撮影画面230において、プレビュー画面231を見ながら、対象物に関連する被写体に利用者端末110の向きを合わせて、シャッターボタン232をタップすると、対象物に関連する被写体が撮影される。
 利用者が、報告書入力フォーム画面260において、タグ選択ボタン263をタップすると、所定のタグが報告書に追加される。タグは、利用者端末110において予め設定されていてもよいし、利用者が利用者端末110を用いて新たに設定してもよい。
 利用者が、報告書入力フォーム画面260において、録音開始ボタン261をタップすると、録音が開始され、所定時間音声メモを録音すると、音声メモが報告書に追加される。
 利用者が、報告書入力フォーム画面260において、コメント入力ボタン262をタップすると、表示部117には、コメント入力フォーム画面270が表示される。利用者が、操作部118を用いて、コメント編集欄271に、テキストコメントを入力し、OKボタン273をタップすると、テキストコメントが報告書に追加される。更に、利用者が、コメント入力フォーム画面270において、音声入力ボタン272をタップして、音声コメントを入力し、OKボタン273をタップすると、音声コメントが報告書に追加される。
 図6は、利用者が編集操作を行った後の報告書完成画面280の一例を示す図である。
 報告書完成画面280には、対象物の関連情報に基づいて、具体的には、対象物のカテゴリ名、対象物のタイトル名、対象物の概要、対象物の利用シーン(281)などが、対象物の特定情報に基づいて、具体的には、対象物の画像(282)などが、対象物の編集情報に基づいて、具体的には、対象物の音声メモ(283)、対象物のテキストコメント(284)、対象物のタグ(285)、対象物に関連する被写体の画像(286)、などが利用者端末110によって設定された言語で表示される。
 利用者が、報告書完成画面280において、音声再生ボタン283をタップすると、音声メモが再生される。また、利用者が、レポートを見るボタン286をタップすると、表示部117には、利用者の報告書確認画面240が表示され、利用者が作成した報告書を確認すると、表示部117には、再び、起動画面220が表示される。
 図7は、報告書の表紙画面310の一例を示す図である。報告書の表紙画面310には、利用者が、複数のデザインの中から選択したデザインが表示される。例えば、利用者が、報告書確認画面240において、デザイン変更ボタン242をタップして、報告書の表紙デザインを、カルチャー雑誌風に変更すると、報告書の表紙画面310には、カルチャー雑誌風の表紙画面が表示される。
 図8は、報告書画面320の一例を示す図である。利用者が、報告書完成画面280において、レポートを見るボタン286をタップすると、表示部117には、複数の報告書が配列された報告書画面320が表示される。利用者は、報告書画面320において、複数の報告書を一度に確認することができる。
 図9は、報告書画面330の一例を示す図である。利用者が、報告書完成画面280において、レポートを見るボタン286をタップすると、表示部117には、利用者の業種ごとに、対象物のカテゴリ名がランキング形式でまとめられた報告書画面330が表示される。利用者は、報告書画面330において、利用者の業種ごとに、利用者の業種と対象物のカテゴリ名との関係を確認することができる。
 図10は、報告書画面340の一例を示す図である。利用者が、報告書完成画面280において、レポートを見るボタン286をタップすると、表示部117には、対象物のカテゴリ名ごとに、対象物のタグがタグクラウド形式でまとめられた報告書画面340が表示される。利用者は、報告書画面340において、対象物のカテゴリ名ごとに、対象物との関連が強いタグと対象物との関連が弱いタグとをそれぞれ確認することができる。
<文書作成支援方法>
 図11及び図12を参照して、本実施形態に係る文書作成支援システム100における文書作成支援方法について説明する。図11は、本実施形態に係る文書作成支援システム100における文書作成支援方法の一例を示すフローチャートであり、利用者が撮影操作を行ってから、利用者端末110の表示部117が報告書入力フォーム画面260を表示するまでの処理を示している。図12は、本実施形態に係る文書作成支援システム100における文書作成支援方法の一例を示すフローチャートであり、利用者が編集操作を行ってから、利用者端末110の表示部117が報告書完成画面280を表示するまでの処理を示している。
 まず、図11を参照して、利用者が撮影操作を行ってから、利用者端末110の表示部117が報告書入力フォーム画面260を表示するまでの処理の一例について説明する。
 ステップS1において、利用者は、起動画面220において、カメラ起動のための操作エリア221をタップする。利用者端末110に表示される画面は、起動画面220から撮影画面230へと遷移する。利用者は、撮影画面230において、プレビュー画面231を見ながら、対象物に利用者端末110の向きを合わせて、シャッターボタン232をタップする。
 ステップS2において、利用者端末110は、対象物を撮影し、対象物の画像データを保持する。なお、ステップS1からステップS2までの処理は、利用者が対象物を撮影するごとに、繰り返し行われる。
 ステップS3において、利用者端末110は、対象物の画像データを、ネットワーク50を介して、認識サーバ140へと送信する。
 ステップS4において、認識サーバ140は、利用者端末110から受信した対象物の画像データを、認識エンジン150へと送信する。
 ステップS5において、認識エンジン150は、認識サーバ140から受信した対象物の画像データと予め登録されている対象物の画像データとを比較する。そして、認識エンジン150は、対象物の画像データに基づいて、対象物の認識結果IDを決定する。
 ステップS6において、認識エンジン150は、対象物の認識結果IDを、認識サーバ140へと送信する。
 ステップS7において、認識サーバ140は、認識エンジン150から受信した対象物の認識結果IDを、ネットワーク50を介して、利用者端末110へと送信する。
 ステップS8において、利用者端末110は、認識サーバ140から受信した対象物の認識結果IDを、一時的に保持する。
 ステップS9において、利用者端末110は、対象物の認識結果ID及び言語設定データを、ネットワーク50を介して、現場情報サーバ120へと送信する。言語設定データは、利用者端末110によって設定される。
 ステップS10において、現場情報サーバ120は、利用者端末110から受信した対象物の認識結果ID及び言語設定データを、DBサーバ130へと送信する。
 ステップS11において、DBサーバ130は、現場情報サーバ120から受信した対象物の認識結果ID及び言語設定データに基づいて、対象物の関連情報を抽出する。対象物の関連情報は、利用者端末110によって設定される所定の言語に対応している。
 ステップS12において、DBサーバ130は、対象物の認識結果ID及び言語設定データに対応する対象物の関連情報を、現場情報サーバ120へと送信する。
 ステップS13において、現場情報サーバ120は、DBサーバ130から受信した対象物の関連情報を含む報告書入力フォーム情報を生成する。報告書入力フォーム情報は、利用者端末110によって設定される所定の言語に対応している。
 ステップS14において、現場情報サーバ120は、報告書入力フォーム情報を、ネットワーク50を介して、利用者端末110へと送信する。
 ステップS15において、利用者端末110は、報告書入力フォーム情報に基づいて、表示部117に、報告書入力フォーム画面260を表示する。
 例えば、利用者端末110によって設定される言語が英語である場合、利用者が日本語表記された対象物(例えば、展示パネルなど)を撮影しても、報告書入力フォーム画面260には、英語表記された対象物の画像が表示される。例えば、利用者端末110によって設定される言語が日本語である場合、利用者が英語表記された対象物(例えば、展示パネルなど)を撮影しても、報告書入力フォーム画面260には、日本語表記された対象物の画像が表示される。
 次に、図12を参照して、利用者が編集操作を行ってから、利用者端末110の表示部117が報告書完成画面280を表示するまでの処理の一例について説明する。
 ステップS1001において、利用者は、報告書入力フォーム画面260において、追加撮影ボタン267をタップする。利用者端末110に表示される画面は、報告書入力フォーム画面260から撮影画面230へと遷移する。利用者は、撮影画面230において、プレビュー画面231を見ながら、対象物に関連して追加で撮影したい被写体に利用者端末110の向きを合わせて、シャッターボタン232をタップする。
 ステップS1002において、利用者端末110は、当該被写体を撮影し、対象物に関連する被写体の画像データを保持する。ステップS1001からステップS1002までの処理は、利用者が対象物に関連する被写体を撮影するごとに、繰り返し行われる。なお、報告書入力フォーム画面260には、対象物の画像の他、対象物に関連する被写体の画像を複数表示させることが可能である。
 ステップS1003において、利用者は、報告書入力フォーム画面260において、コメント入力ボタン262をタップする。利用者端末110に表示される画面は、報告書入力フォーム画面260からコメント入力フォーム画面270へと遷移する。利用者は、操作部118を介して、コメント編集欄271に、対象物のテキストコメントを入力する。或いは、利用者は、音声入力ボタン272をタップして、対象物の音声コメントを入力する。なお、対象物のテキストコメントの内容及び対象物の音声コメントの内容は、利用者が任意に決定することが可能である。
 ステップS1004において、利用者端末110は、対象物のテキストコメント、或いは、対象物の音声コメントを保持する。ステップS1003からステップS1004までの処理は、利用者が対象物のコメントを入力するごとに、繰り返し行われる。
 ステップS1005において、利用者は、報告書入力フォーム画面260において、所定のタグ選択ボタン263をタップする。例えば、対象物のタグが「すごい」である場合、利用者は、「すごい」のタグ選択ボタン263をタップする。例えば、対象物のタグが「イマイチ」である場合、利用者は、「イマイチ」のタグ選択ボタン263をタップする。例えば、対象物のタグが「人気」である場合、利用者は、「人気」のタグ選択ボタン263をタップする。例えば、対象物のタグを新たに追加する場合、利用者は、「新規作成」のタグ選択ボタン263をタップした後、操作部118を介して、タグ編集欄(不図示)に、対象物のタグを新たに入力する。
 ステップS1006において、利用者端末110は、対象物のタグを保持する。保持されるタグの数は、特に限定されるものではない。ステップS1005からステップS1006までの処理は、利用者が対象物のタグを選択するごとに、繰り返し行われる。
 なお、利用者端末110は、例えば、利用者がタップしたタグ選択ボタン263の表示を、色を変えて表示するなどにより、利用者がタップしたタグ選択ボタン263と利用者がタップしていないタグ選択ボタン263とを利用者が見て区別できるように表示する。これにより、利用者は、タップしたタグ選択ボタン263を確認することができる。
 ステップS1007において、利用者は、報告書入力フォーム画面260において、録音開始ボタン261をタップすると録音が開始される。利用者は、例えば、マイクなどを用いて、所定時間、対象物の音声メモを入力する。録音時間は、利用者端末110によって予め設定されているが、対象物の音声メモの長さなどに合わせて、任意に変更可能である。なお、対象物の音声メモの内容は、利用者が任意に決定することが可能である。
 ステップS1008において、利用者端末110は、対象物の音声メモを保持する。ステップS1007からステップS1008までの処理は、利用者が対象物の音声メモを録音するごとに、繰り返し行われる。
 ステップS1009において、利用者は、報告書入力フォーム画面260において、完了ボタン264をタップする。これにより、利用者の編集操作が完了する。なお、ステップS1001からステップS1002までの処理(追加撮影)、ステップS1003からステップS1004までの処理(コメント入力)、ステップS1005からステップS1006までの処理(タグ選択)、ステップS1007からステップS1008までの処理(音声メモ録音)は、順不同で実施される。
 ステップS1010において、利用者端末110は、対象物に関連する被写体の追加画像データ、対象物のコメントデータ、対象物のタグデータ、対象物の音声メモデータ、対象物の認識結果ID、言語設定データ、などの各種のデータを、ネットワーク50を介して、現場情報サーバ120へと送信する。言語設定データは、利用者端末110によって設定される。
 ステップS1011において、現場情報サーバ120は、利用者端末110から受信した対象物に関連する被写体の追加画像データ、対象物のコメントデータ、対象物のタグデータ、対象物の音声メモデータ、対象物の認識結果ID、言語設定データ、などの各種のデータを、DBサーバ130へと送信する。
 ステップS1012において、DBサーバ130は、現場情報サーバ120から受信した対象物の認識結果ID及び言語設定データに基づいて、対象物の関連情報を抽出する。対象物の関連情報は、利用者端末110によって設定される所定の言語に対応している。
 また、DBサーバ130は、対象物の報告書IDを生成し、対象物に関連する被写体の追加画像データ、対象物のコメントデータ、対象物のタグデータ、対象物の音声メモデータ、対象物の認識結果ID、言語設定データ、などの各種のデータを、当該報告書IDと関連付けて蓄積する。なお、対象物の報告書IDは、対象物の報告書を識別するためのIDであり、報告書ごとに設定される。
 また、DBサーバ130は、対象物の音声メモデータに基づいて、音声認識によるテキスト変換処理を行い、変換結果を保持する。また、DBサーバ130は、対象物のコメントデータ、対象物のタグデータ、対象物の音声メモデータに基づいて、テキスト変換処理を行い、テキスト変換処理を行ったテキストデータに対して、形態素解析処理を行って、対象物に関連するキーワードを抽出し、抽出結果を保持する。
 ステップS1013において、DBサーバ130は、対象物の認識結果ID及び言語設定データに対応する対象物の関連情報を、現場情報サーバ120へと送信する。
 ステップS1014において、現場情報サーバ120は、DBサーバ130から受信した対象物の関連情報を含む報告書完成画面情報を生成する。報告書完成画面情報は、利用者端末110によって設定される所定の言語に対応している。
 ステップS1015において、現場情報サーバ120は、報告書完成画面情報を、ネットワーク50を介して、利用者端末110へと送信する。
 ステップS1016において、利用者端末110は、報告書完成画面情報に基づいて、表示部117に、報告書完成画面280を表示する。
 例えば、利用者端末110によって設定される言語が英語である場合、利用者が日本語表記された対象物(例えば、展示パネルなど)を撮影しても、報告書完成画面280には、英語表記された対象物の画像が表示される。例えば、利用者端末110によって設定される言語が日本語である場合、利用者が英語表記された対象物(例えば、展示パネルなど)を撮影しても、報告書完成画面280には、日本語表記された対象物の画像が表示される。
 上述のように、本実施形態に係る文書作成支援方法によれば、対象物の特定情報及び利用者の操作に応じた対象物の編集情報以外の情報を付加した報告書を作成することが可能になる。
 なお、上述した文書作成支援装置として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、文書作成支援装置の各機能を実現する処理内容を記述したプログラムを該コンピュータのデータベースに格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。
 また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROMなどの記録媒体であってもよい。
 上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態の構成図に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。
 
 50   ネットワーク
 100  文書作成支援システム
 110  利用者端末(文書作成支援装置)
 111  特定情報取得部
 112  認識結果情報取得部
 113  関連情報取得部
 114  編集情報取得部
 115  制御部
 116  記憶部
 117  表示部
 118  操作部
 120  現場情報サーバ
 130  DBサーバ(データベースサーバ)
 140  認識サーバ
 150  認識エンジン
 
 
 
 

Claims (8)

  1.  対象物の特定情報に基づいて、前記対象物の認識結果情報を取得する認識結果情報取得部と、
     利用者の操作に応じた前記対象物の編集情報を取得する編集情報取得部と、
     前記認識結果情報及び前記編集情報に基づいて、前記対象物の関連情報を取得する関連情報取得部と、
     前記関連情報を含む画面情報に基づいて、前記対象物に関する報告書を表示する表示部と、
     を備える文書作成支援装置。
  2.  所定のデザインフォーマットを適用して、前記画面情報を整形する制御部を更に備える、
     請求項1に記載の文書作成支援装置。
  3.  前記編集情報は、
     前記利用者の追加撮影操作に応じた追加画像情報、前記利用者のコメント入力操作に応じたコメント情報、前記利用者のタグ選択操作に応じたタグ情報、或いは、前記利用者の音声録音操作に応じた音声メモ情報、である、
     請求項1又は2に記載の文書作成支援装置。
  4.  前記特定情報は、所定のセンサから取得される情報である、
     請求項1から3のいずれか一項に記載の文書作成支援装置。
  5.  対象物の特定情報に基づいて、前記対象物の認識結果情報を決定する認識エンジンと、
     前記認識結果情報と利用者の操作に応じた前記対象物の編集情報とを関連付けて蓄積し、前記認識結果情報及び前記編集情報に基づいて、前記対象物の関連情報を抽出するデータベースサーバと、
     前記関連情報を含む画面情報を生成する現場情報サーバと、
     前記画面情報に基づいて、前記対象物に関する報告書を表示する利用者端末と、
     を備える文書作成支援システム。
  6.  前記データベースサーバは、
     前記編集情報に基づいて、前記対象物に関連するキーワードを抽出する、
     請求項5に記載の文書作成支援システム。
  7.  前記データベースサーバは、
     前記認識結果情報と前記利用者の属性情報とを関連付けて蓄積する、
     請求項5又は6に記載の文書作成支援システム。
  8.  コンピュータを、請求項1から4のいずれか一項に記載の文書作成支援装置として機能させるプログラム。
     
     
     
     
     
     
     
     
     
PCT/JP2019/032971 2018-09-05 2019-08-23 文書作成支援装置、文書作成支援システム、及びプログラム WO2020050055A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018165818A JP2020038531A (ja) 2018-09-05 2018-09-05 文書作成支援装置、文書作成支援システム、及びプログラム
JP2018-165818 2018-09-05

Publications (1)

Publication Number Publication Date
WO2020050055A1 true WO2020050055A1 (ja) 2020-03-12

Family

ID=69722528

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/032971 WO2020050055A1 (ja) 2018-09-05 2019-08-23 文書作成支援装置、文書作成支援システム、及びプログラム

Country Status (2)

Country Link
JP (1) JP2020038531A (ja)
WO (1) WO2020050055A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259750A (ja) * 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> マルチメディア報告書作成装置および報告書作成方法
JP2004029749A (ja) * 2002-05-09 2004-01-29 Matsushita Electric Ind Co Ltd 情報取得システム及び情報取得方法並びに画像撮影装置
JP2007183821A (ja) * 2006-01-06 2007-07-19 Seiko Epson Corp 画像に関連した文の設定

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259750A (ja) * 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> マルチメディア報告書作成装置および報告書作成方法
JP2004029749A (ja) * 2002-05-09 2004-01-29 Matsushita Electric Ind Co Ltd 情報取得システム及び情報取得方法並びに画像撮影装置
JP2007183821A (ja) * 2006-01-06 2007-07-19 Seiko Epson Corp 画像に関連した文の設定

Also Published As

Publication number Publication date
JP2020038531A (ja) 2020-03-12

Similar Documents

Publication Publication Date Title
US9058375B2 (en) Systems and methods for adding descriptive metadata to digital content
JP4766108B2 (ja) プレゼンテーションシステム、データ管理装置およびプログラム
US20150156247A1 (en) Client-Side Bulk Uploader
JP4645498B2 (ja) 情報処理装置および方法、並びにプログラム
EP2105930B1 (en) Selection and positioning of images within a template based on relative comparison of image attributes
US20160117085A1 (en) Method and Device for Creating and Editing Object-Inserted Images
US20060227223A1 (en) Image reproducing apparatus
JP2006314010A (ja) 画像処理装置及び画像処理方法
US20190347317A1 (en) Method and electronic device for creating an electronic signature
JP4517310B2 (ja) 撮像装置、文字情報関連付け方法及び文字情報関連付けプログラム
JP5336759B2 (ja) 画像出力装置及び画像出力方法
JP5027350B2 (ja) 画像フォルダ伝送再生装置及び画像フォルダ伝送再生プログラム
WO2020050055A1 (ja) 文書作成支援装置、文書作成支援システム、及びプログラム
JP2020009011A (ja) フォトブック作製システム及びサーバ装置
JP2007183858A (ja) 画像検索システム、画像検索装置、及び、コンピュータプログラム
JP5513539B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
CN105825534B (zh) 图片处理方法和装置
JP2006301757A (ja) データ閲覧装置、データ検索方法およびデータ検索プログラム
JP6014918B2 (ja) 情報処理装置、情報処理システム、及びプログラム
JP4920449B2 (ja) 画像データ検索装置、画像データ検索方法、及びプログラム
JP2010272001A (ja) 表示制御装置、表示制御方法及びプログラム
JP2009296299A (ja) 画像記録装置、画像記録プログラムおよび画像記録プログラムを記録した記録媒体
JP4953895B2 (ja) 写真集作成装置、写真集作成方法、プログラム、及び記憶媒体
JP2016021156A (ja) 画像表示装置
JP6150538B2 (ja) 動画記録装置及びその制御方法

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19857943

Country of ref document: EP

Kind code of ref document: A1