[读论文]Visual Translation Embedding Network for Visual Relation Detection

Metadata 文章标题: Visual Translation Embedding Network for Visual Relation Detection 作者: Hanwang Zhang, Zawlin Kyaw, Shih-Fu Chang, Tat-Seng Chua 文章发表: CVPR 2017 下载地址: CVPR 2017, arXiv 2017.02 Intro 这篇文章的主要目标是从图片中抽取一些实体之间的相互关系。例如下面这张图: 这篇文章提出了一个叫做VTransE (Visual

Visual Genome 浅析

最近准备研究VQA方向,于是对相关的数据和工作做了一些survey。 对于任何一个AI相关的任务,最重要的一点就是数据。由斯坦福Li Fei-Fei(Paper中就是这么写的,而不是Fei-Fei Li)提出的Visual Genome就是一个非常重要而且非常好用的数据集。 这篇博客将会整理总结Visual Genome这份数据集的官方Paper。其中融入了我的一些理解,如果有错请帮忙勘误,并多多包涵。谢谢 论文名称:Visual Genome 副标题: Connecting Language and Vision Using Crowdsourced Dense Image Annotations. 作者: Ranjay Krishna

【读论文】Exploiting Web Search to Generate Synonyms for Entities

最近在看Synonym Entity相关的内容。 这篇文章是2009年在WWW上发表的关于同义实体的文章,属于这个task非常早期的文章(没有找到更早的),所以精读了一下。 这篇博客文章记录了这篇paper的核心思想和我阅读时的感悟。 这篇文章主要研究的是在entity extraction的过程中,通过为reference entity table中的entities构建synonym entity的方式来判断candidate string是否表示一个特定的entity。 个人感觉这篇文章本质上还是在进行entity extraction(判断mention到底是什么entity)的工作,但其核心原理是依靠作者提出的另一种document-based similarity function来将原有的candidate string到entity的模糊查询转变为从candidate string到synonym entity的精确查询。 在这个任务转变的过程中,作者提出了一种构建synonym entity的方法,同时依靠构建出的synonym entity来补足entity extraction。 首先,整个文章的核心在于:如果在一个document中存在一个entity,