在互联网时代下,基于互联网的空间数据获取技术是 重点研究对象。Goodchild研究指出,Web2.0技术已全面推广与应用,一种新的地 理信息获取理念,即自发空间地理信息,意思是完全由用户自愿提供和共享 地理信息。李德仁、钱新林等专家认为,由普通用户产生的地理数据,可以用来补充地理框架数据的不足,并能提供丰富的细节和实时更新。Zook M等研究发现,海地大地震后,公众用户在开源地图网站Open Street Map上 进行了协作,很快地完成了地物的重新编辑并建立了 震后地理数据库。Zhang等人在公众用户上传的GPS轨迹数据上,建立了精度较好的道路 数据库,可广泛应用于道路数据的更新。Chen X基于网络爬虫实现了自动化发现和检索地图发布服务WMS服务。王明军在普通网络爬虫技术基础上提出了空间敏感爬虫的思想体系。蔡地在 研究开源网络爬虫框架的基础上,提出通过多线程和异步I/O两种策略来优化Web空 间数据的获取效率。叶琳分析并探讨了不同类型Web空间数据的解析方法。李明铭利用网络爬虫技术为房产价格指数编制提供了丰富实时的数据来源。陈宏飞等采用Ajax技术获取了包含时 空信息的西安市新浪微博数据,运用ArcGIS 10.1的热点分析工具,以热点图的形式揭 示了西安市居民夜间活动的时空分布。沈霖通过新浪微博提供的位置服务接口,获 取了上海市1364个旅游景点的微博签到数据。徐秀竹研究了互联网地理文本信息挖掘的方法,结合正则 表达式和网络爬虫技术,获取了不同网站中的地理文本信息。王明爽根据Flickr网站提供的图片捜索服务功能接口,获取了哈尔滨地区的用户上传照片的原始图片信息与标签信息。曹瑞采用Web页面信息采集技术和应用程序编程接口相结合的方式对互联网商业信息进行采集,建立了剪纸文化专题数据库 。许思堇基于网络爬虫的思想,结合新浪微博提供的Java SDK,利用Java语言开发 了适合于新浪微博数据获取的中间件工具包。
评论列表 ( 0 )