27.37. Part2_7¶
遥感史:一开始
遥感作为一项技术始于十九世纪初的第一批照片。许多重大事件导致了陆地卫星的发射,这是本教程的主要重点。要了解第一个陆地卫星之前的遥感里程碑,您可以查看三个区域之一的遥感时间表。- Photographic Methods , Non-Photographic Sensor Systems , Space Imaging Systems (摘自作者(NMS)美国宇航局参考出版物1078(现已绝版)上的一张表格 陆地卫星教学手册)。 这篇评论以1979年的事件结束。我们将在整个教程中展示随后的主要亮点。对这些事件的简要总结包括发射与陆地卫星类似的若干其他卫星/传感器系统;将雷达系统插入太空;气象卫星的激增;发射一系列专用卫星以监测环境,其中包括使用热和被动微波传感器;开发复杂的高光谱l传感器;以及成熟的各种传感器,以收集行星和天体上的图像和其他数据。
这台照相机作为主要的遥感器已经有150多年的历史了。它通过透镜将电磁(EM)辐射(通常是可见光)集中到记录介质(通常是银基胶片)上,从而捕捉目标外部的图像。胶片通过灰度(黑白)或色调的亮度变化来显示目标对象的相对位置。尽管第一张相当原始的照片是作为地面上的“静物”拍摄的,但从上面拍摄地球表面的想法产生了所谓的 航空照片 ,出现在19世纪40年代的气球图片。到第一次世界大战时,飞机上安装的摄像机提供了相当大的表面积的空中视野,这对于军事侦察来说是无价的。从那时起到1960年代初,航空照片仍然是从垂直或倾斜角度描绘表面的唯一标准工具。
卫星遥感起源于太空时代早期(俄罗斯和美国的项目)。最初,到1946年,一些二战后从德国获得的V-2火箭从新墨西哥州的白沙市发射到了高海拔地区。这些火箭虽然没有进入轨道,但装有自动的静止或电影摄影机,在飞行器上升时拍摄照片(见第12节)。然后,在20世纪60年代,当人类进入太空时,宇航员和太空舱中的宇航员从窗口拍照。随着时间的推移,空间摄影师有了特定的目标和时间表,尽管他们也有一些自由,可以在目标的机会拍摄照片。
|西奈半岛和红海的黑白照片。| 西奈半岛和红海 |
|加利福尼亚湾和南加州的彩色照片。| 加利福尼亚湾和南加州 |
在60年代,第一批先进的成像传感器被纳入轨道卫星。起初,这些传感器是基本的电视摄像机,它们能清晰地拍摄原始、低分辨率(小细节)的云和地球表面黑白图像。分辨率是最小的对比对象对的大小,可以明显区分。下面,我们展示了来自Nimbus卫星传感器的三个例子,以了解早期照片有多好。
**|B/W image of Eastern India, Bangladesh and the Himalayas taken from the Nimbus satellite sensors.|** _ 印度东部、孟加拉国、喜马拉雅山 |
|从Nimbus卫星传感器拍摄的沙特阿拉伯黑白图像。沙特阿拉伯 |
|从Nimbus卫星传感器拍摄的北美洲东部黑白图像| 北美东部
早期,还开发了其他类型的传感器,“利用可见光以外的电磁频谱拍摄图像,将其送入近红外和热红外区域。视野(FOV)很宽,通常在侧面100公里处。这些区域覆盖的天气区域对气象界有很大价值,因此许多早期卫星都是气象卫星,专门收集有关云、气温、风型等的信息。