Các nghiên cứu này sẽ tạo nền tảng để phát triển các ứng dụng của công nghệ viễn thám trong thực tiễn. Các nghiên cứu cơ bản có thể được chia thành 2 nhóm:
Nhóm các nghiên cứu nền tảng chung
Các nghiên cứu nền tảng chung thường có nguồn gốc và xuất phát từ nhiều lĩnh vực khoa học khac nhau như toán học, vật lý, công nghệ thông tin,…Trong nhóm này, hiện nay các nghiên cứu đang được ứng dụng phổ biến trong viễn thám đó là các nghiên cứu liên quan đến các phương pháp, thuật toán hiện đại trên nền tảng trí tuệ nhân tạo (AI), học máy, dữ liệu lớn (bigdata), vạn vật hấp dẫn (IoT),…;
Nhóm các nghiên cứu phát triển công nghệ
Nhóm này tập trung vào việc liên kết, ứng dụng các thành tựu tự nghiên cứu nền tảng chung nhằm phát triển các công nghệ, hệ thống tiên tiến trong xử lý, phân tích, khai thác, ứng dụng thông tin, dữ liệu viễn thám; xây dựng, phát triển và ứng dụng các giải pháp, hệ thống tích hợp viễn thám. Các xu hướng trong nhóm này có thể kể đến như:
Công nghệ nhận dạng thông minh dựa trên hệ thống viễn thám
Các công nghệ này đang được một số Tập đoàn viễn thám lớn trên thế giới phát triển và ứng dụng thương mại trong thực tiễn như Hệ thống Intelligent của Tập đoàn Hàng không và Quốc phòng Airbus (Airbus Denfence and Space) của Pháp; Hệ thống Công nghệ thông minh trong cập nhật thông tin trái đất dựa trên công nghệ viễn thám (Imagery Portfolio) của Tập đoàn Maxar (Hoa Kỳ),… Các công nghệ này có điểm chung là ứng dụng trí tuệ nhân tạo ở trình độ cao.
Trí tuệ nhân tạo ứng dụng trong nhận dạng đối tượng được biết đến như một loại phân loại dựa vào mẫu, được đề xuất từ đầu những năm 1980. Nó có khả năng học các mẫu mà độ phức tạp của chúng khiến khó có thể phân tích bằng các phương pháp thông thường khác. Một số kiến trúc mạng trí tuệ nhân tạo điển hình như perceptron đa lớp (Multilayer Perceptron - MLP) (Li và cộng sự., 2001; Mokhtarzade và Zoej, 2007; Pacifici và cộng sự., 2009), mạng nơron nhân tạo Hopfield (Ghosh và cộng sự., 2007), học máy cực trị (Extreme Learning Machine - EML) (Malek và cộng sự., 2014; Tang và cộng sự., 2015) và mạng nơron tích chập (Convolution Neuron Network - CNN) (Jin và Davis, 2007; Wang và cộng sự., 2015), đã được sử dụng thành công trong nhiều ứng dụng viễn thám bao gồm phát hiện tàu biển (Tang và cộng sự., 2015), phát hiện phương tiện giao thông (Jin và Davis, 2007), phát hiện hệ thống đường (Mokhtarzade và Zoej, 2007; Wang và đồng sự, 2015), phát hiện cây (Malek và cộng sự., 2014), phát hiện khói, đám cháy (Li và cộng sự., 2001), phát hiện biến động (Ghosh và cộng sự., 2007) và phân loại sử dụng đất (Pacifici và cộng sự., 2009). Ở đây, đề cập một cách cơ bản nhất về cấu trúc của mạng lưới trí tuệ nhân tạo. Mạng lưới nơron được tạo thành từ một số lượng lớn các đơn vị xử lý đơn giản được gọi là nút hoặc nơ ron. Nhiệm vụ chính của một nơron là nhận đầu vào từ các lân cận của nó, để tính toán một đầu ra và gửi đầu ra cho các lân cận của nó. Các nơ-ron thường được tổ chức thành các lớp với các kết nối đầy đủ hoặc ngẫu nhiên giữa các lớp liên tiếp nhau. Một mạng lưới trí tuệ nhân tạo thường bao gồm ba loại lớp, cụ thể là lớp đầu vào, lớp ẩn và lớp đầu ra, lần lượt nhận, xử lý và đưa ra kết quả cuối cùng. Có hai giai đoạn chính trong hoạt động của trình phân loại bằng trí tuệ nhân tạo, tức là học (huấn luyện) và gợi nhớ lại. Học là quá trình thích ứng hoặc hiệu chỉnh các trọng số kết nối để mạng có thể hoàn thành một nhiệm vụ cụ thể. Quá trình này chủ yếu được thực hiện với một thuật toán học có giám sát bằng cách sử dụng một tập dữ liệu huấn luyện, trong đó các trọng số ngẫu nhiên được đưa ra đầu tiên khi bắt đầu huấn luyện, và sau đó thuật toán sẽ thực hiện điều chỉnh trọng số bằng cách giảm thiểu sai số phân loại. Quá trình nhớ lại sẽ hỏi làm thế nào mạng trí tuệ nhân tạo có thể hoạt động dựa trên những gì nó đã học được trong giai đoạn huấn luyện. Mạng trí tuệ đã được huấn luyện sẽ thực hiện việc nội suy và ngoại suy, chẳng hạn như phân loại và hồi quy.
Hiện tại, mạng CNN đang dần trở nên phổ biến trong Deep learning và đã minh chứng được sức mạnh của nó trong nhận dạng đối tượng từ ảnh viễn thám với độ chính xác cao hơn rất nhiều so với các phương pháp khác đã ứng dụng từ trước năm 2015.
Thực tế để ứng dụng CNN nhất thiết phải xây dựng một tệp dữ liệu huấn luyện đủ lớn, đã có nhiều bộ mẫu công bố miễn phí được sử dụng để phân loại ảnh viễn thám với số lượng từ hang ngàn đến vài trăm ngàn mẫu ảnh đối tượng (có thể thu thập từ kaggle.com, EuroSat,…), vì thế để thực hiện tính toán phải sử dụng một hệ thống máy tính có cấu hình rất mạnh hoặc nền tảng cloud-computing để thực hiện việc tính toán. Tuy nhiên để tránh đầu tư hệ thống phần cứng, có thể xem xét dịch vụ của Amazon Web Services (AWS) hoặc Google Colab Pro để có thể giải quyết các bài toán lớn với chi phí tương đối hợp lý từ 10$/tháng.
Ngày nay, khả năng thu thập dữ liệu viễn thám của chúng ta đã được cải thiện đến mức chưa từng thấy. Chúng ta đã bước vào một kỷ nguyên của dữ liệu lớn. Dữ liệu viễn thám đang thể hiện rõ các đặc điểm của Dữ liệu lớn. Viễn thám dữ liệu lớn đang thu hút ngày càng nhiều sự chú ý từ các dự án của chính phủ, các ứng dụng thương mại đến các lĩnh vực học thuật. Vào tháng 3 năm 2012, chính phủ Hoa Kỳ đã đề xuất Sáng kiến Dữ liệu Lớn. Nó có thể là dự án đầu tiên của chính phủ Hoa Kỳ về dữ liệu lớn tập trung vào việc cải thiện khả năng của chúng ta để trích xuất kiến thức từ các bộ sưu tập dữ liệu số lớn và phức tạp. Đối với viễn thám dữ liệu lớn, một trong những dự án quan trọng nhất của chính phủ Hoa Kỳ là Hệ thống thông tin và dữ liệu quan sát trái đất (EOSDIS). Nó cung cấp các khả năng từ đầu đến cuối để quản lý dữ liệu khoa học Trái đất của NASA từ nhiều nguồn khác nhau. Tại châu Âu, Hội nghị Dữ liệu lớn từ không gian được tổ chức bởi Cơ quan vũ trụ châu Âu năm 2017. Đó là để tăng cường sự tương tác và tập hợp các nhà nghiên cứu, kỹ sư, người dùng, cơ sở hạ tầng và nhà cung cấp dịch vụ, quan tâm đến việc khai thác Dữ liệu lớn từ không gian. Nhóm quan sát trái đất (GEO), tổ chức hợp tác đa phương liên chính phủ lớn nhất cũng đang thúc đẩy sự phát triển của dữ liệu lớn vào tháng 10 năm 2017, Nền tảng chia sẻ dữ liệu GEOSS quốc gia của Trung Quốc tuần lễ GEO 2017.
Trong lĩnh vực ứng dụng thương mại, Google Earth có thể là một trong những ví dụ thành công của viễn thám dữ liệu lớn. Nhiều ứng dụng viễn thám như phát hiện mục tiêu, che phủ mặt đất, thành phố thông minh, v.v. có thể được phát triển dễ dàng dựa trên Google Earth. Với hệ sinh thái nền tảng dữ liệu lớn không gian địa lý (GBDX) của DigitalGlobe, công ty DigitalGlobal (Longmont, CO, Hoa Kỳ) đang tạo ra vết của các tòa nhà một cách nhanh chóng bằng cách tận dụng việc học máy kết hợp với thư viện hình ảnh 100 petabyte trên nền tảng đám mây DigitalGlobe. Các công ty lớn khác như Microsoft (Redmond, WA, Hoa Kỳ) và Baidu (Bắc Kinh, Trung Quốc) đều đang phát triển bản đồ điện tử của họ được hỗ trợ với dữ liệu lớn viễn thám và quan sát đường phố dữ liệu lớn. Các ứng dụng thương mại trên dữ liệu lớn đang thay đổi cuộc sống của người dân.
Trong các lĩnh vực học thuật, viễn thám dữ liệu lớn, cũng là một trong những chủ đề phổ biến nhất. Rất nhiều tạp chí hàng đầu đã đưa ra các vấn đề đặc biệt của họ về viễn thám dữ liệu lớn. IEEE JSTARS đã đưa ra vấn đề đặc biệt về Dữ liệu lớn trong Viễn thám vào năm 2015. Tạp chí Viễn thám ứng dụng đã đưa ra vấn đề đặc biệt về Quản lý và Phân tích Dữ liệu lớn được cảm nhận từ xa vào năm 2015. Tạp chí Khoa học và Viễn thám của IEEE đã phát hành vấn đề đặc biệt về Dữ liệu lớn từ Space vào năm 2016. GeoInformatica của Springer đã đưa ra vấn đề đặc biệt về Big Spatial và Spatiotemporal Data Management và Analytics vào năm 2016. Viễn thám môi trường đã đưa ra vấn đề đặc biệt về Dữ liệu viễn thám lớn: Công cụ, ứng dụng và kinh nghiệm năm 2017. MDPI viễn thám đang kêu gọi giấy tờ về các vấn đề đặc biệt về Học máy nâng cao và Phân tích dữ liệu lớn trong viễn thám để quản lý các mối nguy tự nhiên, SAR trong kỷ nguyên dữ liệu lớn và phân tích dữ liệu lớn trong viễn thám năm 2018.
Tạp chí quốc tế về Trái đất kỹ thuật số đang kêu gọi các bài báo về vấn đề đặc biệt về cảm biến xã hội và tính toán dữ liệu lớn cho quản lý thiên tai năm 2018.
Bất kể đó là dự án của chính phủ, ứng dụng thương mại hay nghiên cứu học thuật, khi mô tả dữ liệu lớn, người ta thường đề cập đến 3V, tức là, sự tăng trưởng vượt trội về Khối lượng, Vận tốc và Đa dạng dữ liệu [1]. Đối với dữ liệu lớn viễn thám, chúng có thể được mở rộng cụ thể hơn đến các đặc điểm của các đặc tính đa nguồn, đa quy mô, chiều cao, trạng thái động, đồng phân và phi tuyến. Điều quan trọng đối với chúng ta là xem xét các đặc điểm cụ thể và cụ thể hơn này của dữ liệu lớn viễn thám khi sử dụng viễn thám để trích xuất thông tin và hiểu các quy trình địa lý. Nó vừa là cơ hội vừa là thách thức cho các cộng đồng viễn thám. Với những vấn đề này, nó là để trình bày các lý thuyết, phương pháp và ứng dụng hiện đại nhất nghiên cứu về viễn thám dữ liệu lớn.
Các ứng dụng của AI, ML, DL trong viễn thám nhằm cập nhật thông tin trái đất. + Ứng dụng để hiệu chỉnh hình học: khớp ảnh tự động + Ứng dụng để trộn ảnh tăng cường chất lượng + Ứng dụng để phân loại ảnh/ phân tách ảnh/ phân loại dựa trên đối tượng + Ứng dụng để phát hiện và phân tích đối tượng.
Công nghệ xử lý dữ liệu viễn thám hiệu năng cao
Xu thế trong tương lai gần sẽ là sự phát triển bùng nổ của các công nghệ xử lý ảnh hiệu năng cao khi mà nguồn cung cấp dữ liệu viễn thám ngày càng phong phú và sự phats triển mạnh mẽ của công nghệ xử lý Bigdata, trí tuệ nhân tạo,…Các hệ thống xử lý ảnh hiệu năng cao hiện nay đang được một số tập đoàn lớn trên thế giới phát triển và ứng nhự như Pixel Factory (Airbus, Pháp), Imagery Portfolio (của Tập đoàn Maxar, Hoa Kỳ),…
Công nghệ xử lý dữ liệu ảnh viễn thám hiệu năng cao thường để xử lý dữ liệu viễn thám với khối lượng lớn có độ phủ trùm cao và đa thời gian. Công nghệ này thường sử dụng tại trạm thu nhưng với các loại dữ liệu viễn thám miễn phí ngày càng nhiều với độ phân giải cao thì công nghệ xử lý này ngày càng được nghiên cứu ứng dụng rộng rãi.
Một hệ thống hiệu năng cao có 5 năng lưc chính sau:
Quản lý hệ thống cơ sở dữ liệu ảnh lớn, đang chủng loại ở mọi mức xử lý ảnh
Có khả năng xử lý hình học và xử lý phổ cho nhiều loại ảnh với độ chính xác cao . Các dữ liệu viễn thám đã được xử lý hình học, xử lý phổ và ở dạng mô hình (dạng chờ) có thể sản xuất tự động hoặc đã được sản xuất. Quá trình thực hiện có khả năng tự động hoặc bán tự động. Có khả năng ghép ảnh, chồng ảnh …
Có khả năng xử lý phân tích ảnh tự động hoặc bán tự động phục vụ cho các mục đích ứng dụng, Trước đây, hệ thống xử lý phân tích chủ yếu dựa trên thuật toán với các tham số do người vận hành thiết lập. Hiện nay, với các phương pháp phân tích ngữ cảnh và ứng dụng công nghệ AI, ML thì hệ thống sẽ sử dụng kho tư liệu sẵn có hoặc các tư liệu do người vận hành nhập vào để làm cơ sở cho quá trình phân tích.
Có khả năng phân phối dữ liệu.
Có khả năng bảo mật và an toàn dữ liệu cao.
Trước đây, Việt Nam từ những năm 2000 đã từng đươc EGN được trang bị hệ thống SPACE MAT xử lý ảnh trên nền tảng GEOVIEW do IGN (CH Pháp) phát triển và trang bị. Tuy nhiên hệ thống này chủ yếu là xử lý hình học, xử lý phổ chưa có các tính năng phân tích dữ liệu.
Hiện nay, với sự phát triển mạnh mẽ của công nghệ tính toán song song, sự phát triển của phần cứng cũng như các thuật toán hỗ trợ thực hiện phân tích sử dụng trí tuệ nhân tạo, máy học, các hệ thống xử lý ảnh lớn đã được nhiều công ty phát triển như:
Hệ thống Multi-INT của Công ty General Dynamics Mission Systems (GDMS) (http://www.gd-ais.com);
Hệ thống Geographic Imager and MAPublisher của Công ty Avenza (http://www.avenza.com);
Hệ thống Global Mapper của công ty Blue Marble Geographics (http://www.bluemarblegeo.com);
Hệ thống Vr Mapping Software của công ty Cardinal Systems (http://www.cardinalsystems.net);
Các hệ thống giải pháp của Harris http://www.harris.com; + Hệ thống ERDAS của Hexagon http://www.hexagongeospatial.com;
Hệ thống Pixel Factory của Airbus Defence and Space.
Tuy vậy, để phát triển được hệ thống này và triển khai được ở Việt Nam, cần phải nhìn nhậ và đánh giá được các thách thức và triển vọng nghiên cứu trong quá trình triển khai và ứng dụng hệ thống hiệu năng cao. Các thách thức đó có thể kể đến như:
Xây dựng thuật toán nắn chỉnh hình học có thể cập nhật khi có các loại ảnh mới
Xây dựng thuật toán nhận dạng, phân tích ảnh tự động
Tối ưu hoá tăng tốc độ tính toán và truy cập
Xây dựng hệ thống xử lý ảnh khép kín hoặc hệ thống phân phối.