Skip to content

Scalable Geospatial Data Generation Using AlphaEarth Foundations Model

2508.11739v1.pdf
39.5 MB

บทคัดย่อ

ชุดข้อมูลทางภูมิสารสนเทศที่มีฉลากคุณภาพสูงมีความจำเป็นอย่างยิ่งต่อการสกัดข้อมูลเชิงลึกและความเข้าใจเกี่ยวกับโลกของเรา น่าเสียดายที่ชุดข้อมูลเหล่านี้มักไม่ครอบคลุมทั่วทั้งโลก และมีข้อจำกัดเฉพาะบางภูมิภาคทางภูมิศาสตร์ที่มีการเก็บรวบรวมข้อมูล
AlphaEarth Foundations (AEF) ที่เพิ่งเปิดตัวโดย Google DeepMind จัดเตรียมการแทนค่าข้อมูลทางภูมิสารสนเทศระดับโลกที่มีความหนาแน่นของข้อมูลสูง ซึ่งออกแบบมาเพื่อทำหน้าที่เป็นข้อมูลนำเข้าที่มีประโยชน์สำหรับงานที่หลากหลาย
ในบทความนี้เราเสนอและประเมินวิธีการที่ใช้ประโยชน์จาก AEF เพื่อขยายชุดข้อมูลทางภูมิสารสนเทศที่มีฉลากให้เกินกว่าภูมิภาคทางภูมิศาสตร์เริ่มต้น เราแสดงให้เห็นว่าแม้แต่โมเดลพื้นฐานอย่าง random forests หรือ logistic regression ก็สามารถใช้เพื่อทำงานนี้ให้สำเร็จได้
เราศึกษากรณีตัวอย่างของการขยายชุดข้อมูล Existing Vegetation Type (EVT) ของ LANDFIRE จากสหรัฐอเมริกาไปยังแคนาดา ในสองระดับของความละเอียด คือ EVTPHYS (13 คลาส) และ EVTGP (80 คลาส) ในเชิงคุณภาพสำหรับ EVTPHYS การทำนายของโมเดลสอดคล้องกับข้อมูลจริง โมเดลที่ผ่านการฝึกสอนบรรลุความแม่นยำในการจำแนกประเภท 81% และ 73% บนชุดข้อมูลตรวจสอบความถูกต้อง EVTPHYS ในสหรัฐอเมริกาและแคนาดา ทั้งนี้แม้จะมีข้อจำกัดที่กล่าวถึง

1 บทนำ

ข้อมูลสภาพแวดล้อมและสภาพภูมิอากาศที่มีคุณภาพสูง มีความสำคัญอย่างยิ่งต่อการทำความเข้าใจและการจัดการโลกของเรา อย่างไรก็ตาม ชุดข้อมูลทางภูมิสารสนเทศที่ครอบคลุมทุกภูมิภาคของโลกยังคงหาได้ยาก การขาดความครอบคลุมระดับโลกนี้ก่อให้เกิดความท้าทายสำคัญสำหรับการประยุกต์ใช้งานต่างๆ เช่น การตรวจสอบสภาพแวดล้อม การพยากรณ์ภาวะภัยพิบัติ การวิเคราะห์ทางอุตุนิยมวิทยาและภูมิอากาศ และการจัดการทรัพยากรธรรมชาติ
การเก็บรวบรวมข้อมูลทางภูมิสารสนเทศแบบดั้งเดิมเผชิญกับอุปสรรคสำคัญหลายประการ ค่าใช้จ่ายในการเก็บข้อมูลมักสูงเกินกว่าจะรับได้ และการบูรณาการชุดข้อมูลหลายชุดต้องการการปรับเทียบความละเอียดเชิงพื้นที่และอัตราการสุ่มตัวอย่างทางเวลาที่แตกต่างกันอย่างมาก แม้ว่าจะมีชุดข้อมูลที่มีคุณค่าอยู่ แต่ข้อมูลเหล่านี้มักจำกัดอยู่เฉพาะบางภูมิภาค หรือครอบคลุมเพียงส่วนย่อยที่จำกัดของตัวแปรที่จำเป็นสำหรับการวิเคราะห์อย่างครอบคลุม การพัฒนาวิธีการที่เชื่อถือได้เพื่อขยายความครอบคลุมของข้อมูลไปยังพื้นที่ที่ไม่ได้รับการสนใจนั้น ช่วยเพิ่มขีดความสามารถของเราอย่างมีนัยสำคัญในการตรวจสอบการเปลี่ยนแปลงของระบบโลก ออกแบบการประยุกต์ใช้งานใหม่ๆ ในภูมิภาคที่ถูกมองข้าม และทำการพยากรณ์อย่างมีข้อมูลรองรับในระดับโลก
ในบทความนี้ เราใช้ประโยชน์จากการฝังข้อมูล (embeddings) ที่สร้างโดยโมเดล AlphaEarth Foundations (AEF) ของ Google DeepMind เพื่อจัดการกับความท้าทายของการขาดแคลนข้อมูล AEF สร้างการฝังข้อมูลความละเอียดสูงที่ได้มาจากแหล่งข้อมูลภาพดาวเทียม ได้แก่ Landsat 8 และ 9 และ Sentinel 1 และ 2 ข้อได้เปรียบที่สำคัญของการฝังข้อมูลเหล่านี้คือความครอบคลุมระดับโลกโดยธรรมชาติและคุณภาพที่สม่ำเสมอ ลักษณะเฉพาะนี้ทำให้การฝังข้อมูล AEF เหมาะสมอย่างยิ่งสำหรับการสังเคราะห์ข้อมูลสภาพแวดล้อมในพื้นที่ที่ขาดแคลนข้อมูล
การมีส่วนร่วมหลักของเราคือการพัฒนาและการตรวจสอบความถูกต้องของกระบวนการที่ใช้การฝังข้อมูล AEF เพื่อสร้างชุดข้อมูลสภาพแวดล้อมสังเคราะห์ โดยเฉพาะอย่างยิ่ง เราจัดเตรียมกระบวนการที่ฝึกอบรมโมเดลการเรียนรู้ของเครื่อง โดยใช้การฝังข้อมูล AEF ที่มีอยู่ทั่วโลกเป็นคุณลักษณะข้อมูลนำเข้า และใช้ข้อมูลสภาพแวดล้อมที่เป็นข้อเท็จจริงที่สอดคล้องกัน (เช่น ดัชนีพืชพรรณ หรือพารามิเตอร์ทางภูมิอากาศวิทยา) เป็นฉลาก หลังจากการฝึกอบรม โมเดลเหล่านี้สามารถนำไปใช้เพื่อสรุปคุณลักษณะสภาพแวดล้อมเดียวกันนี้ในพื้นที่ที่ขาดการสังเกตโดยตรง โดยใช้ประโยชน์จากการฝังข้อมูล AEF เป็นข้อมูลนำเข้า ลักษณะระดับโลกของ AEF รับประกันว่าวิธีการนี้สามารถนำไปใช้ได้อย่างกว้างขวาง โดยนำเสนอโซลูชันที่สามารถขยายได้สำหรับการเพิ่มข้อมูลสภาพแวดล้อมทั่วทั้งโลก

1.1 งานวิจัยที่เกี่ยวข้อง

โมเดลการฝังข้อมูล

ประโยชน์ของการแทนค่าเวกเตอร์ที่เรียนรู้หรือการฝังข้อมูลได้รับการยอมรับอย่างแพร่หลายครั้งแรกในสาขาการประมวลผลภาษาธรรมชาติด้วยโมเดลต่างๆ เช่น word2vec, GloVe, ELMo และ BERT ในช่วงไม่กี่ปีที่ผ่านมา มีการวิจัยเพิ่มขึ้นอย่างมากเกี่ยวกับการใช้การฝังข้อมูลในการประยุกต์ใช้งานทางภูมิสารสนเทศ โดยมีงานวิจัยเกี่ยวกับโมเดลต่างๆ เช่น place2vec, tile2vec, hex2vec, space2vec, GeoVeX, Terramind, Prithvi และ SatCLIP เมื่อเร็วๆ นี้ Google DeepMind ได้เปิดตัว AlphaEarth Foundations ซึ่งเป็นโมเดลการฝังข้อมูลทางภูมิสารสนเทศแบบหลายโมดัลและหลายแหล่งข้อมูล โมเดลนี้ได้รับการเปิดเผยต่อแหล่งข้อมูลคุณภาพสูงที่มีความหลากหลายมากกว่างานวิจัยก่อนหน้านี้ และได้รับการฝึกอบรมอย่างชัดเจนเพื่อให้มีประสิทธิภาพในชุดงานการติดฉลากทางภูมิสารสนเทศที่หลากหลาย เพื่อให้เป็นโมเดลที่ใช้งานได้ทั่วไป ดังนั้น AEF จึงได้รับการออกแบบให้สามารถใช้งานได้อย่างมีประสิทธิภาพสำหรับงานประเภทการถดถอย การจำแนกประเภท และการแบ่งส่วน

การจำแนกประเภทและการแบ่งส่วน

นักวิจัยได้ประยุกต์ใช้การเรียนรู้ของเครื่องกับการจำแนกประเภทและการแบ่งส่วนการใช้ที่ดินอย่างกว้างขวาง ส่งผลให้มีเอกสารวิชาการที่มีอยู่มากมาย โครงข่ายประสาทเทียมและข้อมูลดาวเทียมถูกนำมาใช้สำหรับการจำแนกประเภทการใช้ที่ดินตั้งแต่ทศวรรษ 1990 ต่อมา ต้นไม้การตัดสินใจ Random Forests และ Support Vector Machines ได้รับความนิยมสำหรับการจำแนกประเภทการใช้ที่ดิน หลังจากการถือกำเนิดของโครงข่ายประสาทเทียมเชิงลึกในช่วงต้นทศวรรษ 2010 วิธีการที่หลากหลายพร้อมกับเซ็นเซอร์ใหม่และข้อมูลดาวเทียมได้ถูกนำมาใช้เพื่อการทำแผนที่และการจำแนกประเภทที่แม่นยำยิ่งขึ้น ในช่วงต้นทศวรรษ 2020 วิชั่นทรานส์ฟอร์เมอร์ได้ถูกนำมาใช้อย่างแพร่หลายสำหรับการจำแนกประเภทและการแบ่งส่วนของข้อมูลการสำรวจระยะไกล ธีมที่เหมือนกันในงานวิจัยทั้งหมดเหล่านี้คือ แต่ละงานใช้แหล่งข้อมูลที่จำกัด โดยส่วนใหญ่จำกัดอยู่ที่เครื่องมือหนึ่งชนิดหรือน้อยกว่า (เช่น ข้อมูลที่มองเห็นได้ อินฟราเรด หรือ SAR) AEF จัดเตรียมอินเทอร์เฟซที่ใช้งานง่ายสู่การแทนค่าที่เรียนรู้ซึ่งครอบคลุมแหล่งข้อมูลจำนวนมากและภาพดาวเทียมหลายประเภท รวมถึงออปติคัล เทอร์มัล และ Synthetic Aperture Radar (SAR) ดังนั้น จึงสามารถทำให้กระบวนการเรียนรู้ฉลากและการจำแนกประเภทที่สำคัญง่ายขึ้น

1.2 AlphaEarth Foundations (AEF)

การเรียนรู้การแทนค่าได้พิสูจน์แล้วว่าเป็นเทคนิคที่ทรงพลัง ดังที่เห็นได้จากหลักฐานในการประมวลผลภาษาธรรมชาติและการมองเห็นคอมพิวเตอร์ เทคนิคหลักคือการใช้โมเดลเอนโค้ดเดอร์เพื่อเปลี่ยนข้อมูลดิบให้เป็นการฝังข้อมูลเชิงตัวเลข การฝังข้อมูลเหล่านี้เป็นเวกเตอร์หลายมิติที่จับภาพแก่นแท้ทางความหมายและความสัมพันธ์เชิงพื้นที่ภายในข้อมูล จึงทำให้แปลงข้อมูลมิติสูงให้เป็นการแทนค่ามิติต่ำเพื่อปรับปรุงประสิทธิภาพของข้อมูล Google DeepMind เพิ่งเปิดตัวโมเดลทางภูมิสารสนเทศอเนกประสงค์ AlphaEarth Foundations (AEF) โมเดลนี้เรียนรู้การแทนค่าที่หนาแน่นและครอบคลุมทั่วโลกของพื้นผิวโลก โดยจับภาพรูปแบบที่ซับซ้อนและความเชื่อมโยงซึ่งกันและกัน โดยพื้นฐานแล้ว AEF เปลี่ยนข้อมูลการสังเกตโลกที่ซับซ้อนให้เป็นการแทนค่าแฝงที่มีโครงสร้างและหนาแน่นมากขึ้น ซึ่งแม้จะมีความหมายทางความหมายน้อยกว่าสำหรับมนุษย์ แต่ให้โครงสร้างที่เหมาะสมกว่าสำหรับการประยุกต์ใช้วิธีการ ML ต่องานปลายทาง
เพื่อฝึกอบรมโมเดล AEF ทีม Google DeepMind ใช้ประโยชน์จากชุดข้อมูลที่หลากหลายเพื่อทำหน้าที่เป็นข้อมูลนำเข้าและเป้าหมายในการฝึกอบรม ข้อมูลนำเข้าในการฝึกอบรมประกอบด้วยภาพจาก Sentinel และ Landsat เป้าหมายประกอบด้วยข้อมูลประเภทต่างๆ รวมถึงภูมิประเทศ (Copernicus DEM) การใช้ที่ดิน (NLCD) และสภาพภูมิอากาศ (ERA5-Land) โมเดล AEF ใช้โครงข่ายออโต้เอนโค้ดเดอร์แบบเรียนรู้ด้วยตนเองเพื่อเรียนรู้การแทนค่าที่ทำให้สามารถสร้างชุดข้อมูลเป้าหมายแต่ละชุดขึ้นมาใหม่จากเพียงข้อมูลนำเข้าเท่านั้น โมเดลนี้ใช้เอนโค้ดเดอร์ Space Time Precision (STP) ที่เป็นนวัตกรรมใหม่ ซึ่งออกแบบมาโดยเฉพาะเพื่อประมวลผลความสัมพันธ์ระยะไกลข้ามเวลาและพื้นที่ การเรียนรู้การฝังข้อมูลขั้นสุดท้ายทำสำเร็จด้วยโครงข่ายประสาทเทียมสามชุด ได้แก่ 1) โครงข่ายครู (teacher network) ที่ประมวลผลภาพนำเข้าที่สมบูรณ์และไม่ถูกเปลี่ยนแปลง 2) โครงข่ายนักเรียน (student network) ที่มีสถาปัตยกรรมเดียวกันกับโครงข่ายครูและพยายามสร้างการฝังข้อมูลเดียวกันกับโครงข่ายครู แม้ว่าจะมาจากข้อมูลนำเข้าที่ถูกรบกวนหรือไม่สมบูรณ์ และ 3) โครงข่ายการจัดเรียงข้อความ (text alignment network) ที่รับคำอธิบายข้อความจาก Wikipedia และสร้างการฝังข้อมูล การรวมกันของฟังก์ชันความสูญเสียสี่ชนิด คือ ความสูญเสียจากการสร้างใหม่ (reconstruction loss) ความสูญเสียจากความสอดคล้อง (consistency loss) ความสูญเสียจากความตัดกันของข้อความ (text contrastive loss) และความสูญเสียจากความสม่ำเสมอของแบตช์ (batch uniformity loss) ข้ามโครงข่ายทั้งสามชุดนี้ สร้างการฝังข้อมูลขั้นสุดท้าย
การแทนค่าที่เรียนรู้เหล่านี้เปิดให้เข้าถึงสาธารณะเป็นชุดข้อมูลของเวกเตอร์ 64 มิติสำหรับแต่ละปี เรียกว่าชุดข้อมูล "Satellite Embedding" ชุดข้อมูลนี้เป็นชุดข้อมูลรายปีระดับโลกที่มีความละเอียดเชิงพื้นที่ 10 เมตร ซึ่งปัจจุบันมีให้บริการตั้งแต่ปี 2017 ถึง 2024

1.3 ปัญหาและวัตถุประสงค์

ปัญหา

ข้อมูลดิบหรือข้อมูลที่มีความหนาแน่นของสารสนเทศ (เช่น ดาวเทียมหรือการฝังข้อมูล) แทบไม่เคยให้ข้อมูลเชิงลึกที่สกัดได้ง่าย การสกัดข้อมูลเชิงลึกมักเกี่ยวข้องกับการแสดงภาพหรือการแปลงเป็นการแทนค่าที่เรียบง่ายและเข้าใจได้ง่ายกว่า ในบริบททางภูมิสารสนเทศ สิ่งนี้มักอยู่ในรูปแบบของฉลากข้อมูลทางภูมิสารสนเทศที่ระบุคุณลักษณะที่สำคัญ เช่น ถนนหรือประเภทของพืชผล น่าเสียดายที่สำหรับการประยุกต์ใช้งานจำนวนมาก ข้อมูลที่มีฉลากมีอยู่เฉพาะบางภูมิภาคเท่านั้น สิ่งนี้จำกัดการเข้าถึงโมเดลและความสามารถในการตีความข้อมูลในพื้นที่กว้างใหญ่ของโลกอย่างมาก

วัตถุประสงค์

เป้าหมายหลักของบทความนี้คือการตรวจสอบว่า AEF สามารถนำมาใช้เพื่อสร้างฉลากสำหรับภูมิภาคที่ไม่มีฉลากก่อนหน้านี้หรือไม่ เนื่องจาก AEF สร้างขึ้นจากแหล่งข้อมูลคุณภาพสูงที่ครอบคลุมข้อมูลนำเข้าและโมดัลลิตีจำนวนมาก มันจึงมีศักยภาพที่จะทำหน้าที่เป็นฐานการประมาณค่าที่ให้ฉลากด้วยระดับความแม่นยำสูง

2 การขยายชุดข้อมูลไปยังภูมิภาคใหม่ผ่าน AEF: กรณีศึกษา

ประเภทของพืชพรรณ เป็นคุณลักษณะสำคัญที่มนุษย์ใช้เมื่อตีความความเสี่ยงจากไฟป่า เนื่องจากช่วยให้เข้าใจการแพร่กระจายและการติดไฟที่เป็นไปได้ของไฟป่า ดังนั้น ข้อมูลพืชพรรณที่มีฉลากจึงมีคุณค่าอย่างยิ่งในการอธิบายผลลัพธ์ของโมเดลความเสี่ยงจากไฟป่าที่เรียนรู้ด้วยเครื่อง ในบทความนี้ เราตรวจสอบการขยายชุดข้อมูลประเภทพืชพรรณที่มีอยู่จากสหรัฐอเมริกาไปยังแคนาดา สิ่งนี้ทำหน้าที่เป็นกรณีศึกษาของศักยภาพของ AEF สำหรับการขยายชุดข้อมูล

2.1 ข้อมูล

EVT LANDFIRE เป็นโปรแกรมหลายหน่วยงานที่ดำเนินการโดยกรมป่าไม้สหรัฐฯ กระทรวงมหาดไทย และสำรวจธรณีวิทยาสหรัฐฯ LANDFIRE จัดเตรียมชุดข้อมูลเชิงนิเวศที่เรียกว่า Existing Vegetation Type (EVT) ซึ่งในอดีตถูกใช้สำหรับความพยายามในการจัดการไฟป่า การพัฒนาชุดข้อมูลนี้ต้องการการประสานงานระหว่างหน่วยงานภาครัฐหลายแห่งเพื่อสร้างชุดข้อมูลที่มีฉลากและฝึกอบรมโมเดลต้นไม้การตัดสินใจเพื่อทำนายประเภทพืชพรรณที่มีอยู่ อย่างไรก็ตาม ชุดข้อมูลมีข้อจำกัดเฉพาะสหรัฐอเมริกา (ทวีป อลาสกา ฮาวาย และพื้นที่เกาะ) และทำหน้าที่เป็นตัวอย่างสำคัญสำหรับข้อมูลที่มีประโยชน์สูงซึ่งไม่ขยายไปทั่วโลก ในกรณีการใช้งานที่เป็นแรงจูงใจของเรา การขยายข้อมูล EVT ไปยังแคนาดาจะช่วยให้เราเข้าใจการทำนายความเสี่ยงจากไฟป่าในภูมิภาคแคนาดาได้ดีขึ้น
image.png
รูปที่ 1: แผนภาพของการฝึกอบรมและการอนุมานของโมเดล ข้อมูล AEF 64 แบนด์ (ข้อมูลนำเข้า) และข้อมูล EVT (เป้าหมาย) จากสหรัฐอเมริกาทวีปเหนือเส้นประสีแดงและอลาสกาถูกใช้เพื่อฝึกอบรมโมเดล การรันการอนุมานบนข้อมูล AEF ในแคนาดาให้ค่า EVT ที่คาดหวังในภูมิภาคที่ไม่มีฉลากก่อนหน้านี้

ระดับความละเอียดของ EVT

ชุดข้อมูล EVT ประกอบด้วยฉลากในระดับความละเอียดของการจำแนกประเภทที่หลากหลาย LANDFIRE จัดเตรียมการแมปฉลากข้ามระดับความละเอียดที่แตกต่างกันเหล่านี้ เช่น "Western Hemlock-Yellow-cedar Forest" ในระดับความละเอียดกลาง (EVTGP: ประเภทพืชพรรณที่ยุบรวม) แมปเป็น "Conifer" ในระดับความละเอียดที่ต่ำกว่า (EVTPHYS: ลักษณะทางกายภาพ) บทความนี้อธิบายผลลัพธ์การฝึกอบรมทั้งในระดับความละเอียด EVTPHYS (ต่ำ) และ EVTGP (กลาง)
สำหรับการฝึกอบรมโมเดลของเรา เราตั้งค่า AEF เป็นข้อมูลนำเข้าและ EVT เป็นผลลัพธ์เป้าหมายตามที่นำเสนอในรูปที่ 1 โดยเฉพาะอย่างยิ่ง การฝังข้อมูล AEF ได้รับการประเมินด้วยเป้าหมายการจำแนกประเภทสูงสุด 40 คลาส ดังนั้น EVTGP จึงทำหน้าที่เป็นการตรวจสอบความสามารถของ AEF ในการทำนัยทั่วไปไปยังงานการจำแนกประเภทที่ยากยิ่งขึ้นกว่าที่ได้รับการปรับให้เหมาะสมในตอนแรก

การเลือกข้อมูล

การตัดสินใจออกแบบโดยเจตนาจำเป็นต้องทำเมื่อขยายชุดข้อมูลที่มีฉลากไปยังภูมิภาคอื่นเช่นแคนาดา ในบริบทของเรา เราฝึกอบรมกับข้อมูลจากอลาสกาและภาคเหนือของสหรัฐอเมริกาทวีป (CONUS) เหนือเส้นละติจูด 41.6 องศา เนื่องจากเราเชื่อว่ามันให้สมดุลที่มีประสิทธิภาพระหว่างปริมาณข้อมูลและภูมิภาคที่แสดงลักษณะทางนิเวศหรือสภาพแวดล้อมที่คล้ายคลึงกันมากที่สุดกับภูมิภาคแคนาดาเป้าหมาย เราใช้รุ่น 2020 ของ LANDFIRE สำหรับ EVT ในการศึกษาของเรา

การประมวลผลข้อมูลล่วงหน้า

การจำแนกประเภท EVTGP เดิมของ LANDFIRE ประกอบด้วย 194 คลาสที่ไม่ซ้ำกัน แต่เรากรองคลาสที่คิดเป็นน้อยกว่า 0.1% ของชุดข้อมูลในภูมิภาคการฝึกอบรมออกเพื่อจัดการกับความไม่สมดุลของคลาส ส่งผลให้มี 80 คลาสที่ครอบคลุมทั่วสหรัฐอเมริกาทวีปและภูมิภาคอลาสกาที่เลือก พิกเซลที่ไม่ได้อยู่ในหนึ่งใน 80 คลาสนี้จะถูกละเว้นในการฝึกอบรมผ่านหน้ากาก สำหรับ EVTPHYS เรารวมกลุ่มคลาสที่เกี่ยวข้องกับการพัฒนาทั้งหมด ซึ่งให้ผลลัพธ์ 13 คลาสจากเดิม 17 คลาส เราดาวน์โหลดการฝังข้อมูล AEF จาก Google Earth Engine และฝึกอบรมกับ AEF และ EVT ด้วยความละเอียด 500 เมตร

การแบ่งข้อมูล

เราแบ่งข้อมูล CONUS ทางเหนือและอลาสกาของเราตามภูมิศาสตร์เป็นไทล์ขนาด 64x64 เราจัดสรร 90% ของไทล์เหล่านี้สำหรับการฝึกอบรมและ 10% สำหรับการตรวจสอบ ชุดข้อมูล EVT จัดเตรียมข้อมูลสำหรับแถบ 90 กิโลเมตรทางใต้สุดของแคนาดาและแถบกว้าง 90 กิโลเมตรทางตะวันตกตามชายแดนอลาสกาในรุ่นล่าสุด เราสงวนข้อมูลนี้สำหรับชุดทดสอบขั้นสุดท้ายของเรา เนื่องจากตรงกับเป้าหมายที่ต้องการของเราโดยตรงและช่วยให้เราประเมินความสามารถในการทำนัยทั่วไปของแนวทางของเราไปยังภูมิภาคที่ไม่เคยเห็นมาก่อน โดยรวมแล้ว พิกเซล 4.1 ล้านพิกเซลถูกใช้สำหรับการทดสอบ (2.9 ล้านใน CONUS ทางเหนือและ 1.2 ล้านในอลาสกา) และ 34.6 ล้านพิกเซลถูกใช้สำหรับการฝึกอบรมและการตรวจสอบ

2.2 โมเดล

วิธีการที่เราเสนอเพื่อขยายชุดข้อมูลที่มีอยู่คือการฝึกอบรมโมเดลการเรียนรู้ของเครื่องเพื่อทำนายฉลาก (เช่น EVT) จากข้อมูลนำเข้า AEF เราได้พัฒนากระบวนการที่ยืดหยุ่นและปรับเปลี่ยนได้ ซึ่งสถาปัตยกรรมโมเดลสามารถเปลี่ยนได้อย่างง่ายดาย สิ่งนี้ช่วยให้สามารถทดลองอย่างรวดเร็วกับสถาปัตยกรรมที่ออกแบบมาเพื่อปรับให้เหมาะสมสำหรับลักษณะข้อมูลบางอย่างหรือความละเอียดหรือความละเอียดของผลลัพธ์ที่ต้องการ แม้ว่าเราจะประยุกต์ใช้วิธีการและกระบวนการของเราเพื่อขยายชุดข้อมูลไปยังแคนาดาจากสหรัฐอเมริกาในบทความนี้ แต่สิ่งเหล่านี้มีความยืดหยุ่นและสามารถนำไปใช้กับภูมิภาคอื่นๆ ได้ เราประเมินโมเดลสี่แบบสำหรับกรณีศึกษานี้
Logistic Regression เราฝึกอบรมโมเดล logistic regression ซึ่งสำหรับพิกเซล AEF ที่กำหนดจะกำหนดน้ำหนักเชิงเส้นของค่าแบนด์ AEF ทั้ง 64 ค่าเพื่อสร้างการจำแนกประเภท EVT
Random Forest เราใช้ประโยชน์จากโมเดล RandomForestClassifier ของ scikit-learn เพื่อเรียนรู้การแมปจาก AEF ไปยัง EVT ในระดับพิกเซลตามข้างต้น
Gradient Boosted Tree เราใช้ LGBMClassifier จากไลบรารี LightGBM เช่นเดียวกับโมเดล linear และ random forest พิกเซลแต่ละตัวประกอบเป็นข้อมูลนำเข้าและผลลัพธ์
Segmentation Model เราใช้กระบวนการแบ่งส่วนทางความหมายแบบเอนโค้ดเดอร์-ดีโค้ดเดอร์ โมเดลนี้เรียนรู้โดยการฝึกอบรมเอนโค้ดเดอร์และดีโค้ดเดอร์ร่วมกันบนข้อมูลนำเข้าภาพ AEF และเป้าหมายภาพ EVT ที่สอดคล้องกัน เอนโค้ดเดอร์ประมวลผลการแทนค่าของ AEF โดยสกัดและบีบอัดสัญญาณที่เกี่ยวข้องมากที่สุดสำหรับเลเยอร์คุณลักษณะทางภูมิสารสนเทศเป้าหมาย ดีโค้ดเดอร์สร้างภาพฉลากขึ้นมาใหม่จากการแทนค่าที่บีบอัดนี้ โดยการเปรียบเทียบผลลัพธ์ที่ทำนายของโมเดลกับภาพฉลากข้อเท็จจริงที่มีอยู่อย่างต่อเนื่องระหว่างการฝึกอบรม โมเดลจะเรียนรู้ที่จะเข้ารหัสและถอดรหัสสัญญาณสภาพแวดล้อมได้อย่างถูกต้อง

เราเลือกสถาปัตยกรรม U-Net แบบ fully-convolutional โดยใช้ EfficientNet-B4 ที่ฝึกอบรมล่วงหน้าบน advprop สำหรับเอนโค้ดเดอร์ (ดูรูปที่ 5 ในภาคผนวก C สำหรับรายละเอียดสถาปัตยกรรม) เราฝึกอบรมโดยไม่มีการทับซ้อนของไทล์เพื่อป้องกันการรั่วไหลของข้อมูลไปยังชุดตรวจสอบ ระหว่างการอนุมานไปยังภูมิภาคที่ไม่มีฉลาก เราตั้งค่าการทับซ้อน 50% บนไทล์การอนุมานเพื่อจำกัดสิ่งประดิษฐ์ชายแดน แผนที่การอนุมานขั้นสุดท้ายถูกสร้างขึ้นโดยการนำความน่าจะเป็นของผลลัพธ์จากเลเยอร์ softmax ขั้นสุดท้ายและเลือกคลาสที่มีความน่าจะเป็นสูงสุดหลังจากการปรับให้เรียบเฉลี่ยข้ามการทับซ้อน เราดำเนินการเสริมข้อมูลการฝึกอบรมที่ประกอบด้วยการพลิกแนวนอนและแนวตั้ง การหมุนแบบสุ่ม 90 องศา และการทรานสโพสแต่ละอย่างด้วยความน่าจะเป็น 50% ระหว่างการฝึกอบรม เราใช้ Adam เป็นตัวปรับให้เหมาะสม พร้อมกับตัวกำหนดตารางอัตราการเรียนรู้ที่ลดลงเมื่อค่าคงที่ เราฝึกอบรมโมเดลการแบ่งส่วนของเราโดยใช้ cross-entropy loss การฝึกอบรมถูกจำกัดไว้ที่สูงสุด 350 epochs โดยเปิดใช้งานการหยุดก่อนกำหนด (15 epochs)

ฮาร์ดแวร์

โมเดลในบทความนี้ได้รับการฝึกอบรมบนเครื่องเสมือนด้วย 160 Intel Broadwell vCPUs และหน่วยความจำ 3844 GB สำหรับโมเดลการแบ่งส่วน เราใช้ GPU A100 เดี่ยว

การขยายชุดข้อมูล

เมื่อการฝึกอบรมเสร็จสมบูรณ์และได้รับการตรวจสอบเพื่อให้บรรลุเมตริกที่ยอมรับได้ โมเดลจะถูกบันทึก จากนั้นโมเดลที่บันทึกไว้สามารถนำไปใช้งานได้อย่างราบรื่นเพื่อทำการอนุมานในภูมิภาคที่ต้องการ (รวมถึงภูมิภาคที่ไม่มีฉลากก่อนหน้านี้) โดยรันบนข้อมูลนำเข้า AEF ของภูมิภาคนั้น โมเดลได้รับการแท็กอย่างเหมาะสมเพื่อป้องกันการนำไปใช้งานในภูมิภาคที่คุณลักษณะเป้าหมายอาจตกอยู่ในการแจกแจงที่แตกต่างอย่างสิ้นเชิง เนื่องจากสิ่งนี้อาจไม่ให้ฉลากที่เหมาะสม

Want to print your doc?
This is not the way.
Try clicking the ··· in the right corner or using a keyboard shortcut (
CtrlP
) instead.