ในบทความนี้ เราจะมาดูกันว่าผู้ใช้สามารถเริ่มโปรแกรมรวบรวมข้อมูลใน AWS Glue Data Catalog ได้อย่างไร
ตัวอย่าง
คำชี้แจงปัญหา: ใช้ boto3 ไลบรารีใน Python เพื่อเริ่มโปรแกรมรวบรวมข้อมูล
แนวทาง/อัลกอริทึมในการแก้ปัญหานี้
-
ขั้นตอนที่ 1: นำเข้า boto3 และ botcore ข้อยกเว้นในการจัดการข้อยกเว้น
-
ขั้นตอนที่ 2: crawler_name เป็นพารามิเตอร์ในฟังก์ชันนี้
-
ขั้นตอนที่ 3: สร้างเซสชัน AWS โดยใช้ boto3 lib . ตรวจสอบให้แน่ใจว่า region_name ถูกกล่าวถึงในโปรไฟล์เริ่มต้น หากไม่กล่าวถึง ให้ส่ง region_name . อย่างชัดแจ้ง ขณะสร้างเซสชัน
-
ขั้นตอนที่ 4: สร้างไคลเอ็นต์ AWS สำหรับ กาว .
-
ขั้นตอนที่ 5: ตอนนี้ใช้ start_crawler และส่งผ่านพารามิเตอร์ crawler_name ตามชื่อ
-
ขั้นตอนที่ 6: ส่งคืนข้อมูลเมตาการตอบกลับ และเริ่มโปรแกรมรวบรวมข้อมูลโดยไม่คำนึงถึงกำหนดการ หากสถานะของโปรแกรมรวบรวมข้อมูลกำลังทำงาน จะแสดง CrawlerRunningException .
-
ขั้นตอนที่ 7: จัดการกับข้อยกเว้นทั่วไปหากมีข้อผิดพลาดขณะเริ่มโปรแกรมรวบรวมข้อมูล
โค้ดตัวอย่าง
รหัสต่อไปนี้เริ่มโปรแกรมรวบรวมข้อมูลใน AWS Glue Data Catalog -
import boto3 from botocore.exceptions import ClientError def start_a_crawler(crawler_name) session = boto3.session.Session() glue_client = session.client('glue') try: response = glue_client.start_crawler(Name=crawler_name) return response except ClientError as e: raise Exception("boto3 client error in start_a_crawler: " + e.__str__()) except Exception as e: raise Exception("Unexpected error in start_a_crawler: " + e.__str__()) #1st time start the crawler print(start_a_crawler("Data Dimension")) #2nd time run, before crawler completes the operation print(start_a_crawler("Data Dimension"))
ผลลัพธ์
#1st time start the crawler {'ResponseMetadata': {'RequestId': '73e50130-*****************8e', 'HTTPStatusCode': 200, 'HTTPHeaders': {'date': 'Sun, 28 Mar 2021 07:26:55 GMT', 'content-type': 'application/x-amz-json-1.1', 'content-length': '2', 'connection': 'keep-alive', 'x-amzn-requestid': '73e50130-***************8e'}, 'RetryAttempts': 0}} #2nd time run, before crawler completes the operation Exception: boto3 client error in start_a_crawler: An error occurred (CrawlerRunningException) when calling the StartCrawler operation: Crawler with name Data Dimension has already started