คำชี้แจงปัญหา − ใช้ไลบรารี boto3 ใน Python เพื่อรับรายละเอียดของโปรแกรมรวบรวมข้อมูล
ตัวอย่าง − รับรายละเอียดของโปรแกรมรวบรวมข้อมูล Crawler_for_s3_file_job
แนวทาง/อัลกอริทึมในการแก้ปัญหานี้
ขั้นตอนที่ 1 - นำเข้าข้อยกเว้น boto3 และ botocore เพื่อจัดการกับข้อยกเว้น
ขั้นตอนที่ 2 − crawler_name เป็นพารามิเตอร์บังคับ เป็นสตริงที่ผู้ใช้สามารถส่งชื่อโปรแกรมรวบรวมข้อมูลได้ครั้งละหนึ่งชื่อเพื่อดึงรายละเอียด
ขั้นตอนที่ 3 − สร้างเซสชัน AWS โดยใช้ไลบรารี boto3 ตรวจสอบให้แน่ใจว่า region_name ถูกกล่าวถึงในโปรไฟล์เริ่มต้น หากไม่กล่าวถึง ให้ส่ง region_name . อย่างชัดแจ้ง ขณะสร้างเซสชัน
ขั้นตอนที่ 4 − สร้างไคลเอนต์ AWS สำหรับกาว
ขั้นตอนที่ 5 − ตอนนี้ใช้ get_crawler และส่งผ่าน crawler_name .
ขั้นตอนที่ 6 − ส่งคืนข้อมูลเมตาของโปรแกรมรวบรวมข้อมูล
ขั้นตอนที่ 7 − จัดการข้อยกเว้นทั่วไปหากมีข้อผิดพลาดขณะตรวจสอบงาน
ตัวอย่าง
ใช้รหัสต่อไปนี้เพื่อดึงรายละเอียดของโปรแกรมรวบรวมข้อมูล -
import boto3 from botocore.exceptions import ClientError def get_one_crawler_details(crawler_name:str) session = boto3.session.Session() glue_client = session.client('glue') try: crawler_details = glue_client.get_crawler(Name= crawler_name) return crawler_details except ClientError as e: raise Exception("boto3 client error in get_one_crawler_details: " + e.__str__()) except Exception as e: raise Exception("Unexpected error in get_one_crawler_details: " + e.__str__()) print(get_one_crawler_details("crawler_for_s3_file_job"))
ผลลัพธ์
{'Crawler': {'Name': 'crawler_for_s3_file_job', 'Role': 'glue-role', 'Targets': {'S3Targets': [{'Path': 's3://test/', 'Exclusions': []}], 'JdbcTargets': [], 'DynamoDBTargets': [], 'CatalogTargets': []}, 'DatabaseName': 'default', 'Classifiers': [], 'SchemaChangePolicy': {'UpdateBehavior': 'UPDATE_IN_DATABASE', 'DeleteBehavior': 'DEPRECATE_IN_DATABASE'}, 'State': 'READY', 'TablePrefix': 'prod_scdk_', 'CrawlElapsedTime': 0, 'CreationTime': datetime.datetime(2018, 9, 24, 20, 42, 7, tzinfo=tzlocal()), 'LastUpdated': datetime.datetime(2020, 4, 27, 14, 49, 12, tzinfo=tzlocal()), 'LastCrawl': {'Status': 'SUCCEEDED', 'LogGroup': '/aws-glue/crawlers', 'LogStream': 'crawler_for_s3_file_job', 'MessagePrefix': ************-90ad1', 'StartTime': datetime.datetime(2020, 4, 27, 14, 49, 19, tzinfo=tzlocal())}, 'Version': 15}, 'ResponseMetadata': {'RequestId': '8c7dcbde-***********************-774', 'HTTPStatusCode': 200, 'HTTPHeaders': {'date': 'Sun, 28 Feb 2021 11:34:32 GMT', 'content-type': 'application/x-amz-json-1.1', 'content-length': '805', 'connection': 'keep-alive', 'x-amzn-requestid': '8c7dcbde-**********************774'}, 'RetryAttempts': 0}}