Computer >> คอมพิวเตอร์ >  >> การเขียนโปรแกรม >> Python

วิธีใช้ Boto3 เพื่อแบ่งหน้าผ่านการรันงานของงานที่มีอยู่ใน AWS Glue


ในบทความนี้ เราจะมาดูวิธีการแบ่งหน้าในการรันงานทั้งหมดของงานที่มีอยู่ใน AWS Glue

ตัวอย่าง

คำชี้แจงปัญหา: ใช้ boto3 ไลบรารีใน Python เพื่อแบ่งหน้าผ่านการรันงานจาก AWS Glue Data Catalog ที่สร้างขึ้นในบัญชีของคุณ

แนวทาง/อัลกอริทึมในการแก้ปัญหานี้

  • ขั้นตอนที่ 1: นำเข้า boto3 และ botcore ข้อยกเว้นในการจัดการข้อยกเว้น

  • ขั้นตอนที่ 2: max_items , page_size และ starting_token เป็นพารามิเตอร์ทางเลือกสำหรับฟังก์ชันนี้ ขณะที่ job_name เป็นสิ่งจำเป็น

    • max_items หมายถึงจำนวนระเบียนที่จะส่งคืนทั้งหมด หากจำนวนระเบียนที่มีอยู่> max_items แล้วก็ NextToken จะถูกจัดเตรียมในการตอบสนองต่อการแบ่งหน้าต่อ

    • page_size หมายถึงขนาดของแต่ละหน้า

    • starting_token ช่วยในการแบ่งหน้า และใช้ NextToken จากการตอบกลับครั้งก่อน

  • ขั้นตอนที่ 3: สร้างเซสชัน AWS โดยใช้ boto3 lib . ตรวจสอบให้แน่ใจว่า region_name ถูกกล่าวถึงในโปรไฟล์เริ่มต้น หากไม่กล่าวถึง ให้ส่ง region_name . อย่างชัดแจ้ง ขณะสร้างเซสชัน

  • ขั้นตอนที่ 4: สร้างไคลเอนต์ AWS สำหรับกาว

  • ขั้นตอนที่ 5: สร้าง ตัวแบ่งหน้า ออบเจ็กต์ที่มีรายละเอียดของโปรแกรมรวบรวมข้อมูลทั้งหมดโดยใช้ get_job_runs

  • ขั้นตอนที่ 6: เรียกใช้ฟังก์ชันเลขหน้าและส่ง max_items , page_size และ starting_token เป็น PaginationConfig พารามิเตอร์

  • ขั้นตอนที่ 7: ส่งกลับจำนวนระเบียนตาม max_size และ page_size .

  • ขั้นตอนที่ 8: จัดการกับข้อยกเว้นทั่วไปหากมีสิ่งผิดปกติเกิดขึ้นขณะทำการแบ่งหน้า

โค้ดตัวอย่าง

ใช้รหัสต่อไปนี้เพื่อแบ่งหน้าตลอดการรันงานของงานที่สร้างในบัญชีผู้ใช้ -

import boto3
from botocore.exceptions import ClientError

def paginate_through_jobruns(job_name,max_items=None:int,page_size=None:int, starting_token=None:string):
   session = boto3.session.Session()
   glue_client = session.client('glue')
   try:
   paginator = glue_client.get_paginator('get_job_runs')
      response = paginator.paginate(JobName=job_name, PaginationConfig={
         'MaxItems':max_items,
         'PageSize':page_size,
         'StartingToken':starting_token}
      )
   return response
   except ClientError as e:
      raise Exception("boto3 client error in paginate_through_jobruns: " + e.__str__())
   except Exception as e:
      raise Exception("Unexpected error in paginate_through_jobruns: " + e.__str__())
a = paginate_through_crawlers("glue_test_job",1,5)
print(*a)

ผลลัพธ์

{'JobRuns': [
{'Id': 'jr_435b66cfe451adf5fa7c7f914be3c87d199616f52bd13bdd91bb1269f02db705', 'Attempt': 0, 'JobName': ' glue_test_job, 'StartedOn': datetime.datetime(2021, 1, 25, 22, 19, 56, 52000, tzinfo=tzlocal()), 'LastModifiedOn': datetime.datetime(2021, 1, 25, 22, 21, 50, 603000, tzinfo=tzlocal()), 'CompletedOn': datetime.datetime(2021, 1, 25, 22, 21, 50, 603000, tzinfo=tzlocal()), 'JobRunState': 'SUCCEEDED', 'Arguments': {'--additional-python-modules': 'pandas==1.1.5', '--enable-glue-datacatalog': 'true', '--extra-files': 's3://glue/job/test, '--job-bookmark-option': 'job-bookmark-disable', 'step': '0'}, 'PredecessorRuns': [], 'AllocatedCapacity': 2, 'ExecutionTime': 107, 'Timeout': 2880, 'MaxCapacity': 2.0, 'WorkerType': 'G.1X', 'NumberOfWorkers': 2, 'LogGroupName': '/aws-glue/jobs', 'GlueVersion': '2.0'}],
'NextToken': 'eyJleHBpcmF0aW9uIjp7InNlY29uZHMiOjE2MTc0NTQ0NDgsIm5hbm9zIjo2OTUwMDAwMDB9LCJsYXN0RXZhbHVhdGVkS2V5Ijp7ImpvYklkIjp7InMiOiJqXzdlYzIzNTYwOWRkMGVmYjRhNTgyNDU2YWVlZmQ4NmFlMTgwYTAyNDQ3NWY2ODRkMzc4YWFiZDBmYTk1MGJmMDcifSwicnVuSWQiOnsicyI6ImpyXzJjNDFkMmJmMzY1NGZhZGFhYzkzMjU1ZTY0OTkxOTg2YTE0Yjk2MjIyMTRlNDc4ZGNkOWE0ZTY5N2M3MGZmY2YifSwic3RhcnRlZE9uIjp7Im4iOiIxNjExMjA3MjcwODIyIn19fQ==',
'ResponseMetadata': {'RequestId': '1874370e-***********-40d', 'HTTPStatusCode': 200, 'HTTPHeaders': {'date': 'Fri, 02 Apr 2021 12:54:08 GMT', 'content-type': 'application/x-amz-json-1.1', 'content-length': '6509', 'connection': 'keep-alive', 'x-amzn-requestid': '1874370e-**************40d'}, 'RetryAttempts': 0}}