Computer >> คอมพิวเตอร์ >  >> การเขียนโปรแกรม >> Python

วิธีใช้ Boto3 เพื่อแบ่งหน้าผ่านอ็อบเจ็กต์การอัปโหลดแบบหลายส่วนของถัง S3 ที่มีอยู่ใน AWS Glue


คำชี้แจงปัญหา: ใช้ boto3 ไลบรารีใน Python เพื่อแบ่งหน้าผ่านอ็อบเจ็กต์การอัปโหลดแบบหลายส่วนของบัคเก็ต S3 จาก AWS Glue Data Catalog ที่สร้างขึ้นในบัญชีของคุณ

แนวทาง/อัลกอริทึมในการแก้ปัญหานี้

  • ขั้นตอนที่ 1: นำเข้า boto3 และ botcore ข้อยกเว้นในการจัดการข้อยกเว้น

  • ขั้นตอนที่ 2: prefix_name max_items , page_size และ starting_token เป็นพารามิเตอร์ทางเลือกสำหรับฟังก์ชันนี้ในขณะที่ bucket_name เป็นพารามิเตอร์ที่จำเป็น

    • Prefix_name เป็นโฟลเดอร์ย่อยเฉพาะที่ผู้ใช้ต้องการแบ่งหน้าผ่าน

    • max_items หมายถึงจำนวนระเบียนที่จะส่งคืนทั้งหมด หากจำนวนระเบียนที่มีอยู่> max_items จากนั้น NextToken จะถูกจัดเตรียมในการตอบสนองต่อการแบ่งหน้าต่อ

    • page_size หมายถึงขนาดของแต่ละหน้า

  • starting_token ช่วยในการแบ่งหน้า และใช้ Marker จากการตอบกลับครั้งก่อน

  • ขั้นตอนที่ 3: สร้างเซสชัน AWS โดยใช้ boto3 lib . ตรวจสอบให้แน่ใจว่า region_name ถูกกล่าวถึงในโปรไฟล์เริ่มต้น หากไม่กล่าวถึง ให้ส่ง region_name . อย่างชัดแจ้ง ขณะสร้างเซสชัน

  • ขั้นตอนที่ 4: สร้างไคลเอ็นต์ AWS สำหรับ S3

  • ขั้นตอนที่ 5: สร้าง ตัวแบ่งหน้า ออบเจ็กต์ที่มีรายละเอียดของเวอร์ชันออบเจ็กต์ของบัคเก็ต S3 โดยใช้ list_multipart_uploads .

  • ขั้นตอนที่ 6: เรียกใช้ฟังก์ชันเลขหน้าและส่ง max_items , page_size และ starting_token เป็น PaginationConfig พารามิเตอร์ในขณะที่ bucket_name เป็นพารามิเตอร์ Bucket และ prefix_name เป็น Prefix

  • ขั้นตอนที่ 7: ส่งกลับจำนวนระเบียนตาม max_size และ page_size .

  • ขั้นตอนที่ 8: จัดการกับข้อยกเว้นทั่วไปหากมีสิ่งผิดปกติเกิดขึ้นขณะทำการแบ่งหน้า

โค้ดตัวอย่าง

ใช้รหัสต่อไปนี้เพื่อแบ่งหน้าผ่านการอัปโหลดหลายส่วนของถัง S3 ที่สร้างขึ้นในบัญชีผู้ใช้ -

import boto3
from botocore.exceptions import ClientError

def paginate_through_multipart_upload_s3_bucket(bucket_name, prefix_name=None, max_items=None:int,page_size=None:int, starting_token=None:string):
   session = boto3.session.Session()
   s3_client = session.client('s3')
   try:
   paginator = s3_client.get_paginator('list_objects')
      response = paginator.paginate(Bucket=bucket_name, Prefix=prefix_name,   PaginationConfig={
         'MaxItems':max_items,
         'PageSize':page_size,
         'StartingToken':starting_token}
      )
   return response
   except ClientError as e:
      raise Exception("boto3 client error in paginate_through_multipart_upload_s3_bucket: " + e.__str__())
   except Exception as e:
      raise Exception("Unexpected error in paginate_through_multipart_upload_s3_bucket: " + e.__str__())

a = paginate_through_multipart_upload_s3_bucket('s3-test-bucket', 'testfolder',2,5)
print(*a)

ผลลัพธ์

{'ResponseMetadata': {'RequestId': 'YA9CGTAAX', 'HostId': '8dqJW******************', 'HTTPStatusCode': 200, 'HTTPHeaders': {'x-amz-id-2': '8dqJW*********************, 'x-amz-request-id': 'YA9CGTAAX', 'date': 'Sat, 03 Apr 2021 08:16:05 GMT', 'content-type': 'application/xml', 'transfer-encoding': 'chunked', 'server': 'AmazonS3'}, 'RetryAttempts': 0}, 'Bucket': 's3-test-bucket', 'KeyMarker': '', 'UploadIdMarker': '', 'NextKeyMarker': '', 'Prefix': 'testfolder', 'NextUploadIdMarker': '', 'MaxUploads': 5, 'IsTruncated': False, 'Uploads': [
{'UploadId': 'YADF**************LK25',
'Key': 'testfolder/testfilemultiupload.csv',
'Intiated':datetime(2021,1,2),
'StorageClass': 'STANDARD'
'Owner':{
'DisplayName': 'AmazonServicesJob'
'Id': '********************'
}
], 'CommonPrefixes': None}