Computer >> คอมพิวเตอร์ >  >> การเขียนโปรแกรม >> Python

หลังจากการทำให้เป็นมาตรฐานแล้ว Tensorflow จะนำไปใช้ในการฝึกและสร้างแบบจำลองได้อย่างไร


การฝึกอบรมและสร้างแบบจำลองเกี่ยวกับข้อมูลหอยเป๋าฮื้อสามารถทำได้โดยใช้วิธีการ 'รวบรวม' และ 'พอดี' ตามลำดับ วิธี 'พอดี' ยังใช้จำนวนยุคเป็นพารามิเตอร์ด้วย

อ่านเพิ่มเติม: TensorFlow คืออะไรและ Keras ทำงานร่วมกับ TensorFlow เพื่อสร้าง Neural Networks อย่างไร

เราจะใช้ชุดข้อมูลหอยเป๋าฮื้อซึ่งมีชุดการวัดหอยเป๋าฮื้อ หอยเป๋าฮื้อเป็นหอยทากชนิดหนึ่ง เป้าหมายคือการทำนายอายุตามการวัดอื่นๆ

เรากำลังใช้ Google Colaboratory เพื่อเรียกใช้โค้ดด้านล่าง Google Colab หรือ Colaboratory ช่วยเรียกใช้โค้ด Python บนเบราว์เซอร์และไม่ต้องมีการกำหนดค่าใดๆ และเข้าถึง GPU ได้ฟรี (หน่วยประมวลผลกราฟิก) Colaboratory ถูกสร้างขึ้นบน Jupyter Notebook

print("The model is being compiled")
norm_abalone_model.compile(loss = tf.losses.MeanSquaredError(),optimizer = tf.optimizers.Adam())
print("The model is being fit to the data")
norm_abalone_model.fit(abalone_features, abalone_labels, epochs=8)

เครดิตโค้ด:https://www.tensorflow.org/tutorials/load_data/csv

ผลลัพธ์

The model is being compiled
The model is being fit to the data
Epoch 1/8
104/104 [==============================] - 0s 989us/step - loss: 98.3651
Epoch 2/8
104/104 [==============================] - 0s 945us/step - loss: 65.4568
Epoch 3/8
104/104 [==============================] - 0s 922us/step - loss: 21.7297
Epoch 4/8
104/104 [==============================] - 0s 912us/step - loss: 6.3429
Epoch 5/8
104/104 [==============================] - 0s 988us/step - loss: 5.0949
Epoch 6/8
104/104 [==============================] - 0s 958us/step - loss: 4.9868
Epoch 7/8
104/104 [==============================] - 0s 1ms/step - loss: 4.8982
Epoch 8/8
104/104 [==============================] - 0s 1ms/step - loss: 4.7936
<tensorflow.python.keras.callbacks.History at 0x7fda8213c898>

คำอธิบาย

  • เมื่อสร้างเลเยอร์การทำให้เป็นมาตรฐานแล้ว โมเดลจะได้รับการฝึกด้วยข้อมูลการฝึก
  • เมื่อการฝึกอบรมเสร็จสิ้น คุณลักษณะและป้ายกำกับจะถูกส่งไปยังข้อมูลโดยใช้วิธี 'Model.fit'