สมัครเรียนโทร. 085-350-7540 , 084-88-00-255 , ntprintf@gmail.com

AI / Machine Learning

The brief history of artificial intelligence - ประวัติศาสตร์ AI ฉบับย่อ Jupyter Notebook on AWS Pandas Tutorials ตรวจจับตำแหน่งของมือจากกล้องเว็บแคมแบบเรียลไทม์ด้วย Python ง่าย ๆ ใน 2 นาที ตรวจจับวัตถุด้วย Python ใน 5 Steps ใช้ AI แบ่งส่วนภาพคนกับฉากหลังแบบง่าย ๆ แป๊บเดียวเสร็จ ใช้ AI บอกท่าทางคนด้วย Code เพียง 15 บรรทัด สร้างแอนิเมชันจากตัวการ์ตูนที่เราวาดเองด้วย Code 2 บรรทัด สร้างไฟล์ท่าเต้นสุดคิวท์ให้ตัวการ์ตูนเต้นตามใน 1 คำสั่ง Artificial Intelligence (AI) Machine Learning 8 Fun Machine Learning ProjectsFor Beginner การหาค่าเหมาะที่สุด (Optimization) Mathematical Optimization Top 20 Python Machine Learning Open Source Projects Introduction to Neural Networks Introduction to Deep Learning with TensorFlow Installing TensorFlow for Deep Learning - OPTIONAL Deep Learning with TensorFlow - Creating the Neural Network Model Deep Learning with TensorFlow - How the Network will run พื้นฐาน TensorFlow - TensorFlow คืออะไร พื้นฐาน TensorFlow - การติดตั้ง TensorFlow บน Windows, macOS, และ Linux พื้นฐาน TensorFlow - การติดตั้ง TensorFlow สำหรับ GPU พื้นฐาน TensorFlow - การติดตั้ง TensorFlow บน Google Colab พื้นฐาน TensorFlow - ความเข้าใจพื้นฐานเกี่ยวกับ Tensor (Tensor คืออะไร) พื้นฐาน TensorFlow - การใช้ tf.constant() เพื่อสร้าง Tensor พื้นฐาน TensorFlow - การใช้ tf.Variable() เพื่อสร้างตัวแปร พื้นฐาน TensorFlow - การเปลี่ยนแปลงค่าของ Tensor พื้นฐาน TensorFlow - การทำงานกับ Operations ใน TensorFlow พื้นฐาน TensorFlow - การใช้ tf.add(), tf.subtract(), tf.multiply() TensorFlow การจัดการกับ Tensors - การเปลี่ยนรูปทรงของ Tensor ด้วย tf.reshape() TensorFlow การจัดการกับ Tensors - การเปลี่ยนชนิดข้อมูลของ Tensor ด้วย tf.cast() TensorFlow การจัดการกับ Tensors - การตัดแบ่งและรวม Tensor ด้วย tf.split() และ tf.concat() TensorFlow การจัดการกับ Tensors - การสร้าง Tensors แบบสุ่มด้วย tf.random() TensorFlow การจัดการกับ Tensors - การใช้งาน Broadcasting ใน TensorFlow TensorFlow การจัดการกับ Tensors - การคำนวณค่าเฉลี่ยและผลรวมของ Tensor TensorFlow การจัดการกับ Tensors - การหาค่าสูงสุดและต่ำสุดใน Tensor TensorFlow การจัดการกับ Tensors - การสร้าง Identity Matrix ด้วย tf.eye() TensorFlow การจัดการกับ Tensors - การหา Trace ของ Matrix TensorFlow การจัดการกับ Tensors - การคำนวณ Determinant ของ Matrix TensorFlow การทำงานกับกราฟ - การสร้าง Computational Graph TensorFlow การทำงานกับกราฟ - การใช้ Autograph ใน TensorFlow TensorFlow การทำงานกับกราฟ - การใช้ tf.function เพื่อเร่งความเร็วการทำงาน TensorFlow การทำงานกับกราฟ - การตรวจสอบ Graph ด้วย tf.summary TensorFlow การทำงานกับกราฟ - การใช้ TensorBoard เพื่อแสดงผล Graph TensorFlow การทำงานกับกราฟ - การทำงานกับ Control Flow (เช่น tf.while_loop, tf.cond) TensorFlow การทำงานกับกราฟ - การสร้าง Custom Operations TensorFlow การทำงานกับกราฟ - การใช้ Gradient Tape เพื่อคำนวณอนุพันธ์ TensorFlow การทำงานกับกราฟ - การทำ Automatic Differentiation TensorFlow การทำงานกับกราฟ - การใช้งาน Gradient Descent Optimizer TensorFlow การสร้างและจัดการโมเดล - การใช้ Sequential API ในการสร้างโมเดล TensorFlow การสร้างและจัดการโมเดล - การสร้างโมเดลด้วย Functional API TensorFlow การสร้างและจัดการโมเดล - การสร้าง Custom Layers ใน TensorFlow TensorFlow การสร้างและจัดการโมเดล - การสร้างและฝึกโมเดลด้วย Model.fit() TensorFlow การสร้างและจัดการโมเดล - การปรับแต่งโมเดลด้วย Model.compile() TensorFlow การสร้างและจัดการโมเดล - การใช้ Loss Functions เช่น MeanSquaredError, CategoricalCrossentropy TensorFlow การสร้างและจัดการโมเดล - การใช้งาน Optimizers เช่น Adam, SGD TensorFlow การสร้างและจัดการโมเดล - การทำ Regularization ในโมเดล (L1, L2) TensorFlow การสร้างและจัดการโมเดล - การสร้างโมเดลด้วย Keras API ใน TensorFlow TensorFlow การสร้างและจัดการโมเดล - การบันทึกและโหลดโมเดลที่ฝึกแล้วด้วย Model.save() และ Model.load_model() TensorFlow การทำงานกับข้อมูล - การโหลดข้อมูลจาก CSV ด้วย tf.data.Dataset TensorFlow การทำงานกับข้อมูล - การใช้ tf.data.Dataset.from_tensor_slices() เพื่อสร้าง Dataset TensorFlow การทำงานกับข้อมูล - การปรับขนาดและแปลงรูปภาพใน Dataset TensorFlow การทำงานกับข้อมูล - การทำงานกับ Batch Data ด้วย Dataset.batch() TensorFlow การทำงานกับข้อมูล - การใช้ Dataset.map() เพื่อแปลงข้อมูล TensorFlow การทำงานกับข้อมูล - การทำ Shuffling ข้อมูลด้วย Dataset.shuffle() TensorFlow การทำงานกับข้อมูล - การโหลดข้อมูลจาก TFRecord Files TensorFlow การทำงานกับข้อมูล - การเขียนข้อมูลเป็น TFRecord Files TensorFlow การทำงานกับข้อมูล - การทำ Prefetching ข้อมูลเพื่อเพิ่มความเร็ว TensorFlow การทำงานกับข้อมูล - การทำงานกับ Sequence Data ใน TensorFlow TensorFlow การประมวลผลภาพ - การใช้ TensorFlow กับชุดข้อมูล MNIST TensorFlow การประมวลผลภาพ - การโหลดและแสดงรูปภาพด้วย TensorFlow TensorFlow การประมวลผลภาพ - การทำงานกับ tf.image สำหรับการจัดการรูปภาพ TensorFlow การประมวลผลภาพ - การทำการเปลี่ยนขนาดรูปภาพ (Resizing) TensorFlow การประมวลผลภาพ - การทำการหมุนและสะท้อนรูปภาพ TensorFlow การประมวลผลภาพ - การทำ Image Augmentation TensorFlow การประมวลผลภาพ - การทำ Normalization ของภาพ TensorFlow การประมวลผลภาพ - การทำการปรับแต่งข้อมูลสำหรับการฝึกโมเดล (Data Preprocessing) TensorFlow การประมวลผลภาพ - การทำการจัดแบ่งข้อมูลเป็น Training และ Testing Sets TensorFlow การประมวลผลภาพ - การใช้ ImageDataGenerator ในการจัดการข้อมูลภาพ TensorFlow การสร้างโมเดลการรู้จำภาพ (Image Classification) - การสร้าง Convolutional Neural Network (CNN) TensorFlow การสร้างโมเดลการรู้จำภาพ (Image Classification) - การใช้งาน Convolution Layers TensorFlow การสร้างโมเดลการรู้จำภาพ (Image Classification) - การใช้ Max Pooling และ Average Pooling TensorFlow การสร้างโมเดลการรู้จำภาพ (Image Classification) - การใช้ Dropout เพื่อป้องกัน Overfitting TensorFlow การสร้างโมเดลการรู้จำภาพ (Image Classification) - การสร้างโมเดล CNN สำหรับการรู้จำภาพ TensorFlow การสร้างโมเดลการรู้จำภาพ (Image Classification) - การใช้ Transfer Learning ด้วยโมเดลที่ถูกฝึกมาแล้ว (Pre-trained Models) TensorFlow การสร้างโมเดลการรู้จำภาพ (Image Classification) - การใช้งานโมเดลเช่น VGG16, ResNet, Inception TensorFlow การสร้างโมเดลการรู้จำภาพ (Image Classification) - การประยุกต์ใช้ Fine-Tuning ในโมเดล Pre-trained TensorFlow การสร้างโมเดลการรู้จำภาพ (Image Classification) - การทำการทำนายภาพด้วยโมเดลที่ถูกฝึก TensorFlow การสร้างโมเดลการรู้จำภาพ (Image Classification) - การประเมินผลการทำนายด้วย Accuracy และ Confusion Matrix TensorFlow การทำงานกับ Sequential Data และ Time Series - การสร้าง Recurrent Neural Network (RNN) TensorFlow การทำงานกับ Sequential Data และ Time Series - การใช้งาน Simple RNN Layers TensorFlow การทำงานกับ Sequential Data และ Time Series - การใช้งาน Long Short-Term Memory (LSTM) TensorFlow การทำงานกับ Sequential Data และ Time Series - การใช้งาน Gated Recurrent Unit (GRU) TensorFlow การทำงานกับ Sequential Data และ Time Series - การสร้างโมเดลเพื่อทำนาย Time Series TensorFlow การทำงานกับ Sequential Data และ Time Series - การจัดการกับ Sequence Padding TensorFlow การทำงานกับ Sequential Data และ Time Series - การทำงานกับ Variable Length Sequences TensorFlow การทำงานกับ Sequential Data และ Time Series - การใช้ Attention Mechanism ใน Time Series TensorFlow การทำงานกับ Sequential Data และ Time Series - การสร้างและฝึก Transformer Networks TensorFlow การทำงานกับ Sequential Data และ Time Series - การประยุกต์ใช้โมเดล RNN/LSTM ในการสร้าง Text Generation TensorFlow การประมวลผลข้อความ (Text Processing) - การทำงานกับข้อความใน TensorFlow TensorFlow การประมวลผลข้อความ (Text Processing) - การใช้ Tokenization เพื่อแปลงข้อความเป็นตัวเลข TensorFlow การประมวลผลข้อความ (Text Processing) - การสร้าง Embeddings ด้วย tf.keras.layers.Embedding TensorFlow การประมวลผลข้อความ (Text Processing) - การใช้ Word2Vec ใน TensorFlow TensorFlow การประมวลผลข้อความ (Text Processing) - การทำการรู้จำความหมายในประโยคด้วย Sentiment Analysis TensorFlow การประมวลผลข้อความ (Text Processing) - การสร้างโมเดลสำหรับการจำแนกข้อความ TensorFlow การประมวลผลข้อความ (Text Processing) - การทำ Sequence to Sequence Learning TensorFlow การประมวลผลข้อความ (Text Processing) - การใช้ Attention Mechanism ใน NLP TensorFlow การประมวลผลข้อความ (Text Processing) - การสร้างโมเดลสำหรับ Machine Translation TensorFlow การประมวลผลข้อความ (Text Processing) - การใช้ Pre-trained Transformers เช่น BERT, GPT-2 ใน TensorFlow TensorFlow การเรียนรู้เชิงลึกขั้นสูง - การทำงานกับ Generative Adversarial Networks (GANs) TensorFlow การเรียนรู้เชิงลึกขั้นสูง - การสร้าง Discriminator และ Generator ใน GAN TensorFlow การเรียนรู้เชิงลึกขั้นสูง - การสร้าง Conditional GAN (cGAN) TensorFlow การเรียนรู้เชิงลึกขั้นสูง - การสร้าง Variational Autoencoders (VAEs) TensorFlow การเรียนรู้เชิงลึกขั้นสูง - การทำงานกับ Self-Supervised Learning TensorFlow การเรียนรู้เชิงลึกขั้นสูง - การประยุกต์ใช้ Reinforcement Learning ด้วย TensorFlow TensorFlow การเรียนรู้เชิงลึกขั้นสูง - การใช้ Proximal Policy Optimization (PPO) TensorFlow การเรียนรู้เชิงลึกขั้นสูง - การใช้ Deep Q-Learning (DQN) TensorFlow การเรียนรู้เชิงลึกขั้นสูง - การสร้างและฝึกโมเดล Deep Reinforcement Learning TensorFlow การเรียนรู้เชิงลึกขั้นสูง - การใช้ TensorFlow Lite เพื่อ Deploy โมเดลบน Mobile พื้นฐาน Keras - Keras คืออะไร พื้นฐาน Keras - ความแตกต่างระหว่าง Keras และ TensorFlow พื้นฐาน Keras - การติดตั้ง Keras ผ่าน TensorFlow พื้นฐาน Keras - Keras API คืออะไร พื้นฐาน Keras - การใช้ Keras กับ TensorFlow พื้นฐาน Keras - การใช้ Keras บน Google Colab พื้นฐาน Keras - ความเข้าใจเกี่ยวกับ Sequential API ใน Keras พื้นฐาน Keras - การใช้ Functional API ใน Keras พื้นฐาน Keras - การใช้ Model Subclassing ใน Keras พื้นฐาน Keras - การใช้ Input() ในการสร้าง Input Layer การสร้างโมเดลพื้นฐานใน Keras - การสร้างโมเดล Sequential ด้วย Keras การสร้างโมเดลพื้นฐานใน Keras - การเพิ่มเลเยอร์ในโมเดลด้วย model.add() การสร้างโมเดลพื้นฐานใน Keras - การสร้างโมเดลด้วย Functional API การสร้างโมเดลพื้นฐานใน Keras - การเชื่อมโยงเลเยอร์หลายทางด้วย Functional API การสร้างโมเดลพื้นฐานใน Keras - การสร้างโมเดลแบบมีหลายอินพุตและหลายเอาต์พุต การสร้างโมเดลพื้นฐานใน Keras - การใช้เลเยอร์ Dense ใน Keras การสร้างโมเดลพื้นฐานใน Keras - การใช้เลเยอร์ Activation เพื่อเพิ่มฟังก์ชันการกระตุ้น การสร้างโมเดลพื้นฐานใน Keras - การใช้เลเยอร์ Dropout เพื่อป้องกันการ Overfitting การสร้างโมเดลพื้นฐานใน Keras - การใช้เลเยอร์ BatchNormalization เพื่อเร่งความเร็วในการฝึกโมเดล การสร้างโมเดลพื้นฐานใน Keras - การใช้เลเยอร์ Flatten เพื่อทำให้ Tensor แบนราบ Keras การทำงานกับ Optimizers, Loss Functions, และ Metrics - การใช้ model.compile() เพื่อเตรียมโมเดลสำหรับการฝึก Keras การทำงานกับ Optimizers, Loss Functions, และ Metrics - การเลือกใช้ Optimizers เช่น SGD, Adam, RMSprop Keras การทำงานกับ Optimizers, Loss Functions, และ Metrics - การใช้ Loss Functions เช่น MeanSquaredError, CategoricalCrossentropy Keras การทำงานกับ Optimizers, Loss Functions, และ Metrics - การเพิ่ม Metrics ในการประเมินโมเดล เช่น Accuracy Keras การทำงานกับ Optimizers, Loss Functions, และ Metrics - การใช้ Custom Loss Function Keras การทำงานกับ Optimizers, Loss Functions, และ Metrics - การสร้าง Custom Metric Keras การทำงานกับ Optimizers, Loss Functions, และ Metrics - การใช้ Custom Optimizer Keras การทำงานกับ Optimizers, Loss Functions, และ Metrics - การทำงานกับ Learning Rate Scheduling Keras การทำงานกับ Optimizers, Loss Functions, และ Metrics - การใช้ Early Stopping เพื่อป้องกันการ Overfitting Keras การทำงานกับ Optimizers, Loss Functions, และ Metrics - การใช้ ReduceLROnPlateau เพื่อลดค่า Learning Rate อัตโนมัติ การฝึกโมเดลใน Keras - การฝึกโมเดลด้วย model.fit() การฝึกโมเดลใน Keras - การฝึกโมเดลด้วย Mini-batch Gradient Descent การฝึกโมเดลใน Keras - การประเมินผลโมเดลด้วย model.evaluate() การฝึกโมเดลใน Keras - การทำนายผลลัพธ์ด้วย model.predict() การฝึกโมเดลใน Keras - การใช้ Validation Data ในการฝึกโมเดล การฝึกโมเดลใน Keras - การปรับแต่งจำนวน Epochs และ Batch Size การฝึกโมเดลใน Keras - การทำ Cross-Validation ใน Keras การฝึกโมเดลใน Keras - การใช้ fit_generator() สำหรับการฝึกข้อมูลขนาดใหญ่ การฝึกโมเดลใน Keras - การใช้ Callbacks ใน Keras การฝึกโมเดลใน Keras - การเก็บข้อมูลการฝึกด้วย History Object การบันทึกและโหลดโมเดลใน Keras - การบันทึกโมเดลด้วย model.save() การบันทึกและโหลดโมเดลใน Keras - การบันทึกโมเดลในรูปแบบ HDF5 การบันทึกและโหลดโมเดลใน Keras - การบันทึกโมเดลในรูปแบบ SavedModel (TensorFlow) การบันทึกและโหลดโมเดลใน Keras - การโหลดโมเดลด้วย load_model() การบันทึกและโหลดโมเดลใน Keras - การบันทึกเฉพาะน้ำหนักโมเดลด้วย model.save_weights() การบันทึกและโหลดโมเดลใน Keras - การโหลดน้ำหนักโมเดลด้วย model.load_weights() การบันทึกและโหลดโมเดลใน Keras - การใช้ Checkpoint เพื่อบันทึกโมเดลระหว่างการฝึก การบันทึกและโหลดโมเดลใน Keras - การบันทึกโมเดลแบบ Sequential และ Functional API การบันทึกและโหลดโมเดลใน Keras - การทำการบันทึกโมเดลหลายเวอร์ชันด้วย Checkpoints การบันทึกและโหลดโมเดลใน Keras - การบันทึกโมเดลที่ดีที่สุดด้วย EarlyStopping และ Checkpoints การทำงานกับข้อมูลใน Keras - การโหลดข้อมูลจากไฟล์ CSV ด้วย Keras การทำงานกับข้อมูลใน Keras - การใช้ ImageDataGenerator สำหรับการโหลดและแปลงข้อมูลภาพ การทำงานกับข้อมูลใน Keras - การทำ Image Augmentation ด้วย ImageDataGenerator การทำงานกับข้อมูลใน Keras - การโหลดข้อมูลจาก tf.data.Dataset การทำงานกับข้อมูลใน Keras - การทำงานกับ Sequence Data ด้วย TimeseriesGenerator การทำงานกับข้อมูลใน Keras - การใช้ pad_sequences เพื่อจัดการกับข้อมูลที่ไม่สมดุล การทำงานกับข้อมูลใน Keras - การทำ Normalization ของข้อมูลด้วย StandardScaler การทำงานกับข้อมูลใน Keras - การทำ One-Hot Encoding ของข้อมูลที่เป็นหมวดหมู่ การทำงานกับข้อมูลใน Keras - การแยกข้อมูลเป็นชุดการฝึกและชุดการทดสอบ การทำงานกับข้อมูลใน Keras - การโหลดข้อมูล MNIST ใน Keras Keras การสร้างโมเดล Convolutional Neural Networks (CNN) - การสร้างเลเยอร์ Convolution ด้วย Conv2D Keras การสร้างโมเดล Convolutional Neural Networks (CNN) - การใช้เลเยอร์ MaxPooling และ AveragePooling Keras การสร้างโมเดล Convolutional Neural Networks (CNN) - การสร้างโมเดล CNN สำหรับการรู้จำภาพ Keras การสร้างโมเดล Convolutional Neural Networks (CNN) - การใช้เลเยอร์ GlobalMaxPooling และ GlobalAveragePooling Keras การสร้างโมเดล Convolutional Neural Networks (CNN) - การใช้เลเยอร์ Dropout ร่วมกับ CNN เพื่อป้องกัน Overfitting Keras การสร้างโมเดล Convolutional Neural Networks (CNN) - การเพิ่ม BatchNormalization ใน CNN เพื่อเร่งความเร็วการฝึก Keras การสร้างโมเดล Convolutional Neural Networks (CNN) - การใช้ Padding กับเลเยอร์ Convolution Keras การสร้างโมเดล Convolutional Neural Networks (CNN) - การใช้ Dilated Convolution ใน Keras Keras การสร้างโมเดล Convolutional Neural Networks (CNN) - การทำ Fine-Tuning โมเดล CNN Keras การสร้างโมเดล Convolutional Neural Networks (CNN) - การใช้ Transfer Learning ร่วมกับโมเดล CNN Keras การสร้างโมเดล Recurrent Neural Networks (RNN) - การสร้างเลเยอร์ Simple RNN Keras การสร้างโมเดล Recurrent Neural Networks (RNN) - การสร้างเลเยอร์ Long Short-Term Memory (LSTM) Keras การสร้างโมเดล Recurrent Neural Networks (RNN) - การสร้างเลเยอร์ Gated Recurrent Unit (GRU) Keras การสร้างโมเดล Recurrent Neural Networks (RNN) - การประยุกต์ใช้ RNN ในการทำนาย Time Series Keras การสร้างโมเดล Recurrent Neural Networks (RNN) - การสร้าง Text Generation ด้วย RNN Keras การสร้างโมเดล Recurrent Neural Networks (RNN) - การใช้ Bidirectional RNN ใน Keras Keras การสร้างโมเดล Recurrent Neural Networks (RNN) - การใช้ Attention Mechanism ใน RNN Keras การสร้างโมเดล Recurrent Neural Networks (RNN) - การทำ Sequence-to-Sequence Learning ด้วย RNN Keras การสร้างโมเดล Recurrent Neural Networks (RNN) - การจัดการกับ Sequence Padding ใน RNN Keras การสร้างโมเดล Recurrent Neural Networks (RNN) - การประยุกต์ใช้ RNN ในงาน NLP Keras การสร้างโมเดลการประมวลผลภาพ - การสร้างโมเดลการรู้จำภาพด้วย CNN Keras การสร้างโมเดลการประมวลผลภาพ - การใช้ Pre-trained Models เช่น VGG16, ResNet Keras การสร้างโมเดลการประมวลผลภาพ - การใช้ Transfer Learning ในงานการรู้จำภาพ Keras การสร้างโมเดลการประมวลผลภาพ - การใช้โมเดล MobileNet สำหรับการรู้จำภาพ Keras การสร้างโมเดลการประมวลผลภาพ - การทำการ Segment ภาพด้วย Fully Convolutional Networks (FCN) Keras การสร้างโมเดลการประมวลผลภาพ - การทำการ Segmentation ด้วย UNet Keras การสร้างโมเดลการประมวลผลภาพ - การทำการตรวจจับวัตถุด้วย YOLO (You Only Look Once) Keras การสร้างโมเดลการประมวลผลภาพ - การใช้โมเดล SSD (Single Shot Multibox Detector) Keras การสร้างโมเดลการประมวลผลภาพ - การทำ Image Captioning ด้วย CNN + RNN Keras การสร้างโมเดลการประมวลผลภาพ - การสร้างโมเดลการรู้จำใบหน้า Keras การทำงานกับ Natural Language Processing (NLP) - การใช้ Tokenizer ในการจัดการกับข้อความ Keras การทำงานกับ Natural Language Processing (NLP) - การสร้าง Word Embedding ด้วย Embedding Layer Keras การทำงานกับ Natural Language Processing (NLP) - การใช้ Pre-trained Word Embeddings เช่น GloVe Keras การทำงานกับ Natural Language Processing (NLP) - การทำงานกับ One-Hot Encoding ในงาน NLP Keras การทำงานกับ Natural Language Processing (NLP) - การสร้างโมเดลสำหรับ Sentiment Analysis Keras การทำงานกับ Natural Language Processing (NLP) - การสร้างโมเดลสำหรับการจำแนกข้อความ Keras การทำงานกับ Natural Language Processing (NLP) - การทำงานกับ Seq2Seq Models ในการแปลภาษา Keras การทำงานกับ Natural Language Processing (NLP) - การสร้างโมเดล Text Generation Keras การทำงานกับ Natural Language Processing (NLP) - การใช้ Attention Mechanism ในงาน NLP Keras การทำงานกับ Natural Language Processing (NLP) - การประยุกต์ใช้ BERT และ GPT-2 ใน Keras

Deep Learning with TensorFlow - Creating the Neural Network Model

หมายเหตุ: บทความนี้เป็นส่วนหนึ่งของ "บทความชุด Article with Machine Translation" ซึ่งเป็นการแปลบทความจากต้นฉบับภาษาต่างประเทศด้วย Machine translation ดังนั้นจึงมีข้อผิดพลาดอยู่หลายจุด ขอให้ผู้อ่านโปรดใช้วิจารณญาณในการอ่าน ทาง EPT ไม่ขอรับประกันว่าข้อมูลที่ท่านได้อ่านเป็นข้อมูลที่ถูกต้อง และไม่ขอรับผิดชอบความเสียหายใด ๆ ที่เกิดต่อผู้อ่านทั้งทางร่างกาย จิตใจ ทรัพย์สิน ฯลฯ นะครับ

การเรียนรู้อย่างลึกซึ้งกับ TensorFlow - การสร้างโมเดลเครือข่ายประสาท

 

https://youtu.be/BhpvH5DuVu8?list=PLQVvvaa0QuDfKTOs3Keq_kaG2P55YRn5v

ยินดีต้อนรับสู่บทที่ 3 เกี่ยวกับการเรียนรู้ที่ลึกซึ้งเกี่ยวกับเครือข่ายประสาทและ TensorFlow และเป็นบทที่ 45 ของชุดการเรียนการสอน Machine Learning ในการเรียนการสอนนี้ เรากำลังจะลงลึกไปในเรื่องของการสร้างเครือข่ายประสาท ที่ลึกซึ้งโดยตัวเราเองด้วย TensorFlow

เราจะทำงานอย่างแรกด้วยชุดข้อมูล MNIST ซึ่งเป็นชุดข้อมูลที่ประกอบไปด้วย ตัวอย่างการฝึก 60,000 ตัวอย่าง และ 10,000 ตัวอย่างของตัวอย่างการทดสอบ ลายมือและตัวเลขที่ทำเครื่องหมาย 0 ไปจนถึง 9 ดังนั้น ทั้งหมด 10 "classes"

ผมจะโน๊ตไว้ว่านี่เป็นชุดข้อมูลที่เล็กมากๆในแง่ของสิ่งที่คุณจะทำงานร่วมกับในการตั้งค่าที่เหมือนจริงแต่ว่ามันเล็กเพียงพอที่จะทำงานบนคอมพิวเตอร์ของใครก็ได้

ในชุดข้อมูล MNIST มีรูปภาพ ที่เราจะทำงานร่วมกับที่เป็นขาวดำทั้งหมด ที่ถูก ตามเกณฑ์ คือ ภาพที่มีขนาด 28 x 28 หรือทั้งหมด 784 pixels คุณสมบัติของ เราจะเป็นค่า pixel สำหรับแต่ละ pixel ที่ถูกตามเกณฑ์ ทั้งพิกเซล "ว่าง" (ไม่มี อะไรเลย เป็น 0) หรือมีบางอย่างอยู่ (1) นั่นเป็นคุณสมบัติของพวกเรา เรากำลัง พยายามใช้ข้อมูลที่เป็นพื้นฐานอย่างแรกนี้และทำนายตัวเลขที่เรากำลังจะไปดู (0,1,2,3,4,5,6,7,8, หรือ 9) เราหวังว่าบางทีเครือข่ายประสาทของพวกเรา จะสร้างแบบจำลองภายใน ของความสัมพันธ์ระหว่าง pixels และสามารถดู ตัวอย่างตัวเลขใหม่และคาดการณ์พวกมันในระดับสูงได้

แม้ว่าโค้ดตรงนี้จะไม่ได้ยาวมากนัก แต่มันสามารถทำให้คุณค่อนข้างจะสับสนได้ ถ้า คุณไม่ได้เข้าใจมันอย่างสมบูรณ์ว่าอะไรที่มันจะเกิดขึ้น ดังนั้น ลองทำสรุปว่า เราได้ เรียนอะไรไปแล้วบ้างจนถึงตอนนี้และอะไรที่เรากำลังจะทำที่นี่

อย่างแรก เราเอา input data (ข้อมูลขาเข้า) ของเรามาและเราจำเป็นที่จะต้อง ส่งมันไปยัง hidden layer 1 (ชั้นที่ถูกซ่อน 1) ดังนั้น เรา weight input data (ให้นน.ข้อ มูลขาเข้า) แล้วส่งมันไปยัง layer 1 (ชั้นที่ 1) ที่ๆมันจะได้รับ activation function (ฟังก์ชั่นการเปิดใช้งาน) ดังนั้น เซลล์ประสาทสามารถ ตัดสินใจว่าจะยิงหรือส่งข้อมูลบางส่วนไปยังชั้นขาออกหรือเลเยอร์อื่นที่ซ่อนอยู่ หรือไม่ เราจะมี 3 เลเยอร์ ที่ถูกซ่อนในตัวอย่างนี้ ในการทำเครือข่ายประสาทที่ ลึกซึ้งนี้ จาก output ที่เราได้รับ เราจะเปรียบเทียบเอาต์พุตดังกล่าวกับผลลัพธ์ที่ ต้องการ เราจะใช้ cost function (ฟังก์ชั่นค่าใช้จ่าย) (เรียกอีกอย่างหนึ่งว่าฟังก์ชัน การสูญเสีย) เพื่อที่จะกำหนดว่า เราผิดอย่างไร ท้ายที่สุด เราจะใช้ optimizer function (ฟังก์ชั่นตัว optimizer) ใน กรณีนี้ผมใช้ Adam Optimizer เพื่อที่จะลด cost (เราผิดยังไง) วิธีที่ cost จะถูกลด คือ โดยการปรับแต่งด้วยน้ำหนัก โดยมีเป้าหมายอย่างมีความหวังในการลด cost ความเร็วที่เราต้องการลด cost ถูกกำหนดโดย learning rate (อัตราการเรียนรู้) ค่าที่ ต่ำลงสำหรับอัตราการ เรียนรู้จะช้าเท่ากับความช้าที่เราจะได้เรียนรู้และผลลัพธ์ที่เราจะได้รับที่ดีขึ้น ยิ่งอัตราการเรียนรู้สูงเท่าไหร่ เราก็จะเรียนรู้ได้เร็วเท่านั้นและจะทำให้เรามีเวลาใน การฝึกที่เร็วขึ้นแต่อาจจะสร้างความยากลำบากให้กับผลลัพธ์ได้ มีผลตอบแทน ที่น้อยลงที่นี่ คุณไม่เพียงแค่สามารถที่จะลดอัตราการเรียนรู้ลงไปเท่านั้นแต่มันมัก จะดีขึ้นแน่นอน                                                                        

การกระทำของการส่งข้อมูลไปตรงๆผ่านทางเครือข่ายของเรา หมายความว่า เรา กำลังดำเนินการ feed forward เครือข่ายประสาท ในการปรับน้ำหนักถอยหลัง คือ  back propagation ของเรา 

อย่างไรก็ตามเราสามารถทำการ feeding forward และ back propagation ได้หลาย ครั้งอย่างที่เราต้องการ วัฏจักรนี้เรียกว่า epoch เราสามารถหยิบเลขไหนๆก็ได้ที่เรา ชอบสำหรับหมายเลขของ epochs แต่คุณอาจจะต้องหลีกเลี่ยงการทำที่มากเกินไป เพราะมันทำให้เกิด overfitment 

หลังจาก epoch แต่ละอัน เราหวังว่าจะปรับแต่งน้ำหนักของเราต่อไป    ลด cost ของเราและปรับปรุงความถูกต้องแม่นยำ เมื่อเราทำ epochs ทั้งหมดเสร็จสิ้น เรา สามารถทดสอบได้โดยการใช้ชุดทดสอบ

เข้าใจมั้ย? เยี่ยม! เตรียมตัวสำหรับการ launch!

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("/tmp/data/", one_hot = True)

 

เรานำเข้า TensorFlow และข้อมูลตัวอย่างที่เรากำลังจะใช้ โน๊ตว่า one_hot parameter ที่นั่น  คำที่มาจากอุปกรณ์อิเล็กทรอนิกส์ที่มีเพียงองค์ประกอบเดียว จากอัน อื่นๆ โดยทางอักษร คือ "hot," หรือเปิด สิ่งนี้มีประโยชน์มากสำหรับภาระ งานการจัดกลุ่มแบบหลายๆคลาส ซึ่งเรามีที่นี่ (0,1,2,3,4,5,6,7,8, หรือ 9) ดังนั้น แทนที่จะให้เอาท์พุทของ 0 เป็นเพียง 0 และ 1 1
เรามีบางอย่างที่มากขึ้นแบบนี้ :

ดังนั้น เรามีข้อมูลของเรา ผมเลือกที่จะใช้ชุดข้อมูล MNIST เพราะว่ามันเป็นชุด ข้อมูลที่เหมาะสมที่จะเริ่มต้นด้วยและจริงๆแล้วยังเก็บสะสมข้อมูลดิบและการ แปลงให้เป็นสิ่งที่ต้องใช้ร่วมกันซึ่งอาจใช้เวลามากกว่าการสร้างโมเดล machine learning ด้วยตัวมันเองและผมคิดว่าผู้คนส่วนใหญ่ที่นี่ต้องการที่จะเรียนรู้เครือข่าย ประสาทไม่ใช่ web scraping และนิพจน์ธรรมดา

ตอนนี้เรากำลังจะเริ่มต้นสร้างโมเดลกัน :

 

เราเริ่มต้นโดยการระบุว่าจะต้องมี nodes กี่อันที่ในแต่ละเลเยอร์ที่ถูกซ่อนต้องมี ต้องมี classes ทั้งหมดกี่ classes ที่ชุดข้อมูลของเราต้องมีและขนาดของ batch ของเราจะต้องเป็นเท่าไหร่ ขณะที่คุณ *สามารถ* ในทฤษฎีการฝึกเครือข่าย ทั้งหมดในครั้งเดียว แต่มันทำแบบนั้นในครั้งเดียวไม่ได้! หลายๆคนอาจจะมี คอมพิวเตอร์ที่สามารถรองรับชุดข้อมูล MNIST แบบฉบับเต็มแต่หลายๆคนก็ไม่มี คอมพิวเตอร์หรือการเข้าถึงคอมพิวเตอร์ที่สามารถทำชุดข้อมูลที่มีความสมจริงทั้ง หมดได้ในครั้งเดียว ดังนั้น เราต้องทำการ optimization ใน batches ในกรณีนี้ เราจะทำ batches ของ 100

นี่เป็นตัวยึดของเราสำหรับค่าบางค่าในกราฟของเรา จำได้มั๊ยที่คุณสร้างโมเดลใน กราฟ TensorFlow ของคุณ จากตรงนี้ TensorFlow ควบคุมทุกสิ่งทุกอย่าง ไม่ใช่ คุณ สิ่งนี้จะเห็นได้ชัดมากยิ่งขึ้นเมื่อเราทำเสร็จและคุณพยายามที่จะหาที่ๆจะ เปลี่ยนแปลงน้ำหนัก! สังเกตว่าผมได้ใช้ [None,784] เป็น parameter อันดับ 2 ใน ตัวยึดอันแรก นี่เป็น parameter ที่ไม่ได้สำคัญมากนัก อย่างไรก็ตามมันเป็น ประโยชน์มากเพื่อให้มันชัดเจนแบบนี้ ถ้าคุณยังไม่ชัดเจน TensorFlow จะมีอะไร อยู่ในนั้น ถ้าคุณแจ่มแจ้งแล้วเกี่ยวกับรูปร่าง TensorFlow จะแจ้งข้อผิดพลาด ถ้าบางสิ่งบางอย่างออกจากรูปร่างและพยายามที่จะกระโดดเข้าไปในสถานที่ของ ตัวแปรนั้น

ขณะนี้เรามีค่าคงที่และค่าเริ่มต้นแล้ว ต่อไปเราจะสร้างโมเดลเครือข่ายประสาท จริงๆแล้ว :

def neural_network_model(data):
    hidden_1_layer = {'weights':tf.Variable(tf.random_normal([784, n_nodes_hl1])),
                      'biases':tf.Variable(tf.random_normal([n_nodes_hl1]))}

    hidden_2_layer = {'weights':tf.Variable(tf.random_normal([n_nodes_hl1, n_nodes_hl2])),
                      'biases':tf.Variable(tf.random_normal([n_nodes_hl2]))}

    hidden_3_layer = {'weights':tf.Variable(tf.random_normal([n_nodes_hl2, n_nodes_hl3])),
                      'biases':tf.Variable(tf.random_normal([n_nodes_hl3]))}

    output_layer = {'weights':tf.Variable(tf.random_normal([n_nodes_hl3, n_classes])),
                    'biases':tf.Variable(tf.random_normal([n_classes]))}

 

ที่นี่ เราจะเริ่มต้นกำหนดน้ำหนักของเราและ…ไปเรื่อยๆ รอสักครู่ อะไรคือ biases เหล่านี้ !? bias คือ ค่าที่ถูกเพิ่มเข้าไปในการบวกของเราก่อนที่จะถูกส่งไปยัง ฟังก์ชั่นการเปิดใช้งาน อย่าสับสนกับ bias node ซึ่งก็เป็นแค่ node ที่เปิดตลอด เวลา จุดประสงค์ของ bias ที่นี่ โดยหลักคือเพื่อรองรับสถานการณ์ที่เซลล์ประสาท ทั้งหมดยิง 0 ไปยังเลเยอร์ bias ทำให้มันเป็นไปได้ว่าเซลล์ประสาทยังคงยิงไปยัง เลเยอร์นั้นๆ bias มีลักษณะเฉพาะโดดเด่นพอๆกับน้ำหนักและจำเป็นที่จะ ต้องถูก optimization ด้วย        

สิ่งที่เราได้ทำจนสำเร็จมาจนถึงตอนนี้ คือ สร้างคำจำกัดความเริ่มต้นสำหรับน้ำหนัก และ biases ของพวกเรา คำจำกัดความเหล่านั้นเป็นค่าที่สุ่มขึ้นมา สำหรับรูปร่างที่ เลเยอร์ของเมทริกซ์ควรจะเป็น (สิ่งนี้คือสิ่งที่ tf.random_normal ทำเพื่อเรา มัน แสดงผลค่าที่สุ่มขึ้นมาสำหรับรูปร่างที่เราต้องการ) ไม่มีอะไรเกิดขึ้นจริงและไม่มี การไหล (feed forward) ที่เกิดขึ้น มาทำให้มันไหลกันเถอะ :

l1 = tf.add(tf.matmul(data,hidden_1_layer['weights']), hidden_1_layer['biases'])
    l1 = tf.nn.relu(l1)

    l2 = tf.add(tf.matmul(l1,hidden_2_layer['weights']), hidden_2_layer['biases'])
    l2 = tf.nn.relu(l2)

    l3 = tf.add(tf.matmul(l2,hidden_3_layer['weights']), hidden_3_layer['biases'])
    l3 = tf.nn.relu(l3)

    output = tf.matmul(l3,output_layer['weights']) + output_layer['biases']
ที่นี่เราเอาค่าไปใส่ยังเลเยอร์ 1 ค่าเหล่านั้นคืออะไร ? พวกมัน คือ การคูณของ ข้อมูลขาเข้าดิบที่ถูกคูณโดยน้ำหนักที่เฉพาะตัวของพวกเขา (เริ่มต้นด้วยการสุ่ม แต่จะต้องถูก optimization) : tf.matmul(l1,hidden_2_layer['weights']) ต่อไป เราก็จะไปเพิ่มด้วยไบแอส tf.add เราทำการดำเนินการนี้ซ้ำสำหรับแต่ละเลเยอร์ที่ ถูกซ่อนไปตามทางที่ไปยัง output ของเรา ที่ๆเราจะมีค่าสุดท้ายที่ยังคงทำการคูณ ของ input และน้ำหนัก บวกกับค่า output layer's bias อยู่

เมื่อเสร็จแล้ว เราก็กลับไปยังเลเยอร์ output นั้น ดังนั้น ตอนนี้เราได้จำลองเครือ ข่ายแล้วและเกือบจะเสร็จกราฟการคำนวณทั้งหมดแล้ว ในการเรียนการสอน ต่อไป เราจะสร้าง function ที่รันและฝึกเครือข่ายด้วย TensorFlow

ที่นี่มี 2 quiz/question(s) สำหรับการเรียนการสอนนี้ https://pythonprogramming .net/+=1/ เพื่อเข้าถึงสิ่งเหล่านี้ ดาวน์โหลดวิดีโอและไร้โฆษณาด้วย

 

การเรียนการสอนต่อไป : https://pythonprogramming.net/tensorflow-neural-net work-session-machine-learning-tutorial/?completed=/tensorflow-deep-neural-network-machine-learning-tutorial/

References : https://pythonprogramming.net/tensorflow-deep-neural-network-machine-learning-tutorial/


Tag ที่น่าสนใจ: deep_learning tensorflow neural_network machine_learning mnist_dataset feed_forward backpropagation epochs cost_function adam_optimizer learning_rate hidden_layers activation_function optimization batch_processing


บทความนี้อาจจะมีที่ผิด กรุณาตรวจสอบก่อนใช้

หากมีข้อผิดพลาด/ต้องการพูดคุยเพิ่มเติมเกี่ยวกับบทความนี้ กรุณาแจ้งที่ http://m.me/Expert.Programming.Tutor

ไม่อยากอ่าน Tutorial อยากมาเรียนเลยทำอย่างไร?

สมัครเรียน ONLINE ได้ทันทีที่ https://elearn.expert-programming-tutor.com

หรือติดต่อ

085-350-7540 (DTAC)
084-88-00-255 (AIS)
026-111-618
หรือทาง EMAIL: NTPRINTF@GMAIL.COM

แผนที่ ที่ตั้งของอาคารของเรา

แผนผังการเรียนเขียนโปรแกรม

Link อื่นๆ

Allow sites to save and read cookie data.
Cookies are small pieces of data created by sites you visit. They make your online experience easier by saving browsing information. We use cookies to improve your experience on our website. By browsing this website, you agree to our use of cookies.

Copyright (c) 2013 expert-programming-tutor.com. All rights reserved. | 085-350-7540 | 084-88-00-255 | ntprintf@gmail.com

ติดต่อเราได้ที่

085-350-7540 (DTAC)
084-88-00-255 (AIS)
026-111-618
หรือทาง EMAIL: NTPRINTF@GMAIL.COM
แผนที่ ที่ตั้งของอาคารของเรา