Bài học cùng chủ đề
Báo cáo học liệu
Mua học liệu
Mua học liệu:
-
Số dư ví của bạn: 0 coin - 0 Xu
-
Nếu mua học liệu này bạn sẽ bị trừ: 2 coin\Xu
Để nhận Coin\Xu, bạn có thể:
CHÚC MỪNG
Bạn đã nhận được sao học tập
![](https://rs.olm.vn/images/bird.gif)
Chú ý:
Thành tích của bạn sẽ được cập nhật trên bảng xếp hạng sau 1 giờ!
Nếu video không chạy trên Zalo, bạn vui lòng Click vào đây để xem hướng dẫn
Lưu ý: Ở điểm dừng, nếu không thấy nút nộp bài, bạn hãy kéo thanh trượt xuống dưới.
Bạn phải xem đến hết Video thì mới được lưu thời gian xem.
Để đảm bảo tốc độ truyền video, OLM lưu trữ video trên youtube. Do vậy phụ huynh tạm thời không chặn youtube để con có thể xem được bài giảng.
Nội dung này là Video có điểm dừng: Xem video kết hợp với trả lời câu hỏi.
Nếu câu hỏi nào bị trả lời sai, bạn sẽ phải trả lời lại dạng bài đó đến khi nào đúng mới qua được điểm dừng.
Bạn không được phép tua video qua một điểm dừng chưa hoàn thành.
Dữ liệu luyện tập chỉ được lưu khi bạn qua mỗi điểm dừng.
Lưu ý: Ở điểm dừng, nếu không thấy nút nộp bài, bạn hãy kéo thanh trượt xuống dưới.
Bạn phải xem đến hết Video thì mới được lưu thời gian xem.
Để đảm bảo tốc độ truyền video, OLM lưu trữ video trên youtube. Do vậy phụ huynh tạm thời không chặn youtube để con có thể xem được bài giảng.
Nội dung này là Video có điểm dừng: Xem video kết hợp với trả lời câu hỏi.
Nếu câu hỏi nào bị trả lời sai, bạn sẽ phải trả lời lại dạng bài đó đến khi nào đúng mới qua được điểm dừng.
Bạn không được phép tua video qua một điểm dừng chưa hoàn thành.
Dữ liệu luyện tập chỉ được lưu khi bạn qua mỗi điểm dừng.
Theo dõi OLM miễn phí trên Youtube và Facebook:
Văn bản dưới đây là được tạo ra tự động từ nhận diện giọng nói trong video nên có thể có lỗi
- Xin chào các bạn Hôm nay chúng ta sẽ tìm
- hiểu về một trong những thuật toán cơ
- bản nhất của học không giám sát thuật
- toán kin tasing phân cụm K min trong tật
- toán K Min cing chúng ta không biết nhãn
- của từng điểm dữ liệu mục đích là làm
- thế nào để phân dữ liệu thành các cụm
- khác nhau sao cho dữ liệu trong cùng một
- cụm có tính chất giống
- nhau ở nội dung buổi học hôm nay chúng
- ta sẽ giới thiệu về giải thuật phân cụm
- cây Min Phân tích giải thuật và ứng dụng
- của giải thuật cũng như là cài đặt giải
- thuật trên môi trường
- Python ví dụ giả sử như bạn có danh sách
- tuổi của chín người và Nhiệm vụ là phải
- chia chín người này và một số nhóm cụ
- thể ở đây là ba nhóm tuổi của chín người
- này được biểu diễn như sau 12 13 18 19
- 22 23 29 31 và
- 35 trong trường hợp này nếu quan sát
- bằng mắt thường thì có thể phân thành ba
- nhóm
- Tuy nhiên thì máy tính sẽ không thực
- hiện như vậy giờ hãy để máy tính thực
- hiện thay vì chúng ta quan sát bằng mắt
- để máy tính thực hiện được thì chúng ta
- sẽ sử dụng thuật toán phân cụm K
- Min Bước 1 xác định số lượng nhóm mà
- muốn phân thành trong trường hợp này
- chúng ta chọn K = 3 tức là muốn phân
- thành ba
- nhóm bước hai lựa chọn K điểm dữ liệu
- bất kỳ với k = 3 ta lựa chọn ba điểm dữ
- liệu bất kỳ là 13 19 và
- 23 đây chính là các Center ban
- đầu bước ba tính khoảng cách của điểm
- đầu tiên tới từng các điểm
- Center đây là khoảng cách của điểm số 12
- cho tới Center màu xanh lá cây khoảng
- cách của điểm 12 tới Center màu xanh da
- trời và khoảng cách cửa số điểm 12 tới
- Center màu da
- cam Bước 4 gán điểm đầu tiên vào cụm có
- Center gần nó nhất trong trường hợp này
- ta gán điểm đầu tiên vào cụm có màu xanh
- lá
- cây làm các bước tương tự với các điểm
- còn lại ta tính khoảng cách tới các điểm
- Center sau đấy gán vào cụm có Center gần
- nhất tương tự với điểm số 3 tính khoảng
- cách tới các điểm Center và gắn vào cụm
- có cer gần
- nhất tương tự với điểm số 4 ta cũng gán
- và cụ có xờ gần
- nhất và chúng ta làm tương tự với những
- điểm còn
- lại bước nă tính giá trị trung bình của
- các điểm trong
- cụ LP lại các bước tính khoảng cách và
- gán cụ những lần này ta sử dụng các
- Center là giá trị trung bình số 12 có
- khoảng cách gần nhất với Center màu xanh
- lá
- cây cũng tương tự tính khoảng cách số
- còn lại với các
- Center
- tương tự với những điểm còn
- lại ta thấy việc phân cụm có sự thay đổi
- so với lần trước nên ta quay trở lại bức
- 5 Đấy là tính giá trị trung bình của các
- điểm trong
- cụ sau đó lập lại Các bước sử dụng giá
- trị trung
- bình
- ta lại nhận thấy việc phân cụm có sự
- thay đổi so với ở trước nên ta quay trở
- lại bước
- 5 ta cũng tính toán giá trị trung bình
- và gán nó vào các cụm gần
- nhất Lần này thì ta thấy việc phân cụm
- không có sự thay đổi so với trước nên ta
- dừng thuật
- toán trong trường hợp này việc phân cụm
- bằng thuật toán K Min cũng giống với
- những gì mà chúng ta phân biệt bằng mắt
- từ trước
- Tuy nhiên thì không phải lúc nào Phân
- cụm giống với những gì chúng ta quan sát
- được Tóm tắt thuật toán đầu vào dữ liệu
- X và số lượng cter cần tìm K đầu ra các
- Center m và các nhãn tương ứng cho từng
- điểm dữ liệu I bước một chọn K điểm bất
- kỳ làm các Center ban đầu hai phân mỗi
- điểm dữ liệu vào cluster có Center gần
- đó nhất ba nếu việc gán nhãn dữ liệu vào
- từng cluster bước hai không thay đổi so
- với vòng trước thì ta dừng thuật toán
- Bước 4 cập nhật Center cho từng cluster
- bằng cách lấy trung bình cộng của tất cả
- điểm D liệu đ gán vào cluster ở bước ha
- và bước là quay lại bước ha lưu ý gật
- toán sẽ dừng lại sau một số hữu hạn vòng
- LC giả sử như trong trường hợp 1 với lần
- phân cụ ta được biểu diễn như sau lần
- phân cộm ha và lần phân cộm 3 Vậy thì
- làm thế nào để đánh giá được thuật toán
- cây min curing trong các trường
- hợp chúng ta có thể đánh giá việc phân
- cụm Trong từng trường hợp có tốt hay
- không bằng cách tính tổng biến thể trong
- từng cụm ở đây chính là tổng biến thể
- trong từng cụm tương tự như vậy chúng ta
- cũng tính tổng các biến thể trong từng
- lần phân
- cụ ta nhận thấy lần phân cụm thứ hai có
- tổng các biến thể là nhỏ nhất vậy thì
- đây sẽ là lựa chọn tốt nhất để phân cụm
- và ta sẽ phân cụm theo gần phân cụm thứ
- hai câu hỏi đặt ra Làm thế nào để lựa
- chọn giá trị của K cho phù hợp trong
- trường hợp này hiển nhiên theo quan sát
- thì chúng ta sẽ lựa chọn K = 3 Tuy nhiên
- nhiều lúc thì sẽ không dễ dàng để quan
- sát đến
- vậy có một cách tiếp cận Đó là thử K lần
- lượt với nhiều giá trị khác
- nhau bắt đầu với k =
- 1 thì ta thấy K = 1 là trường hợp tệ
- nhất chúng chúng ta có thể đánh giá độ
- tệ bằng việc tính tổng các biến thể
- trong từng
- cụ thử với k = 2 chúng ta thấy được K =
- 2 tốt hơn so với k = 1 khi so sánh tổng
- các biến thể trong từng cụm với
- nhau thử với k = 3 ta lại nhận thấy K =
- 3 còn tốt hơn nữa khi chúng ta so
- sánh với k = 4 thì tổng các biến thể lại
- tiếp tục được giảm
- điã nhận thấy mỗi khi chúng ta thêm một
- cụm mới thì tổng biến thể trong các cụm
- sẽ nhỏ đi và đến khi mỗi cụm chỉ còn một
- điểm dữ liệu thì tổng sẽ bằng
- 0 Tuy nhiên thì khi chúng ta biểu diễn
- các tổng biến thể khi K tăng lên thì ta
- được đồ thị biểu diễn như
- sau ở vị trí K = 3 thì ta nhận thấy tổng
- các biến thể không có sự thay đổi đáng
- kể khi mà K tăng lên vậy thì K = 3 sẽ là
- lựa chọn tốt nhất khi ta lựa chọn giá
- trị cho k đây còn được gọi là L3
- log Câu hỏi đặt ra nếu dữ liệu của chúng
- ta không nằm trên một đường thẳng thì sẽ
- như thế nào ở đây dữ liệu Được biểu thị
- theo không gian hai chiều như lúc trước
- ta chọn ra ba điểm dữ liệu bất
- kỳ chúng ta sẽ tính khoảng cách các điểm
- dữ liệu đấy tới các Center bằng sử dụng
- khoảng cách
- clip gán điểm dữ liệu với Center gần
- nhất Chúng Ta Lặp lại các bước tương tự
- và cập nhật các tờ
- mới chúng ta kết thúc thuật toán khi các
- center không thay đổi so với vòng lặp
- trước tiếp theo chúng ta tìm hiểu về một
- số ứng dụng của giải thuật phân cụm
- Cin bài toán một Giả sử rằng chúng ta
- không biết nhãn của các chữ số này chúng
- ta muốn phân nhóm các bức ảnh gần giống
- nhau về một nhóm dữ liệu cung cấp cho
- chúng ta là một loạt các bức ảnh có hình
- các chữ số một cách
- màu vậy thì nhiệm vụ của chúng ta là
- phân nhóm các bức ảnh gần giống nhau về
- cùng một
- nhóm áp dụng caming cing vào tập test
- set của bộ cơ sở dữ liệu với k = 10 cột
- đầu tiên là các Center của các cluster
- và các cột còn lại chính là 20 điểm dữ
- liệu ngẫu nhiên được chọn ra từ MN
- cluster thì chúng ta nhận thấy một số
- các điểm dữ liệu có bị sai lệch như số 2
- ở
- đây
- số
- 4 hoặc là số 0 được hiểu như các số
- khác Tại vì lý do chúng ta lựa chọn 20
- điểm dữ liệu ngẫu nhiên vậy thì khi
- chúng ta chọn 20 điểm dữ liệu gần Center
- với nó nhất thì độ chính xác của nó được
- tăng
- lên một bài toán khác chúng ta cũng có
- thể áp dụng thuật toán kin clustering
- đấy chính là tách vật thể giả sử chúng
- ta có bước ảnh dưới đây đây và muốn một
- thuật toán tự động nhận ra vùng khuôn
- mặt và tách nó
- ra ý tưởng chúng ta nhận thấy ở đây có
- ba màu chủ đạo lựa chọn ba caster với k
- = 3 với k = 2 thì chúng ta chỉ phân biệt
- được hai màu là đen và trắng K = 3 chúng
- ta phân biệt được ba màu là đen đỏ và
- trắng với k = 10 thì chúng ta phân biệt
- được nhiều màu hơn và cũng như chất
- lượng bức ảnh ngày càng rõ nét hơn tiếp
- theo tiế theo chúng ta sẽ cài đặt giải
- thuật phân cụm kin trên môi trường
- Python ở đây là một số phương thức và
- một số Thư viện dùng để hỗ trợ chúng ta
- hàm kin init Center là hàm để khởi tạo
- giá trị ngẫu
- nhiên hàm K Min assign label là hàm để
- tính toán khoảng cách và gán vào điểm có
- Center gần
- nhất hàm kin update Center là hàm tính
- toán giá giá trị trung bình của tất cả
- các điểm cũng như là cập nhật các điểm
- dữ liệu
- mới cuối cùng hàm K min là hàm để thực
- thi chúng ta khởi tạo các điểm dữ liệu
- ban đầu gán nhãn các điểm dữ liệu với
- các Center gần nó nhất tính toán và cập
- nhật các center mới kiểm tra xem center
- mới có trùng với các Center so với lần
- lặp trước Nếu trủng thì chúng ta kết
- thúc thật toán Nếu không thì chúng ta
- lặp lại các bước vừa
- rồi Ở đây ta khởi tạo các Center có tọa
- độ là 22 83 và 36 sau đó tạo các điểm dữ
- liệu có phân phố chuẩn xung quanh các
- điểm Center như chúng ta thấy ở
- đây tiếp theo chúng ta sử dụng giải
- thuật phân cụm kâ Min để tính toán các
- điểm Center và phân các điểm dữ liệu về
- các cụ gần với Center nó nhất
- Và đây là kết quả khi chúng ta sử dụng
- bằng thư viện skit le chúng ta nhận thấy
- việc phân cụm bằng thư viện skit l với
- việc chúng ta tự phân cụm cũng có nét
- tương đồng tổng kết hôm nay chúng ta đã
- tìm hiểu và phân tích về giải thuật phân
- cụm kin ứng dụng của giải thuật phân cụm
- kin trong một vài bài toán Cũng như cải
- đặt giải thuật phân cụm kin trên môi
- trường Python Cảm ơn các bạn đã lắng
- nghe
OLMc◯2022
Bạn có thể đánh giá bài học này ở đây