Tóm tắt Luận án tiến sĩ: Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử

pdf
Số trang Tóm tắt Luận án tiến sĩ: Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử 26 Cỡ tệp Tóm tắt Luận án tiến sĩ: Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử 876 KB Lượt tải Tóm tắt Luận án tiến sĩ: Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử 0 Lượt đọc Tóm tắt Luận án tiến sĩ: Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử 1
Đánh giá Tóm tắt Luận án tiến sĩ: Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử
4.6 ( 18 lượt)
Nhấn vào bên dưới để tải tài liệu
Đang xem trước 10 trên tổng 26 trang, để tải xuống xem đầy đủ hãy nhấn vào bên trên
Chủ đề liên quan

Nội dung

ĐẠI HỌC HUẾ TRƢỜNG ĐẠI HỌC KHOA HỌC LÊ VĂN TƢỜNG LÂN PHÂN LỚP DỮ LIỆU BẰNG CÂY QUYẾT ĐỊNH MỜ DỰA TRÊN ĐẠI SỐ GIA TỬ CHUYÊN NGÀNH: KHOA HỌC MÁY TÍNH MÃ SỐ: 62.48.01.01 TÓM TẮT LUẬN ÁN TIẾN SĨ KHOA HỌC MÁY TÍNH Ngƣời hƣớng dẫn khoa học 1. PGS.TS. Nguyễn Mậu Hân 2. TS. Nguyễn Công Hào HUẾ – NĂM 2018 MỞ ĐẦU 1. Lý do chọn đề tài Trong thực tế, các khái niệm mờ luôn tồn tại nên với việc quan niệm các đối tượng được sử dụng phải luôn rõ ràng ở trong logic cổ điển sẽ không không đủ miêu tả các vấn đề của thế giới thực. Năm 1965, L. A. Zadeh đã đề xuất hình thức hóa toán học của khái niệm mờ, từ đó lý thuyết tập mờ được hình thành và ngày càng thu hút sự nghiên cứu của nhiều tác giả. Năm 1990, N.C. Ho & W. Wechsler đã khởi xướng phương pháp tiếp cận đại số đến cấu trúc tự nhiên của miền giá trị của các biến ngôn ngữ. Theo cách tiếp cận này, mỗi giá trị ngôn ngữ của một biến ngôn ngữ nằm trong một cấu trúc đại số gọi là đại số gia tử (ĐSGT). Trên cơ sở đó, đã có nhiều nghiên cứu của nhiều tác giả trong các lĩnh vực: điều khiển mờ và lập luận mờ, cơ sở dữ liệu mờ, phân lớp mờ,… và đã cho chúng ta nhiều kết quả rất khả quan, có khả năng ứng dụng tốt. Hiện nay, khai phá dữ liệu là bài toán cần ưu tiên cần giải quyết mà phân lớp dữ liệu là một quá trình quan trọng của khai phá dữ liệu. Đó là quá trình chia các đối tượng dữ liệu thành các lớp dựa trên các nét đặc trưng của tập dữ liệu. Các phương pháp thường được sử dụng trong quá trình học phân lớp như: thống kê, mạng nơron, cây quyết định,… trong đó cây quyết định là một giải pháp hữu hữu hiệu. Đã có nhiều nghiên cứu để xây dựng nó mà nổi bật là các thuật toán học quy nạp như CART, ID3, C4.5, SLIQ, SPRINT, LDT, LID3,... Tuy vậy, các cách tiếp cận cho việc học phân lớp bằng cây quyết định hiện nay vẫn còn nhiều vấn đề cần giải quyết: - Xây dựng cây quyết định dựa trên khái niệm Entropi thông tin theo các phương pháp truyền thống như ID3, C4,5, CART, SLIQ, SPRINT,…cho các thuật toán có độ phứt tạp thấp nhưng khả năng dự đoán chưa cao, có thể dẫn đến tình trạng quá khớp trên cây kết quả. Thêm vào đó, các phương pháp này không thể sử dụng để huấn luyện và dự đoán trên các tập mẫu có chứa giá trị mờ, mà việc lưu trữ dữ liệu mờ hiện nay là tất yếu trên các kho dữ liệu nghiệp vụ. - Một hướng tiếp cận là thông qua lý thuyết tập mờ để tính lợi ích thông tin của các thuộc tính mờ cho quá trình phân lớp. Cách này đã giải quyết được các giá trị mờ trong tập huấn luyện thông qua việc xác định các hàm thuộc, từ đó các bộ giá trị này có thể tham gia vào quá trình huấn luyện nên đã giải quyết được hạn chế là bỏ qua các 1 giá trị dữ liệu mờ của cách tiếp cận phân lớp rõ. Tuy vậy, hiện vẫn còn gặp phải những hạn chế xuất phát từ bản thân nội tại của lý thuyết tập mờ: hàm thuộc của chúng không sánh được với nhau, xuất hiện sai số lớn tại quá trình xấp xỉ, phụ thuộc vào sự chủ quan, giá trị ngôn ngữ còn thiếu một cơ sở đại số làm nền tảng. - Theo cách tiếp cận xây dựng cây quyết định ngôn ngữ, nhiều tác giả đã xây dựng cách thức xác định cho các giá trị ngôn ngữ trên tập dữ liệu mờ và xây dựng cây bằng phương pháp LID3. Việc xây dựng các nhãn ngôn ngữ cho các giá trị mờ dựa vào xác suất của các nhãn liên kết trong khi vẫn giữ được các giá trị rõ đã biết, hướng tiếp cận này đã làm giảm sai số đáng kể cho quá trình huấn luyện. Tuy vậy, hướng tiếp cận này sẽ phát sinh cây đa phân do có sự phân chia lớn theo chiều ngang tại các nút ngôn ngữ. - Phương pháp định lượng ngữ nghĩa theo điểm dựa trên ĐSGT, nhằm thuần nhất dữ liệu về các giá trị số hay giá trị ngôn ngữ. Bài toán xây dựng cây quyết định mờ lúc này có thể sử dụng các thuật toán học theo cách tiếp cận cây quyết định rõ trong một ĐSGT đã xây dựng. Tuy vậy, hướng tiếp cận này vẫn còn một số vấn đề như: vẫn xuất hiện sai số lớn khi thuần nhất theo điểm mờ, khó đưa ra dự đoán khi có sự đan xen ở điểm phân chia mờ của cây kết quả, phụ thuộc vào miền trị [min, max] từ miền giá trị rõ của thuộc tính mờ. Tất cả các thuật toán học phân lớp bằng cây quyết định hiện có đều phụ thuộc lớn vào việc chọn tập mẫu của người huấn luyện. Trong các kho dữ liệu nghiệp vụ, nhiều thông tin phục vụ tốt cho việc dự đoán nhưng nhiều thông tin khác chỉ có ý nghĩa lưu trữ thông thường, phục vụ cho việc diễn giải thông tin. Chúng làm phức tạp mẫu nên tăng chi phí cho quá trình huấn luyện, quan trọng hơn là chúng gây nhiễu nên cây được xây dựng không có hiệu quả cao. Xuất phát từ việc tìm hiểu, nghiên cứu các đặc điểm và các thách thức về các vấn đề của phân lớp dữ liệu bằng cây quyết định, đề tài: “Phân lớp dữ liệu bằng cây quyết định mờ dựa trên đại số gia tử” là vấn đề lớn cần giải quyết. 2. Đối tƣợng và phạm vi nghiên cứu Luận án tập trung nghiên cứu mô hình cho quá trình học từ tập mẫu huấn luyện, nghiên cứu phương pháp xử lý giá trị ngôn ngữ và xây dựng các thuật toán học phân lớp bằng cây quyết định mờ đạt hiệu quả trong dự đoán và đơn giản đối với người dùng. 2 3. Phƣơng pháp nghiên cứu Luận án sử dụng phương pháp tổng hợp, hệ thống hóa và phương pháp thực nghiệm khoa học. 4. Mục tiêu và nội dung của luận án Sau khi nghiên cứu và phân tích các vấn đề về phân lớp dữ liệu bằng cây quyết định của các nghiên cứu trong và ngoài nước, luận án đưa ra mục tiêu nghiên cứu chính như sau: - Xây dựng mô hình học phân lớp dữ liệu bằng cây quyết định mờ và phương pháp trích chọn đặc trưng để chọn tập mẫu huấn luyện cho quá trình học phân lớp. Đề xuất phương pháp xử lý giá trị ngôn ngữ của các thuộc tính chưa thuần nhất dựa vào ĐSGT. - Đề xuất các thuật toán học bằng cây quyết định mờ nhằm đạt hiệu quả trong dự đoán và đơn giản đối với người dùng. Để đáp ứng cho các mục tiêu nghiên cứu trên, luận án tập trung nghiên cứu các nội dung chính sau: - Nghiên cứu các thuật toán học cây truyền thống CART, ID3, C4.5, C5.0, SLIQ, SPRINT trên mỗi tập mẫu huấn luyện để tìm một phương pháp học phù hợp. - Nghiên cứu xây dựng mô hình học phân lớp dữ liệu cây quyết, xây dựng phương pháp trích chọn đặc trưng để chọn tập mẫu huấn luyện cho việc học cây quyết định từ các kho dữ liệu nghiệp vụ. - Nghiên cứu để đề xuất phương pháp xử lý giá trị ngôn ngữ của các thuộc tính chưa thuần nhất trên tập mẫu dựa vào của ĐSGT. - Đề xuất các thuật toán học phân lớp bằng cây quyết định mờ đạt hiệu quả trong dự đoán và đơn giản đối với người dùng. 5. Ý nghĩa khoa học và thực tiễn Ý nghĩa khoa học Những đóng góp chính của luận án về khoa học: - Xây dựng mô hình học phân lớp dữ liệu bằng cây quyết định mờ từ tập mẫu huấn luyện. Đề xuất phương pháp trích chọn đặc trưng để chọn tập mẫu huấn luyện cho việc học phân lớp bằng cây quyết định từ các kho dữ liệu, nhằm hạn chế sự phụ thuộc ý kiến của chuyên gia trong quá trình chọn tập mẫu huấn luyện. - Đề xuất phương pháp xử lý giá trị ngôn ngữ của các thuộc tính chưa thuần nhất trên tập mẫu huấn luyện dựa vào bản chất của ĐSGT. - Luận án đã xây dựng các hàm mục tiêu của bài toán phân lớp bằng cây quyết định, sử dụng tính có thứ tự của các giá trị ngôn ngữ 3 trong ĐSGT. Đưa ra các khái niệm đối sánh khoảng mờ, khoảng mờ lớn nhất để từ đó đề xuất các thuật toán học cây quyết định mờ MixC4.5, FMixC4.5, HAC4.5 và HAC4.5* cho bài toán phân lớp, nhằm góp phần cải thiện, nâng cao độ chính xác trong quá trình học phân lớp dữ liệu bằng cây quyết định cho bài toán phân lớp dữ liệu . Ý nghĩa thực tiễn - Góp phần chứng tỏ khả năng ứng dụng phong phú của ĐSGT trong biểu diễn và xử lý thông tin mờ, không chắc chắn. - Luận án đã góp phần vào việc giải quyết vấn đề định lượng cho các giá trị ngôn ngữ mà không phụ thuộc cố định vào miền trị Min-Max của các giá trị kinh điển của thuộc tính mờ trong tập mẫu. - Dựa trên các khái niệm về khoảng mờ và khoảng mờ lớn nhất, luận án đã đề xuất các thuật toán cho quá trình học cây, nhằm tăng khả năng dự đoán cho bài toán phân lớp dữ liệu bằng cây quyết định. Làm phong phú thêm các phương pháp học cho bài toán phân lớp nói chung và phân lớp bằng cây quyết định nói riêng. - Luận án có thể được sử dụng làm tài liệu tham khảo cho các sinh viên đại học, học viên cao học ngành Công nghệ thông tin nghiên cứu về học phân lớp bằng cây quyết định. 6. Bố cục của luận án Ngoài phần mở đầu, kết luận và tài liệu tham khảo, luận án được chia làm 3 chương nội dung. Chương 1: Cơ sở lý thuyết về đại số gia tử và tổng quan phân lớp dữ liệu bằng cây quyết định. Tập trung phân tích và đánh giá các công trình nghiên cứu đã công bố gần đây, chỉ ra các vấn đề còn tồn tại để xác định mục tiêu và nội dung cần giải quyết. Chương 2: Phân lớp dữ liệu bằng cây quyết định mờ theo phương pháp đối sánh điểm mờ dựa trên đại số gia tử. Tập trung phân tích sự ảnh hưởng của tập mẫu huấn luyện đối với hiệu quả của cây thu được. Trình bày phương pháp nhằm trích chọn được tập mẫu đặc trưng cho quá trình huấn luyện. Phân tích, đưa ra các khái niệm về tập mẫu không thuần nhất, giá trị ngoại lai và xây dựng thuật toán để có thể thuần nhất cho các thuộc tính này. Đề xuất các thuật toán MixC4.5 và FMixC4.5 phục vụ quá trình học cây quyết định trên tập mẫu không thuần nhất. Chương 3: Phương pháp huấn luyện cây quyết định mờ cho bài toán phân lớp dữ liệu dựa trên đối sánh khoảng mờ. Chương này của luận án tập trung nghiên cứu quá trình học cây quyết định mờ nhằm đạt hai mục tiêu là fh(S) → max và fn(S) → min. Trên cơ sở nghiên cứu mối tương quan của các khoảng mờ, 4 luận án đề xuất phương pháp đối sánh dựa trên khoảng mờ và xây dựng thuật toán học phân lớp bằng cây quyết định dựa trên khoảng mờ HAC4.5, xây dựng phương pháp nhằm có thể định lượng cho các giá trị của thuộc tính không thuần nhất, chưa xác định Min-Max, của tập mẫu. Luận án cũng đề xuất khái niệm khoảng mờ lớn nhất, thiết kế thuật toán HAC4.5* nhằm đồng thời đạt được các mục tiêu đã nêu. Các kết quả chính của luận án đã được báo cáo tại các hội nghị khoa học và senimar, được công bố trong 7 công trình khoa học được đăng trong các hội nghị, tạp chí chuyên ngành trong và ngoài nước: 01 bài đăng ở tạp chí Khoa học và Công nghệ trường Đại học Khoa học Huế; 01 bài đăng ở tạp chí Khoa học Đại học Huế; 01 bài đăng ở kỷ yếu Hội thảo quốc gia FAIR; 02 bài đăng ở Chuyên san Các công trình nghiên cứu, phát triển và ứng dụng Công nghệ thông tin & Truyền thông, tạp chí CNTT &TT; 01 bài đăng ở tạp chí chuyên ngành Tin học và Điều khiển, 01 bài đăng ở tạp chí quốc tế IJRES. Chƣơng 1. CƠ SỞ LÝ THUYẾT VỀ ĐẠI SỐ GIA TỬ VÀ TỔNG QUAN PHÂN LỚP DỮ LIỆU BẰNG CÂY QUYẾT ĐỊNH 1.1. Lý thuyết tập mờ 1.2. Đại số gia tử 1.2.1. Khái niệm đại số gia tử 1.2.2. Các hàm đo của đại số gia tử 1.2.3. Một số tính chất của các hàm đo 1.2.4. Khoảng mờ và các mối tƣơng quan của khoảng mờ Định nghĩa 1.18. Hai khoảng mờ được gọi là bằng nhau, ký hiệu I(x) = I(y) khi chúng được xác định bởi cùng một giá trị (x = y), tức là ta có IL(x) = IL(y) và IR(x) = IR(y). Trong đó ký hiệu IL(x) và IR(x) là điểm mút trái và phải của khoảng mờ I(x). Ngược lại, ta gọi chúng là hai khoảng mờ khác nhau và ký hiệu là I(x)  I(y). Định nghĩa 1.19. Cho một ĐSGT X = (X, G, H,  ), với x, y  X: 1. Nếu IL(x) ≤ IL(y) và IR(x) ≥ IL(y) thì ta nói giữa y và x có mối tương quan I(y)  I(x), ngược lại ta nói I(y)  I(x). 2. Khi I(y)  I(x), với x1  X và giả sử x < x1, nếu |I(y) ∩ I(x)| ≥ | I(y)|/£ với £ là số đoạn I(xi)  [0, 1] sao cho I(y) ∩ I(xi) ≠  thì ta nói y có mối tương quan được đối sánh theo x. Ngược lại, nếu |I(y) ∩ 5 Độ chính xác I(x1)| ≥ | I(y)|/£ thì ta nói y có mối tương quan được đối sánh theo x1. 1.3. Phân lớp dữ liệu bằng cây quyết định 1.3.1. Bài toán phân lớp trong khai phá dữ liệu Cho U = {A1, A2,…, Am} là tập có m thuộc tính, Y = {y1, ..., yn} là tập các nhãn của các lớp; với D = A1 × ... × Am là tích Đề-các của các miền của m thuộc tính tương ứng, có n số lớp và N là số mẫu dữ liệu. Mỗi dữ liệu di ∈ D thuộc một lớp yi ∈ Y tương ứng tạo thành từng cặp (di , yi) ∈ (D, Y). 1.3.2. Cây quyết định Một cây quyết định là một mô hình logic được biểu diễn như một cây, cho biết giá trị của một biến mục tiêu có thể được dự đoán bằng cách dùng các giá trị của một tập các biến dự đoán. Ta cần xây dựng một cây quyết định, ký hiệu S, để phân lớp. S đóng vai trò như một ánh xạ từ tập dữ liệu vào tập nhãn, S : D → Y (1.4) 1.3.3. Lợi ích thông tin và tỷ lệ lợi ích thông tin 1.3.4. Vấn đề quá khớp trong mô hình cây quyết định Định nghĩa 1.20. Cho một giả thiết h ứng với mô hình của một cây quyết định, ta nói nó là quá khớp với tập dữ liệu huấn luyện, nếu tồn tại một giả thiết h’ với h có sai số nhỏ hơn tức độ chính xác lớn hơn h’ trên tập dữ liệu huấn luyện, nhưng h’ có sai số nhỏ hơn h trên tập dữ liệu kiểm tra. Trên tập huấn luyện Trên tập kiểm tra h ’ h Kích thước cây (số các nút của cây) Định nghĩa 1.21. Cây quyết định được gọi là cây dàn trải nếu tồn tại nút có số nhánh phân chia lớn hơn tích của |Y| với chiều cao của nó. 1.4. Phân lớp dữ liệu bằng cây quyết định mờ 1.4.1. Các hạn chế của phân lớp dữ liệu bằng cây quyết định rõ Mục tiêu của cách tiếp cận này là dựa vào tập huấn luyện với các miền dữ liệu được xác định cụ thể, xây dựng một phương pháp học cây quyết định với sự phân chia rõ ràng theo các ngưỡng giá trị tại các nút phân chia.  Hƣớng tiếp cận dựa vào việc tính lợi ích thông tin của thuộc tính: dựa vào khái niệm Entropi thông tin để tính lợi ích thông 6 tin và tỷ lệ lợi ích thông tin của các thuộc tính tại thời điểm phân chia của tập mẫu huấn luyện, từ đó lựa chọn thuộc tính tương ứng có lợi ích thông tin lớn nhất làm điểm phân chia. Nếu thuộc tính được chọn có kiểu rời rạc thì phân lớp theo giá trị phân biệt của chúng, còn nếu có giá trị liên tục thì tìm ngưỡng của phép tách để chia thành 2 tập con theo ngưỡng đó. Việc tìm ngưỡng cho phép tách cũng dựa theo tỷ lệ lợi ích thông tin của các ngưỡng trong tập huấn luyện tại nút đó. Tuy hướng tiếp cận này cho chúng ta các thuật toán có độ phức tạp thấp nhưng việc phân chia k-phân trên các thuộc tính rời rạc làm cho số nút của cây tại một cấp tăng lên nhanh, làm tăng chiều rộng của cây, dẫn đến việc cây dàn trải theo chiều ngang nên dễ xảy ra tình trạng quá khớp, khó để có thể dự đoán.  Hƣớng tiếp cận dựa vào việc tính hệ số Gini của thuộc tính: dựa vào việc tính hệ số Gini và tỷ lệ hệ số Gini của các thuộc tính để lựa chọn điểm phân chia cho tập huấn luyện tại mỗi thời điểm. Theo cách tiếp cận này, chúng ta không cần đánh giá mỗi thuộc tính mà chỉ cần tìm điểm tách tốt nhất cho mỗi thuộc tính đó. Tuy nhiên, vì tại thời điểm phân chia với thuộc tính rời rạc, hoặc luôn lựa chọn cách phân chia theo nhị phân tập hợp của SLIQ hoặc nhị phân theo giá trị của SPRINT nên cây kết quả mất cân xứng vì phát triển nhanh theo chiều sâu. Thêm vào đó, tại mỗi thời điểm chúng ta phải tính một số lượng lớn hệ số Gini cho các giá trị rời rạc nên chi phí về độ phức tạp tính toán cao. Thêm vào đó, việc học phân lớp bằng cây quyết định theo các hướng tiếp cận đòi hỏi tập mẫu huấn luyện phải thuần nhất và chỉ chứa các dữ liệu kinh điển. Tuy nhiên, do bản chất luôn tồn tại các khái niệm mờ trong thế giới thực nên điều kiện này không đảm bảo trong các cơ sở dữ liệu hiên đại. Vì vậy, việc nghiên cứu bài toán phân lớp dữ liệu bằng cây quyết định mờ là vấn đề tất yếu. 1.4.2. Bài toán phân lớp dữ liệu bằng cây quyết định mờ Cho bài toán phân lớp bằng cây quyết định S : D → Y tại (1.4), nếu Aj  D là một thuộc tính mờ trong D thì ta có bài toán phân lớp bằng cây quyết định mờ. Mô hình cây quyết định S phải đạt các mục tiêu như hiệu quả phân lớp cao, tức là sai số phân lớp cho các dữ liệu ít nhất có thể và cây có ít nút nhưng có khả năng dự đoán cao, không xảy ra tình trạng quá khớp. 7 1.4.3. Một số vấn đề của bài toán phân lớp dữ liệu bằng cây quyết định mờ Nếu ta gọi fh(S) là hàm đánh giá tính hiệu quả của quá trình dự đoán, fn(S) là hàm đánh giá tính đơn giản của cây, lúc này mục tiêu của bài toán phân lớp bằng cây quyết định mờ: S : D → Y nhằm đạt được fh(S) → max và fn(S) → min (1.13). Hai mục tiêu trên khó có thể đạt được đồng thời. Khi số nút của cây giảm đồng nghĩa với lượng tri thức về bài toán giảm thì nguy cơ phân lớp sai tăng lên, nhưng khi có quá nhiều nút cũng có thể gây ra sự quá khớp thông tin trong quá trình phân lớp. Các hướng tiếp cận nhằm mục đích xây dựng mô hình cây quyết định hiệu quả dựa trên tập huấn luyện hiện vẫn còn gặp các khó khăn cần khắc phục như: khả năng dự đoán chưa cao, phụ thuộc vào tri thức của chuyên gia và tập mẫu huấn luyện được chọn, tính nhất quán của tập mẫu,... Để giải quyết vấn đề này, luận án tập trung nghiên cứu mô hình và các giải pháp học cây quyết định dựa trên ĐSGT nhằm huấn luyện được cây quyết định hiệu quả. Chƣơng 2. PHÂN LỚP DỮ LIỆU BẰNG CÂY QUYẾT ĐỊNH MỜ THEO PHƢƠNG PHÁP ĐỐI SÁNH ĐIỂM MỜ DỰA TRÊN ĐẠI SỐ GIA TỬ 2.1. Giới thiệu Với mục tiêu là fh(S) → max và fn(S) → min của bài toán học phân lớp bằng cây quyết định mờ S : D → Y, hiện chúng ta gặp nhiều vấn đề cần giải quyết như: 1. Trong kho dữ liệu nghiệp vụ, dữ liệu được lưu trữ rất đa dạng vì chúng phục vụ nhiều công việc khác nhau. Nhiều thuộc tính cung cấp các thông tin có khả năng dự đoán sự nhưng cũng có nhiều thuộc tính không có khả năng phản ánh thông tin cần dự đoán. 2. Tất cả các phương pháp học quy nạp cây quyết định như CART, ID3, C4.5, SLIQ, SPRINT,… điều cần đến sự nhất quán của tập mẫu. Tuy nhiên trong bài toán phân lớp bằng cây quyết định mờ, còn có sự xuất hiện của các thuộc tính chứa giá trị ngôn ngữ, tức Ai  D có miền trị 𝐷𝑜𝑚(𝐴𝑖 ) = 𝐷𝐴𝑖  𝐿𝐷𝐴𝑖 , với 𝐷𝐴𝑖 là tập các giá trị kinh điển của Ai và 𝐿𝐷𝐴𝑖 là tập các giá trị ngôn ngữ của Ai. Trong 8 trường hợp này, các thuật toán học quy nạp trên sẽ không xử lý các bộ dữ liệu “lỗi” nằm ở miền giá trị 𝐿𝐷𝐴𝑖 . 3. Việc sử dụng ĐSGT để định lượng cho các giá trị ngôn ngữ thường dựa vào miền giá trị rõ của chính thuộc tính đang xét tức là ta có thể tìm thấy miền trị [min, max] từ miền giá trị rõ đang có, nhưng việc tìm miền trị này không phải lúc nào cũng thuận lợi. 2.2. Phƣơng pháp chọn tập mẫu huấn luyện đặc trƣng cho bài toán học phân lớp bằng cây quyết định 2.2.1. Tính chất thuộc tính của tập mẫu huấn luyện đối với quá trình huấn luyện Định nghĩa 2.1. Thuộc tính Ai  D được gọi là thuộc tính có giá trị riêng biệt (thuộc tính riêng biệt) nếu như nó là thuộc tính rời rạc và |Ai| > (m - 1) × |Y|. Tập các thuộc tính này trong D ký hiệu là D*. Mệnh đề 2.1. Quá trình xây dựng cây nếu có một nút bất kỳ được tạo dựa trên thuộc tính riêng biệt thì kết quả thu được có thể là một cây dàn trải. Định nghĩa 2.2. Thuộc tính 𝐴𝑖 = {𝑎𝑖1 , 𝑎𝑖2 , … , 𝑎𝑖𝑛 }  D mà giữa các phần tử 𝑎𝑖𝑗 , 𝑎𝑖𝑘 với j ≠ k không tồn tại một phép so sánh được nào đó thì ta gọi Ai là thuộc tính ghi nhớ trong tập mẫu, ký hiệu là DG. Mệnh đề 2.2. Nếu Ai  D là thuộc tính ghi nhớ thì ta loại Ai ra khỏi mẫu D mà không làm thay đổi cây quyết định thu được. Mệnh đề 2.3. Nếu trong tập mẫu huấn luyện chứa thuộc tính Ai là khoá của tập D thì cây quyết định thu được là quá khớp tại nút Ai. 2.2.2. Ảnh hƣởng của phụ thuộc hàm giữa các thuộc tính trong tập huấn luyện Mệnh đề 2.4. Trên mẫu D với thuộc tính quyết định Y, nếu có phụ thuộc hàm Ai  Aj và nếu đã chọn Ai làm nút phân tách trên cây thì mọi nút con của nó sẽ không nhận Aj làm nút phân tách. Mệnh đề 2.5. Trên mẫu D với thuộc tính quyết định Y, nếu có phụ thuộc hàm Ai  Aj thì lượng thông tin nhận được trên Ai không nhỏ hơn lượng thông tin nhận được trên Aj. Hệ quả 2.1. Nếu có phụ thuộc hàm A1 A2 mà A1 không phải là thuộc tính khóa của mẫu D thì thuộc tính A2 không được chọn làm nút phân tách cây. Thuật toán tìm tập huấn luyện đặc trƣng từ dữ liệu nghiệp vụ Vào : Tập mẫu huấn luyện D được chọn từ dự liệu nghiệp vụ; Ra : Tập mẫu huấn luyện đặc trưng D; 9
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.