Cost function là gì

     

Chào các bạn, đã và đang gần 1 mon tự Khi tôi viết bài đầu tiên về machine learning - tổng quan lại về machine learningVới kì vọng mỗi tuần 1 nội dung bài viết, vừa là để tổng kết mọi gì vẫn học tập được, vừa là để gia công tài liệu bản thân tàng trữ sau này. Nhưng chiến lược sẽ đổ vỡ ngay tuần đầu tiên vì chưng không chỉ bao gồm rất nhiều máy nhằm học tập, đọc và viết thành 1 bài hoàn hảo mà còn bởi thiết bị án với công việc tiếp thu kiến thức tại trường xâm chiếm gần như là toàn thể thời gian. Đến từ bây giờ new tất cả thời hạn quay lại cùng viết 1 bài để share kỹ năng và kiến thức và kinh nghiệm tay nghề với tất cả người.Bạn sẽ xem: Cost Function Là Gì

Linear Regression with one variable

Chủ đề của bài viết này đang là Linear Regresssion with one variable (tạm dịch: Hồi quy con đường tính một biến) là một trong số những giải thuật dễ dàng và đơn giản và dễ dàng thực thi độc nhất vào machine learning. Thực hóa học quan niệm này đang gồm đề cập tới ngay trường đoản cú bài viết trước trong series về ML của tớ, nếu như khách hàng còn nhớ thì tôi vẫn nêu một ví dụ về việc dự đoán giá nhà đất dựa trên diện tích S, đó cũng là 1 trong bài tân oán cơ mà ta hoàn toàn có thể áp dụng linear regression nhằm giải quyết.

Bạn đang xem: Cost function là gì

Model Representation

Trước không còn, hãy thuộc tò mò một quy mô chung cho quy trình apply Linear Regression vào để xử lý bài bác toán cụ thể.

*

Giống như không hề ít cấu trúc phần mềm chuyển động, một cấu trúc tầm thường mang lại Việc thực hiện ML để giải quyết các bài bác tân oán, cũng bao gồm 3 phần chính.

Xem thêm: Hướng Dẫn Cách Chơi Soraka Tốc Chiến: Lên Đồ, Bảng Ngọc, Bổ Trợ, Kỹ Năng

Phần 1: input đầu vào, tuyệt x. Đầu vào ở đây chính là tài liệu, thông tin mà ta vẫn bao gồm, cùng đã phải tra cứu áp ra output. Vẫn với ví dụ dữ đân oán giá cả nhà đất cửa ngõ dựa vào diện tích. Ta bao gồm một tập những tài liệu bao gồm diện tích S công ty cùng giá chỉ tương xứng. Giờ tôi có một ngôi nhà tất cả diện tích là 1000m2, nên search giá của chính nó là từng nào. Thì 1000mét vuông đây đó là input đầu vào của chương trình.Phần 2: output, hay y. output là giá bán của khu nhà ở 1000m2 ngơi nghỉ bên trên, cũng chính là kết quả mà ta mong muốn từ trên đầu vào.Phần 3: process (xử lý). Quá trình cách xử lý tại chỗ này đã diễn ra như sau: ta gồm một tập dữ liệu gồm sẵn (Training set), dựa vào tập tài liệu này, quan hệ giữa nguồn vào, Áp sạc ra, ... ta vẫn tìm thấy được một hàm quan hệ giữa x cùng y điện thoại tư vấn là Hypothesis Function (kí hiệu là h). Thông qua hàm h trình diễn mối quan hệ thân x với y, ta đã tìm kiếm được y nếu biết x. lấy ví dụ như với y = ax + b chẳng hạn, thì ax + b đó là Hypothesis Function, sau một vài ba quá trình cách xử lý ta tìm được h = 3x + 1, vậy giả dụ x = 1000m2, thì ta chỉ bài toán gắng vào hàm h là kiếm được cực hiếm y tương ứng = 3001

Hypothesis Function

Với Linear Regresssion with one variable thì hypothesis function sẽ sở hữu được dạng thông thường là:

*

Ví dụ: ta gồm bảng training set sau

*

Chưa vội vàng đề cùa tới bài toán áp dụng Linear Regression, nhìn vào tài liệu ta có thể đưa ra dữ đân oán là θ0 = 2 cùng θ1 = 2, Hypothesis function: hθ(x)=2+2xVới x = 4, ta vẫn predict là y = 10. Đây là một ví dụ tương đối đơn giản nhưng mà ta rất có thể đoán luôn luôn hàm h, tuy nhiên với các tài liệu phức hợp hơn, đòi hỏi độ đúng đắn cao hơn vậy thì đang phải tất cả những cách thức giỏi cùng buổi tối ưu hơn. Hãy cùng bước vào 2 tư tưởng Cost Function (hàm mất mát) cùng Gradient Descent (giải mã độ dốc).

Cost Function

Mục tiêu của cost function là để tính độ đúng mực của thuật toán thù ta áp dụng, bằng phương pháp lấy vừa đủ không đúng số thân các kết quả dự đoán với kết quả thực. Công đồ vật của cost function như sau:

*

Ở phía trên ta kí hiệu hàm mất mátJ(θ), chính vì đó là hàm của theta bởi nhỏng mình đã phân tích và lý giải sống trên, kim chỉ nam là đề nghị tìm được các tmê say số θ tương thích vào h, đề xuất cost function vẫn cần là hàm của θ.m là size của training mix, hθ(xi) đó là áp ra output sau thời điểm dự đoán thù với lời giải linear regression so với training mix đồ vật i, yi là hiệu quả thực sự của training phối sản phẩm công nghệ iHàm này tính độ đúng đắn của hypothesis function, có nghĩa là độ lệch của cổng đầu ra trường đoản cú lời giải so với kết quả thực tế của training phối. Nhưng điều này thì phương pháp bên trên dường như thơi thừa. Đáng nghẽ nó chỉ cần là:
*

Lý vì ta đem bình pmùi hương và 1/2 đơn giản để cho dễ tính. Bình pmùi hương lên nhằm tránh trường hợp số âm (cũng cũng chính vì thay nhưng mà hàm này còn gọi là Squared error function, còn phân chia mang lại 2 đã dễ ợt hơn mang lại vấn đề tính đạo hàm, còn sao bắt buộc tính đạo hàm sẽ sở hữu ở chỗ tiếp theo gradient descentVậy là bạn đang đọc phần nào công thức của hàm mất mát, chúng ta đang bởi một bí quyết làm sao kia, tạo nên hàm mất đuối là nhỏ duy nhất, hàm này càng nhỏ tuổi, Tức là sai số đự đoán càng nhỏ, nói cách khác, giải mã càng đúng chuẩn (phần nhiều là thế).Nếu chúng ta còn lưu giữ trang bị thị biểu diễn hypothesis function:
tại chỗ này, cost function cũng chính là vừa đủ khoảng cách giữa các điểm quý giá thật cùng với trang bị thị thẳng biểu diễn hypothesis function, trang bị thị này càng trải qua cùng ngay gần nhiều điểm, khoảng cách thân các điểm đó với đường trực tiếp biểu diễn hypothesis function đang càng bé dại, hàm dự đân oán của họ càng đúng chuẩn.

Xem thêm: Cách Tải Garena Về Máy Điện Thoại Androi Ios, Garena Liên Quân Mobile

Gradient Descent

Tới phần này, ta đang xác định được một lối đi nạm thể: hy vọng dự đoán giá tốt -> xác định hypothesis function -> minimize cost function. Và nếu ai học giỏi toán một chút thì địa điểm này sẽ nhận thấy, mong mỏi đi giải một bài bác tân oán buổi tối ưu, một trong số cách thức tốt dùng độc nhất, chính là giải phương trình đạo hàm bởi 0. Hàm cost function là một trong những hàm bậc hai, gồm vật dụng thị hình chum, điểm phải chăng nhất (có mức giá trị bé dại nhất) cũng đó là điểm gồm đạo hàm bằng 0. Và này cũng đó là quá trình của lời giải gradient descent.Giải thuật gradient descent cũng không tồn tại gì phức hợp, ta sẽ tái diễn vấn đề tính θ cho tới Khi nó không bao giờ thay đổi (từ bây giờ đạo hàm sấp xỉ 0)Thực hiện tính toán thù θ cho tới lúc hội tụ:

Conclusion

Tại bên trên là 1 dãy những triết lý với tư tưởng buộc phải lưu giữ, bài bác tiếp theo về machine learning cũng trở thành vẫn thế =)) tuy vậy mình vẫn nỗ lực gửi thêm cả code implement giải thuật vào nữa. Cũng định đưa luôn từ bài này, tuy thế đích thực Lúc tính toán vẫn áp dụng hơi không giống đối với triết lý một ít, nổi bật là ta đã sử dụng các ma trận nhằm tính toán, chứ đọng không phải giải cùng tính toán từng quý hiếm nhỏng bên trên. Ngay bài bác sau thôi bản thân đang đề cập đến một vài quan niệm căn bạn dạng về đại số, đôi khi sẽ có được code (python) implement Linear Regression with one variable để các bạn tưởng tượng tốt hơn công việc thực hiện. Cám ơn đang gọi tới tận cái này của bài viết. Hẹn gặp mặt lại.

Bài viết tham khảo từ khóa đào tạo và huấn luyện Machine Learning của GS Andrew Ng, ĐH Stanford


Chuyên mục: Tin Tức