- ავარჯიშებთ მანქანური სწავლების მოდელს Python-ის ბიბლიოთეკების გამოყენებით Jupyter Notebook-ში
- შეიტანთ ტესტირრებული მანქანური სწავლების მოდელს Streamlit ვებ აპლიკაციაში
აქტივობები ამ გაკვეთილისთვის:
ᲛᲐᲜᲥᲐᲜᲘᲗ ᲡᲬᲐᲕᲚᲘᲡ ᲛᲝᲓᲔᲚᲔᲑᲗᲐᲜ ᲛᲣᲨᲐᲝᲑᲐ
Jupyter Notebooks-ის, Python-ისა და Streamlit-ის კიდევ ერთი მთავარი მახასიათებელია მანქანური სწავლების მოდელების მომზადებისა და პროგნოზების გაკეთების შესაძლებლობა.
თუ ხელოვნური ინტელექტის სფეროში ახალი ხართ, შეგიძლიათ გაეცნოთ AI გაკვეთილებს ამ სასწავლო პროგრამაში, რათა გაიგოთ ძირითადი პრინციპები, სანამ რთულ კოდირებას დაიწყებთ. შეგიძლიათ გამოიყენოთ მარტივი პლატფორმა, როგორიცაა Teachable Machine, მოდელის შესაქმნელად და Python ვებ აპლიკაციაში ინტეგრირებისთვის.
თუ გქონიათ გარკვეული გამოცდილება ხელოვნურ ინტელექტთან და მონაცემთა ბაზებთან მუშაობაში Jupyter Notebooks-ის გამოყენებით, ეს ძალიან კარგი შესაძლებლობაა თქვენთვის.
ამ გაკვეთილზე თქვენ გაეცნობით პითონის მანქანური სწავლების ბიბლიოთეკებს და მანქანური სწავლების ზოგიერთ მოდელს, რომლებიც შეგიძლიათ შექმნათ პითონის გამოყენებით.
განხილვისთვის, მანქანური სწავლების მოდელის შესაქმნელად, არსებობს 3 ძირითადი ნაწილი.
ᲛᲝᲜᲐᲪᲔᲛᲗᲐ ბაზა
ᲨᲐᲑᲚᲝᲜᲔᲑᲡ პოვნა ᲡᲬᲐᲕᲚᲘᲡ ᲐᲚᲒᲝᲠᲘᲗᲛᲘᲗ
ᲞᲠᲝᲒᲜᲝᲖᲘᲠᲔᲑᲐ!
მონაცემთა ბაზაარის თქვენი მოდელის შემავალი ინფორმაცია. ის შეიძლება შეიცავდეს ტექსტს, გამოსახულებებს, ხმებს ან პოზებს. ჩვენ ტექსტსა და რიცხობრივ მონაცემებთან ვიმუშავეთ მე-2 ნაწილში Jupyter Notebook-ების გამოყენებით. ამ გაკვეთილში კვლავ ტექსტურ მონაცემებთან ვიმუშავებთ ცხრილის ფორმატში.
შაბლონების პოვნა არსებითად წარმოადგენს მანქანური სწავლის მოდელის აგებას მონაცემთა ბაზის გამოყენებით. Python მოიცავს მრავალ ბიბლიოთეკას, რომლებიც მონაცემებიდან AI მოდელს ააგებენ. ამ კურსში ჩვენ scikit-learn პაკეტის ბევრ ფუნქციას გამოვიყენებთ. გარდა იმისა, რომ ეს ბიბლიოთეკა ბევრ ფუნქციას გვაწვდის, მისი ვებგვერდი შეიცავს უამრავ სასარგებლო ინფორმაციას მანქანური სწავლის შესახებ. ეს შესანიშნავი რესურსია სწავლისთვის!
მოდელის შექმნის შემდეგ, ის შეიძლება გამოყენებულ იქნეს ახალი ინფორმაციის საფუძველზეპროგნოზისთვის. Python ამაზეც შესაბამის ბიბლიოთეკებს გვაწვდის.
ᲛᲝᲜᲐᲪᲔᲛᲗᲐ ᲬᲘᲜᲐᲡᲬᲐᲠᲘ ᲓᲐᲛᲣᲨᲐᲕᲔᲑᲐ
სანამ თქვენი მონაცემთა ბაზა გადაეგზავნება ალგორითმს მოდელის შესაქმნელად, ის უნდადამუშავდესან "გასუფთავდეს," რათა ალგორითმმა შეძლოს მასზე მუშაობა და შექმნას მაქსიმალურად ზუსტი მოდელი. რეალურად, მანქანური სწავლების მოდელის შექმნის ძირითადი სამუშაო სწორედ წინასწარ დამუშავებაზე მოდის. საჭიროა დეტალურად გაანალიზოთ მონაცემები, გადაწყვიტოთ, რა არის მნიშვნელოვანი, რა შეიძლება გამოტოვოთ და რა უნდა გასუფთავდეს.
რას მოიცავს წინასწარი დამუშავება? ტექსტზე დაფუძნებული მონაცემთა ბაზით, ქვემოთ მოცემულია რამდენიმე საკითხი, რომლებსაც უნდა გაუმკლავდეთ.
ნულოვანი მნიშვნელობები
ზოგჯერ მონაცემთა ბაზა შეიცავს ცარიელ ან ნულოვან მნიშვნელობებს, განსაკუთრებით თუ მონაცემები მიღებულია გამოკითხვით. ხანდახან, შეგიძლიათ გააუქმოთ ყველა ისეთი მწკრივი, რომელიც null მონაცემებს შეიცავს.
თუმცა, თუ მონაცემთა რაოდენობა მცირეა, შეიძლება არ გინდოდეთ მათი წაშლა. მეორე ვარიანტია null მნიშვნელობების შეცვლა სხვა მნიშვნელობებით. ეს შეიძლება იყოს ნულოვანი ან სხვა ველის საშუალო მაჩვენებელი.
გამოკვეთილები
ზოგჯერ მონაცემებში ერთი ან ორი ნიმუში მნიშვნელოვნად განსხვავდება დანარჩენისგან. ამან შეიძლება მოდელს არასწორი მიმართულებით დააპროგრამოს. არ გინდათ, რომ ასეთი გამონაკლისები მოდელის შექმნაზე გავლენას ახდენდნენ, ამიტომ ხშირად ასეთი მონაცემები უნდა ამოიღოთ.
მაგალითად, თუ მონაცემებში 95% არის 10-30 წლის ადამიანები, მაგრამ შემთხვევით შედის 50 წელზე უფროსი ასაკის ნიმუშები, ამ უკანასკნელთა ამოღება შეიძლება განიხილოთ, რადგან ისინი უმცირესობაში არიან.
სტანდარტიზაცია
დიდ მონაცემთა ბაზაშო რიცხვები ხშირად მნიშვნელოვნად განსხვავდება, რაც დამოკიდებულია წარმოდგენილი მახასიათებლების მიხედვით. მაგალითად, ასაკი შეიძლება მერყეობდეს 0-დან 70-მდე, ხოლო ხელფასი - 0-დან 500,000-მდე! ეს მასშტაბები ძალიან განსხვავდება, რაც შეიძლება ერთ მახასიათებელს უფრო დიდ მნიშვნელობას ანიჭებდეს მოდელში.
ამის გამოსასწორებლად შესაძლებელია მონაცემების სტანდარტიზაცია, რათა ყველა მონაცემს ერთი მასშტაბი ჰქონდეს. scikit-learn-ის StandardScaler ფუნქცია უზრუნველყოფს თითოეული მახასიათებლის განახლებას ისე, რომ საშუალო იყოს 0 და სტანდარტული გადახრა - 1.
კიდევ ერთი საკითხია კლასების (ან ლეიბლების) ნიმუშების რაოდენობის დაბალანსება. უნდა დარწმუნდეთ, რომ თითოეულ კლასში მონაცემთა რაოდენობა დაახლოებით თანაბარია.
კოდირება
ხელოვნურ ინტელექტს უყვარს რიცხვები და არა სიტყვები. ამიტომ მნიშვნელოვანია, რომ ყველა მონაცემი რიცხვებში გადაკეთდეს. scikit-learn უზრუნველყოფს Encoder ფუნქციებს, რაც საშუალებას გაძლევთ ტექსტური მნიშვნელობების სპექტრი მარტივად გადაკეთდეს რიცხვთა სპექტრად.
მაგალითად, თუ გაქვთ აქტივობის დონეები (მჯდომარე, მსუბუქი, საშუალო, მაღალი), ამ პასუხებს შეიძლება მიენიჭოს რიცხვითი მნიშვნელობები 0, 1, 2 და 3, რაც ალგორითმისთვის გაცილებით მარტივი იქნება.
ᲛᲝᲜᲐᲪᲔᲛᲔᲑᲘᲡ ᲒᲐᲧᲝᲤᲐ
როგორც კი მონაცემები წინასწარ დამუშავებულია, აუცილებელია მისი გაყოფა სასწავლო და ტესტირების ნაკრებად. სასწავლო ნაკრები გამოიყენება მოდელის შესასწავლად და შესაქმნელად. შემდეგ ტესტირების ნაკრებით ამოწმებთ მოდელის მუშაობას.
არსებობს მონაცემთა გაყოფის სტანდარტული მეთოდები (ჩვეულებრივ, 75% სასწავლოდ და 25% ტესტირებისთვის), მაგრამ შეგიძლიათ ეს გაყოფა ნებისმიერი პროპორციით განახორციელოთ. ამ პროცესისთვის ფუნქციებიც გათვალისწინებულია, რაც პროცესს ავტომატიზირებულს ხდის.
ᲛᲝᲓᲔᲚᲘᲡ ᲨᲔᲥᲛᲜᲐ
შემდეგი ნაბიჯი არის მოდელის შექმნა. მთავარი გადაწყვეტილებაა, რომელ ალგორითმს გამოიყენებთ? არსებობს ზედამხედველობით სწავლის მრავალი ალგორითმი, ამიტომ რთულია სწორი არჩევანის გაკეთება. კარგი მიდგომაა, რამდენიმე სხვადასხვა ალგორითმი სცადოთ და შემდეგ შეამოწმოთ, რომელი გაძლევთ საუკეთესო სიზუსტეს.
პირველ რიგში უნდა გადაწყვიტოთ, გჭირდებათკლასიფიკაციისალგორითმი თურეგრესიისალგორითმი. ეს დამოკიდებულია იმაზე, თუ რა გინდათ იწინასწარმეტყველოთ.
კლასიფიკაციის ალგორითმები გამოიყენება დისკრეტული მიზნების ან კლასების პროგნოზირებისთვის. მაგალითად, ელფოსტის კლასიფიკაცია სპამად ან არა სპამად იქნება კლასიფიკაციის პრობლემა.
რეგრესიის ალგორითმები გამოიყენება ისეთი რამის პროგნოზირებისთვის, რაც განგრძობით დიაპაზონშია. მაგალითად, პროგნოზირება, რამდენი ხელფასი გადაეცემა ადამიანს. პროგნოზი იქნება რიცხვთა დიაპაზონი და შედეგი შეიძლება ამ დიაპაზონში ნებისმიერ მნიშვნელობას შეესაბამებოდეს.
ქვემოთ მოცემულია მხოლოდ რამდენიმე პოპულარული ტიპის მოდელის შექმნის ალგორითმები.

კლასიფიკაცია
- გადაწყვეტილების ხე
- შემთხვევითი ტყე
- K- უახლოესი მეზობლები
- გულუბრყვილო ბეისი
- ლოგისტიკური რეგრესია
- მხარდაჭერის ვექტორული მანქანა
რეგრესია
- ხაზოვანი რეგრესია
- ქედის რეგრესია
- ლასო რეგრესია
- პოლინომიური რეგრესია
- ბაიესის ხაზოვანი რეგრესია
- ვექტორული რეგრესიის მხარდაჭერა
ზოგიერთი ალგორითმი ორივე ტიპში ხვდება. მაგალითად, არსებობს გადაწყვეტილების ხის კლასიფიკატორი და ასევე გადაწყვეტილების ხის რეგრესორი. Support Vector Machine გამოიყენება კლასიფიკაციისთვის, ხოლო Support Vector Regression - რეგრესიისთვის.
როგორ აირჩევთ, რომელი გამოიყენოთ? შეგიძლიათგამოიკვლიოთ,რა იყენებენ სხვა მონაცემთა მეცნიერები სხვადასხვა სიტუაციაში. ასევე შეგიძლიათtry სცადოთრამდენიმე სხვადასხვა ალგორითმი და შემდეგ შეამოწმოთ, რომელი გაძლევთ საუკეთესო სიზუსტეს.
scitkit-learn უზრუნველყოფს ყველა ამ ალგორითმის ფუნქციას, ამიტომ მოდელის შექმნა საკმაოდ მარტივია.
ᲛᲝᲓᲔᲚᲘᲡ ᲨᲔᲤᲐᲡᲔᲑᲐ
ალბათ გსურთ, რომ თქვენი მოდელი იყოს საუკეთესო, ასე რომ თქვენ უნდა შეაფასოთ მისი შესრულება. მოდელის შეფასებისას ორი საერთო ცვლადი არის მიკერძოება და დისპერსიული.
მიკერძოება არის განსხვავება მოდელის პროგნოზირებულ მნიშვნელობასა და სწორ მნიშვნელობას შორის.
ვარიაცია არის ის, თუ რამდენად იცვლება პროგნოზები სხვადასხვა მონაცემების გამოყენებისას.
უნდა მიაღწიოთ კარგ ბალანსს მიკერძოებასა და განსხვავებას შორის.
მაღალი მიკერძოება -> შეუსაბამობა.
შეუსაბამობა ხდება მაშინ, როდესაც მოდელი ძალიან მარტივია და ვერ აკმაყოფილებს მონაცემების სირთულეს. ეს შეიძლება მოხდეს, თუ მონაცემები ან მახასიათებლები საკმარისი არაა, ან მონაცემები ზედმეტად ხმაურიანია.
მაღალი დისპერსია -> გადაჭარბებული მორგება.
გადაჭარბებულიმორგება ხდება, თუ მოდელს ერთი მონაცემების ბაზით ვასწავლით და ის ძალიან კარგად მუშაობს, მაგრამ ახალი მონაცემებით მუშაობისას ცუდ შედეგებს აჩვენებს.
მოდელის მუშაობის შესამოწმებლად ერთ-ერთი ტექნიკა არის ჯვარედინი დადასტურება.
ჯვარედინი დადასტურება ნიშნავს თქვენი მოდელის რამდენჯერმე სწავლებას, ყოველ ჯერზე ტრენინგის/ტესტირების მონაცემების სხვადასხვა გაყოფის გამოყენებით. თქვენი მონაცემთა ბაზა დაყოფილია რამდენიმე ფოლდერად ან ქვეჯგუფად. შემდეგ ერთი ნაკეცი გამართულია, როგორც ვალიდაციის ან ტესტის ნაკრები, ხოლო დარჩენილი ფოლდერები გამოიყენება მის გასავარჯიშებლად. ეს კეთდება რამდენჯერმე, ამიტომ ყოველ ჯერზე იცვლება ტრენინგი და ტესტის ნაკრები.
sciikit-learn ასევე გთავაზობთ მეტრიკის ბიბლიოთეკას, ასე რომ თქვენ შეგიძლიათ მარტივად მიიღოთ შესრულების ქულები თქვენი მოდელებისთვის.
- სიზუსტის ქულა = სწორი პროგნოზები/მთლიანი პროგნოზები
- სიზუსტე = ჭეშმარიტი დადებითი / (ჭეშმარიტი დადებითი + ცრუ დადებითი)
- გახსენება = ჭეშმარიტი დადებითი / (ჭეშმარიტი დადებითი + ცრუ უარყოფითი)
- F1 ქულა = (2 x სიზუსტე x გახსენება)/(სიზუსტე + გახსენება)
- სპეციფიკა = ჭეშმარიტი უარყოფითი / (ჭეშმარიტი დადებითი + ცრუ უარყოფითი)
- დაბნეულობის მატრიცა - აჩვენებს ჭეშმარიტ პოზიტიურ, ჭეშმარიტ უარყოფით, ცრუ პოზიტიურ და ცრუ უარყოფით რაოდენობას
სხვადასხვა ალგორითმებიდან მეტრიკის შემოწმებით, შეგიძლიათ აირჩიოთ საუკეთესო მოდელი.
ᲞᲠᲝᲒᲜᲝᲖᲘᲠᲔᲑᲐ!
მას შემდეგ რაც გექნებათ მოდელი, რომლითაც კმაყოფილი ხართ, უნდა გამოიყენოთ ის აპლიკაციაში.
გავრცელებული პრაქტიკაა preprocessing-ის, მოდელის შექმნის და შეფასების Python-ის გამოყენებით Jupyter Notebooks-ში განხორციელება. ამის შემდეგ შეგიძლიათ მოდელის ექსპორტირება ფაილად.
შემდეგ, თქვენი Streamlit აპლიკაციის ფარგლებში, შეგიძლიათ ჩატვირთოთ მოდელი და გამოიყენოთ იგი პროგნოზების გასაკეთებლად.
ამ გაკვეთილის აქტივობებში თქვენ გაივლით მთელ ამ პროცესს ინსულტის რისკის მონაცემთა ბაზის გამოყენებით. თქვენ ნახავთ, როგორ ხდება მონაცემების წინასწარი დამუშავება, მოდელების შექმნა სხვადასხვა ალგორითმის გამოყენებით და შემდეგ მოდელის გამოყენება Streamlit-ის მარტივ აპლიკაციაში, რათა განისაზღვროს ინსულტის რისკი, მოცემული მახასიათებლების მიხედვით.
ᲐᲥᲢᲘᲕᲝᲑᲐ 1: ᲐᲕᲐᲠᲯᲘᲨᲔᲗ AI ᲛᲝᲓᲔᲚᲘ ᲘᲣᲞᲘᲢᲔᲠᲘᲡ ᲜᲝᲣᲗᲑᲣᲥᲨᲘ
შეისწავლეთ ინსულტის რისკის მონაცემთა ნაკრები AI მოდელის შესაქმნელად
- ჩამოტვირთეთ ინსულტის პროგნოზირების მონაცემთა ნაკრები Kaggle-დან.
- იმუშავეთ იუპიტერის ნოუთბუქის მონაცემებთან, რათა:
- გადახედეთ მონაცემებს
- მონაცემების წინასწარ დამუშავება მოდელისთვის მოსამზადებლად
- შექმენით რამდენიმე განსხვავებული მოდელი
- შეაფასეთ და შეარჩიეთ მოდელი თქვენი აპლიკაციისთვის
- მოდელის ექსპორტი
ჩელენჯი

სცადეთ იუპიტერის ნოუთბუქის სხვა მოდელი.
- გამოიკვლიეთ scikit-learn ვებსაიტი სხვა კლასიფიკაციის ალგორითმებისთვის და გადახედეთ სხვა მოდელის შექმნის მაგალითებს Kaggle-ზე.
- აირჩიეთ ერთი ალგორითმი და დაამატეთ კოდი თქვენს ნოუთბუქში მოდელის შესაქმნელად.
- გამოიყენეთ scikit-learn მეტრიკა სიზუსტის შესამოწმებლად.
როგორ მუშაობს თქვენი მოდელი? უკეთესია თუ არა ნოუთბუქის სხვა ალგორითმებზე?
ᲐᲥᲢᲘᲕᲝᲑᲐ 2: ᲨᲔᲥᲛᲔᲜᲘᲗ ᲞᲠᲝᲒᲜᲝᲖᲘᲠᲔᲑᲘᲡ ᲐᲞᲚᲘᲙᲐᲪᲘᲐ
გამოიყენეთ თქვენი მოდელი Streamlit აპლიკაციაში
აირჩიეთ შესაბამისი ვიდეო იმისდა მიხედვით, თუ როგორ ახდენთ თქვენი აპის კოდირებას, ადგილობრივად Visual Studio Code-ით, ან ონლაინ Codespaces-ით.
ჩელენჯი

ირისის მონაცემთა ნაკრები არის კლასიკური მონაცემთა ნაკრები, რომელიც კლასიფიცირებს ირისის ყვავილებს 3 სახეობად (setosa, versicolor და virginica) ფურცლებისა და სეპალების ზომების მიხედვით.
- ჩაატარეთ გარკვეული გამოკვლევა მონაცემთა ნაკრების შესახებ, რომ გაიგოთ მისი მახასიათებლები და მიზნები.
- შეგიძლიათ ჩამოტვირთოთ მონაცემთა ნაკრები და შექმნათ თქვენი საკუთარი მოდელი ან გამოიყენოთ ეს მოდელი ( pickle file ) შექმნილი K- უახლოეს მეზობლების გამოყენებით. გაითვალისწინეთ, რომ ამ მონაცემთა ნაკრებისთვის სკალერი არ იყო საჭირო. მწნილის ფაილი შეიცავს მხოლოდ მოდელს.
- მოდელის იმპორტი და შექმენით Streamlit აპი ირისის სახეობების პროგნოზირებისთვის მონაცემთა ოთხი მახასიათებლის საფუძველზე.
ᲢᲔᲥᲜᲝᲕᲐᲪᲘᲣᲠᲘ ᲨᲗᲐᲒᲝᲜᲔᲑᲐ
აქ მოცემულია რამდენიმე საოცარი მაგალითი Technovation-ის მონაწილეებისგან, რომლებმაც გამოიყენეს Python და Streamlit ვებ აპლიკაციების შესაქმნელად, რომლებიც მოიცავს მანქანური სწავლის მოდელებს.
T.E.D.D.Y – ტექსტზე დაფუძნებული ადრეული განგაშის დეტექტორი ახალგაზრდებისთვის (Text-based Early Distress Detector for Youth), რომელიც შეიქმნა ამერიკის გუნდის TEDDY-ის მიერ, ეხმარება მასწავლებლებს და კონსულტანტებს სტუდენტების მენტალური ჯანმრთელობის პრობლემების ადრეულ გამოვლენაში. TEDDY იყენებს ხელოვნურ ინტელექტს უარყოფითი განწყობის გამოხატვის ან დეპრესიასთან დაკავშირებული ენის შაბლონების ამოსაცნობად. ამის შემდეგ, სტუდენტები შესაძლოა გადამისამართდნენ კონსულტანტთან მხარდასაჭერად.
რეფლექსია
თქვენ გაიარეთ მონაცემთა ნაკრების წინასწარი დამუშავების, რამდენიმე მოდელის შექმნისა და აპში გამოსაყენებლად ერთის შეფასებისა და არჩევის მთელი პროცესი. ეს ძალიან ბევრია სასწავლი ერთ გაკვეთილზე!

ძირითადი ტერმინების მიმოხილვა
- წინასწარი დამუშავება – მონაცემთა ნაკრების აღება და დარწმუნდი, რომ მასში არსებული მონაცემები შესაფერისია მანქანური სწავლის მოდელის მოსამზადებლად
- კლასიფიკაციის ალგორითმი - ალგორითმი, რომელიც გამოიყენება მანქანური სწავლების მოდელის მოსამზადებლად, რომელიც კლასიფიცირებს ან წინასწარმეტყველებს დისკრეტულ მნიშვნელობებს
- რეგრესიის ალგორითმი – ალგორითმი, რომელიც გამოიყენება მანქანათმცოდნეობის მოდელის მოსამზადებლად უწყვეტ დიაპაზონში მნიშვნელობის პროგნოზირებისთვის
- მიკერძოება - განსხვავება მოდელის პროგნოზირებულ მნიშვნელობასა და სწორ მნიშვნელობას შორის, არასწორი დაშვებების გამო, რომლებიც ამარტივებს მოდელს
- ვარიაცია - ცვალებადობის ოდენობა მოდელის პროგნოზებში, როდესაც მოდელს არ შეუძლია განზოგადება ახალი მონაცემების წინაშე.
- გადაჭარბებული მორგება – როდესაც მოდელი ძალიან კარგად ერგება ტრენინგის მონაცემებს, რომ მას არ შეუძლია კარგად პროგნოზირება ახალ მონაცემებზე, რაც გამოწვეულია მოდელის მაღალი დისპერსიით.
- შეუსაბამობა - როდესაც მოდელი ძალიან გამარტივებულია და კარგად არ მუშაობს არც ტრენინგის, არც ტესტირების მონაცემებზე, რაც გამოწვეულია მოდელში მაღალი მიკერძოებით ან ვარაუდებით.
ᲓᲐᲛᲐᲢᲔᲑᲘᲗᲘ ᲠᲔᲡᲣᲠᲡᲔᲑᲘ
მანქანური სწავლება
- Geeks for Geeks Machine Learning Tutorial - გთავაზობთ შესანიშნავ შესავალს და მიმოხილვას მანქანური სწავლების ზოგიერთი პროცესისა და ტერმინოლოგიის შესახებ
- Simplilearn's Scikit-Learn გაკვეთილი – გადის ღვინის ხარისხის მონაცემთა ბაზას, რათა ივარჯიშოთ scikit-learn-ის გამოყენებით Jupyter Notebook-ში
- მანქანური სწავლება scikit-learn-ით – სრული Youtube-ის დასაკრავი სია მონაცემთა სკოლის მიერ
Streamlit
- შექმენით მანქანათმცოდნეობის ვებ აპი ნულიდან პატრიკ ლობერთან ერთად – მოდელის შექმნისა და ვებ აპლიკაციაში გამოყენების კიდევ ერთი მაგალითი, თავიდან ბოლომდე
- გამოსახულების კლასიფიკატორი Streamlit-ით , თუ თქვენი მოდელი გაწვრთნილია სურათებზე