Bagaimana untuk mengubah PC anda menjadi makmal AI sebenar

Kemaskini terakhir: 10 Disember 2025
Pengarang TecnoDigital
  • Mengubah PC anda menjadi makmal AI memberi anda kawalan sepenuhnya ke atas data sensitif dan mengurangkan pergantungan pada perkhidmatan awan.
  • Makmal Oksida membolehkan anda bersembang dengan model GGUF 100% secara tempatan, dengan Mod Berfikir dan tanpa telemetri.
  • Gabungan perkakasan yang betul, rangka kerja seperti TensorFlow atau PyTorch dan awan seperti AWS atau Azure memaksimumkan potensi persekitaran AI anda.
  • AI tempatan dan AI awan tidak saling eksklusif: bersama-sama ia membolehkan anda mengimbangi privasi, prestasi dan kebolehskalaan dalam projek dalam sebarang saiz.

PC bertukar menjadi makmal kecerdasan buatan

Jadikan komputer biasa anda yang sebenar makmal kecerdasan buatan Ia bukan lagi fiksyen sains atau sesuatu yang dikhaskan untuk syarikat besar. Hari ini anda boleh mempunyai model AI lanjutan yang dijalankan pada PC anda sendiri, tanpa langganan mandatori dan, jika anda mahu, putuskan sambungan sepenuhnya daripada internet untuk memaksimumkan privasi.

Dalam baris berikut anda akan melihat bagaimana mengubah PC anda menjadi persekitaran ujian AI Berkuasa dan serba boleh: daripada 100% penyelesaian tempatan seperti Oxide Lab, kepada perkhidmatan awan seperti GPT-4, Google Cloud, AWS atau Azure, dan rangka kerja seperti TensorFlow atau PyTorch. Semuanya dengan pendekatan yang sangat praktikal, direka untuk pengguna, pembangun, penyelidik dan syarikat yang ingin tahu yang ingin memanfaatkan AI tanpa kehilangan kawalan ke atas data mereka.

Mengapa perlu menjadikan PC anda sebagai makmal AI

Ketibaan pembantu seperti ChatGPT, Claude, atau model terbuka telah meletakkan Kecerdasan buatan di tengah-tengah kerja harianPengaturcaraan, dokumentasi, analisis data, penulisan laporan, reka bentuk seni bina, dsb. Walau bagaimanapun, hanya menggunakan perkhidmatan awan bermakna melepaskan sedikit privasi dan sentiasa bergantung pada sambungan internet yang stabil.

Apabila anda mengubah komputer anda menjadi makmal AI, anda memperoleh sesuatu yang penting: kedaulatan penuh ke atas data andaAnda boleh bereksperimen dengan kod proprietari, menyemak pangkalan data sensitif atau mereka bentuk sistem kritikal tanpa kandungan itu meninggalkan mesin anda. Ini amat menarik untuk pembangun, pasukan R&D, perunding teknologi dan syarikat yang kukuh keperluan pematuhan peraturan.

Tambahan pula, menyediakan persekitaran AI anda sendiri membolehkan anda menggabungkan yang terbaik dari kedua-dua dunia: model tempatan apabila privasi diutamakan dan kawalan, dan perkhidmatan awan apabila anda memerlukan kuasa pengkomputeran yang besar, akses kepada model terkini atau penyepaduan pantas melalui API.

Satu lagi faktor penting ialah kos. Penyelesaian awan sering melibatkan langganan bulanan atau bayar setiap penggunaanIni boleh meningkatkan belanjawan anda dengan ketara jika anda membuat banyak permintaan. Sebaliknya, dengan persekitaran setempat, anda membayar untuk perkakasan dan, selepas itu, anda boleh bekerja seberapa banyak yang anda mahu tanpa perlu risau tentang had penggunaan, yuran harian atau gangguan perkhidmatan luaran.

Akhir sekali, dengan memiliki makmal AI anda sendiri, anda mencipta persekitaran yang ideal untuknya belajar, prototaip, dan eksperimen: menguji model baharu, melaraskan parameter, menyepadukan ejen ke dalam aplikasi anda atau mensimulasikan aliran perniagaan yang kompleks tanpa bergantung kepada pihak ketiga.

Komputer dikonfigurasikan untuk berfungsi dengan AI

Rust Lab: Sembang AI tempatan dan peribadi pada PC anda

Salah satu cara paling langsung untuk menjadikan komputer anda sebagai makmal AI ialah menggunakan Makmal OksidaIa adalah aplikasi desktop yang direka untuk bersembang dengan model bahasa secara tempatan sepenuhnya. Tiada panggilan API luaran, tiada data dihantar ke awan dan anda tidak memerlukan langganan untuk menggunakannya.

Makmal Oksida direka untuk mereka yang memerlukan kerahsiaan maksimum dalam aliran kerja andaPembangun yang memanipulasi kod proprietari, arkitek sistem yang mereka bentuk infrastruktur sensitif, pasukan keselamatan siber yang menganalisis kelemahan atau syarikat yang mengendalikan maklumat pelanggan kritikal dan proses dalaman.

Permohonan itu sumber terbuka di bawah lesen MITIni membolehkan sesiapa sahaja menyemak kod, mengaudit tingkah lakunya atau menyesuaikan alat itu dengan keperluan mereka. Pendekatan telus ini amat berharga dalam persekitaran di mana janji privasi tidak mencukupi dan adalah perlu untuk menunjukkan secara teknikal bahawa data tidak meninggalkan organisasi.

Satu lagi perkara kukuh ialah aliran kerja sangat serupa dengan sembang klasik: anda membuka apl, memilih model, melaraskan beberapa parameter dan mula berbual dengan pembantu AI tempatan anda, dengan ketenangan fikiran mengetahuinya Setiap mesej diproses pada komputer anda sendiri..

Keperluan perkakasan dan model yang serasi untuk AI tempatan

Untuk PC anda berkelakuan seperti makmal AI tempatan, adalah penting untuk menyemak semula spesifikasi perkakasan minimumAnda tidak memerlukan superkomputer, tetapi anda memerlukan peralatan moden yang munasabah untuk berfungsi dengan lancar, terutamanya jika anda ingin menggunakan model dengan beberapa bilion parameter.

Makmal Oksida bergantung pada model dalam format GGUFIa adalah standard yang digunakan secara meluas dalam ekosistem model sumber terbuka. Ia serasi dengan, antara lain, keluarga Qwen3, yang merangkumi model pelbagai saiz untuk mengimbangi kualiti dan penggunaan sumber.

Mengenai CPU, sekurang-kurangnya pemproses daripada 2 teras dan 4 GB RAM Untuk model yang lebih kecil, ia sesuai jika anda hanya mahu melakukan ujian asas atau tugasan ringan. Jika anda akan bekerja dengan model 4-bit atau spesifikasi yang lebih tinggi, amat disyorkan untuk mempunyai 8 GB RAM atau lebih untuk pengalaman yang lancar tanpa ranap sistem yang berterusan.

  Kelebihan Gemini Coder berbanding pembantu pengaturcaraan AI yang lain

GPU membuat perbezaan yang besar. Dengan kad grafik yang serasi dengan CUDA dan sekurang-kurangnya VRAM 6 GB, Pengoptimuman Prestasi Ia meroket: respons tiba lebih cepat, dan anda boleh mengendalikan model yang lebih besar tanpa meletakkan terlalu banyak tekanan pada sistem. Jika anda tidak mempunyai GPU khusus, anda juga boleh menjalankannya pada CPU sahaja, tetapi anda perlu menerima masa tindak balas yang lebih perlahan.

Mengenai storan, model format GGUF mengambil beberapa GB, jadi dinasihatkan untuk memilikinya ruang cakera yang mencukupiSebaik-baiknya, ini hendaklah pada SSD untuk mempercepatkan masa pemuatan. Walaupun bukan keperluan kritikal seperti CPU atau RAM, ia sangat meningkatkan aliran kerja.

Ciri utama Makmal Rust sebagai makmal AI

Di luar privasi, Rust Lab menawarkan satu set fungsi lanjutan untuk bekerja dengan serius dengan model bahasaIa bukan sahaja tentang berbual, tetapi tentang melaraskan tingkah laku model untuk menyesuaikannya dengan setiap tugasan tertentu.

Aplikasi berjalan dalam a 100% tempatan, tanpa sambungan luaranAnda boleh mengesahkannya dengan mudah menggunakan alat pemantauan rangkaian: tiada trafik keluar ke pelayan pihak ketiga. Ini menjadikannya pilihan yang sangat menarik untuk persekitaran bergap udara, di mana mesin beroperasi terpencil daripada internet atas sebab keselamatan.

Antara kawalan utama, anda boleh melaraskan suhu (untuk menjana respons yang lebih kreatif atau lebih konservatif), the Top-K dan Top-P (untuk mengawal kepelbagaian token), the penalti untuk pengulangan (untuk mengelakkan model daripada terperangkap mengulangi idea) dan pihak pengurusan tetingkap konteks, kunci semasa mengendalikan perbualan yang panjang atau blok kod yang luas.

Makmal Oksida juga menawarkan a Sejarah sembang setiap sesi yang tidak disimpan ke cakera secara lalaiIni mengurangkan risiko meninggalkan kesan maklumat sensitif dalam storan. Jika anda ingin meneruskan perbualan, anda boleh berbuat demikian dalam cara terkawal, tetapi konfigurasi awal sudah menjurus ke arah meminimumkan jejak.

Model disimpan secara setempat pada peranti anda, dan tiada telemetri tersembunyi. Falsafah ini pengumpulan data sifar Ia mengukuhkan kepercayaan dalam konteks di mana banyak perkhidmatan AI berasaskan awan merekodkan statistik penggunaan, gesaan atau kandungan melainkan dikonfigurasikan sebaliknya.

Mod Berfikir untuk tugas teknikal yang kompleks

Salah satu ciri yang paling menarik bagi Makmal Oksida ialah apa yang dipanggil Mod Berfikir atau mod penaakulan, tersedia pada model yang serasi. Mod ini membolehkan anda melihat, dalam masa nyata, proses pemikiran pertengahan yang diikuti model sebelum memaparkan jawapan akhir.

Dalam amalan, Mod Berfikir amat berguna apabila bekerja dengannya menuntut tugas teknikalIni termasuk semakan dan penjelasan kod, reka bentuk seni bina perisian, penyahpepijatan terperinci dan cadangan pengoptimuman algoritma. Daripada menerima jawapan tertutup tanpa konteks, anda melihat langkah perantaraan yang telah dipertimbangkan oleh model.

Ini memudahkan untuk memahami mengapa model mencadangkan penyelesaian khusus, mengesan kemungkinan ralat dalam penaakulan, dan, secara umum, mendapatkan jawapan yang lebih mendalam dan wajar daripada blok akhir teks yang ringkas. Dalam bidang kejuruteraan atau penyelidikan, ketelusan tambahan itu membuat semua perbezaan.

Pengesyoran biasa untuk memanfaatkan mod ini adalah dengan menggabungkannya dengan a Suhu rendah apabila anda menjana kod atau jawapan yang sangat tepat, supaya model mengekalkan konsistensi, dan meningkatkan suhu apabila anda ingin membuat sumbang saran, meneroka alternatif reka bentuk atau menjana penyelesaian yang lebih kreatif.

Dalam persekitaran korporat, Mod Berfikir juga boleh dimanfaatkan untuk membentuk pasukan juniorDengan menunjukkan penaakulan langkah demi langkah, AI bukan sahaja menjadi alat yang memberikan jawapan, tetapi sejenis mentor yang mengajar cara untuk sampai ke sana.

Pemasangan dan persediaan pantas pada Windows

Menyediakan makmal AI anda sendiri dengan Rust Lab pada Windows 10 atau 11 adalah proses yang agak mudah jika anda mengikuti beberapa langkah asas dan memilih model yang betul untuk dimulakan. Kuncinya ialah... mengimbangi kualiti dan kelajuan supaya pengalaman awal adalah positif.

Aliran biasa terdiri daripada muat turun pertama a model GGUF yang serasiQwen3 8B ialah pilihan yang sangat disyorkan untuk ramai pengguna kerana keseimbangan yang sangat baik antara prestasi dan responsif. Ia menggunakan jumlah ruang yang munasabah dan memberikan hasil yang kukuh dalam kedua-dua bahasa Sepanyol dan Inggeris.

Setelah program desktop dipasang, anda hanya perlu nyatakan laluan ke fail .gguf Dalam aplikasi, pilih sumber perkakasan (CPU dan, jika anda memilikinya, CUDA GPU), laraskan beberapa parameter penjanaan asas dan anda boleh mula bersembang dengan pembantu AI peribadi anda.

Jika anda seorang pembangun, menyediakan yang berbeza profil konfigurasi: satu dengan suhu rendah dan sedikit variasi untuk penjanaan kod yang stabil, satu lagi dengan parameter yang lebih kreatif untuk sumbang saran, dan mungkin satu pertiga dioptimumkan untuk penjelasan kod atau dokumentasi teknikal.

Jika anda ingin menyepadukan makmal AI tempatan ini ke dalam aliran kerja yang lebih besar, anda boleh menggabungkan Rust Lab dengan skrip, alat automasi atau persekitaran pembangunan seperti Kod VS, mengambil kesempatan daripada fakta bahawa peta jalan projek termasuk sambungan dan penyepaduan khusus dengan editor dan sistem luaran.

  Kitaran Hayat Pembangunan Perisian: Strategi untuk Mengoptimumkan Setiap Peringkat

Privasi, keselamatan dan falsafah reka bentuk

Salah satu tiang Makmal Oksida ialah pendekatan radikalnya terhadap Privasi dan keselamatan mengikut reka bentukSegala-galanya direka bentuk supaya anda boleh bekerja dengan maklumat sensitif tanpa rasa takut akan kebocoran tidak sengaja atau pergantungan yang tidak diingini pada perkhidmatan luaran.

Aplikasi ini tidak membuat sambungan luaran semasa penggunaan biasa. Jika anda memantau trafik rangkaian, anda akan melihatnya Tiada pertukaran data dengan pelayan pihak ketigaIni menjadikannya sesuai untuk persekitaran bergap udara, rangkaian terpencil atau senario di mana peraturan memerlukan data disimpan sepenuhnya di premis.

Sebagai tambahan kepada sejarah sesi, yang tidak disimpan ke cakera secara lalai, fail model kekal disimpan secara tempatan Dan mereka tidak pernah dimuat naik ke awan. Tiada telemetri, tiada pengumpulan metrik di belakang tabir dan tiada penghantaran log senyap yang mungkin mengandungi serpihan projek anda.

Hakikat bahawa ia adalah projek daripada sumber terbuka yang diaudit Ia memberikan lapisan kepercayaan tambahan: mana-mana profesional keselamatan, perunding atau pengurus IT boleh menyemak repositori, mengesahkan perkara yang dilakukan oleh aplikasi dan memastikan ia mematuhi dasar dalaman organisasi.

Falsafah ini tidak berhasrat untuk menggantikan sepenuhnya penyelesaian awan, sebaliknya menawarkan a alternatif sebenar apabila keutamaan mutlak adalah kawalan maklumatDalam kebanyakan kes, gabungan yang ideal ialah menggunakan AI tempatan untuk projek sensitif dan perkhidmatan awan untuk prototaip pantas atau beban kerja yang sangat berat.

Integrasi, pelan hala tuju dan kemungkinan pengembangan

Walaupun Rust Lab sudah berfungsi sepenuhnya sebagai makmal AI tempatan, ia Pelan hala tuju termasuk penambahbaikan yang ketara. yang akan mengembangkan lagi perkara yang boleh anda lakukan dari PC anda tanpa bergantung kepada pihak ketiga.

Penambahan masa hadapan termasuk sokongan asli untuk lebih banyak keluarga model, seperti Mistral dan Llama 3Ini akan membolehkan anda memilih antara seni bina yang berbeza bergantung pada prestasi, bahasa atau keperluan saiz anda. Kepelbagaian pilihan ini adalah kunci untuk menyesuaikan makmal kepada kegunaan yang sangat berbeza.

Perkembangan versi merentas platform Untuk Linux dan macOS, sesuatu yang sangat dinanti-nantikan oleh mereka yang bekerja dalam persekitaran pembangunan heterogen atau dalam syarikat yang menggabungkan stesen kerja sistem pengendalian yang berbeza.

Satu lagi barisan evolusi yang menarik ialah penyepaduan keupayaan RAG (Retrieval-Augmented Generation) dengan dokumentasi tempatan dan repositori kodIni akan membolehkan pembantu anda menjawab bukan sahaja berdasarkan latihan amnya, tetapi juga dengan merujuk pengetahuan dalaman anda sendiri: wiki, manual, pangkalan data dan repositori projek.

Rancangan jangka sederhana juga termasuk a sambungan untuk Kod VS, fungsi panggilan alat dan pelbagai pengoptimuman prestasi untuk mengurangkan lagi kependaman dan penggunaan memori, yang merupakan kunci apabila anda ingin menggunakan makmal AI semasa anda membuka aplikasi berat lain.

Cara lain untuk meningkatkan PC anda dengan kecerdasan buatan

Mengubah komputer anda menjadi makmal AI bukan hanya mengenai memasang satu aplikasi. Terdapat keseluruhan ekosistem AI. alatan, perkhidmatan dan rangka kerja yang boleh anda gabungkan untuk membina platform kerja yang benar-benar berkuasa, secara tempatan dan dalam awan.

Dalam bidang pemprosesan bahasa semula jadi, penyelesaian seperti OpenAI GPT-4 Mereka membenarkan akses kepada model terkini melalui API. Anda boleh menggunakannya untuk mengautomasikan tugas yang kompleks, membuat pembantu perbualan, menganalisis dokumen secara berskala atau menjana kandungan dengan kualiti linguistik yang sangat tinggi.

Jika anda lebih suka membina dan melatih model anda sendiri, rangka kerja seperti TensorFlow (Google) y PyTorch (Meta) Mereka adalah standard de facto dalam pembelajaran mendalam; Terdapat juga alternatif seperti Pembelajaran Mesin dengan JavaScript.Dengan mereka, anda boleh membangunkan segala-galanya daripada rangkaian saraf ringkas kepada seni bina yang kompleks untuk penglihatan komputer, siri masa, pengesyor atau model bahasa khusus untuk domain anda.

Bagi mereka yang tidak mahu berurusan dengan pengurusan infrastruktur, penyedia awan besar —Google Cloud AI, Amazon Web Services (AWS) dan Microsoft AzureMereka menawarkan perkhidmatan AI terurus, API pra-latihan dan SDK yang mudah disepadukan. Ini membolehkan anda membina projek lanjutan tanpa terlalu risau tentang GPU, pemacu atau penskalaan mendatar.

Dalam kehidupan seharian anda, anda juga boleh mengintegrasikan pembantu maya dan alat produktiviti berkuasa AI terus pada PC anda: daripada sistem seperti Siri, Cortana atau Google Assistant kepada suite seperti Microsoft 365 atau platform seperti Notion, yang sudah termasuk fungsi pintar untuk mengatur tugas, menulis teks atau meringkaskan maklumat.

Optimumkan perkakasan dan sistem untuk berfungsi dengan AI

Untuk memastikan makmal AI anda pada PC anda berjalan dengan lancar, anda perlu meluangkan sedikit masa mengoptimumkan perkakasan dan sistem pengendalianIa bukan hanya tentang mempunyai GPU yang baik, tetapi tentang memastikan seluruh persekitaran bersedia untuk mengendalikan beban tambahan.

yang kad grafik moden Dengan sokongan yang mencukupi (contohnya, CUDA dalam kes NVIDIA), ia boleh mempercepatkan inferens dan masa latihan secara mendadak. Ini amat ketara dalam rangka kerja seperti TensorFlow atau PyTorch, di mana lonjakan dari CPU ke GPU adalah sangat besar.

  Amazon merevolusikan pengkomputeran kuantum dengan Ocelot, cip baharunya

Ia juga penting untuk mengekalkan sistem dikemas kini dan diselenggara dengan baikPastikan pemacu GPU anda dikemas kini, sistem pengendalian anda memasang semua tampung keselamatan dan anda mempunyai ruang cakera kosong yang mencukupi untuk model, set data dan log. Persekitaran yang diabaikan boleh menyebabkan masalah kestabilan tepat apabila anda paling memerlukan mesin anda.

Jika anda akan menggabungkan AI di premis dengan perkhidmatan awan, semak semula anda Sambungan Internet dan konfigurasi rangkaianterutamanya dalam persekitaran korporat dengan tembok api atau proksiMempunyai tetapan akses API anda dikonfigurasikan dengan betul untuk OpenAI, Google Cloud, AWS atau Azure akan menjimatkan banyak sakit kepala anda.

Dalam peralatan kongsi atau milik syarikat, jangan lupa untuk menyelaraskan dengan jabatan IT untuk mengesahkan bahawa Penggunaan model tempatan dan perkhidmatan awan mematuhi dasar dalaman keselamatan, privasi dan pematuhan peraturan. Ini amat penting dalam sektor terkawal seperti kewangan, penjagaan kesihatan atau pentadbiran awam.

Q2BSTUDIO: Sokongan pakar untuk membawa AI ke perniagaan anda

Bagi organisasi yang ingin mengambil lompatan dan mengubah infrastruktur mereka menjadi a ekosistem AI yang produktifMempunyai rakan kongsi khusus boleh menjimatkan banyak masa, wang dan masalah teknikal. Di situlah syarikat seperti Q2BSTUDIO masuk.

Q2BSTUDIO ialah firma pembangunan perisian dan aplikasi tersuai dengan tumpuan yang jelas pada kecerdasan buatan, keselamatan siber dan penyelesaian perniagaanKerja mereka terdiri daripada konsep dan reka bentuk penyelesaian tersuai kepada pelaksanaan, penyepaduan dan penyelenggaraan dalam pengeluaran.

Antara perkhidmatannya, yang berikut menonjol: pembangunan aplikasi merentas platform dan perisian tersuai, penciptaan dan penyepaduan penyelesaian AI dan ejen pintar, serta projek keselamatan siber termaju yang merangkumi segala-galanya daripada audit hingga ujian penembusan.

Tambahan pula, mereka mempunyai pengalaman yang luas dalam perkhidmatan awan pada AWS dan AzureIni membolehkan mereka mereka bentuk dan menggunakan infrastruktur berskala di mana model tempatan, perkhidmatan AI terurus dan aplikasi perniagaan kritikal wujud bersama, sentiasa mengekalkan tahap keselamatan dan ketersediaan yang tinggi.

Satu lagi bidang yang berkaitan ialah Perisikan perniagaan (BI) dan Power BImembantu syarikat mengubah data mereka menjadi keputusan yang boleh diambil tindakan. Dengan menggabungkan BI dengan model AI, papan pemuka lanjutan, sistem amaran awal dan alat analitik ramalan boleh dibina yang jauh melangkaui pelaporan tradisional.

Mengapa AI tempatan penting kepada komuniti teknologi

Pembangun, penyelidik dan profesional teknikal selalunya merupakan yang pertama mengguna pakai teknologi baharu, tetapi mereka juga yang lebih terdedah kepada risiko kebocoran harta intelekBerkongsi kod, reka bentuk seni bina atau data pelanggan dengan alatan berasaskan awan tidak selalu boleh diterima, sama ada secara etika atau sah.

Dalam konteks ini, penyelesaian seperti Makmal Oksida dan, secara amnya, makmal AI tempatan Mereka memberikan komuniti kembali kawalan ke atas bahan yang mereka bekerjasama. Anda boleh terus mendapat manfaat daripada sokongan yang disediakan oleh model bahasa lanjutan, tanpa menjejaskan kerahsiaan projek anda.

Kuncinya adalah untuk tidak merosakkan AI dalam awan-yang mempunyai kelebihan yang tidak dapat dinafikan-tetapi untuk menawarkan alternatif sebenar dan pelengkapAnda memutuskan bila wajar untuk menjalankan model secara tempatan kerana kandungannya sensitif dan bila lebih baik menggunakan perkhidmatan awan untuk memanfaatkan kuasa dan ciri khasnya.

Fleksibiliti ini membuka pintu kepada model kerja hibridContohnya, anda boleh membangunkan prototaip dan menguji idea dalam persekitaran setempat yang selamat, dan hanya apabila projek itu matang, beralih ke awan untuk menskalakan kepada beribu-ribu pengguna atau memproses volum data yang besar.

Akhirnya, apa yang penting ialah komuniti teknikal mempunyai akses kepada alat yang terbuka, boleh diaudit dan boleh disesuaikan yang tidak bergantung semata-mata pada keputusan beberapa pembekal, tetapi membenarkan percubaan, pembelajaran dan pembinaan penyelesaian teguh dengan asas teknologi yang boleh diperiksa dan difahami.

Dengan keseluruhan landskap ini—daripada Oxide Lab dan model berformat GGUF, melalui rangka kerja seperti TensorFlow dan PyTorch, kepada perkhidmatan awan utama OpenAI, Google, AWS dan Azure—mana-mana pengguna yang mempunyai PC yang baik boleh menukar mesin mereka menjadi makmal AI yang sebenar. Memanfaatkan kekuatan pelaksanaan tempatan untuk memelihara privasi dan kedaulatan dataDan dengan menyepadukan awan apabila lebih banyak kuasa diperlukan, komputer anda menjadi pusat saraf untuk percubaan, pembangunan dan penggunaan penyelesaian pintar untuk melayani kerja anda, projek peribadi anda atau keperluan syarikat anda.

google deepmind
artikel berkaitan:
Cara menggunakan DeepMind dan memahami kesan sebenarnya terhadap AI