
Google Cloud memperluas platform Vertex AI-nya dengan alat pembelajaran mesin baru
Bisnis cloud Google LLC hari ini debut serangkaian peningkatan pada platform Vertex AI yang memungkinkan perusahaan mengembangkan perangkat lunak kecerdasan buatan lebih cepat.
Diperkenalkan tahun lalu, Vertex AI adalah kumpulan layanan cloud untuk membuat model AI. Beberapa layanan di platform diarahkan untuk perusahaan yang paham teknologi yang membangun jaringan saraf khusus sepenuhnya dari awal. Komponen Vertex AI lainnya dirancang untuk membantu pengembang dengan keahlian pembelajaran mesin terbatas membuat perangkat lunak AI dengan lebih mudah.
Fitur baru yang diperkenalkan Google Cloud hari ini untuk platform memulai debutnya di Applied ML Summit perusahaan. Fitur-fiturnya menjangkau beberapa area termasuk pelatihan AI, manajemen data, dan kemampuan menjelaskan jaringan saraf.
Pelatihan AI lebih cepat
Penambahan besar pertama untuk Vertex AI adalah kemampuan yang disebut Server Pengurangan. Saat ini dalam pratinjau, ia berjanji untuk mengurangi jumlah waktu yang dibutuhkan untuk melatih jaringan saraf.
Jaringan saraf tidak dapat segera mulai menghasilkan wawasan setelah dikembangkan, karena harus berlatih terlebih dahulu dalam proses yang dikenal sebagai pelatihan AI. Pelatihan jaringan saraf dapat membutuhkan banyak waktu. Untuk mempercepat proses, perusahaan sering melatih model AI tidak menggunakan satu server tetapi seluruh armada mesin, yang memungkinkan untuk menyelesaikan sejumlah besar latihan secara paralel.
Mesin yang digunakan perusahaan untuk melatih perangkat lunak AI-nya harus mengoordinasikan pekerjaan mereka untuk memastikan pemrosesan yang andal. Koordinasi ini biasanya difasilitasi dengan menggunakan jenis algoritma khusus yang dikenal sebagai algoritma all-reduce.
Semakin efisien algoritme pengurangan semua yang digunakan perusahaan, semakin baik server pelatihan AI-nya dapat mengoordinasikan pekerjaan mereka. Itu pada gilirannya memungkinkan jaringan saraf untuk dilatih lebih cepat.
Fitur Reduction Server baru yang diluncurkan Google untuk Vertex AI didasarkan pada algoritme all-reduce khusus yang dikembangkan oleh raksasa pencarian. Menurut Google, algoritma ini lebih efisien daripada teknologi yang ada. Ini mengurangi jumlah data yang harus berpindah antar server pelatihan AI saat pemrosesan dilakukan, yang membebaskan bandwidth, dan juga mengoptimalkan latensi secara lebih efektif.
Google mengatakan Reduction Server telah menunjukkan kinerja yang mengesankan dalam tes benchmark internal. Selama evaluasi yang melibatkan jaringan saraf BERT yang populer, throughput pelatihan meningkat sebesar 75%. Raksasa pencarian mengatakan bahwa Reduction Server juga dapat meningkatkan throughput pelatihan untuk jenis jaringan saraf lainnya.
“Ini secara signifikan mengurangi waktu pelatihan yang diperlukan untuk beban kerja bahasa yang besar, seperti BERT, dan selanjutnya memungkinkan keseimbangan biaya di berbagai pendekatan,” jelas Andrew Moore, wakil presiden dan manajer umum unit Cloud AI & Industry Solutions Google Cloud. “Dalam banyak skenario bisnis yang sangat penting, siklus pelatihan yang dipersingkat memungkinkan ilmuwan data melatih model dengan kinerja prediktif yang lebih tinggi dalam batasan jendela penerapan.”
Pengembangan AI yang disederhanakan
Membangun perangkat lunak AI melibatkan lebih dari sekadar melatih jaringan saraf. Pengembang juga harus mengumpulkan data yang akan digunakan untuk melatih jaringan saraf, menyaring kesalahan data, dan melakukan banyak tugas lainnya. Tim pembelajaran mesin membuat alur kerja perangkat lunak yang disebut pipeline untuk mengotomatiskan berbagai langkah yang terlibat dalam pengembangan AI.
Platform Vertex AI Google Cloud menerima kumpulan pipeline yang sudah dikemas sebelumnya untuk membangun jaringan saraf. Pipeline tersedia melalui alat baru yang disebut Vertex AI Tabular Workflows yang sekarang dalam pratinjau.
Alur Kerja Tabular AI Vertex dapat digunakan untuk membangun jaringan saraf yang memproses data tabular, atau data yang diatur ke dalam baris dan kolom. Sebagian besar informasi bisnis perusahaan disimpan dalam baris dan kolom.
Setiap pipeline yang tersedia melalui Vertex AI Tabular Workflows berfokus pada pelonggaran serangkaian tugas yang berbeda. Feature Selection Pipeline, misalnya, mempermudah pengelolaan fitur, titik data yang digunakan jaringan saraf untuk membuat keputusan. Beberapa pipeline mencakup algoritme baru yang dikembangkan oleh Google Research.
“Alur kerja tabel sepenuhnya dikelola oleh tim Vertex AI, sehingga pengguna tidak perlu khawatir tentang pembaruan, ketergantungan, dan konflik,” manajer produk Google Cloud Alex Martin merinci dalam sebuah posting blog. “Mereka dengan mudah menskalakan ke kumpulan data besar, sehingga tim tidak perlu merekayasa ulang infrastruktur seiring beban kerja bertambah. Setiap alur kerja dipasangkan dengan konfigurasi perangkat keras yang optimal untuk kinerja terbaik.”
Penjelasan dan integrasi
Google juga memperkenalkan sejumlah fitur lain untuk platform Vertex AI-nya di Applied ML Summit hari ini. Kemampuan baru yang disebut Example-based Explanations akan mempermudah pemecahan masalah jaringan saraf yang menghasilkan hasil yang tidak akurat dan mengidentifikasi akar masalahnya. Selain itu, Google meluncurkan integrasi baru dengan Neo4j dan Labelbox.
Neo4j adalah database grafik populer yang dikembangkan oleh startup dengan nama yang sama. Database grafik dioptimalkan untuk menyimpan tidak hanya catatan seperti log penjualan tetapi juga informasi tentang bagaimana catatan tersebut terhubung satu sama lain. Menggunakan integrasi baru yang diumumkan Google hari ini, pengguna Vertex AI akan mendapatkan kemampuan untuk lebih mudah bekerja dengan data yang disimpan di Neo4j.
Labelbox Inc., yang juga mengumumkan kemitraan dengan Google hari ini, adalah perusahaan rintisan yang berbasis di San Francisco yang didukung oleh pendanaan lebih dari $188 juta. Ini menyediakan alat yang menyederhanakan proses pembuatan set data pelatihan AI. Google meluncurkan integrasi yang memungkinkan pelanggan Vertex AI untuk lebih mudah menggunakan alat Labelbox untuk menyiapkan data pelatihan untuk proyek pembelajaran mesin mereka.
Gambar: Google
Tunjukkan dukungan Anda untuk misi kami dengan bergabung dengan Cube Club dan Komunitas Pakar Acara Cube kami. Bergabunglah dengan komunitas yang mencakup Amazon Web Services dan CEO Amazon.com Andy Jassy, pendiri dan CEO Dell Technologies Michael Dell, CEO Intel Pat Gelsinger dan banyak lagi tokoh dan pakar.
Artikel ini telah tayang pertama kali di situs siliconangle.com