Merangkul janji masa depan komputasi di mana-mana

Merangkul janji masa depan komputasi di mana-mana

Internet dan perangkat pintar ada di mana-mana, yang berarti komputasi juga harus ada di mana-mana. Dan di sinilah edge computing berperan, karena seiring perusahaan mengejar pengambilan keputusan yang lebih cepat dan efisien, semua data tersebut perlu diproses secara lokal, secara real-time—pada perangkat di edge.

“Jenis pemrosesan yang perlu dilakukan hampir secara real time bukanlah sesuatu yang dapat ditarik kembali ke cloud untuk membuat keputusan,” kata Sandra Rivera, wakil presiden eksekutif dan manajer umum Datacenter dan AI Group di Intel.

Manfaat mengimplementasikan arsitektur edge-computing secara operasional signifikan. Meskipun AI dan model pembelajaran mesin yang lebih besar masih memerlukan kekuatan komputasi cloud atau pusat data, model yang lebih kecil dapat dilatih dan diterapkan di edge. Tidak perlu memindahkan data dalam jumlah besar, jelas Rivera, menghasilkan keamanan yang ditingkatkan, latensi yang lebih rendah, dan keandalan yang meningkat. Keandalan dapat terbukti lebih merupakan persyaratan daripada manfaat ketika pengguna memiliki koneksi yang meragukan, misalnya, atau aplikasi data digunakan di lingkungan yang tidak bersahabat, seperti cuaca buruk atau lokasi berbahaya.

Edge- teknologi dan pendekatan komputasi juga dapat membantu perusahaan memodernisasi aplikasi dan infrastruktur lama. “Ini membuatnya lebih mudah diakses oleh pelanggan di pasar untuk berevolusi dan mengubah infrastruktur mereka,” kata Rivera, “sambil mengatasi masalah dan tantangan yang mereka hadapi untuk menjadi lebih produktif dan lebih efektif untuk bergerak maju.”

Masa depan komputasi di mana-mana menjanjikan peluang bagi perusahaan yang secara historis tidak mungkin diwujudkan—atau bahkan dibayangkan. Dan itu akan menciptakan peluang besar, kata Rivera, “Kami pada akhirnya akan melihat dunia di mana edge dan cloud tidak dianggap sebagai domain yang terpisah, di mana komputasi ada di mana-mana dari edge ke cloud hingga perangkat klien.”

Transkrip lengkap

Laurel Ruma: Dari MIT Technology Review, Saya Laurel Ruma. Dan inilah Lab Bisnis, acara yang membantu para pemimpin bisnis memahami teknologi baru yang keluar dari lab dan masuk ke pasar. Topik kita hari ini adalah komputasi edge-to-cloud. Data sekarang dikumpulkan pada miliaran perangkat terdistribusi dari sensor hingga rig minyak. Dan itu harus diproses secara real time, tepat di tempatnya untuk menciptakan manfaat paling banyak, paling banyak wawasan, dan kebutuhannya mendesak. Menurut Gartner, pada tahun 2025, 75% data akan dibuat di luar pusat data pusat. Dan itu mengubah segalanya.

Dua kata untuk Anda: menghitung di mana-mana.

Tamu saya adalah Sandra Rivera, yang merupakan wakil presiden eksekutif dan manajer umum dari Pusat Data dan Grup AI di Intel. Sandra berada di dewan direksi Equinix. Dia anggota University of California, Dewan Penasihat Teknik Berkeley, serta anggota Dewan Yayasan Intel. Sandra juga merupakan bagian dari Dewan Pimpinan Latinx Intel.

Episode Lab Bisnis ini diproduksi bekerja sama dengan Intel.

Selamat datang Sandra.

Sandra Rivera: Terima kasih banyak. Halo, Laurel.

Laurel: Jadi, komputasi tepi memungkinkan daya komputasi yang besar pada perangkat di tepi jaringan. Seperti yang kami sebutkan, dari rig minyak hingga perangkat ritel genggam. Bagaimana pendapat Intel tentang komputasi di mana-mana?

Sandra: Ya, saya pikir Anda mengatakan yang terbaik ketika Anda mengatakan komputasi di mana-mana, karena kami melihat dengan pertumbuhan data yang eksponensial, dipercepat oleh 5G. Begitu banyak data yang dibuat, pada kenyataannya, setengah dari data dunia telah dibuat hanya dalam dua tahun terakhir, tetapi kita tahu bahwa kurang dari 10% telah digunakan untuk melakukan sesuatu yang bermanfaat. Gagasan bahwa data sedang dibuat dan komputasi perlu terjadi di mana-mana adalah benar dan kuat dan benar, tetapi saya pikir kami telah benar-benar mengembangkan proses pemikiran kami seputar apa yang terjadi dengan data itu, di mana bertahun-tahun terakhir kami telah mencoba untuk memindahkan data ke cluster komputasi terpusat, terutama di cloud, dan sekarang kami melihat bahwa jika Anda ingin, atau perlu memproses data secara real time, Anda benar-benar harus membawa komputasi ke data, ke titik pembuatan data dan konsumsi data.

Dan itulah yang kami sebut pengembangan komputasi tepi dan melanjutkan antara apa yang diproses di cloud dan apa yang perlu, atau diproses dengan lebih baik di tepi jauh, lebih dekat ke tempat data itu dibuat dan dikonsumsi.

Laurel: Jadi internet of things telah menjadi pendorong awal komputasi tepi; kami dapat memahaminya, dan seperti yang Anda katakan, lebih dekat ke titik komputasi, tetapi itu hanya satu kasus penggunaan. Seperti apa lanskap komputasi edge-to-cloud saat ini karena memang ada? Dan bagaimana hal itu berkembang dalam beberapa tahun terakhir?

Sandra: Nah, sebagai Anda menunjukkan, ketika Anda memiliki instalasi, atau ketika Anda memiliki aplikasi yang perlu menghitung secara lokal, Anda tidak punya waktu, atau bandwidth untuk naik ke cloud. Dan internet of things benar-benar membawanya ke permukaan, ketika Anda melihat miliaran perangkat yang berkomputasi dan yang sebenarnya perlu memproses data dan menginformasikan beberapa jenis tindakan. Anda dapat memikirkan tentang lantai pabrik di mana kami telah menerapkan visi komputer untuk melakukan inspeksi produk yang turun ke jalur perakitan untuk mengidentifikasi cacat, atau untuk membantu proses manufaktur dalam hal ketepatan suku cadang yang melalui jalur perakitan tersebut. Jenis waktu respons itu diukur dalam milidetik satu digit, dan itu benar-benar tidak mungkin sesuatu yang diproses di cloud.

Jadi, sementara Anda mungkin memiliki model yang telah Anda latih di cloud, penerapan sebenarnya dari model itu hampir secara real time terjadi di edge. Dan itu hanya satu contoh. Kami juga tahu bahwa ketika kami melihat ritel sebagai peluang lain, terutama ketika kami melihat apa yang terjadi dengan pandemi saat kami mulai mengundang tamu kembali ke toko ritel, visi komputer dan inferensi tepi digunakan untuk mengidentifikasi, apakah pelanggan menjaga jarak aman mereka. ? Apakah mereka mempraktikkan banyak protokol keselamatan yang diperlukan untuk kembali ke semacam normal baru di mana Anda benar-benar dapat mengundang tamu kembali ke organisasi ritel? Jadi, semua jenis pemrosesan yang perlu terjadi dalam waktu dekat sebenarnya bukanlah sesuatu yang dapat ditarik kembali ke cloud untuk membuat keputusan.

Jadi, kami memiliki kontinum itu, Laurel, di mana ada pelatihan yang sedang berlangsung, terutama pelatihan pembelajaran mendalam, model yang sangat, sangat besar yang terjadi di cloud, tetapi pengambilan keputusan waktu nyata dan pengumpulan metadata itu, yang dapat dikirim kembali ke cloud untuk model yang akan, terus terang, dilatih ulang, karena apa yang Anda temukan dalam implementasi praktis mungkin bukan cara model dan algoritme dirancang di cloud, ada loop pembelajaran dan pembelajaran yang berkelanjutan. pembelajaran ulang yang terjadi antara model dan penerapan sebenarnya dari model tersebut di edge.

Laurel:

OKE. Itu sangat menarik. Jadi seperti pemrosesan data yang harus segera dilakukan dilakukan di tepi, tetapi kemudian pemrosesan yang lebih intensif dan lebih rumit dilakukan di cloud. Jadi benar-benar sebagai kemitraan, Anda membutuhkan keduanya untuk menjadi sukses.

Sandra: Memang. Ini adalah kontinum pembelajaran dan pembelajaran ulang dan pelatihan dan penerapan, dan Anda dapat membayangkan bahwa di ujungnya, Anda sering berurusan dengan lebih banyak perangkat dan platform yang dibatasi daya dan pelatihan model, terutama pelatihan model besar membutuhkan banyak komputasi, dan Anda tidak akan sering memiliki jumlah komputasi dan daya serta pendinginan sebanyak itu. Jadi, jelas ada peran pusat data dan cloud untuk melatih model, tetapi di ujungnya, Anda perlu membuat keputusan secara real time, tetapi ada juga manfaat tidak harus mengangkut semua data itu kembali ke cloud , banyak dari itu belum tentu berharga. Anda benar-benar hanya ingin mengirim metadata kembali ke cloud atau pusat data. Jadi ada beberapa TCO nyata, total biaya operasi, manfaat nyata untuk tidak membayar harga pengangkutan semua data itu bolak-balik, yang juga merupakan manfaat untuk dapat menghitung dan menyebarkan di edge, yang kami lihat pelanggan kami benar-benar memilih untuk.

Laurel: Apa saja manfaat lain untuk keunggulan- arsitektur ke cloud? Anda menyebutkan biaya adalah salah satunya pasti, serta waktu dan bukan bagaimana harus mengirim data bolak-balik antara dua mode. Apakah ada yang lain?

Sandra: Ya. Alasan lain mengapa kami melihat pelanggan ingin melatih model yang lebih kecil dengan pasti dan menerapkannya di edge adalah keamanan yang ditingkatkan. Jadi ada keinginan untuk memiliki kontrol lebih besar atas data Anda untuk tidak harus memindahkan data dalam jumlah besar dan mentransmisikannya melalui internet. Jadi, keamanan yang ditingkatkan cenderung menjadi proposisi nilai. Dan sejujurnya, di beberapa negara, ada arahan kedaulatan data. Jadi Anda harus menyimpan data itu secara lokal, Anda tidak boleh serta-merta mengambil data itu di luar premis, dan tentunya batas negara juga menjadi salah satu arahannya. Jadi keamanan yang ditingkatkan adalah manfaat lain. Kami juga tahu dari sudut pandang keandalan, ada koneksi terputus-putus saat Anda mentransmisikan data dalam jumlah besar. Tidak semua orang memiliki koneksi yang bagus. Jadi, kemampuan untuk mengirimkan dan semua data itu versus kemampuan untuk menangkap data, memprosesnya secara lokal, menyimpannya secara lokal, itu memberi Anda rasa konsistensi dan keberlanjutan dan keandalan yang mungkin tidak Anda miliki jika Anda benar-benar mengangkut semua lalu lintas itu bolak-balik.

Jadi, kami melihat keamanan, kami melihat keandalan itu, dan kemudian seperti yang saya sebutkan, latensi yang lebih rendah dan peningkatan kecepatan tentu saja salah satu yang terbesar manfaat. Sebenarnya, itu bukan hanya keuntungan kadang-kadang, Laurel, itu hanya persyaratan. Jika Anda memikirkan contoh seperti kendaraan otonom, semua informasi kamera, informasi LIDAR yang sedang diproses, perlu diproses secara lokal, sungguh, tidak ada waktu bagi Anda untuk kembali ke cloud. Jadi, ada persyaratan keselamatan untuk menerapkan teknologi baru apa pun di kendaraan otomatis jenis apa pun, mobil, drone, dan robot. Jadi terkadang hal itu tidak benar-benar didorong oleh biaya, tetapi hanya oleh persyaratan keamanan dan keselamatan dalam mengimplementasikan platform tertentu di edge.

Laurel: Dan dengan banyak titik data itu, jika kita mengambil, misalnya, kendaraan otonom, ada lebih banyak data untuk dikumpulkan. Jadi, apakah itu meningkatkan risiko transmisi data bolak-balik dengan aman? Apakah ada lebih banyak peluang untuk mengamankan data, seperti yang Anda katakan, secara lokal versus mentransmisikannya bolak-balik?

Sandra:

Nah, keamanan adalah faktor besar dalam desain platform komputasi apa pun dan semakin terpilah arsitekturnya, semakin banyak titik akhir dengan internet, semakin banyak kendaraan otonom dari setiap jenis, semakin banyak pabrik pintar dan kota pintar dan ritel pintar yang Anda terapkan, sebenarnya Anda meningkatkan luas permukaan itu untuk serangan. Kabar baiknya adalah bahwa komputasi modern memiliki banyak lapisan keamanan dan memastikan bahwa perangkat dan platform ditambahkan ke jaringan dengan cara yang aman. Dan itu bisa dilakukan baik di perangkat lunak, maupun di perangkat keras. Dalam perangkat lunak, Anda memiliki sejumlah skema dan kemampuan berbeda seputar kunci dan enkripsi dan memastikan bahwa Anda mengisolasi akses ke kunci tersebut sehingga Anda tidak benar-benar memusatkan akses ke kunci perangkat lunak yang mungkin dapat diretas oleh pengguna dan kemudian membuka kunci sejumlah kunci terenkripsi pelanggan yang berbeda, tetapi ada juga enkripsi berbasis perangkat keras dan isolasi berbasis perangkat keras, jika Anda mau.

Dan tentu saja teknologi yang telah kami kerjakan di Intel telah menjadi kombinasi dari kedua jenis inovasi perangkat lunak yang berjalan pada perangkat keras kami yang dapat menentukan enklave aman ini, jika Anda mau, sehingga Anda dapat membuktikan bahwa Anda memiliki lingkungan eksekusi tepercaya dan di mana Anda cukup sensitif terhadap gangguan apa pun dari lingkungan itu dan dapat mengunci aktor mal potensial setelah, atau setidaknya mengisolasinya. Di masa depan, apa yang sedang kami kerjakan adalah lebih banyak enclave dan lingkungan yang terisolasi perangkat keras untuk pelanggan kami, terutama ketika Anda melihat infrastruktur virtual dan mesin virtual yang digunakan bersama di antara pelanggan atau aplikasi yang berbeda, dan ini akan menjadi level lain dari perlindungan IP untuk penyewa yang berbagi infrastruktur itu sambil memastikan bahwa hei memiliki pengalaman yang cepat dan baik dalam hal memproses aplikasi, tetapi melakukannya dengan cara yang aman dan terisolasi dan aman.

Laurel : Jadi, memikirkan semua ini bersama-sama, jelas ada banyak peluang bagi perusahaan untuk menerapkan dan/atau benar-benar memanfaatkan komputasi tepi untuk melakukan segala macam hal yang berbeda . Bagaimana perusahaan menggunakan komputasi tepi untuk benar-benar mendorong transformasi digital?

Sandra: Ya, komputasi tepi hanyalah ide yang diambil dalam hal, saya memiliki semua infrastruktur ini, saya memiliki semua aplikasi ini, banyak di antaranya adalah aplikasi warisan, dan saya mencoba membuat keputusan yang lebih baik dan lebih cerdas dalam operasi saya di sekitar efisiensi dan produktivitas serta keselamatan dan keamanan. Dan kami melihat bahwa kombinasi ini memiliki platform komputasi yang terpilah dan tersedia di mana saja sepanjang waktu, dan AI sebagai alat pembelajaran untuk meningkatkan produktivitas dan efektivitas dan efisiensi itu, dan kombinasi dari apa yang mesin ini akan membantu manusia melakukan lebih baik.

Jadi, dalam banyak hal, kami melihat pelanggan yang memiliki aplikasi lama ingin memodernisasi infrastruktur mereka, dan beralih dari platform target aplikasi tunggal yang dipesan lebih dahulu ke platform yang jauh lebih tervirtualisasi dan fleksibel , skalabel, infrastruktur yang dapat diprogram yang sebagian besar didasarkan pada jenis teknologi CPU yang kami bawa ke dunia. CPU adalah platform komputasi yang paling umum di planet ini, dan kemampuan untuk semua pengecer dan situs manufaktur dan tempat olahraga dan sejumlah titik akhir untuk melihat infrastruktur itu dan mengembangkan aplikasi tersebut untuk dijalankan pada platform komputasi tujuan umum, dan kemudian memasukkan kemampuan AI melalui tumpukan perangkat lunak dan melalui beberapa akselerasi, fitur akselerasi AI yang kami miliki di platform yang mendasarinya.

Itu membuatnya lebih mudah diakses oleh pelanggan di pasar untuk mengembangkan dan mengubah infrastruktur mereka sambil mengatasi masalah dan tantangan yang mereka hadapi agar lebih produktif dan lebih efektif untuk bergerak maju. Jadi perpindahan ini dari fungsi tetap, solusi yang benar-benar berbasis perangkat keras ke platform komputasi serba guna tervirtualisasi dengan kemampuan AI yang dimasukkan ke dalam platform itu, dan kemudian memiliki pendekatan berbasis perangkat lunak untuk menambahkan fitur dan melakukan peningkatan, dan melakukan patch perangkat lunak ke infrastruktur, itu benar-benar janji masa depan, lingkungan segalanya yang ditentukan perangkat lunak, dan kemudian menjadikan AI sebagai bagian dari platform itu untuk pembelajaran dan untuk penyebaran model-model ini yang meningkatkan efektivitas operasi itu.

Dan bagi kami, kami tahu bahwa AI akan terus menjadi area pertumbuhan komputasi ini, dan membangun platform komputasi yang sudah ada, dan cukup tersebar di seluruh dunia. Saya menganggap ini sebagai AI yang Anda butuhkan pada CPU yang Anda miliki, karena hampir semua orang di dunia memiliki beberapa jenis platform CPU Intel, atau platform komputasi untuk membangun model AI mereka.

Laurel: Jadi AI yang Anda butuhkan dengan CPU yang Anda miliki, itu tentu menarik bagi perusahaan yang memikirkan berapa biayanya, tetapi apa potensi pengembalian atas manfaat investasi untuk menerapkan arsitektur edge?

Sandra: Seperti yang saya sebutkan, sebagian besar perusahaan dan pelanggan yang bekerja sama dengan kami, mereka mencari pengambilan keputusan yang lebih cepat dan berkualitas lebih baik. Saya menyebutkan lini pabrik tempat kami bekerja dengan perusahaan otomotif sekarang di mana mereka melakukan inspeksi visual secara real time di lantai pabrik, mengidentifikasi cacat, mengeluarkan bahan yang rusak dari jalur dan mengerjakannya. Dan itu adalah, setiap tugas berulang yang tinggi di mana manusia terlibat benar-benar merupakan peluang untuk memasukkan kesalahan manusia. Jadi, mengotomatiskan fungsi-fungsi tersebut dengan lebih cepat dan pengambilan keputusan dengan kualitas lebih tinggi jelas merupakan keuntungan berpindah ke lebih banyak platform komputasi berbasis AI. Seperti yang saya sebutkan, mengurangi TCO keseluruhan, kebutuhan untuk memindahkan semua data itu, apakah Anda telah memasukkannya atau tidak, bahkan pusat data atau cloud terpusat, dan kemudian menariknya kembali, atau memprosesnya di sana, dan kemudian menghitung mengetahui apa yang berharga sebelum menerapkannya pada platform edge-computing. Itu hanya membuang-buang bandwidth dan lalu lintas jaringan dan waktu. Jadi, itulah daya tarik pengembangan edge-computing didorong oleh ini, masalah latensi, serta masalah TCO.

Dan seperti yang saya sebutkan, hanya peningkatan keamanan dan privasi, kami memiliki banyak data yang sangat sensitif di lokasi produksi kami, teknologi proses yang kami kendarai, dan kami tidak selalu ingin memindahkannya dari premis, dan kami lebih suka memiliki tingkat kontrol dan keselamatan dan keamanan itu di lokasi. Tetapi kami melihat bahwa sektor industri, lokasi manufaktur, yang dapat mengotomatiskan operasi mereka dan menyediakan operasi yang jauh lebih aman dan stabil serta efisien adalah salah satu bidang peluang besar, dan saat ini kami bekerja dengan sejumlah pelanggan, apakah itu di, Anda menyebutkan kilang minyak, apakah itu dalam perawatan kesehatan dan aplikasi medis pada perangkat dan instrumentasi edge, apakah itu di area berbahaya di dunia tempat Anda mengirim robot atau drone untuk melakukan inspeksi visual, atau untuk mengambil beberapa jenis tindakan. Semua ini adalah manfaat yang dilihat pelanggan dalam aplikasi komputasi tepi dan gabungan AI.

Laurel: Begitu banyak peluang, tetapi apa hambatan untuk komputasi tepi? Mengapa tidak semua perusahaan melihat ini sebagai gelombang masa depan? Apakah ini juga keterbatasan perangkat? Misalnya, ponsel Anda kehabisan baterai. Dan juga mungkin ada faktor lingkungan untuk aplikasi industri yang perlu dipertimbangkan.

Sandra: Ya, itu beberapa hal. Jadi satu, seperti yang Anda sebutkan, komputasi membutuhkan kekuatan. Dan kami tahu bahwa kami harus bekerja dalam lingkup daya yang terbatas saat kami menerapkan di edge dan juga pada komputasi perangkat komputasi faktor bentuk kecil, atau di area di mana Anda memiliki lingkungan yang tidak bersahabat, misalnya, jika Anda berpikir tentang infrastruktur nirkabel yang digunakan di seluruh dunia, infrastruktur nirkabel itu, konektivitas itu akan ada di tempat terdingin di bumi dan tempat terpanas di bumi. Jadi, Anda memang memiliki batasan itu, yang bagi kami berarti bahwa kami bekerja melalui, tentu saja, semua penelitian bahan dan komponen kami, dan teknologi proses kami, dan cara kami merancang dan mengembangkan produk kami sendiri, serta bersama-sama dengan pelanggan untuk mendapatkan lebih banyak jenis platform efisiensi daya untuk mengatasi serangkaian masalah tertentu. Dan selalu ada lebih banyak pekerjaan yang harus dilakukan, karena selalu ada lebih banyak komputasi yang ingin Anda lakukan dengan anggaran daya yang selalu terbatas.

Keterbatasan besar lainnya yang kami lihat adalah pada aplikasi lama. Jika Anda perhatikan, Anda telah membahas internet of things sebelumnya, internet of things sebenarnya hanyalah rentang yang sangat, sangat luas dari segmen pasar dan vertikal yang berbeda dan implementasi khusus untuk lingkungan pelanggan. Dan tantangan kami adalah bagaimana kami memiliki pengembang aplikasi, atau bagaimana kami memberi pengembang aplikasi cara mudah untuk bermigrasi dan mengintegrasikan AI ke dalam aplikasi lama mereka? Jadi ketika kita melihat bagaimana melakukannya, pertama-tama, kita harus memahami vertikal itu dan bekerja sama dengan pelanggan, apa yang penting bagi sektor keuangan? Apa yang penting bagi sebuah sektor pendidikan? Apa yang penting bagi sektor perawatan kesehatan, atau sektor transportasi? Dan memahami beban kerja dan aplikasi tersebut serta jenis pengembang yang ingin menerapkan platform edge mereka. Ini menginformasikan seberapa tinggi tumpukan yang mungkin kami perlukan untuk mengabstraksi infrastruktur yang mendasarinya, atau seberapa rendah tumpukan yang mungkin diinginkan oleh beberapa pelanggan untuk melakukan penyempurnaan dan optimalisasi infrastruktur tingkat akhir tersebut.

Sehingga software stack dan orientasi developer menjadi tantangan sekaligus peluang untuk membuka inovasi dan kapabilitas sebanyak mungkin, dan benar-benar bertemu developer di mana pun mereka berada, ada beberapa ninja yang mau dan mampu program untuk beberapa poin persentase terakhir pengoptimalan, dan yang lain benar-benar hanya menginginkan kode rendah yang sangat mudah atau tanpa kode, penerapan satu sentuhan dari aplikasi inferensi tepi yang dapat Anda lakukan dengan berbagai alat yang tentu saja kami tawarkan dan yang lain tawarkan di pasar. Dan mungkin yang terakhir dalam hal, batasan apa yang akan saya katakan memenuhi standar keselamatan, itu berlaku untuk robotika di lantai pabrik, itu berlaku untuk otomotif dalam hal hanya memenuhi jenis standar keselamatan yang disyaratkan oleh otoritas transportasi di seluruh dunia, sebelum Anda memasukkan apa pun ke dalam mobil, dan itu benar di lingkungan di mana Anda memiliki industri manufaktur atau minyak dan gas, hanya banyak persyaratan keselamatan yang harus Anda penuhi baik untuk alasan peraturan, atau, jelas , hanya untuk keseluruhan janji keselamatan yang dibuat perusahaan kepada karyawan mereka.

Laurel: Ya. Itu poin yang sangat penting untuk mungkin diperkuat, yaitu kita berbicara tentang perangkat keras dan perangkat lunak yang bekerja bersama, sebanyak perangkat lunak telah memakan dunia, masih ada aplikasi perangkat keras yang sangat penting yang perlu dipertimbangkan. Dan bahkan dengan sesuatu seperti AI dan pembelajaran mesin serta keunggulan cloud, Anda masih harus mempertimbangkan perangkat keras Anda.

Sandra: Ya. Saya sering berpikir bahwa sementara, menurut pendapat Anda, perangkat lunak memakan dunia dan perangkat lunak benar-benar membuka kunci besar dari perangkat keras yang mendasarinya dan menghilangkan semua kerumitan dari gerakan itu, dari kemampuan Anda untuk mengakses komputasi yang hampir tak terbatas dan sejumlah besar inovasi dalam AI dan teknologi komputasi, yang merupakan kunci besar dalam demokratisasi komputasi dalam AI untuk semua orang. Tetapi seseorang memang perlu tahu cara kerja perangkat keras. Dan seseorang memang perlu memastikan bahwa perangkat keras itu aman, berkinerja, melakukan apa yang kami perlukan. Dan dalam kasus di mana Anda mungkin memiliki beberapa kesalahan, atau beberapa cacat, itu akan menutup sendiri, khususnya itu benar jika Anda berpikir tentang robot tepi dan perangkat otonom dari segala jenis. Jadi, tugas kami adalah membuat interaksi yang sangat, sangat kompleks antara perangkat keras dan perangkat lunak menjadi sederhana, dan untuk menawarkan, jika Anda mau, tombol mudah untuk orientasi pengembang tempat kami menangani kerumitan di bawahnya.

Laurel: Jadi berbicara tentang kecerdasan buatan dan teknologi pembelajaran mesin, bagaimana mereka meningkatkan kemampuan edge to cloud itu ?

Sandra: Ini adalah proses pembelajaran berulang yang berkelanjutan. Jadi, jika Anda melihat keseluruhan rangkaian pra-pemrosesan dan pengemasan data, dan kemudian melatih data tersebut untuk mengembangkan model dan kemudian menerapkan model di edge, dan kemudian, tentu saja, memelihara dan mengoperasikan seluruh armada itu , jika Anda mau, yang telah Anda terapkan, ini adalah lingkaran pembelajaran melingkar ini. Dan itulah keindahan dari komputasi dan AI, hanyalah penguatan dari pembelajaran itu dan peningkatan dan peningkatan berulang yang Anda dapatkan di seluruh loop itu dan pelatihan ulang model agar lebih akurat dan lebih tepat, dan untuk mendorong hasil yang kami coba kendarai saat kami menerapkan teknologi baru.

Laurel: Sebagai kami memikirkan kemampuan itu, pembelajaran mesin, dan kecerdasan buatan, dan semua yang baru saja kami bicarakan, saat Anda melihat ke masa depan, peluang apa yang akan membantu komputasi tepi memungkinkan perusahaan untuk berkreasi?

Sandra: Nah, saya pikir kita kembali ke tempat kita mulai, yaitu komputasi di mana-mana, dan kita yakin kita akan akhirnya melihat dunia di mana edge dan cloud tidak benar-benar ada, atau dianggap sebagai domain terpisah di mana komputasi ada di mana-mana dari edge ke cloud, hingga perangkat klien, di mana Anda memiliki struktur komputasi yang cerdas dan dinamis, dan w di sini aplikasi dan layanan berjalan mulus sesuai kebutuhan, dan di mana Anda memenuhi persyaratan tingkat layanan aplikasi tersebut secara real time, atau mendekati real time. Jadi komputasi di balik semua itu akan sangat fleksibel untuk mendukung perjanjian tingkat layanan dan persyaratan untuk aplikasi. Dan ketika kita melihat ke depan, kita cukup fokus pada penelitian dan pengembangan dan bekerja dengan universitas pada banyak inovasi yang mereka bawa, cukup menarik untuk melihat apa yang terjadi dalam komputasi neuromorfik.

Kami memiliki laboratorium Intel kami sendiri yang memimpin dalam upaya penelitian untuk membantu tujuan komputasi neuromorfik yang memungkinkan perangkat cerdas dan sistem otonom generasi berikutnya. Dan T Ini benar-benar dipandu oleh prinsip-prinsip komputasi saraf biologis, karena komputasi neuromorfik, kami menggunakan semua pendekatan algoritmik yang meniru interaksi otak manusia dengan dunia untuk memberikan kemampuan yang lebih dekat dengan kognisi manusia. Jadi, kami sangat senang dengan kemitraan dengan universitas dan akademisi seputar komputasi neuromorfik dan pendekatan inovatif yang akan memperkuat solusi AI otonom masa depan yang akan membuat cara kita hidup, bekerja, dan bermain lebih baik.

Laurel: Luar biasa. Sandra, terima kasih banyak telah bergabung dengan kami hari ini di Lab Bisnis.

Sandra: Terima kasih telah menerima saya.

Laurel: Itu Sandra Rivera, sang eksekutif wakil presiden dan manajer umum Pusat Data dan Grup AI di Intel, yang kami ajak bicara dari Cambridge, Massachusetts, rumah bagi MIT dan MIT Technology Review yang menghadap ke Sungai Charles. Itu saja untuk episode Lab Bisnis ini, saya tuan rumah Anda, Laurel Ruma. Saya direktur wawasan, divisi penerbitan khusus dari MIT Technology Review. Kami didirikan pada tahun 1899 di Massachusetts Institute of Technology. Dan Anda juga dapat menemukan kami di media cetak di web dan di acara-acara setiap tahun di seluruh dunia. Untuk informasi lebih lanjut tentang kami dan pertunjukan, silakan lihat situs web kami di technologyreview.com. Acara ini tersedia di mana pun Anda mendapatkan podcast. Jika Anda menikmati episode ini, kami harap Anda meluangkan waktu untuk menilai dan mengulas kami. Lab Bisnis adalah produksi dari MIT Technology Review. Episode ini diproduksi oleh Collective Next. Terima kasih telah mendengarkan.

Teknologi Intel mungkin memerlukan aktivasi perangkat keras, perangkat lunak, atau layanan yang diaktifkan. Tidak ada produk atau komponen yang benar-benar aman. Biaya dan hasil Anda mungkin berbeda. Performa bervariasi berdasarkan penggunaan, konfigurasi, dan faktor lainnya.

Episode podcast ini diproduksi oleh Wawasan, lengan konten khusus dari MIT Technology Review. Itu tidak ditulis oleh staf editorial MIT Technology Review.

Baca selengkapnya