Apa itu AI?
Definisi Kecerdasan Buatan (AI)
Kecerdasan buatan adalah bidang ilmu yang membangun komputer dan mesin yang mampu melakukan penalaran, pembelajaran, dan tindakan yang seringkali memerlukan kecerdasan manusia atau melibatkan data dalam skala yang melebihi kemampuan manusia untuk menganalisis.
AI adalah bidang luas yang mencakup berbagai disiplin ilmu, termasuk ilmu komputer, analisis data dan statistik, rekayasa perangkat keras dan perangkat lunak, linguistik, neurologi, dan bahkan filsafat dan psikologi.
Pada tingkat operasional yang digunakan oleh bisnis, AI adalah serangkaian teknologi yang terutama didasarkan pada pembelajaran mesin dan pembelajaran mendalam, yang digunakan untuk analisis data, prediksi, klasifikasi objek, pemrosesan bahasa alami, rekomendasi, pengambilan data cerdas, dan banyak lagi.
Kecerdasan buatan (AI) adalah seperangkat teknologi yang memungkinkan komputer melakukan berbagai fungsi lanjutan, termasuk analisis visual, memahami dan menerjemahkan bahasa.
lisan dan tulisan, menganalisis data, membuat rekomendasi, dan banyak lagi.
*AI adalah tulang punggung inovasi komputasi modern, yang memberikan nilai bagi individu dan bisnis.*
Apa itu GPU?
Unit pemrosesan grafis (GPU) adalah sirkuit elektronik yang dapat melakukan perhitungan matematis dengan kecepatan tinggi. Tugas komputasi seperti rendering grafis, pembelajaran mesin (ML), dan pengeditan video memerlukan penerapan operasi matematika serupa pada kumpulan data besar. GPU dirancang untuk melakukan operasi yang sama pada beberapa nilai data secara paralel. Hal ini dapat meningkatkan efisiensi pemrosesan banyak tugas komputasi intensif.
Mengapa GPU begitu penting?
GPU sangat baik dalam melakukan pemrosesan paralel untuk keperluan umum, tetapi secara historis, hal ini tidak selalu terjadi. Sesuai dengan namanya, GPU awalnya dirancang untuk satu tugas tertentu: mengontrol tampilan gambar.
Asal usul GPU.
Sebelum adanya GPU, kita memiliki layar dot-matrix, yang dirilis pada tahun 1940an dan 1950an. Tampilan vektor dan raster dirilis kemudian, diikuti oleh konsol video game pertama dan PC. Pada saat itu, perangkat yang tidak dapat diprogram yang disebut pengontrol grafis mengoordinasikan apa yang ditampilkan di layar. Secara tradisional, pengontrol grafis mengandalkan CPU untuk pemrosesan, meskipun beberapa pengontrol menyertakan prosesor on-chip.
Sekitar waktu yang sama, proyek pencitraan tiga dimensi melibatkan penggunaan satu prosesor untuk menghasilkan satu piksel pada layar. Tujuannya adalah menghasilkan gambar yang menggabungkan banyak piksel dalam waktu singkat. Sejauh yang kami tahu, proyek ini adalah cikal bakal GPU.
GPU digunakan dalam berbagai aplikasi komputasi intensif, termasuk keuangan skala besar, aplikasi pertahanan, dan aktivitas penelitian. Berikut adalah beberapa kegunaan GPU yang paling umum saat ini.
a.permainan
Di luar aplikasi visualisasi perusahaan besar dan pemerintah, area aplikasi utama GPU adalah game pribadi. Mereka digunakan di konsol pada tahun 1980an dan masih digunakan di PC dan konsol saat ini. GPU sangat penting untuk rendering grafis yang kompleks.
GPU digunakan dalam aplikasi profesional seperti gambar CAD, pengeditan video, penelusuran dan interaktivitas produk, pencitraan medis, dan pencitraan seismik. Mereka juga cocok untuk aplikasi pengeditan dan visualisasi gambar dan video kompleks lainnya. Aplikasi berbasis browser bahkan dapat memanfaatkan GPU melalui perpustakaan seperti WebGL.
b.Pembelajaran mesin
Melatih model pembelajaran mesin (ML) memerlukan banyak daya komputasi. Mereka sekarang dapat berjalan di GPU untuk hasil yang lebih cepat. Melatih model pada perangkat keras yang Anda beli sendiri bisa memakan waktu lama, sedangkan menggunakan GPU cloud memungkinkan Anda mendapatkan hasil dengan cepat.
c.Blockchain
Cryptocurrency dibangun di atas blockchain. Jenis blockchain khusus (proof-of-work) sering kali sangat bergantung pada GPU untuk pengoperasiannya. Sirkuit terintegrasi khusus aplikasi (ASIC) adalah chip serupa namun berbeda yang telah menjadi alternatif umum untuk pemrosesan GPU blockchain.
Bukti algoritma blockchain proof-of-stake tidak lagi memerlukan daya komputasi dalam jumlah besar, namun proof-of-work masih ada di mana-mana.
d.simulasi
Aplikasi simulasi tingkat lanjut yang
digunakan dalam dinamika molekuler, prakiraan cuaca, itu sendiri memiliki jumlamemori yang konstan, ditambah memori perangkat pada motherboard yang digunakannya.dan astrofisika semuanya dapat dicapai dengan GPU. GPU juga mendukung banyak aplikasi dalam desain otomotif dan kendaraan besar, termasuk dinamika fluida.
Bagaimana cara kerja GPU-nya?
GPU modern sering kali berisi banyak multiprosesor. Setiap multiprosesor memiliki blok memori bersama, ditambah beberapa prosesor dan register yang sesuai. GPU
itu sendiri memiliki jumlah memori yang konstan, ditambah memori perangkat pada motherboard yang digunakannya.
Setiap GPU bekerja sedikit berbeda, bergantung pada tujuannya, pabrikan, spesifikasi chip, dan perangkat lunak yang digunakan untuk mengoordinasikan GPU. Misalnya, perangkat lunak pemrosesan paralel CUDA Nvidia memungkinkan pengembang memprogram GPU secara khusus dengan mempertimbangkan hampir semua aplikasi pemrosesan paralel tujuan umum.
GPU dapat berupa chip yang berdiri sendiri, yang disebut GPU mandiri, atau terintegrasi dengan perangkat keras komputasi lainnya, yang disebut GPU terintegrasi (iGPU).
GPU diskrit
GPU diskrit hadir dalam bentuk chip yang sepenuhnya didedikasikan untuk tugas yang ada. Meskipun tugasnya biasanya berupa grafis, kini GPU diskrit dapat digunakan sebagai prosesor khusus untuk tugas-tugas seperti pembelajaran mesin atau simulasi kompleks.
0 Komentar