
Kecerdasan buatan beralih dari eksperimen ke penerapan operasional. Kegembiraan di sekitar model bahasa besar (LLM) memperkenalkan banyak organisasi mengenai apa yang bisa dilakukan AI, sehingga memicu gelombang pilot dan agen prototipe.
Namun ketika perusahaan mendorong sistem ini ke dalam produksi, mereka menghadapi kendala mendasar: model tujuan umum tidak memiliki konteks operasional real-time yang dibutuhkan oleh keputusan perusahaan.
Analis Solusi Utama untuk Cisco ThousandEyes.
LLM memang luar biasa, tetapi dibangun untuk keluasan, bukan kedalaman. Mereka unggul dalam percakapan dan peringkasan, namun mereka tidak memiliki konteks spesifik domain yang real-time yang menjadi sandaran pengambilan keputusan perusahaan.
A chatbot dapat mendiskusikan peraturan keuangan, namun tidak dapat menentukan apakah suatu perdagangan tertentu melanggar kebijakan internal. Ini dapat menjelaskan konsep jaringan, namun tidak dapat mendiagnosis mengapa aplikasi Anda saat ini lambat tanpa telemetri langsung. Sederhananya: AI hanya secerdas data dan alat yang dapat dijangkaunya.
Kesenjangan ini mendorong perubahan arsitektur di seluruh penerapan AI di perusahaan. Bagi perusahaan, intelijen bukanlah tentang jawaban yang luas, melainkan tentang mengatur tindakan yang tepat dan dapat diandalkan.
Munculnya model spesialis untuk pelaksanaan perusahaan
Untuk mengatasi kendala ini, semakin banyak organisasi yang menerapkan model bahasa kecil (SLM), yang dilatih berdasarkan data spesifik domain untuk tugas-tugas tertentu. SLM menawarkan biaya inferensi yang lebih rendah dibandingkan model besar, waktu respons lebih cepat, dan kemampuan untuk dijalankan di lokasi selama data persyaratan kedaulatan.
Analisis pola beban kerja saat ini menunjukkan bahwa banyak tugas AI agen dapat ditangani oleh SLM khusus, dengan model yang lebih besar disediakan untuk tugas-tugas yang rumit.
Faktanya, penelitian dari NVIDIA dan lainnya menunjukkan bahwa banyak penerapan di perusahaan yang menggabungkan campuran SLM dan LLM. Namun memilih model yang tepat hanyalah sebagian dari tantangan AI perusahaan. Agar agen dapat bertindak dengan andal, mereka juga memerlukan cara yang konsisten untuk mengakses sistem perusahaan.
Hal ini meningkatkan pentingnya lapisan infrastruktur yang menghubungkan logika dengan realitas operasional.
Protokol MCP: Tulang punggung sistem agen tingkat perusahaan
Bagian penting dari itu infrastruktur lapisannya adalah Model Context Protocol (MCP), sebuah standar terbuka baru yang memungkinkan model AI terhubung dengan sumber data dan alat perusahaan melalui antarmuka yang seragam dan aman.
Dirilis oleh Anthropic pada akhir tahun 2024 dan kemudian disumbangkan ke Agentic AI Foundation (AAIF) milik Linux Foundation, MCP bertindak sebagai penerjemah universal: memaparkan data, telemetri, alur kerja, dan tindakan dengan cara yang konsisten dan terstruktur.
Hal ini penting karena tiga alasan:
- Standardisasi membuat ekosistem agen berskala besar menjadi layak. API bervariasi antar platform dan cloud; MCP mengabstraksi kompleksitas tersebut sehingga agen dapat mengakses sistem tanpa rekayasa khusus.
- Kontekstualisasi memberikan agen visibilitas real-time ke dalam topologi, kondisi, dan status sistem organisasi; memungkinkan agen untuk menanyakan kondisi saat ini daripada beroperasi pada data pelatihan atau perkiraan yang sudah usang.
- Tata kelola menjamin keamanan. Arsitektur MCP memungkinkan adanya pagar pembatas yang menentukan agen sistem mana yang dapat mengakses dan tindakan apa yang dapat mereka lakukan. Karena setiap tindakan dapat diaudit, pertanyaan yang muncul bukanlah “Apakah agen merespons?” namun “Apakah ia menyelesaikan tugasnya dengan aman dan benar?”
Awal mula AI perusahaan
Evolusi ini menandai titik balik. Melihat ke belakang, fase kebaruan memberi jalan pada fase pematangan yang kita masuki sekarang: sistem yang dapat dijelaskan, aman, diatur, dan selaras dengan kebutuhan. bisnis hasil.
Perusahaan membutuhkan agen yang memahami lingkungannya, mengakses data yang tepat, memilih alat yang tepat, dan beroperasi dalam kendali yang tepat.
Kombinasi model khusus dan protokol infrastruktur standar menunjukkan kematangan dalam arsitektur AI perusahaan.
Daripada menerapkan model tujuan umum untuk semua tugas, organisasi justru membangun sistem yang heterogen: SLM menangani beban kerja spesifik domain, model yang lebih besar mengatasi alasan yang kompleks, dan MCP menyediakan akses kontekstual yang terstandarisasi. Bersama-sama, mereka menjadikan AI mampu dan dapat dipercaya.
Menghilangkan pemborosan AI melalui konteks dan kontrol
Pertimbangkan layanan TI otomatisasi: agen yang menangani tiket kinerja jaringan dapat menggunakan MCP untuk mengakses telemetri real-time dari sistem pemantauan jaringan, menanyakan basis data kejadian historis, dan menjalankan alur kerja remediasi yang telah disetujui sebelumnya – semuanya melalui antarmuka standar, bukan integrasi khusus untuk setiap alat.
Akses terstruktur MCP ke alat dan data perusahaan memungkinkan peralihan dari pengambilan informasi ke penyelesaian tugas yang andal. Saat agen mengalami masalah, misalnya kegagalan DNS, agen dapat menggunakan protokol untuk memahami konteks, menanyakan data tambahan, dan memutuskan langkah selanjutnya, bukan sekadar gagal.
Jadi, ketika platform e-niaga besar mengalami penurunan layanan, agen yang terhubung dengan baik dapat menghubungkan kinerja langsung dengan pola historis dan menjalankan remediasi yang telah disetujui sebelumnya. Apa yang dulunya membutuhkan waktu berjam-jam kini dapat dilakukan dalam hitungan menit, dengan transparansi penuh.
Tanpa infrastruktur yang sadar konteks, agen juga dapat terjerumus ke dalam lingkaran yang mahal dengan banyak model yang saling menanyakan satu sama lain dan menghabiskan sumber daya tanpa kemajuan. MCP mencegah hal ini dengan menyusun tugas berdasarkan penyelesaian, bukan aktivitas.
Apa yang akan terjadi pada tahun 2026?
Ketika perusahaan mendorong AI operasional pada tahun 2026, tantangannya bukan lagi pada eksperimen model, melainkan menghubungkan kecerdasan dengan tindakan.
Persyaratan teknisnya jelas: model harus memiliki akses terhadap konteks operasional, tindakan harus dilakukan dalam batasan tata kelola yang ditentukan, dan sistem harus berskala ekonomis pada beban kerja bervolume tinggi.
Organisasi yang membangun sistem AI yang andal berinvestasi pada model khusus dan lapisan infrastruktur yang menghubungkan mereka dengan realitas perusahaan. MCP menyediakan satu pendekatan untuk menstandardisasi koneksi ini.
Masa depan AI perusahaan tidak akan ditentukan oleh ukuran model. Hal ini akan dimenangkan melalui konteks, konektivitas, dan kontrol.
Kami telah menampilkan pembuat situs web AI terbaik.
Artikel ini dibuat sebagai bagian dari saluran Expert Insights TechRadarPro tempat kami menampilkan para pemikir terbaik dan tercemerlang di industri teknologi saat ini. Pandangan yang diungkapkan di sini adalah milik penulis dan belum tentu milik TechRadarPro atau Future plc. Jika Anda tertarik untuk berkontribusi, cari tahu lebih lanjut di sini: https://www.techradar.com/news/submit-your-story-to-techradar-pro



