LLM Series: Buat aplikasi Chat dengan AWS Bedrock dan Semantic Kernel

Hi Rekans,

Uda akhir tahun, masih blom cuti ? kesian deh lo..
Ok biar ga sedih kali ini kita temenin dengan artikel simpel tentang bagaimana membuat solusi chat bot dengan AWS Bedrock, kalau temen-temen belom tau apa itu Bedrock, coba ni dibaca-baca dulu: Build Generative AI Applications with Foundation Models – Amazon Bedrock – AWS

Intinya ini cloud service AWS untuk Generative AI. Bisa generate teks, gambar, dan mungkin yang lain-lain ntar nyusul. Cuman pertanyaannya apakah sudah di support oleh Semantic Kernel ? Nah sekarang udah bisa setelah kita bikinin konektornya. Kalau ketemu awas lo traktir siomey ya.

Ga cuma aplikasi chat, tapi aplikasi yang memanfaatkan text-completion bisa pakai konektor ini, misal buat summary, translate, edit, dsb.

Beberapa model yang di support AWS Bedrock saat ini yaitu:

  1. Claude
  2. Amazon Titan
  3. Llama 2
  4. Command & Embed
  5. Stable Diffusion
  6. Check sendiri dah di webnya

Goalnya, semakin fleksibel library kita untuk bisa terintegrasi dengan berbagai Model LLM yang bagus, semakin banyak pula fitur yang dapat kita manfaatkan dari kapabilitas spesifik dari model tsb.

Nah, gimana cara pakenya nih ?

  1. Install Dotnet dan Visual Studio / VSCode
  2. Tarik sourcenya dari https://github.com/Gravicode/SKBedrock
  3. Buka pakai visual studio
  4. Buka project ChatWithBedrock, terus buka file AppConstants.cs, sesuaikan AccessKey, Secret dan Region yang digunakan di AWS Bedrock
  5. Yang belum punya akses key, coba baca nih : Creating access keys for the root user – AWS Identity and Access Management (amazon.com)
  6. Yang belum buka akses ke model LLM, silakan buka Bedrock trus ke menu Model Access, request access deh ke model yang dipengen
  7. Abis itu jalanin deh..
Chat with Claude

Ya semoga bermanfaat, selamat berkarya.

Salam Produktif

Loading

You May Also Like