I modelli di linguaggio sanno conversare, ma cosa succede quando vogliamo farli… parlare davvero?
In questo talk vedremo come costruire da zero un voicebot usando Elixir, Phoenix LiveView e il framework multimediale Membrane. Partiremo da un’app web che cattura l’audio direttamente dal browser e lo invia a una pipeline Membrane, che a sua volta dialoga con le Realtime API di OpenAI per gestire la conversazione voice-to-voice.
Bonus point: come si può integrare con la piattaforma di [Indigo.ai](http://indigo.ai/)?! Un viaggio tra voce, AI e concorrenza made in Elixir.
About the speaker
Tommaso Maioli is a self taught developer who started as a React frontend developer back in 2020. He has been using Elixir since last year with the opportunity to work on the [Indigo.ai](http://indigo.ai/) platform, working on challenging and innovative projects. He's actually a Control System Engineer 🤔