Hello,
the last few weeks I was working on two IoT projects, one project was to build a C++ backend http(s) server on embedded hardware and the other project was to build an encrypted long range (LoRa 915 MHz) C++ half-duplex chat, also on embedded hardware. It was very enjoyable to build these things - even though at the beginning I had issues with implementing TLS encryption into the http server but I could solve the issue. On the other project I had issues with half-duplex mode but as soon as I knew the hardware was only capable of half-duplex mode, I could solve the issue as well.
Now I want to combine the https backend or/and the LoRa chat I wrote with an AI LLM that can run on my embedded hardware. I'm using Raspberry Pico and I can extend it with a microSD extension board (I already have and tested it, it works well).
Are there any hardware expansion modules I can use to run AI models on the Pico or would I need to buy a Raspberry Pi 5 Model with the AI Hat+?
This is what I have currently:
- Raspberry Pico 2W
- OLED Display
- microSD extension board
- LoRa extension board
- GPIO extender
I can possibly get this:
- https://www.raspberrypi.com/products/raspberry-pi-5/?variant=raspberry-pi-5-16gb
- https://www.raspberrypi.com/products/ai-hat/?variant=ai-hat-plus-26
But it seems very expensive. I also thought about getting Nvidia Jetson or Google Coral but this is even more expensive. Maybe something from espressif?
I will be using the C++ LiteRT library: https://ai.google.dev/edge/litert
Do you have a recommendation about hardware I can use? My budget is constrained, I wish I could spend 300$ but my limit currently is 150$.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Привет,
Последние несколько недель, когда я работал над двумя проектами IoT, один проект состоял в том, чтобы построить сервер HTTP (S) C ++ на встроенном аппаратном обеспечении, а другой проект состоял в том, чтобы создать зашифрованный на полуспутный чат C ++ C ++ (LORA 915 МГц), Также на встроенное оборудование. Было очень приятно создавать эти вещи - хотя в начале у меня были проблемы с внедрением шифрования TLS в HTTP -сервер, но я мог решить проблему. В другом проекте у меня были проблемы с полудуплексным режимом, но как только я узнал, что аппаратное обеспечение способно только к полудуплексному режиму, я также мог решить проблему.
Теперь я хочу объединить бэкэнд https или/и чат Lora, который я написал с помощью AI LLM, который может работать на моем встроенном оборудовании. Я использую Raspberry Pico, и я могу расширить его с помощью платы для расширения MicroSD (у меня уже есть и проверил, это работает хорошо).
Существуют ли какие -либо модули расширения аппаратного обеспечения, которые я могу использовать для запуска моделей ИИ на PICO, или мне нужно было купить модель Raspberry Pi 5 с AI HAT+?
Это то, что у меня есть в настоящее время:
- Raspberry Pico 2w
- OLED -дисплей
- Доска для расширения MicroSD
- LORA Extension Board
- gpio extender
Я могу получить это:
-https://www.raspberrypi.com/products/raspberry-pi-5/?variant=raspberry-pi-5-16gb
-https://www.raspberrypi.com/products/ai-hat/?variant=ai-hat-lus-26
Но это кажется очень дорогим. Я также думал о том, чтобы получить Nvidia Jetson или Google Coral, но это еще дороже. Может что -то из Espressif?
Я буду использовать библиотеку C ++ Litert: https://ai.google.dev/edge/litert
У вас есть рекомендация об оборудовании, которое я могу использовать? Мой бюджет ограничен, я хотел бы потратить 300 $, но мой лимит в настоящее время составляет 150 долларов.
the last few weeks I was working on two IoT projects, one project was to build a C++ backend http(s) server on embedded hardware and the other project was to build an encrypted long range (LoRa 915 MHz) C++ half-duplex chat, also on embedded hardware. It was very enjoyable to build these things - even though at the beginning I had issues with implementing TLS encryption into the http server but I could solve the issue. On the other project I had issues with half-duplex mode but as soon as I knew the hardware was only capable of half-duplex mode, I could solve the issue as well.
Now I want to combine the https backend or/and the LoRa chat I wrote with an AI LLM that can run on my embedded hardware. I'm using Raspberry Pico and I can extend it with a microSD extension board (I already have and tested it, it works well).
Are there any hardware expansion modules I can use to run AI models on the Pico or would I need to buy a Raspberry Pi 5 Model with the AI Hat+?
This is what I have currently:
- Raspberry Pico 2W
- OLED Display
- microSD extension board
- LoRa extension board
- GPIO extender
I can possibly get this:
- https://www.raspberrypi.com/products/raspberry-pi-5/?variant=raspberry-pi-5-16gb
- https://www.raspberrypi.com/products/ai-hat/?variant=ai-hat-plus-26
But it seems very expensive. I also thought about getting Nvidia Jetson or Google Coral but this is even more expensive. Maybe something from espressif?
I will be using the C++ LiteRT library: https://ai.google.dev/edge/litert
Do you have a recommendation about hardware I can use? My budget is constrained, I wish I could spend 300$ but my limit currently is 150$.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Привет,
Последние несколько недель, когда я работал над двумя проектами IoT, один проект состоял в том, чтобы построить сервер HTTP (S) C ++ на встроенном аппаратном обеспечении, а другой проект состоял в том, чтобы создать зашифрованный на полуспутный чат C ++ C ++ (LORA 915 МГц), Также на встроенное оборудование. Было очень приятно создавать эти вещи - хотя в начале у меня были проблемы с внедрением шифрования TLS в HTTP -сервер, но я мог решить проблему. В другом проекте у меня были проблемы с полудуплексным режимом, но как только я узнал, что аппаратное обеспечение способно только к полудуплексному режиму, я также мог решить проблему.
Теперь я хочу объединить бэкэнд https или/и чат Lora, который я написал с помощью AI LLM, который может работать на моем встроенном оборудовании. Я использую Raspberry Pico, и я могу расширить его с помощью платы для расширения MicroSD (у меня уже есть и проверил, это работает хорошо).
Существуют ли какие -либо модули расширения аппаратного обеспечения, которые я могу использовать для запуска моделей ИИ на PICO, или мне нужно было купить модель Raspberry Pi 5 с AI HAT+?
Это то, что у меня есть в настоящее время:
- Raspberry Pico 2w
- OLED -дисплей
- Доска для расширения MicroSD
- LORA Extension Board
- gpio extender
Я могу получить это:
-https://www.raspberrypi.com/products/raspberry-pi-5/?variant=raspberry-pi-5-16gb
-https://www.raspberrypi.com/products/ai-hat/?variant=ai-hat-lus-26
Но это кажется очень дорогим. Я также думал о том, чтобы получить Nvidia Jetson или Google Coral, но это еще дороже. Может что -то из Espressif?
Я буду использовать библиотеку C ++ Litert: https://ai.google.dev/edge/litert
У вас есть рекомендация об оборудовании, которое я могу использовать? Мой бюджет ограничен, я хотел бы потратить 300 $, но мой лимит в настоящее время составляет 150 долларов.