기본적으로 jetbot을 구매 하면 jetson nano 모듈의 포함 유무로 가격차이가 발생한다. 같은제품에서의 추가 옵션은 jetson nano의 유무만인줄 알았다.

 

내가 구매한 jetbot은 기본 jetbot 시리즈 중에서 https://www.nvidia.com/en-us/autonomous-machines/embedded-systems/jetbot-ai-robot-kit/ Waveshare JetBot AI Kit 이다.

해당 젯본의 경우 Jetbot expansion board 라는 jetson nano 와 연결되며 배터리팩과 OLED 상태 표시창, 전원버튼, 충전케이블 연결 아탑터로 구성되어 있으며 뒷면엔 포터모듈과의 연결포트를 지원해준다. 즉 jetson nano 가 ROS 를  구성하여 신호를 보낸다면 그 신호를 받아서 처리해주는 모듈이 바로 이 expansion board 이다. 여기서 내가 착각한 사실은... 배터리 팩이 그냥 우리가 일반적으로 일상에서 사용하는 AA 건전지 인줄알았던 것이다.. 그래서 젯봇을 조립한뒤 호기롭게..... 다이소에서 3000원에 20개나 들어있는 AA 건전지를 구매하였고.. 베터리 슬롯에 넣는순간 그 허전한 공간이란..... 다시 한번 확인해보니..

사용하는 베터리는 18650 베터리 이며... 작은 글씨로... (Not.... Included).... 젝힐.... ㅡ.ㅡ;;;;

찾아보니 해당 베터리는 여러 용도로 사용되는 충전 베터리 였던... (가깝게는 전자담배에서 소형 플래시에서부터 크게는 병렬, 직렬 연결해서 DIY 배터리 팩을 제작)

 

베터리를 급하게 구매한뒤에... 연결후 충전이 잘 되고 있는지 확인하고 싶었다..

앞에서 언급했듯 expansion board에는 OLED Display 가 연결되어서 젯봇의 상태를 표시해준다.

현재 나의 젯본 OLED Display 에서 표시되어주는 상태값.. 

기본적으로는 디스크 사용량, 메모리 사용량, 네트워크 사용유무와  ip 값이다. 이 정보를 바탕으로 현재 jetbot에 여유 메모리 상태와 젯봇을 외부에서 연결없이 ip를 확인하여 Jupyter Lab에 연결하여 코드를 수정, 실행할 수 있는 것이다.

 

이곳에 배터리 충전양과 전압등을 표시하는 방법을 서치해보니 친절하게 사용법을 남겨주셨다.

https://m.blog.naver.com/zeta0807/221756647728

 

젯봇 OLED에 배터리 충전 및 잔량 표시 성공

글 작성: 2020.01.01 1차 수정: 2020.01.01 Jetbot software에 대한 설명이 아닌 wavesahre Jebot AI ...

blog.naver.com

jetson nano를 사용할때 전원 이슈가 있다는 이야기를 들었으며, 동작도중에 멈추거나 무선 연결로 학습시 전원이 나갈경우 문제가 발생할 수 있기때문에 배터리 상태 표시는 중요하다는 생각이 들었다.

 

위 블로그의 내요을 찾아보면.. Waveshare 사에서 해당 방법을 공유한것인가? 

$ git clone https://github.com/waveshare/jetbot
$ cd jetbot
$ sudo python3 setup.py install

만 해주면 끝.....

 

모든작업이 끝나면 항상 하는것은..... Reboot...... and update...  and upgrade....

결과는 대만족... ip정보는 통합되어 표시되었으며 그로인해 생긴 여유 공간에 배터리 충전량과 현재 전압 정보가 잘 표시 되는것을 확인할 수 있다. 

'AIFFEL > JetBot' 카테고리의 다른 글

유용한 앱  (0) 2021.12.14
JetBot Ubuntu 18.04 한글팩 및 한글 자판 설정  (0) 2021.12.07

Jetson Nano Developer Kit 의 기본 jatpack은 21년 12월 7일 이 글을 남기는날 기준으로 jetpack 4.6 이며 

sd카드 이미지를 다운로드 받아서 sd카드에 복사한뒤 처음 jetson nano를 실행시키면 환경설정 단계를 거쳐서 기본 언어 시간대등을 설정할수 있다.

 

그러나 jetbot SD 이미지를 다운로드 받으면 jetbot 제조사별로 틀리며 같은 제조사의 경우에도 jetbot 종류에 따라서 jetpack 버전에서부터 내부 샘플파일등이 다르게 설정되어 있다.

 

또한 제조사에 따라 기본언어와 기본키보드 자판 설정등이 영어, 중국어 등으로 설정되어있어서 한근자판을 사용하기 위해서는 한글 팩을 설치한뒤에 한글자판 설정작업을 해 주어야 한다.

 

제일 처음 해야할 일은 언어팩 설치 작업이다.

시스템 설정에서 Language Support 항목을 들어가면 처음 항목에 접근했을때 "The Language support is not installed completely" 라는 팝업창이 뜬다. install 버튼을 눌러 마무리 해주자.. 

 

jetson nano 기본 팩을 설치 했을 경우 처음 환경설정에서 입력한 비밀번호를 입력하면 된다.. 대부분 jetbot의 경우 ID, PW 모두 jetbot 이다.. jetbot 모델중 http://www.yahboom.net/home 사에서 나오는 제품의 경우 yahboom 이다. 본인의 초기 비밀번호는 검색해보면 다 나온다. 외우기 힘들다면 설정에서 비밀번호를 변경해주기 바란다. 

하지만 jetbot용 jetpack 에는 Jupyter Lab 이 기본 설정되어 있어서 ip번호를 브라우저에서 입력시 동일한 비번을 입력하기 때문에.. jetbot의 기본 비빌번호를 외우는것을 추천한다.

 

초기 Language support 설치작업이 끝나는데 시간이 살짝 걸리니... 잠시 컵휘 한잔... 여유가 생긴다...

설치가 완료 되었으면 Install / Remove Languages 버튼을 누르면 설치되어있는 언어와 설치가능한 언어 리스트를 확인할수 있다.. K로 시작되는 항목에서 Korean을 찾아서 설치 체크항목을 체크해준뒤 Apply 버튼을 눌러서 한글 언어팩을 설치해준다.

설치가 완료 되었으면... Reboot Gogo....!!!

 

재부팅후

Terminal 창을 띄운뒤 ibus-setup 를 실행시켜 준다.

실행하면 IBus Perferences 창이 뜬다. 상단탭에서 Input Method 항목으로 이동한뒤 우측에 Add 버튼을 누르면

Select an input method 창이 뜨면서 설치가능한 자판리스트가 뜬다. 창 하단에 ... (More) 버튼을 눌러 kor을 검색하면 korean 을 찾을수 있으며 선택하면 아래와 같이 한글 자판 설치가 가능하다.

Add 버튼을 누르면 Ibus Preferences 항목에서 언어가 설치 되어있음을 확인할수 있다. 필요한 언어 자판을 다 설치 햇으면 close 버튼을 눌러 해당 페이지를 닫아준다.

 

마지막으로 화면 우측 상단을 보면 

현재 선택된 키보드 자판 언어를 확인할 수 있는 메뉴를 클릭한뒤 Text Entry Settings 버튼을 눌러서 최종적으로 자판 추가작업을 해줍니다.

Text Entry 창 우측 하단에 + 버튼을 누른뒤 설치하고싶은 자판을 검색후 Add 버튼을 눌러 추가 해주면 된다.

우리가 설치할 자판은 korea (Hangul)(IBus) 이니 해당 자판을 추가해주면 된다. 

 

자판 추가작업이 끝났으면 다시 키보드 셋팅 버튼을 눌러서 세부 설정을 해주기 바란다.

설정이 끝났으면 Apply 버튼을 눌러 적용해준뒤 Ok 버튼을 눌러서 마무리 한다.

'AIFFEL > JetBot' 카테고리의 다른 글

유용한 앱  (0) 2021.12.14
젯봇 OLED 에 배터리 충전 및 잔량 표시  (0) 2021.12.07

Jetson Nano 를 이용한 Object Detection으로 당연히 YOLO를 떠올렸으며 구글링을 통해서 먼저 이길을 가시면서 친절하게 방법과 입력코드를 남겨주신대로 진행을 해봤으나 YOLO신의 버림을 받아서인지... 샘플 이미지를 통한 결과는 정상적으로 출력이 되지만 pi camera를 이용한 실시간 Detection 은 실패를 하였다. (이상하게 카메라 영상을 보여주는 창이 온통 초록색으로 꽉찬 상황 ㅠ.ㅠ)

 

그래서 다른 방법이 없는지 찾게 되었고 YOLO v5 를 시도했던 시간의 거의 1/3 정도만으로 생각보다 훌륭한 결과를 얻을수 있었던 내용을 공유해본다. 

 

해당내용의 출처는  NVIDIA Developer 채널에서 아래 주소의 Youtube 영상을 시작으로 얻을수 있었으며 

https://youtu.be/bcM5AQSAzUY

소개 페이지는 

https://developer.nvidia.com/blog/realtime-object-detection-in-10-lines-of-python-on-jetson-nano/

 

Real-Time Object Detection in 10 Lines of Python on Jetson Nano | NVIDIA Developer Blog

To help you get up-and-running with deep learning and inference on NVIDIA’s Jetson platform, today we are releasing a new video series named Hello AI World to help you get started.

developer.nvidia.com

github 자료는 아래와 같다.

 

https://github.com/dusty-nv/jetson-inference

 

GitHub - dusty-nv/jetson-inference: Hello AI World guide to deploying deep-learning inference networks and deep vision primitive

Hello AI World guide to deploying deep-learning inference networks and deep vision primitives with TensorRT and NVIDIA Jetson. - GitHub - dusty-nv/jetson-inference: Hello AI World guide to deployin...

github.com

Dustin Franklin 님(?)의 소개대로 진행을 한단계씩 밟아 나가다 보니.. 어느새 카메라를 통해서 실시간 Detection 되는 결과를 볼수 있었으며... jetson nano를 이용한 뭔가 첫 결과물(?)을 확인할수 있었던 내용이었다. 

 

시작은 설치되어 있는 패키지들의 새로운 버전이 있는지 확인 부터... 

$ sudo apt-get update -y

설치된 패키지들의 최신버전에 따라 업그레이드두 GoGo...

$ sudo apt-get upgrade -y

다음단계는 필요한 패키지 설치~

$ sudo apt-get install git make libpython3-dev python3-numpy -y

git clone 으로 간단히 가져오기~~

$ git clone --recursive https://github.com/dusty-nv/jetson-inference

 

$ cd jetson-inference/

$ mkdir build

$ cd build

$ cmake ../

까지 진행하면 모델을 다운로드 받을수 있는 창이 뜬다...

짜란~~~ Hello AI World   - Model Downloader

 

여기서 다운로드 받을수 있는 모델은 아래와 같다. (2021년 11월 19일 기준)

  • Image Recognition - all models
    • AlexNet
    • GoogleNet
    • GoogleNet -12
    • ResNet-18
    • ResNet-50
    • ResNet-101
    • ResNet-152
    • VGG-16
    • VGG-19
    • Inception-v4
  • Object Detection - all models
    • SDD-Mobilenet-v1
    • SDD-Mobilenet-v2
    • SDD-Mobilenet-v3
    • PedNet
    • Multipad
    • FaceNet
    • DetectNet-COCO-DOG
    • DetectNet-COCO-Bottle
    • DetectNet-COCO-chair
    • DetectNet-COCO-airPlane
  • Mono Depth - all models
    • ModoDepth-FCN-Mobilenet
    • ModoDepth-FCN-ResNet18
    • ModoDepth-FCN-ResNet50
  •   Pose Estimation - all models
    • Pose-ResNet18-Body
    • Pose-ResNet18-Hand
    • Pose-DenseNet121-Body
  • Semantic Segmentation - all
    •  FCN-ResNet18-Cityscapes-512x256
    • FCN-ResNet18-Cityscapes-1024x512
    • FCN-ResNet18-Cityscapes-2048x1024
    • FCN-ResNet18-DeepScence-576x320
    • FCN-ResNet18-DeepScence-864x480
    • FCN-ResNet18-MHP- 512x320
    • FCN-ResNet18-MHP-640x360
    • FCN-ResNet18-Pascal-VOC-320x320
    • FCN-ResNet18-Pascal-VOC-512x320
    • FCN-ResNet18-SUN-RGBD-512x480
    • ResNet18-SUN-RGBD-640x512
  • Semantic Segmentation - legacy
    • FCN-Alexnet-Cityscapes-SD
    • FCN-Alexnet-Cityscapes-HD
    • FCN-Alexnet-Aerial-FPV
    • FCN-Alexnet-Pascal-VOC
    • FCN-Alexnet-Synthia-CVPR
    • FCN-Alexnet-Synthia-Summer-SD
    • FCN-Alexnet-Synthia-Summer-HD
  • Image Processing - all models
    • Deep-Homography-COCO
    • SUper-Resolution-BSD500

  이중에서 필요한 모델을 선택해서 <OK> 또는 Enter 키를 눌러주면... 막 신나게.. 설치해준다..

설치가 끝나면 바로 PyTorch Installer 화면이 뜨는데... 영상에서는 이부분은 Skip 처리 해줬다.. PyTorch 설치가 필요하신분은 이곳에서 설치도 선택하면 설치해준다...

 

저의 경우는 어차피 처음 테스트 시도 였으며 언젠가 쓰지 않겠어? 안쓰면 말구... jetson nano 에서는 PyTorch를 마니마니 쓴데... 를 들어와서... 그냥 설치했다...

 

그 다음단계는 make 설치... 

make 에 대해서 찾아보니 프로그램 그룹을 유지하는데 필요한 유틸리티로 make유틸리티의 목적은 프로그램 그룹 중에서 어느 부분이 새롭게 컴파일되어야 하는지를 자동적으로 판단해서 필요한 커맨드(gcc따위)를 이용해서 그들을 재컴파일 시킨다고 한다..

 

여튼 필요한가보다.. 설치 GoGo

$ make

시간이 좀 걸린다... 설치 걸어놓구 다른 업무 보기 딱 좋다...

$ sudo make install

하면 이제 거의 끝이 보이는....

공유 라이브러리 캐시를 다시 설정하고..

$ sudo ldconfig

aarch64/bin 으로 이동해서 확인해보면...

$ cd aarch64/bin
$ ls

설치가 되어있는 내용을 확인할 수 있다.

이제 테스트 이미지를 이용해서 테스트 해보자..

$ ./detectnet-console.py images/peds_0.jpg output_0.jpg

결과값을 확인할수 있었다..

pi-camera를 이용해서 실시간 디텍션이 가능하다.

연결한  카메라가 잘 작동하는지 먼제 체크해보자..

$ gst-launch-1.0 nvarguscamerasrc ! nvoverlaysink

 

마지막으로.. text editer 를 열어서 my-detection.py 파일명을 home 에 save as 한뒤.... 다음 코드를 입력 저장한다..

import jetson.inference
import jetson.utils

net = jetson.inference.detectNet("ssd-mobilenet-v2", threshold=0.5)
camera = jetson.utils.videoSource("csi://0")      # '/dev/video0' for V4L2
display = jetson.utils.videoOutput("display://0") # 'my_video.mp4' for file

while display.IsStreaming():
	img = camera.Capture()
	detections = net.Detect(img)
	display.Render(img)
	display.SetStatus("Object Detection | Network {:.0f} FPS".format(net.GetNetworkFPS()))

 

저장했으면... 마지막 리얼타임 디텍팅이 되는지 테스트 해보자...

 

만약을 위해.. 파일도 공유 해본다..

my-detection.py.zip
0.00MB

위 코드의 경우... CSI 카메라를 이용할때적용되는 코드이다.. USB카메라의 경우(V4L2) 코드를 수정해주자...

 

우선 V4L2 드라이버를 설치해주고....

$ sudo apt-get install v4l-utils

연결된 USB 카메라의 디바이스 번호를 확인하는 방법은....

$ v4l2-ctl --list-devices

하여 디바이스 번호를 확인하자...

 

아래 코드는 같이 스터디를 진행한 오휴민님 께서 수정 정리해주신 코드다.. 깔끔하다...

import jetson.inference
import jetson.utils

net = jetson.inference.detectNet("ssd-mobilenet-v2", threshold=0.5)

camera = jetson.utils.gstCamera(1280, 720, "/dev/video0")	# USB camera ONLY
# camera = jetson.utils.gstCamera(1280, 720, "/dev/video1")	# CSI camera + USB camera
#camera = jetson.utils.videoSource("csi://0")			# CSI camera ONLY
display = jetson.utils.glDisplay()				# USB camera ONLY
#display = jetson.utils.videoOutput("display://0")		# CSI camera ONLY

### USB camera ###
while display.IsOpen():
	img, width, height = camera.CaptureRGBA()
	detections = net.Detect(img, width, height)
	display.RenderOnce(img, width, height)
	display.SetTitle("Object Detection | Network {:.0f} FPS".format(net.GetNetworkFPS()))

### CSI camera ###
#while display.IsStreaming():
#	img = camera.Capture()
#	detections = net.Detect(img)
#	display.Render(img)
#	display.SetStatus("Object Detection | Network {:.0f} FPS".format(net.GetNetworkFPS()))

my-detection.zip
0.00MB

마지막으로....

$ cd ~

로 이동한뒤... 

$ python3 my-detection.py

하면 실시간 디텍딩 퇴는것을 확인할 수 있다.

 

 

+ Recent posts