본문 바로가기

과목

NoSQL RDBMS 비교 https://docs.mongodb.com/manual/reference/sql-comparison/
Linux cron 리눅스 반복 예약 작업 cron은 리눅스용 작업 스케줄러다. 특정 시각에 명령어가 수행되도록 등록할 수 있다. 리눅스 클라우드 서버의 DB에 하루가 지날 때마다 insert하고 싶은 것이 있었는데 sql이나 php로 어떻게 할 수 있을까 고민하다가 이건 아니다 싶어 검색했더니 리눅스에 보란듯이 좋은 기능이 있었다. * * * * * 수행할 명령어 ┬ ┬ ┬ ┬ ┬ │ │ │ │ │ │ │ │ │ │ │ │ │ │ └───────── 요일 (0 - 6) (0:일요일, 1:월요일, 2:화요일, …, 6:토요일) │ │ │ └───────── 월 (1 - 12) │ │ └───────── 일 (1 - 31) │ └───────── 시 (0 - 23) └───────── 분 (0 - 59) 내가 하고 싶은 것은 하루가 지나는 시점에 ..
Update multiple rows in one query workout_id 칼럼을 새로 추가하고 기존에 있던 레코드들 옆에 값을 덧붙이려면 하나하나 update set query를 날리던지 아래처럼 case when then 구문을 써주면 된다. 그냥 실행하면 안전모드를 사용한다고 나온다. You are using safe update mode and you tried to update a table without a WHERE that uses a KEY column To disable safe mode, toggle the option in Preferences -> SQL Editor and reconnect. 워크벤치 상단 네비게이션 바에서 Edit->Preferences->SQL Editor->Safe Updates 해제->OK->workbench ..
텐서플로우 설치, 신경망 모델, 다층 퍼셉트론, 컨볼루션 신경망 코드 텐서플로우를 윈도우 환경에서 사용하기 위해 아나콘다(Anaconda)를 설치한다.아나콘다는 파이썬과 R을 기반으로 개발된 각종 오픈 소스 패키지들을 버전에 맞춰 자동으로 설치하고 사용할 수 있도록 하는 환경을 만들고관리하는 플랫폼이다. www.continuum.io/downloads에서 파이썬 버전 3인 아나콘다를 다운로드한다. 설치가 완료되면Anaconda prompt를 실행시키고 다음과 같이 tensorflow라는 이름의 콘다 환경을 생성한다.>conda create -n tensorflow python=3.5위 명령에 의해 tensorflow라는 콘다 환경이 사용자 폴더 아래 생긴다. 파이썬 3.5버전과 pip, setuptools, wheel, vs2015_runtime 등의 패키지가 설치된다. ..
생산자 소비자 쓰레드 Producer and Consumer Thread 라즈베리 파이에서 터미널 창 켜고 xx.c 파일 하나 만든 뒤 아래 코드 입력.gcc -o xx xx.c -pthread로 컴파일./xx 로 실행 제대로 된 쓰레드를 구현한 건지 아직 모르겠다. 아래 코드는 생산자와 소비자의 관계를 구현한 것이다. 메인함수에서는 생산자, 소비자 쓰레드를 생성해준다. 생산자는 큐가 꽉 차지 않았다면 큐에 원소를 넣고 꽉 차면 빌 때까지 기다린다(?)소비자는 큐에 있는 값을 얻어서 출력하고 큐가 비었다면 기다린다(?). #include #include #define MAX 5 int buffer[MAX]; //생성한 값을 넣는 버퍼int fill_ptr=0;int use_ptr=0;int count=0;int loops=1000; //typedef struct __int p..
Hadoop Mapreduce 개요 하둡의 분산 배치 프레임워크 상부는 MapReduce하부는 Hadoop Distribute File System 상부 하부를 합쳐 하둡. 2004년 구글의 논문 'Mapreduce 대형 클러스터에서의 단순 데이터 처리'Doug cutting : 오픈 소스 검색 엔진을 만들려고 Nutch 프로젝트를 함.검색해서 빠르게 접근하기 위해 인덱스 테이블을 잘 만들어야 함. 메타 데이터를 로컬로 가져 와야 함 -> 크롤러. 데이터를 잘 가져와서 검색한 내용을 잘 보여줘야한다. 메타 데이터는 멀쩡하지만 사이트 페이지가 사라지면 404 Error가 뜬다. 컴퓨터를 확장시키기 위해 인덱스 테이블을 매번 만들고 프로그램을 다시 짜야하는 불편이 있다. Doug cutting은 위 논문을 보고 Hadoop을 만듦. Hadoo..
빅 데이터 강의 실리콘밸리를 가라, 구글 입사 서류를 써라 크게 세가지 분야데이터 프로그래머 : 데이터 분석용 프로그램 작성 파이썬 자바 스칼라 사용데이터 분석가 : 데이터 마이닝, 인공지능, 통계학. 데이터 타입(수치형, 카테고리) 어떤 알고리즘을 적용하는 것이 맞는지 방법론 구성데이터 아키텍트 : 데이터 분석을 위해 어떤 구조를 쓸 것인가. 하둡, 스파크를 알아야 함. 빅데이터에서는 RDBMS 포맷을 쓰지 않음 Nosql Hbase 카산드라 사용함. 세가지 분야를 다 할 줄 알면 데이터 사이언티스트.보통 데이터 프로그래머와 분석가를 분리하지 않음. 빅 데이터의 이해2007년부터 데이터 생산량이 저장 공간을 넘어섬. 기존의 데이터를 삭제해야할 시기가 옴. 이 데이터를 분석 관리하기 위해 하둡이 나오기 시작함. 뉴칼라 ..
MongoDB Aggregation aggregation(집계) 연산은 데이터 records를 처리하고 계산된 결과를 반환한다. aggregation 연산은 여러 document의 값을 그룹화하고 그룹화된 데이터에서 다양한 연산을 수행하고 하나의 결과를 반환한다. SQL count(*)와 group by를 사용하면 mongoDB aggregation과 동일하다. 집계를 위해서 aggregate() 메서드를 사용한다. db.collection_name.aggregate(aggregate_option) collection에서 다음의 데이터를 가진다고 하자.{ _id: ObjectId(7df78ad8902c) title: 'MongoDB Overview', description: 'MongoDB is no sql database', by_use..