💎목차

✔️인증의 정의

✔️세션과 토큰의 차이점

✔️API를 인증하는 여러 방법들


인증(Authentication)

인증 - 사용자의 개인정보를 사용하여 사용자가 누구인지를 판단

인가 - 사용자가 어떤 일을 할 수 있는지,어떤 권한을 갖고 있는지를 판단

사용자의 개인정보(아이디나 비밀번호)를 직접 인증에 사용하거나 인증을 위해 주고받는 방법은 정보 노출의 위험이 있어서 잘 사용하지 않는다. 대신 사용자의 개인정보를 인코딩 하거나, 해쉬 알고리즘을 통해 암호화한 뒤 이 정보를 주고받을 수는 있다. 


암호화에는 여러 가지 방법이 있다. Base64 인코딩을 거친 정보를 암호화하는 방법도 있고, 클라이언트와 서버만 아는 난수를 생성한 뒤 이를 해쉬 알고리즘에 넣어서 암호화하는 방법도 있다. 

 

그럼 암호화한 정보를 어떻게 사용할까? 클라이언트가 매번 서버에 리소스를 요청할 때마다 암호화를 통해 인증을 하는 것은 매우 번거롭고 시간도 오래 걸린다. 보통은 로그인 등으로 한 번 인증 절차를 거치면 일정 기간동안은 별도의 인증 절차 없이 리소스에 접근할 수 있도록 되어 있다. 

 

이처럼 사용자가 이미 인증 절차를 거쳤음을 증명하는 데 사용하는 것이 세션(session), 토큰(token) 등의 개념이다. 

 

세션과 토큰

토큰과 세션은 모두 사용자를 일정 기간동안 유효하게 인증하는 데 사용하는 방식인데, 인증하는 방식에 따라서 차이가 있다. 예전에는 세션을 많이 사용했다면 요즘은 세션의 단점을 보완한 토큰을 더 많이 사용하는 추세이고, 그 중에서도 json 형식으로 되어있는 JWT(json web token)를 많이 사용한다. JWT에 대해서는 뒤 부분에서 구체적으로 다뤄 보자. 

 

🌟JWT와 세션의 차이

JWT가 활성화되기 전에는 세션을 통한 인증이 활발했으나, 세션은 요청할 때 인증을 위해서 DB를 탐색해야 하는 단점이 있었다. 세션 관련 정보는 DB에 저장되었기 때문이다. 
물론 캐시(cache memory)를 이용해서 세션 정보를 브라우저에 임시로 저장할 수 있긴 하지만, 만료되거나 신규 요청이 들어오면 결국 DB를 탐색해야 했다. 
만약 세션 정보를 저장하는 DB가 분산되어 있다면 각각의 DB를 탐색해야 하는데, 이는 규모가 커질 경우 과정이 복잡해질 수도 있었다. (물론 요즘은 세션을 백엔드에서 편리하게 관리해 주는 프레임워크도 있다.)

JWT는 이런 세션의 단점을 보완한다. 

대략적인 인증 과정은 비슷하다.

클라이언트가 인증 요청을 하고, 서버가 인증을 처리하고 세션이나 JWT를 생성하면 이때 생성한 정보를 만료되기 전까지 일어나는 모든 인증에 사용하는 방식이다.

그러나 세션은 인증 정보를 DB에 저장하지만 JWT는 인증 정보를 클라이언트에 전달하고, 클라이언트가 브라우저에 JWT 토큰을 임시 메모리 형태로 저장한다. 

 

그렇다면 클라이언트가 API에 대해서 인증 요청을 할 때, 토큰을 어떻게 생성하고 인증할까? 

 

🌟API에서 토큰을 생성 및 인증하는 방법

순서

1. 사용자의 개인정보를 이용하여 사용자가 맞는지 판단하고(로그인), 사용자가 맞다면 토큰을 발급한다. 

2. 발급한 토큰은 API 접근 토큰 테이블에 등록된다. 

3. 사용자가 인증이 필요한 API를 요청할 경우, 서버는 사용자가 API 토큰이 있는지, 그리고 토큰이 유효한지(위조된 토큰인지, 유효 기간이 지났는지 등)를 확인해서 토큰이 유효하다면 사용자에게 API나 리소스를 제공한다. 

장점

API 토큰을 주고받는 중 해킹이 일어나도 사용자의 개인정보는 탈취되지 않는다. 토큰은 사용자의 정보와는 관계없는 임의의 문자열이기 때문이다. 

API 토큰 인증의 세부 방법(여러가지가 있음)

 

🌟Base 64 인코딩

클라이언트가 처음에 사용자가 맞는지를 개인정보로 인증할 때, 당연히 그 개인정보를 '직접' 보내지는 않는다. 
클라이언트는 자신의 개인정보를 Base64 인코딩을 거친 뒤, 토큰에 넣어서 서버에게 인증 요청을 보낸다. 그러면 서버가 그 정보를 바탕으로 사용자를 인증한다. 

다만 Base64는 별도의 키 값이 없기 때문에 인코딩한 문자열을 그대로 디코딩할 수 있다. 따라서 이 방법을 쓰려면 반드시 HTTPS 프로토콜을 이용해야 한다. 
안 그러면 해커가 중간에서 정보를 탈취할 수 있고, 탈취한 정보를 그대로 디코딩하면 사용자의 정보가 그대로 노출된다. 

🌟Digest Access Authentication

Base64의 단점을 보완한다. 
클라이언트가 서버에게 인증을 요청할 때, 서버는 클라이언트에게 임의의 난수 값을 준다. 
클라이언트는 이 난수 값을 해쉬 함수의 키 등으로 이용하여, 암호화한 결과를 토큰에 실어서 서버로 전송한다. 

이 경우 토큰 안에 일반 문자열(평문)으로 정보가 담겨 있지 않다. 또한 해커가 인증에 사용된 해쉬 알고리즘을 안다고 하더라도, 난수 키를 모르기 때문에 해시된 값에서 반대로 개인정보를 추출해 내기가 더 어렵다. 

 

📋인증 범위(Realm)

여러 API에 대해서 인증 범위(realm)을 다르게 설정할 수 있다. 
realm은 보호되는 영역인데, API 전체를 부분적으로 나눠서 다른 realm에 위치시킬 수 있다. 
realm을 사용하면 서버가 보호하고 있는 API를 여러 영역으로 나눌 수 있고, 각 영역(realm)마다 요구되는 정보(사용자 이름이나 비밀번호)를 다르게 지정할 수 있다. 

예를 들면 project APIA realm, homework APIB realm에 위치시킨다고 해 보자.
만약 클라이언트가 project API에 대해 인증을 요청한다면, 서버는 사용자가 A 영역(realm)에 접근을 시도했다고 보고 그에 맞는 개인정보를 받아 사용자가 맞는지 판단한다. 
반면 클라이언트가 homework API에 대해 인증을 요청한다면, 서버는 사용자가 B 영역(realm)에 접근을 시도했다고 보고 A영역과는 다른 개인정보를 받아 사용자가 맞는지 판단한다. 

만약 project API와 homework API가 모두 같은 A realm에 위치해 있었다면, 클라이언트가 project, homework API에 대해 각각 인증을 요청할 때 서버는 사용자가 모두 A 영역에 접근을 시도했다고 보고, 토큰을 발급하는 데 같은 정보를 사용했을 것이다. 

realm이 다르다는 것은 클라이언트가 각각 여러 API에 인증 요청을 보낼 때, 클라이언트는 각각 다른 정보를 사용하여 다른 유저로 인증될 수 있다는 의미이다. 

🌟화이트 리스트

API를 호출하는 클라이언트의 API가 일정할 때, 클라이언트가 고정 IP를 사용할 때 사용할 수 있다. 

서버는 특정 API URL에 대해서 들어오는 IP 주소를 화이트 리스트로 유지할 수 있다. 

 

화이트 리스트

기본 정책이 모두 차단인 상황에서 예외적으로 접근이 가능한 대상을 지정하는 방식이다. 
화이트 리스트에 등록된 IP가 아니면 모두 접근을 허용하지 않고, 화이트 리스트에 등록된 IP에 대해서만 인증 절차를 거쳐서 접근이 가능하도록 배치한다. 

 

🌟Oauth

제 3자 인증 방식 중 하나이다. 소셜로그인이 대표적인 예시이다. 
사용자 A가 웹 서비스 B의 리소스(API 등)에 접근하기 위해서, 다른 API 서비스 제공자 C(구글, 페이스북 등 소셜로그인이 가능한 서비스들)에게 인증 요청을 보낸다. 
A가 알맞은 정보로 인증하면, C는 A에게 유효기간이 있는 액세스 토큰을 지급한다. 
그러면 A는 C에게서 받은 토큰을 가지고 B의 리소스를 이용할 수 있다. 

🌟JWT(Json Web Token)

웹에서 토큰을 보낼 때 json 형식으로 주고 받는 토큰이다.

JWT는 claim 기반을 사용한다. claim(클레임)이란 유저의 속성을 의미하는데, 말 그대로 토큰 자체에 유저에 대한 정보가 포함되어 있다. 
이와 달리 Oauth는 토큰에 아무 의미가 없는 랜덤 문자열을 넣는다. 

따라서 JWT 토큰을 발급하면 토큰 내에는 사용자 정보가 포함되기 때문에(정확히는 Base64로 인코딩한 정보가 포함) 서버가 사용자의 정보를 다른 곳에서 추가로 찾거나 가져오지 않아도 된다는 장점이 있다.

반면 토큰 내에 모든 정보가 들어 있기 때문에, 토큰을 잘못 발행했어도 중간에 수정할 수 없다.

따라서 JWT 토큰에는 꼭 유효 기간을 지정해야 하고, 중간마다 리프레시 토큰으로 토큰을 재발행 해야 한다.

뿐만 아니라 토큰은 Base64 인코딩만 된 상태이기 때문에 중간에 누군가가 가로챌 경우 사용자의 정보가 노출될 수 있다.

이런 경우엔 토큰 자체를 암호화하는 JWE를 사용하기도 한다. JWT는 JWE 등으로 암호화를 하더라도, 복호화가 가능하다. 

 

☑️JWT 토큰의 구조

크게 세 가지 영역: 헤더(Header), 페이로드(Payload), 시그니처(Signature)로 나뉜다. 

 

토큰 예시: hhhhh.ppppp.sssss

 

1. Header(헤더)

토큰의 메타 정보가 담겨져 있다. 

어떤 방식으로 인코딩 되었는지, 토큰이 어떤 타입(JWT, Oauth 등)인지 등을 json 방식으로 작성한 뒤 해당 방식에 맞춰서 인코딩한다. 

2. Payload(페이로드)

사용자의 정보, 토큰의 만료 시간 등이 담겨져 있다. 

이때 사용자의 정보는 id 등 사용자를 특정할 수 있는 정보이다. (유저의 아주 중요한 정보(주민번호 등)가 담기진 않았지만, 하나의 유저를 특정할 수 있는 정보가 들어 있다.)

3. Signature(시그니처)

변조 문제를 해결하기 위한 영역이다. 

시그니처 영역을 만들기 위해서는 인코딩 된 헤더, 인코딩 된 페이로드, 그리고 secret_key(장고 프로젝트마다 사용되는 값) 값이 필요하다. 

시그니처는 이 세 값을 합친 뒤, 헤더에 지정한 알고리즘으로 해싱한다. 

그러므로 하나라도 값과 다르다면 결과값이 달라진다. 

☑️실제 인증하는 과정

기존에 만들어진 JWT 토큰은 브라우저에 캐시 형태로 저장되어 있다. 클라이언트가 서버에 특정 리소스에 대해서 인증을 요청한다고 하자. 

 

그러면 [클라이언트가 요청과 함께 보낸 토큰의 시그니처 값] == ([토큰 헤더 인코딩한 값] + [토큰 페이로드 인코딩한 값] + [장고 각 프젝마다 있는 secret_key 값])=>해시 알고리즘 적용

 

이 두 값이 같은지를 비교해서, 같다면 사용자 인증을 허가한다. 

 

 

참고한 포스트

https://dongwooklee96.github.io/post/2021/03/28/rest-api-%EB%B3%B4%EC%95%88-%EB%B0%8F-%EC%9D%B8%EC%A6%9D-%EB%B0%A9%EC%8B%9D/
https://hamait.tistory.com/416
https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/WWW-Authenticate
https://www.qu3vipon.com/django-jwt

 

'server-side > server' 카테고리의 다른 글

Mac 환경설정  (0) 2024.07.15
Software Release Life Cycle  (0) 2023.07.15
OAuth 2.0 기본원리  (0) 2022.09.26
linux: cron 사용해서 자동으로 스케줄 실행하기  (0) 2022.07.09
Git: clone, single-branch, checkout  (0) 2022.06.28

데이터베이스 성능을 효율적으로 관리하는 방법 중 하나로 '서브쿼리는 조인(join)으로 작성해라'는 말을 들은 적이 있다. 서브쿼리(sub-query)란 기존에 날린 쿼리의 캐시 데이터를 사용하는 또 다른 쿼리인데, 이런 서브 쿼리를 작성할 때는 join을 사용하라는 의미이다. 

 

join을 사용하지 않으면 작성자는 기존에 만든 쿼리의 데이터(캐시 메모리)를 이용해서 쿼리를 만드려고 했지만, 실제로는 데이터베이스에 또 다른 쿼리를 날리게 된다. 즉 한 번 날릴 수 있는 쿼리를 두 번 날리게 되므로 자원을 낭비하는 셈이다. 

 

select_related()prefetch_related() 모두 장고 ORM에서 데이터베이스에 접근할 때 사용하는 메소드이다. 또한 join을 사용해서 데이터를 합하고, 쿼리셋(QuerySet)을 리턴한다는 점에서 비슷하다. 하지만 두 메소드는 엄연히 다르다. 둘의 차이점에 대해서 알아보자. 

 

공통점

1. 장고 ORM에서 데이터베이스에 접근할 때 사용하는 메소드

2. 결과가 합해진 쿼리셋을 리턴

 

✅개별 특징 - select_related()

✔️사용 방법

사용하려는 모델[A]이 다른 모델[B]을 외래키(ForeignKey)로 참조하고 있을 때 사용한다. 

select_related('참조하는 외래키 필드명')

A의 데이터를 불러오는 쿼리를 작성할 때, A가 참조하는 외래키인 B의 데이터도 같이 캐시 데이터로 불러온다. 그러면 나중에 해당 데이터에서 외래키 정보를 사용해야 할 때, 추가로 DB에 쿼리를 날리지 않아도 된다. 

 

예시를 보자. 

# models.py
class Person(models.Model):
	name = models.CharField()
	age = models.IntegerField()
	home = models.ForeignKey(Home, on_delete=models.CASCADE)
    
class Home(models.Model):
	address = models.CharField()
# ORM query without select_related
p = Person.objects.get(id=22)
h = p.home
# ORM query with select_related
p = Person.objects.get(id=22).select_related('home')
h = p.home

select_related()를 사용하지 않은 경우, 해당 객체의 외래키에 대한 캐시 데이터가 없으므로 p 객체의 home 속성을 조회할 때 한번 더 데이터베이스로 쿼리를 날리게 된다. 

 

그러나 select_related()를 사용할 경우, p 객체를 불러올 때 이미 해당 객체의 외래키 데이터도 캐시 데이터로 불러온다. 따라서 데이터베이스에 쿼리를 날리지 않고 이미 불러온 데이터를 사용할 수 있다. 

 

✔️외래키 관계

외래키로 엮인 두 모델은 one-to-one, many-to-one, many-to-many 셋 중 하나의 관계를 갖는다. 

select_related()의 경우, many-to-many 관계인 모델의 데이터는 불러올 수 없다. select_related()는 SQL 쿼리에서 JOIN 문을 사용해서 해당 모델이 참조하는 다른 모델의 컬럼 데이터들을 불러오는데, many-to-many 관계인 모델의 데이터까지 불러오게 된다면 SQL 쿼리로 불러오는 결과 데이터 양이 너무 많아질 수 있기 때문이다. 따라서 one-to-one 관계나 many-to-one(해당 모델이 many 쪽) 관계로 참조하는 모델 데이터만 불러올 수 있다. 

 

✔️이중 참조

A가 참조하는 모델[B]이 참조하는 또 다른 모델[C]의 데이터를 가져오는 것도 가능하다. 

 

예시를 보자. 

# models.py
class Menu(models.Model):
	name = models.CharField()

class Dessert(models.Model):
	name = models.CharField()
	dessertType = models.ForeignKey(Menu, on_delete=models.CASCADE)
    
class Chocolate(models.Model):
	name = models.CharField()
	chocolateType = models.ForeignKey(Dessert, on_delete=models.CASCADE)
# ORM query
c1 = Chocolate.objects.filter(name__contains='white').select_related('chocolateType__dessertType')

c1 객체에는 name에 white를 포함한 Chocolate 객체들의 데이터가 포함되고, 해당 객체들의 chocolateType 필드가 참조하는 Dessert 객체들의 데이터와, 해당 객체들의 dessertType 필드가 참조하는 Menu 객체들의 데이터까지 포함되게 된다. 

 

✅개별 특징 - prefetch_related()

select_related()와 달리 many-to-many, many-to-one의 관계인 모델의 데이터도 가져올 수 있다. 

prefetch_related('참조하는 외래키 필드명')

 

다음 예시를 보자. Student과 Course는 many-to-many 관계이다. 

# models.py
class Course(models.Model):
	id = models.IntegerField()
	name = models.CharField()
    
class Student(models.Model):
	name = models.CharField()
	course = models.ManyToManyField(Course)
# ORM query
student = Student.objects.prefetch_related('course')

해당 쿼리는 Student 전체의 데이터와 함께, 개별 student 객체가 참조하는 Course 객체에 대한 데이터도 캐시 데이터로 같이 불러온다. 

 

prefetch_related()를 사용하지 않는다면 총 db에 등록된 students 객체 수 만큼의 쿼리가 실행되어야 할 것이다. 그러나 prefetch_related()를 사용하면 총 두 번의 쿼리로 같은 작업을 할 수 있다. 

 

✔️외래키 관계

prefetch_related()는 select_related()와 마찬가지로 이중 참조가 가능하다. select_related()에서 작성한 방법과 같은 방식으로 쿼리를 작성하면 된다. 

 

✔️사용할 수 없는 경우

prefetch_related()를 사용해서 기존 모델이 참조하는 다른 모델의 데이터를 가져왔지만, 가져온 데이터를 사용할 수 없는 경우도 있으니 주의하자. 

 

1. 가져온 데이터셋에 추가 메소드를 적용하였을 경우

student = Student.objects.prefetch_related('course')
student = students.filter(name__contains='Kim')		# 기존 prefetched 데이터 변경

students 변수에는 prefetch_related()를 사용해서 외래키 모델에 대한 데이터까지 저장되어 있었다. 그러나 추가로 filter() 메소드를 사용하면서 데이터가 변경되었다. 기존의 데이터에 추가 메소드를 적용한 경우, 장고에서는 추가로 메소드를 적용한 students.filter() 쿼리셋을 아예 다른 쿼리셋으로 인식한다. 

따라서 새 students 쿼리셋에는 prefetch로 불러왔다고 생각했던 데이터가 없는 상태이다. 

 

2. 기존 DB의 데이터가 변경되었을 경우

student = Student.objects.prefetch_related('course')
Student.objects.create(
	# code
)

기존 student 객체에는 prefetch_related()로 불러온 캐시 데이터가 있었으나, 이를 사용하기 전에 create, delete, update 등으로 기존 데이터가 변경되었다. 이렇게 DB 데이터가 변경된 경우, 기존에 저장되었던 캐시 데이터는 삭제되어서 이용할 수 없다. 

 

⚠️차이점 1 - 사용 가능한 외래키 참조 관계

외래키로 엮인 두 모델은 one-to-one, many-to-one, many-to-many 셋 중 하나의 관계를 갖는다. 

select_related()의 경우, one-to-one, many-to-one(해당 모델이 many 쪽) 관계인 모델의 데이터만 불러올 수 있다. (many-to-many 관계는 불러올 수 없다!)

반면 prefetch_related()의 경우, 참조 관계에 상관 없이 참조하는 모든 모델의 데이터를 불러올 수 있다. 

 

⚠️차이점 2 - JOIN 방식

select_related()는 DB에 엑세스할 때 변환되는 SQL 쿼리에서 JOIN문을 생성하고, 참조하는 모델의 다른 필드들을 SELECT문에 추가하는 방식으로 참조하는 다른 모델의 데이터를 가져온다. 그렇기 때문에 한 번에 너무 많은 데이터를 가져올 수 없어서 one-to-one 관계에만 사용하도록 제한된다. 

 

반면 prefetch_related()는 개별적으로 SQL 쿼리를 날린다. 그리고 DB에서 가져온 쿼리셋을 파이썬에서 합한다. 개별 쿼리에서 JOIN이 발생하지 않기 때문에, 한 번에 적은 데이터를 가져오지 않아도 된다. 따라서 many-to-many, many-to-one 관계에도 적용할 수 있다.

 

두 메소드 모두 JOIN 과정이 발생한다. select_related()는 SQL 쿼리에서 JOIN을 통해 데이터를 가져오고, prefetch_related()는 개별 쿼리로 데이터를 가져온 뒤 파이썬에서 별도의 JOIN 과정을 통해 데이터를 합한다. 즉 JOIN 과정이 언제 일어나는지의 차이가 있다. 

 

 

참고한 포스트

QuerySet API reference | Django documentation | Django (djangoproject.com)

Django에서 DB 액세스 최적화하기 – Myungseo Kang

MySQL 쓰면서 하지 말아야 할 것 17가지 – Lael's World

 

'server-side > Django' 카테고리의 다른 글

python - poetry 사용하기  (0) 2023.07.12
signals  (0) 2023.06.21
Model.objects.filter() vs Model.objects.get()  (0) 2022.07.11
models: on_delete  (0) 2022.07.05
admin: Inline, InlineModelAdmin  (0) 2022.07.02

Model.objects.get()Model.objects.filter() 모두 장고와 연결된 데이터베이스에서 조건에 맞는 데이터를 리턴하고 싶을 때 사용한다. 그러나 두 메소드는 엄연한 차이가 있다. 

 

쿼리셋(QuerySet)

둘의 차이를 이해하기 위해서는 쿼리셋이 무엇인지를 먼저 알아봐야 한다. 

쿼리셋(Queryset)이란 장고와 연결된 데이터베이스에 저장된 객체들의 모임을 의미한다. 쿼리셋은 SQL문으로 치면 SELECT문과 같다. 여기에 WHERE, LIMIT 등의 여러 필터를 사용해서 원하는 데이터만 포함한 쿼리셋을 만들 수 있다. 

+ 앞으로 '쿼리를 날린다'는 표현을 사용할 건데, '쿼리를 날린다' = '데이터베이스에 연결한다' 라고 보면 된다. 

 

쿼리셋과 데이터베이스 접근은 다르다. (Querysets are lazy)

기본적으로 쿼리셋은 메모리의 일종인 캐시(cache)를 사용해서 데이터베이스에 접근을 최소화 하려고 한다. 따라서 만약 어떤 메소드가 쿼리셋을 리턴하고 그 리턴된 쿼리셋이 캐시 메모리를 포함한다면, 나중에 같은 정보가 필요할 때 기존에 리턴된 쿼리셋을 사용할 수 있다. 

 

쿼리셋이 만들어지거나 쿼리셋에 추가적인 필터 메소드를 적용한다고 해서 항상 데이터베이스에 쿼리를 날리는 것이 아니다. 쿼리셋이 만들어진 이후, 쿼리셋을 계산(evaluate)하는 메소드가 실행되면 그 때 쿼리를 날리게 된다. 

 

쿼리셋을 계산하는 메소드

이 메소드를 사용할 때는 데이터베이스에 쿼리를 날리게 된다. 

  • 반복
  • (인덱스 기반의) 슬라이싱
  • 피클링/캐싱
  • 쿼리셋을 출력할 수 있는 문자열로 반환: repr()
  • 쿼리셋의 객체 수(길이) 리턴: len()
  • 쿼리셋을 리스트 타입으로 변경: list()
  • 쿼리셋 안에 객체가 존재하는지 판단: bool()

 

get()filter()의 차이

🌟SQL 쿼리의 차이

장고 내부에서 생성된 쿼리셋을 계산할 때는 데이터베이스에 쿼리를 날려야 한다. 즉 쿼리 메소드는 SQL문으로 변환될 수 있다. filter() 메소드의 경우 다음과 같이 변환될 수 있다. 

 

- ORM

Restaurant.objects.filter(name="seoul")

- SQL

SELECT 'id', 'name', 'category', 'email', 'menu'
FROM 'restaurant' WHERE 'restaurant'.'name' = 'seoul'

 

그러나 get() 메소드의 경우는 filter() 메소드와 달리 별다른 SQL 메소드로 변환될 수 없다. 

대신 filter() 메소드에 부가적인 처리를 해서 나타낼 수 있다. 

 

-ORM

Restaurant.objects.get(name='seoul')

-Code

rest = Restaurant.objects.filter(name='seoul')

if len(rest) == 1:
	return rest[0]
else:
	raise Exception

즉 get() 메소드는 filter() 메소드에 부가적인 처리를 한 결과를 리턴한다. 그러므로 같은 코드를 실행해도 filter()의 속도가 get()보다 빠르다.

 

뿐만 아니라, 인덱싱(rest[0])의 경우 쿼리셋에 해당하는 인덱스가 없다면 오류를 발생시킨다. 따라서 filter()는 조건에 해당하는 데이터의 개수에 상관 없이 결과를 리턴하지만, get()은 조건에 해당하는 데이터가 1개가 아닌 이상 오류를 반환한다. 

 

그러므로 get()은 반드시 한 개의 데이터만 리턴하고, 하나가 아니면 오류를 발생시킬 때만 사용하는 것이 더 효율적이라고 볼 수 있겠다! 

 

🌟쿼리셋을 리턴한다 vs 리턴하지 않는다

쿼리셋을 리턴하지 않는 메소드의 경우, 쿼리셋이 없기 때문에 캐시도 갖고 있지 않다. 그렇기 때문에 이 메소드들은 한 번 호출될 때마다 데이터베이스에 쿼리를 날리게 된다. get()은 쿼리셋을 리턴하지 않는 메소드들 중 하나이다. 

반면 filter()는 쿼리셋을 리턴한다. 따라서 filter()를 사용한다고 바로 쿼리를 날리는 것이 아니다. 그래서 메소드를 여러 번 사용할 경우, get() 보다는 filter()가 더 빠르다. 

 

Project라는 모델이 있다고 가정할 때, 아래의 두 코드의 성능은 다르다. 

# get()
p1 = Project.objects.get(id=1)
print(p1)
p2 = Project.objects.get(id=2)
print(p2)
p3 = Project.objects.get(id=3)
print(p3)
p4 = Project.objects.get(id=4)
print(p4)
# filter()
proj = Project.objects.filter(id__lte=4)
for p in proj:
	print(p)

위의 코드는 get을 사용하여 총 4번 데이터베이스에 쿼리를 날리지만, 아래 코드는 filter()를 사용해 쿼리셋을 생성하고, for문을 사용해서 쿼리셋 안의 객체를 문자열로 출력할 때만 데이터베이스에 쿼리를 날린다. 

 

따라서 순서(ordering)가 별 상관이 없다면, get()을 여러 번 사용하는 것 보다는 filter()를 사용해서 적합한 쿼리셋을 생성한 뒤, for문 등을 이용해서 데이터베이스 접근을 최소화하는 것이 더 성능이 좋다. 

 

🌟여러 개의 데이터를 포함할 수 있다 vs 하나의 데이터만 포함한다

또한 filter()는 쿼리셋을 리턴하기에 여러 개의 데이터를 쿼리셋으로 받을 수 있지만, get()은 하나의 데이터만 받을 수 있다. 만약 get() 실행 시 해당하는 데이터가 없다면 Model.DoesNotExist 에러가 발생하고, 또는 해당하는 데이터가 여러 개라면 Model.MultipleObjectsReturned 에러가 발생한다. 또한 해당하는 데이터가 여러 개인 경우, 오류가 발생하기 전에 쿼리의 실행 속도가 상당히 느려지기도 한다. 

 

따라서 get()을 사용해야 한다면 반드시 unique한 컬럼명 또는 인덱스 컬럼명, primary key 등을 사용해서 해당하는 데이터가 여러 개 나오지 않도록 주의하자. 

 

 

참고한 포스트

Django에서 DB 액세스 최적화하기 – Myungseo Kang

QuerySet API reference | Django 문서 | Django (djangoproject.com)

Making queries | Django documentation | Django (djangoproject.com)

django - filter().exists(), Q() 객체, F() 객체 (velog.io)

 

'server-side > Django' 카테고리의 다른 글

signals  (0) 2023.06.21
Model.select_related() vs Model.prefetch_related()  (0) 2022.07.11
models: on_delete  (0) 2022.07.05
admin: Inline, InlineModelAdmin  (0) 2022.07.02
conda 사용해서 가상환경 만들기  (0) 2022.06.29

Cron이란?

지정된 시간에 지정한 업무를 해 주는 프로그램으로, 주로 리눅스 운영체제에서 많이 사용한다. 

cron에 등록된 업무들은 cron 디렉토리 내부의 파일에 저장된다.

 

cron 디렉토리

/var/spool/cron/crontabs 또는 /var/spool/cron/

 

그러나 cron으로 등록된 업무를 추가, 수정 및 변경하고 싶다면 직접 파일을 변경해서는 안 된다. 터미널에서 crontab 이라는 명령어를 사용해서 변경하자. 

 

 

cron 파일의 구성

cron 파일은 명령어, 환경설정, 주석 이렇게 세 종류의 라인으로 구분된다. 

 

cron 스케줄링

cron에 업무를 등록해서 수행하게 하려면, 어떤 시간에 어떤 업무를 수행할지 알려주어야 한다. 

{분 시간 일 월 요일} {수행할 업무가 저장된 파일 경로}

 

분, 시간, 일, 월, 요일은 모두 숫자로 작성하고, 파일 경로는 해당 cron shell의 경로에서 상대 경로로 입력한다. 

- 분: 0-59

- 시간: 0-23

- 일: 1-31

- 월: 1-12

- 요일: 0-7 (일요일이 0 또는 7이다)

 

-,를 사용해서 각 필드를 연속된 값, 또는 각각 떨어진 값들로 지정하는 것도 가능하다. 

0 0 1,2 * *		# 매월 1일과 2일 정각에 실행
0 0 * * 1-3		# 매주 월, 화, 수 정각에 실행

 

매번 진행하다 보면 cron 실행 시간이 유효하지 않을 수 있다. 

ex) 매월 31일에 실행했을 때, 6월 31일은 없다. 

이 경우, 유효하지 않은 경우는 업무를 진행하지 않는다. 

즉 매월 31일에 실행한다고 입력하면 실제로는 2, 4, 6, 9, 11월에는 업무가 실행되지 않는다. 

 

crontab 명령어 사용법

1) 변경

해당 명령어 뒤에 변경할 내용을 입력하면 그대로 변경된다. 

$ crontab -e

2) 현재 명령어 보기

cron에 등록된 명령들을 변경하지 않고 조회만 할 수 있다. 

$ crontab -l

3) 삭제

현재 접속한 유저 계정으로 등록된 모든 cron 명령들을 삭제한다. 

$ crontab -r

4) (root 유저로 접속 시) 다른 유저의 crontab 업무 변경/조회/삭제

$ crontab -u certainUser -e		# 변경
$ crontab -u certainUser -l		# 조회
$ crontab -u certainUser -r		# 삭제

 

cron 주석(comment)

여느 프로그래밍 언어처럼 cron 파일에도 부가적인 설명 등을 추가할 수 있는 주석 기능이 있다. 

주석은 라인 단위로만 달 수 있고, 라인 중간부터 주석을 선언하는 것은 불가능하다. 

주석을 달려면 해당 라인의 첫 문자를 # 으로 시작하면 된다. 

 

cron 환경설정

cron 프로그램의 실행에 관여하는 환경변수를 설정하거나, 기존 환경변수의 값을 바꿀 수 있다. 

cron 파일은 위에서부터 아래로 읽기 때문에, 처음부터 어떤 변수를 특정 값으로 정해 두고 싶다면 해당 환경설정 명령어를 맨 윗 줄에 위치시키면 된다. 

 

✔️SHELL

cron 프로그램이 작동하는 shell의 위치를 저장한 변수이며, 기본값은 /bin/sh 으로 설정되어 있다. 

$ SHELL = /bin/sh

 

✔️MAILTO

cron 프로그램은 등록한 작업을 수행하면 기본값으로 해당 작업을 등록한 유저의 계정으로 메일을 보내도록 되어 있다. 

MAILTO = {해당 유저의 메일 주소}로 되어 있다. 

만약 메일을 받고 싶지 않다면 MAILTO = "" 으로 바꿔 주자. 

 

그런데 메일을 안 받으면 수행된 cron 작업에 대한 메시지는 저장되지 않고 사라진다. 

따라서 다른 방법을 사용하는 것이 일반적이다. 

 

1. cron 업무 기록을 파일에 저장하기

(1) overwrite - 덮어쓰기

{cron 작업 내용} echo "메시지" > 저장할 파일명.log

0 * * * * echo "Hourly message." > message.log

해당 파일의 내용을 덮어쓴다. 해당 cron 업무가 이후에 또 수행되면, 해당 파일의 내용을 새 기록으로 대체한다. 

따라서 cron 업무 내용을 누적해서 기록하고 싶다면 덮어쓰기보다는 이어서 쓰는 것이 좋다. 

 

(2) append - 이어쓰기

{cron 작업 내용} echo "메시지" >> 저장할 파일명.log

0 * * * * echo "Hourly message." >> message.log

 

2. cron 업무 중 오류가 난 경우만 파일에 저장하기

{cron 업무 내용} > /dev/null

/dev/null 은 특정 경로라기보다는 리눅스 운영체제에만 있는 특별한 종류의 파일이다. 해당 파일에 기록된 내용은 기록된 즉시 바로 삭제된다. 그러므로 사용자는 오류가 난 경우가 아니면 알림이나 기록을 받지 않을 수 있다. 

 

 

참고한 포스트

Working with Cron Jobs - HostDime Knowledge Base

 

'server-side > server' 카테고리의 다른 글

Mac 환경설정  (0) 2024.07.15
Software Release Life Cycle  (0) 2023.07.15
OAuth 2.0 기본원리  (0) 2022.09.26
인증(Authentication)  (0) 2022.07.14
Git: clone, single-branch, checkout  (0) 2022.06.28

models.ForeignKey(on_delete={})

models.ForeignKey(참조할 모델, on_delete={참조하는 인스턴스가 삭제될 시 해당 인스턴스를 처리하는 방법})

on_delete 옵션은 해당 인스턴스가 참조하는 인스턴스가 삭제되었을 시, 해당 인스턴스를 어떻게 처리할지를 지정한다. 

 

1) models.CASCADE

해당 인스턴스가 참조하는 인스턴스가 삭제된 경우, 해당 인스턴스도 같이 삭제한다. 

 

2) models.PROTECT

해당 인스턴스가 참조하는 인스턴스를 삭제하려고 할 때 ProtectedError를 발생시킨다. 

 

3) models.RESTRICT

해당 인스턴스가 참조하는 인스턴스를 삭제하려고 할 때 RestrictedError를 발생시킨다. 

 

두 옵션 모두 에러를 발생시키지만 서로 다르다. 

 

 

🗒️PROTECT와 RESTRICT 옵션의 차이점

해당 인스턴스 A, 해당 인스턴스가 참조하는 인스턴스 B, B가 참조하는 또 다른 인스턴스 C라고 하자.

이때 A는 B, B는 C 인스턴스를 참조하므로, A와 B는 ForeignKey 필드를 갖고 있다. 

 

[1] on_delete=PROTECT 인 경우

A는 on_delete=PROTECT, B는 on_delete=CASCADE라고 해 보자. 

 

B를 삭제하려고 한다면 A의 on_delete=PROTECT 옵션 때문에 B가 삭제되지 않고 ProtectedError가 발생한다. 

C를 삭제한다면, B는 on_delete=CASCADE 이므로 원래는 같이 삭제되어야 한다. 

그러나 B를 참조하는 A는 on_delete=PROTECT 이므로 B는 삭제될 수 없다. 

따라서 C를 삭제하려고 해도 ProtectedError가 발생한다. 

 

[2] on_delete=RESTRICT 인 경우

A는 on_delete=RESTRICT, B는 on_delete=CASCADE라고 해 보자. 

 

B를 삭제하려고 한다면 A의 on_delete=RESTRICT 옵션 때문에 B가 삭제되지 않고 RestrictedError가 발생한다.

C를 삭제한다면, B는 on_delete=CASCADE 이므로 같이 삭제된다. 

즉 RESTRICT 옵션은 직접적으로 B를 삭제하는 것은 제한하지만, B가 참조하는 다른 인스턴스에 의해서 B가 삭제되는 것은 제한하지 않는다. 

 

4) models.SET_NULL

해당 인스턴스가 참조하는 인스턴스가 삭제될 경우, 해당 인스턴스의 값을 NULL로 바꾼다. 

이때, 반드시 해당 인스턴스의 옵션이 null=True 으로 되어있어야 한다!

 

5) models.SET_DEFAULT

해당 인스턴스가 참조하는 인스턴스가 삭제될 경우, 해당 인스턴스의 값을 Default로 지정된 값으로 바꾼다. 

그러려면 반드시 해당 인스턴스의 default 값이 지정되어 있어야 한다!

 

6) models.SET({value})

해당 인스턴스가 참조하는 인스턴스가 삭제될 경우, 해당 인스턴스의 값을 SET 안의 값으로 바꾼다.

그러려면 반드시 SET의 괄호() 안에 값을 지정해 주어야 한다. 

 

7) models.DO_NOTHING

별다른 추가 처리를 하지 않는다. 

 

 

참고한 포스트

Model field reference | Django documentation | Django (djangoproject.com)

 

Inline

모델 A가 모델 B를 ForeignKey로 가질 때, 모델 A는 모델 B에 의존한다. 

모델 A의 각 데이터마다 해당하는 모델 B의 데이터를 보고 싶을 때, inline을 사용한다. 

 

# models.py
class Home(models.Model):
	id = models.IntegerField()
	address = models.CharField()

class Person(models.Model):
	id = models.IntegerField()
	name = models.CharField()
	home = models.ForeignKey(Home, on_delete=models.CASCADE)
# admin.py
class PersonInline(admin.StackedInline):
	model = Home	# 해당 클래스가 외래키로 갖는 모델 입력
    
class HomeAdmin(admin.ModelAdmin):
	inlines = [PersonInline]	# 해당 클래스를 참조하는 다른 inline 클래스 입력

 

예시에서는 Person이 Home을 ForeignKey로 갖는다.

하나의 home 인스턴스를 참조하는 person 객체는 여러개일 수 있다. 

만약 각각의 home을 참조하는 person 객체들을 한 번에 보고 싶다면 inline을 활용하면 된다. 

 

InlineModelAdmin

장고에서도 inline을 사용하기 위한 InlineModelAdmin 클래스를 제공한다. 

(InlineModelAdmin은 ModelAdmin의 하위 클래스이다.)

InlineModelAdmin 클래스는 두 개의 하위 클래스인 StackedInline, TabularInline으로 구성되어 있는데, 두 클래스의 차이는 렌더링에 사용되는 템플릿의 차이 정도라고 봐도 무방하다. 

 

*렌더링(rendering):

작성한 웹사이트 코드를 사용자가 보는 웹 페이지로 바꾸는 과정. 

렌더링 엔진을 사용하여 렌더링을 한다. 

 

+) 또한 각 인스턴스를 참조하는 inline은 개별 데이터를 조회하는 화면에서 볼 수 있다. 

 

 

InlineModelAdmin options

InlineModelAdmin의 옵션 중 ModelAdmin의 필드와 다른 것, 재정의한 필드 등을 살펴보자. 

 

1) models

Inline 클래스가 어떤 모델의 데이터를 나타내는지를 입력한다. 

 

2) can_delete

데이터 조회 페이지가 아니라 inline이 나온 페이지에서도 데이터를 삭제할 수 있는지를 결정한다. 

기본값은 True이며 이 경우 inline에서 바로 데이터를 삭제할 수 있다. 

False로 입력하면 inline에서는 데이터를 삭제할 수 없고, inline에 해당하는 클래스(모델)의 데이터 조회 페이지에서 데이터를 삭제할 수 있다. 

 

3) fields

inline에서도 필드를 선택적으로 보여줄 수 있다. 

 

4) exclude

fields와 기능은 같은 반대 옵션이다. inline에서는 사용자에게 이 안에 입력한 필드만 제외하고 보여준다. 

 

5) inlines

inline 클래스에서도 또 다시 inline을 지정할 수 있다. 

 

6) fk_name

해당 inline이 나타내는 클래스에 여러 개의 ForeignKey 필드가 있을 때 사용한다.

여러 개의 ForeignKey 필드 중에서 어떤 필드를 참조하여 inline을 생성할지를 결정한다. 

# models.py
class Request(models.Model):

    user = models.ForeignKey(User, on_delete=models.CASCADE)
    project = models.ForeignKey(Project, on_delete=models.CASCADE)
    request_state = models.IntegerField()
    name = models.CharField()
    deadline = models.DateTimeField()
    contents = models.TextField()
    price = models.IntegerField()


# admin.py
class RequestInline(NestedStackedInline):
    model = Request
    fk_name = 'project'

RequestInline 클래스는 Request 모델에 대한 inline을 담당한다. 

그러나 Request 모델은 2개의 ForeignKey(User, Project)를 갖고 있다. 

따라서 inline을 생성할 때 개별 User에 대해서 inline을 생성할지, 개별 project에 대해서 inline을 생성할지를 정해 주어야 한다. 

여기서는 fk_name = 'project' 으로 project 필드를 기준으로 inline을 생성한다고 지정했다. 

 

7) max_num

하나의 데이터를 조회할 때, 최대 몇 개의 inline 데이터를 표시할지를 지정한다. 

 

8) formfield_overrides

딕셔너리 형태의 값을 받는다. 

모델에서 정의한 특정 필드를 관리자 페이지에서만 지정된 형식으로 나타낼 수 있게 해 준다. 

 

# models.py
class Person(models.Model):
	id = models.BigIntegerField()
	name = models.CharField(max_length=30)
	introduce = models.CharField(max_length=500)
    
# admin.py
class PersonAdmin(admin.ModelAdmin):
	formfield_overrides = {
		models.BigIntegerField: {'widget': Textarea(attrs={'rows':1, 'cols':15})}
		models.BigIntegerField: {'widget': Textarea(attrs={'rows':2, 'cols':25})}
	}

모델 Person을 조회하는 관리자 페이지에서는 models.BigIntegerField 타입인 필드를 Textarea()의 형식으로 나타낼 수 있다. (CharField도 마찬가지이다. )

 

 

<잘 모르겠는 options> - 다음에 공부하기!

-formset

-form

-extra

 

 

참고한 포스트

The Django admin site | Django documentation | Django (djangoproject.com)

 

가상환경을 설치하는 방법은 anaconda, pip 등 여러 가지가 있다. 

오늘은 anaconda와 pip을 둘 다 사용해서 가상환경을 만들어 보자. 

pip는 저번에 구체적으로 다루었으니, 이번에는 conda를 사용해서 가상환경을 만든 뒤 그 안에서 pip를 사용해 볼 것이다. 

 

anaconda와 pip은 모두 파이썬을 사용하는 가상환경을 만들어 준다는 점에서 동일하지만, anaconda에서 사용 가능한 라이브러리와 pip에서 사용 가능한 라이브러리가 다르다. 

(물론 numpy처럼 둘 다에서 사용 가능한 라이브러리도 있다.)

 

anaconda와 pip의 차이

anaconda와 pip이 어떻게 다른지를 알아보기 위해서 각 시스템의 특징을 보자. 

 

pip는 파이썬 환경에서만 사용할 수 있는 패키지가 포함된다.

반면 conda는 파이썬 외의 C, C++, Java 등에서도 사용 가능한 패키지도 포함된다. 

 

또한 pip의 패키지들은 소스 패키지라서 아직 빌드를 하지 않은 상태이다. 즉 빌드를 하다가 예외적인 상황으로 오류가 발생할 가능성이 있다. 

반면 conda의 패키지들은 사용자의 운영체제에 맞춰서 이미 빌드가 된 상태이고, 한 패키지의 버전을 변경하면 그 패키지와 의존관계가 있는 다른 패키지의 버전도 맞춰서 변경해 준다. 

 

conda의 단점을 얘기한 것 같은데, 그렇다기보다는 두 시스템이 다르다고 보면 될 것 같다. 

pip의 장점 중에서는 conda보다 용량이 가벼운 패키지들이 많다는 의견도 있다. 

 

conda의 패키지를 C나 Java에서 사용할 수 있는 이유

이는 파이썬 언어의 특징과 관련이 있다. 

파이썬은 C, C++와 잘 결합되는 언어이다.

일부 파이썬 라이브러리의 경우, C나 C++로 라이브러리를 개발한 뒤, 파이썬 언어를 사용해서도 해당 라이브러리를 다룰 수 있게 만들었다.

그래서 conda의 패키지를 파이썬과 C++ 환경 모두에서 사용할 수 있다. 

 

 

본격 설치하기

 

시작 전에, anaconda 공식 홈페이지에서 anaconda를 다운 받고 환경변수 설정을 마쳐야 한다. 

제대로 잘 되었다면, 윈도우 cmd 기준으로

conda --version

이렇게 입력했을 때 오류 없이 anaconda의 버전이 뜰 것이다. 

 

conda 가상환경 설치하기

지금부터는 cmd에서 conda라는 anaconda 환경변수를 이용해서 작업할 것이다. 

conda create -n {가상환경 이름} 

conda create -n condaenv

 

pip와 마찬가지로 특정 버전의 파이썬을 사용하는 가상환경을 만들고 싶다면 뒤에 python={버전} 을 붙여준다. 

conda create -n {가상환경 이름} python={파이썬 버전}

conda create -n condaenv python=3.6

당연한 말이지만 여기서 명시한 파이썬 버전 파일이 로컬 PC에 있어야 한다. 

 

conda 가상환경 삭제하기

만약 가상환경을 잘못 만들었다면 삭제해야 한다. 

conda remove -n {환경변수 이름} --all

conda remove -n condaenv --all

가상환경의 특정 부분만 삭제하려는 것이 아니라면 명령어 뒤에 반드시 --all 을 붙여주자. 그래야 환경 전체가 잘 삭제된다. 

환경이 완전히 삭제되지 않는 경우, 다음에 같은 이름으로 가상환경을 만든다면 conda 파일이 아닌 해당 이름의 파일이 이미 해당 디렉토리에 존재한다는 식의 에러가 뜬다. 

 

conda 가상환경 실행하기

아무튼 가상환경이 잘 만들어졌다면 이제 가상환경을 실행해야 한다. 

conda activate {가상환경 이름}

conda activate condaenv

 

CommandNotFoundError 오류가 난다면? 

나는 conda를 처음 사용했었는데, 처음에 이 명령어를 입력하니 오류가 났다. 

 

CommandNotFoundError: your shell has not been properly configured to use 'conda deactivate'

 

1) 윈도우

맨 처음 conda 가상환경을 만들었다면, 바로 실행하지 말고 conda init 명령어를 입력한다. 

그러면 conda와 Shell(여기서는 cmd)이 서로 연결되기 위해서 초기화 작업을 실행한다. 

이 작업이 끝나면 초기화 작업이 잘 반영되도록 cmd를 끄고 새 창을 열라는 말이 나온다. 

 

2) 맥, 리눅스

다른 커맨드를 입력해서 문제를 해결할 수 있다. 

source ~/anaconda3/etc/profile.d/conda.sh
conda activate my_env

 

conda 패키지 설치하기

conda install {설치할 패키지 이름}

conda install package-name

 

만약 기본 채널(channel)이 아니라 다른 채널의 패키지를 설치하고 싶다면 -c 옵션을 추가하자. 

conda install -c {채널 이름} {설치할 패키지 이름}

conda install -c conda-forge pythonocc-core occt

 

🗒️채널(Channel)

conda 패키지를 저장하는 저장소. conda에는 여러 개의 원격 저장소(채널)가 존재한다. 

예를 들어 다운받으려는 패키지가 A 채널에 있다면, -c 옵션으로 A 채널에서 패키지를 다운로드한다고 명시해 주어야 한다. 

대표적인 conda 채널에는 conda-forge가 있다. 

 

--append: 채널 추가하기

어떤 채널을 통해서 패키지를 다운 받고 싶다면 우선 그 채널을 채널 목록에 추가한다. 

conda config --append channels {채널 이름}

 

channel_priority: 채널 우선순위 정하기

기본 환경에서 conda는 default 채널을 사용한다. 

만약 본인이 conda-forge 등 거의 한 채널만 이용한다면 매번 -c 옵션으로 채널을 명시하는 것은 번거로울 수 있다. 

그럴 땐 채널 리스트의 여러 채널들 중에서 우선순위를 정하면 된다. 

conda config --set channel_priority strict

 

--show channels: 채널 우선순위 확인하기

현재 채널의 우선순위는 채널 리스트에서 확인할 수 있다. 

conda config --show channels

가장 위에 있는 것이 가장 우선순위가 높은 채널이다. 

 

pip로 패키지 설치하기

pip install -r {파일 이름}

해당 파일에 명시된 이름과 버전 그대로 패키지를 설치해 준다. 

 

 

이처럼 하나의 가상환경 안에서 pip와 conda를 모두 이용해서 패키지를 설치할 수 있다. 

 

 

 

참고한 포스트

[Anaconda] Conda 명령어, 기본 개념 모음 (tistory.com)

[아나콘다] conda 명령어 목록 (conda command list) (tistory.com)

[Anaconda] conda install 과 pip install 은 똑같은 걸까? (tistory.com)

[기고] 왜 파이썬(Python)인가? (b2en.com)

[Python] pip와 conda의 차이 — vg-rlo (tistory.com)

conda create — conda 4.13.0.post28+5138e307 documentation

Conda channels — conda 4.13.0.post28+5138e307 documentation

Can't execute `conda activate` from bash script · Issue #7980 · conda/conda (github.com)

[Anaconda]가상환경 설치,삭제 (tistory.com)

conda remove — conda 4.13.0.post28+5138e307 documentation

miniconda의 기본 채널 변경 : conda-forge (tistory.com)

 

+ Recent posts