블로그 운영 팁스(Tips) / / 2013. 7. 18. 09:09

초보가 알아두면 좋을 검색엔진최적화(SEO) 전문용어들

반응형


블로그를 가지고 있으며, 인터넷에서 여러가지 용어들을 검색하고 있지만 왠지 SEO(Search Engine Optimization)이란 용어가 나오면 움츠려든다. 지금도 역시 마찬가지다. 검색엔진최적화(SEO)는 복잡하고 대충대충해도 되는 것으로 생각하고 아에 배우려는 생각도, 관련된 지식을 얻으려는 노력도 해보지 않았던 것 같다. 하지만 블로그를 운영하면서 기본적인 "검색엔진최적화"에 대한 지식을 가지고 있어야 함을 실감한다. 왜냐면 특정 메타사이트의 메인노출을 통해서 블로그를 운영할 수도 없으려니와 칼럼니스트가 아니라면 정보의 검색을 통한 자신의 블로그 유입에 관심을 가져야 하기 때문이다.




검색엔진최적화(SEO)를 시작하기 위해서는 스스로 친해지려고 관심을 가지는 것부터 시작하는 것이 좋다. 아주 일반적인 말을 검색해서 찾아보고 그것에 대한 의미를 차근차근 쌓아두면서 꼭 필요한 기술적인 능력을 가지게 된다면 접근하는데 그리 어렵지 않으리라 생각한다. 검색엔진최적화를 위해서 알아야할 기본적인 전문용어들을 정리해 두려한다. 앞으로 SEO와 친숙해지는 꼭 필요한 용어이므로 익혀두면 블로그 운영에 많은 도움이 되리라 본다.




1. SEM


Search Engine Marketing을 나타내는 말이다. 검색엔진을 통해서 재화나 서비스를 마케팅하는 것을 말한다. 검색엔진마케팅(SEM)은 각각 SEO와 PPC라는 두분으로 나누어진다. SEO는 자신의 페이지가 검색엔진의 검색결과 상위노출을 위해 자신의 웹사이트를 최적화시키는 활동을 말하고, PPC는 클릭당 지불(Pay-Per-Clicks)을 뜻하는 것으로 검색엔진을 통해서 구매클릭을 유도하는 활동을 말한다. 검색엔진을 통해서 검색된 재화나 서비스를 클릭해서 수익을 얻는 업체로부터 스폰서된 리스트의 클릭만 지불이 된다.


2. Backlink


인링크(inlink) 또는 링크(link)라고 하는데 다른 사람의 웹사이트를 통해서 자신의 웹사이트로 들어오게 만드는 하이퍼링크다. 백링크는 검색순위나 웹랭크에 영향을 미치기 때문에 SEO를 위해서 중요하다. 다른 웹사이트에서 내 사이트에 링크를 걸어준다는 것은 그만큼 자신의 페이지가 정보활용가치가 높다는 것을 의미한다.


3. PageRank


페이지랭크는 웹을 둘러싼 연관성이 있고 중요한 페이지들을 평가하기 위해서 구글이 사용한 알고리즘이다.  그 알고리즘의 기본개념은 A라는 페이지에서 B라는 페이지로 가는 링크는 A페이지에서 B페이지로 가도록하는 신뢰도를 의미한다. 그러므로 어떤 페이지의 링크수가 많으면 많을수록 이런 페이지의 중요도 더욱 높아질 가능성이 있다. 즉, 다른 사람들이 내 페이지에 링크를 많이 걸어주면 줄수록 신뢰도와 랭크가 상승한다는 개념이다.


4. Linkbait


쉽게 말하자면 자신의 웹사이트로 끌어들이기 위한 "링크미끼"라고 보면된다. 따라서 블로그나 웹사이트의 콘텐츠의 전부가 아닌 핵심을 간추린 요약문이나 타이틀 정도로 보면 된다. 여기에는 텍스트도 있겠지만 비디오, 이미지, 퀴즈나 그 밖의 방법으로 링크를 유도할 수 있다. 가장 고전적인 예는 소셜 북마킹에서 인기를 얻기 쉬운 "톱10 리스트" 등이 있다. 사람들의 관심을 끌수있는 링크유도 수법으로 이해하면 무리가 없을것 같다.


5. Link farm.


링크팜은 인위적으로 페이지랭크(검색엔지평가)를 상승시킬 목적으로 다른 웹사이트에 대량의 링크를 고의로 걸어놓는 웹사이트 그룹을 말한다. 그러나 이런 행위는 검색엔진의 초창기에는 효과적이었지만 오늘날에는 스팸기술로 취급받고 있다. (잘못하면 처벌을 받을 수도 있다.)


6. Anchor text


앵커텍스트. 자신의 블로그에 정착하도록 만드는 결정적 텍스트를 말한다. 따라서 풍부한 앵커텍스트를 갖는 것은 SEO에 도움이 된다. 왜냐면 구글은 이러한 키워드들을 내가 소유한 웹사이트의 콘텐츠에 연결시켜 주기 때문이다. 예를 들어서 체중감소에 관한 블로그를 가지고 있다고 생각해 보자. 블로그의 백링크를 위해서 앵커텍스토로 "체중감소", "다이어트"를 가지고 있다면 검색랭킹을 향상시키는 데에 상당한 도움이 된다.


7. NoFollow


링크되어 있는 웹사이트를 보증하지 않는 구글에 신호를 보내기위한 웹사이트 소유자들에 의해서 사용되어지는 링크속성이다. 이것은 링크가 사용자 자신에 의해서 만들어 졌거나, 링크가 스폰서나 광고주에게 지불되어질때 발생하는 속성이다. 구글의 NoFollow 속성을 볼때 기본적으로 페이지랭크나 검색알고리즘을 위한 이러한 링크는 카운트되지 않는다.


8. Link Sculpting


NoFollow 속성을 전략적으로 사용함으로써 웹마스터들은 그들의 웹사이트 안에서 페이지랭크의 흐름을 다각화할 수 있었다. 그래서 원하는 페이지의 검색순위를 높이는 것이 가능했지만 최근에 구글은 NoFollow 처리 방법을 변경함으로써 이러한 수법은 더이상 쓸모가 없어졌다.


9. Title Tag


타이틀 태그는 문자그대로 웹페이지의 제목이다. 그리고 그것은 구글의 검색 알고리즘의 가장 중요한 요소이다. 그래서 블로그 타이틀은 독특해야 하며 페이지 속의 주요 키워드를 반드시 포함해야 한다. 웹 브라우저가 네이게이트 하는 동안에 브라우져의 상단부분을 차지하는 페이지 타이틀은 이러한 원칙을 잘 활용한 예라고 하겠다.


10. Meta Tags


타이틀 태그와 같이 메타태크들은 내 페이지속의 콘텐츠로 간주되는 더 많은 정보를 검색엔진에 주기위하여 사용되어진다. 메타태그들은 HTML코드의 HEAD안쪽에 위치해 있는데 필요한 키워드를 선정해서 HTML파일을 수정하면 된다. 일종의 "문패"라고 생각하면 된다. 검색엔진이 찾아올 수 있는 문패라고 생각하면 무난하다.


11. Search Algorithm


구글의 검색 알고리즘은 어떤 검색질문에 대해 가장 연관성이 있는 웹페이지를 찾아내기 위하여 사용된다. 그 알고리즘은 200개 이상의 요소가 있다고 고려되어 지는데(구글 자체에 의하면), 그러한 요소에는 페이지랭크 가치, 타이틀 태그, 메타 태그, 웹사이트의 콘텐츠, 도메인의 사용기간 등이 고려된다고 한다.


12. SERP


Search Engine Results Page의 약어인데 말하자면 검색결과로 나타나는 페이지를 뜻한다. 기본적으로 구글이나 다른 검색엔진에 특정한 키워드를 검색하고자 할때 얻고자하는 페이지를 의미한다. 웹사이트의 트래픽양은 SERP들의 랭킹에 의존한다. 다시 말해 검색결과로 나타나는 여러 페이지 중에서 검색순위가 높을 수록 많을 트래픽을 얻을 수 있다는 것이다.


13. Sandbox


구글은 기본적으로 새롭게 발견된 모든 웹사이트를 배치하는 별도의 색인과 샌드박스를 갖고 있습니다. 웹사이트가 샌드박스위에 있을때 일반적인 검색질의에 대한 검색결과가 나타나지 않는다. 따라서 구글은 일단 웹사이트가 합법적인가를 분류해내면 웹사이트를 샌드박스 밖이나 주요 색인 안으로 옮겨 놓을 것이다. 보호된 영역내에서 프로그램을 동작시키는 것이다. 가령 불법적인 정보나 프로그램을 외부로 보냈을 경우 문제가 발행하므로 정보의 유효성을 먼저 판단하도록 안전장치를 만들자는 차원에서 고안해 낸 것이 바로 샌드박스이다.


14. Keyword Density


어떤 특정한 페이지의 키워드 밀집도를 찾으려면 키워드의 사용빈도를 전체 사용한 단어수로 나누어 보면 된다. 키워드 밀집도는 초창기에 중요한 SEO요소가 되곤 했는데 지금은 그렇지 않다.


15. Keyword Stuffing


키워드 밀집도가 검색 알고리즘 초창기에 중요했기 때문에 웹마스터들은 자신의 웹사이트안에 키워드 밀집도를 인위적으로 유도하는 시스템을 가지고 경쟁하기 시작했다. 이것이 "키워드 스터핑"이다. 그러나 이런 활동은 거의 블로그 운영에 도움이 안된다. 심하면 처벌을 받을 수도 있다.


16. Cloaking


이 기술은 똑같은 페이지를 검색엔진이나 방문자에게 다른 콘텐츠로 보여주는 것이다. 이렇게 하는 목적은 특정 키워드의 검색순위 상승을 얻기위해서 인데 제품이나 서비스를 홍보하기 위하여 유입되는 트래픽을 이용하는 것이다. 이런 행위는 스팸으로 간주되어 대부분의 검색엔진에서는 위반시 처벌까지 하고 있다.


17. Web Crawler


'검색 봇', '스파이더'라고 부르기도 한다. 이것은 새로운 링크들과 페이지들을 발견하기 위하여 검색엔진을 대신하여 웹에 보여주는 컴퓨터 프로그램이다. 이것은 색인 과정의 최초 단계이기도 하다.


18. Duplicate Content


중복 콘텐츠는 일반적으로 다른 블로거의 콘텐츠와 완전히 일치하거나 눈에 뜨게 유사한 콘텐츠의 실질적인 블럭을 말한다. 웹사이트에서 중복 콘텐츠는 피해야 한다. 왜냐하면 저작권 문제를 빌미로 처벌을 받을 수도 있기 때문이다.


19. Canonical URL


정형화라는 것은 하나이상의 표현이 가능한 데이터를 "표준"이라는 정형화된 표현으로 변화시키기위한 과정을 말한다. 즉, 정형화된 URL은 내 블로그의 특정 페이지에 접근하기위한 표준 URL이다. 예를 들어 도메인의 표준화된 버전은 http://도메인.com 대신에 http://www.도메인com이라는 말이다.


20. Robots.txt


이것은 파일 이외에 아무것도 없다. 도메인의 루트속에 위치하고 있다. Robots.txt는 웹사이트의 구조에 관한여 검색봇에게 알려주기 위해 사용된다. 예를 들어서, robots.txt 파일을 경유하여 특정한 검색 봇을 차단할 수도 있고, 웹사이트 안의 특정한 폴더의 접근을 제한할 수도 있다.



반응형
  • 네이버 블로그 공유
  • 네이버 밴드 공유
  • 페이스북 공유
  • 카카오스토리 공유