2010년 4월 16일 금요일

웹마스터와 검색엔진 최적화 전문가를 위한 구글의 새로운 기능들


웹마스터와 검색엔진 최적화 전문가를 위한 구글의 새로운 기능들


 


구글은 웹마스터와 검색엔진 최적화 전문가들이 구글의 새 기능들을 잘 이용할수 있도록 하기위해 많은 일들을 하고 있습니다. 비록 구글이 가지고 있는 검색 알고리즘이 무엇인지를 명확히 알려주지는 않지만 고객과 검색엔진에게 더 밀접하게 다가서는 웹사이트를 만들수 있도록 여러가지 정보를 공유하고 있습니다.


 


최근에 구글 블로그와 웹마스터 센터를 통해서 주목해 볼만한 몇몇 새로운 기능들이 발표되었습니다. 이 기능들은 여러분의 사이트가 좀더 많은 트래픽을 이끌어 내도록 도와줍니다.


 


1. 당신의 사이트가 불법 소프트웨어에 감염이 되지는 않았는지 체크해보세요.


 


구글과 같은 메이저급 회사들도 종종 사이버 공격의 대상이 되곤하기 때문에 어떤 사이트도 절대적으로 안전한 사이트는 없다고 보여집니다. 구글은 이런 측면에서 의심이 되거나 감염이 되어졌다고 생각되는 사이트를 별도로 관리하기 때문에 만약 당신의 사이트가 해킹을 당하거나 불법 소프트웨어에 감염이 되었다면 분명 검색 트래픽에 안좋은 영향을 미칠 것입니다. 만약 이런일이 발생한다면 구글은 이제부터 웹마스터 계정에 표시된 이메일 주소로 알림 메시지를 보낼 것입니다.


추가로, 구글 웹마스터의 진단 섹션에(Diagnostic section) 당신의 사이트가 불법 소프트웨어와 관련된 문제가 있는지를 알려주는 별도의 섹션이 생겼습니다.


 


2. 사이트 맵에 이미지 추가


 


이미지 검색에 관한 최적화를 하고 있다면 도움이 될만한 소식입니다. 이제는 당신의 웹사이트에 있는 이미지에 관한 정보를 표준 구글 사이트맵에 추가할 수 있습니다. 당신사이트에 검색봇에 의해 쉽게검색이 되지 않는 이미지가 있다면 (예를 들어 자바스크립트에 의해 접근될수 있다면) 이제는 그 이미지들이 검색 인덱스에 포함될수 있도록 사이트맵에 추가할수 있게 된것입니다.


 


3. 검색결과에서 주의를 요하는 정보의 제거


 


검색엔진 최적화를 진행함에 있어서 대부분의 시간은 어떻게 하면 내 웹사이트의 컨텐츠를 검색엔진에서 상위등록시키고, 좀더 많은 방문객을 유도할까하는 고민속에서 보내게 됩니다. 흔치 않은 경우이지만 몇몇 반대되는 경우도 있습니다. 어떻게 하면 주의를 요하는 정보를 검색엔진에서 없앨까에 관한 것이지요. 물론 제일 좋은 방법은 초기에 robot.txt 파일에 설정을 해서 검색봇이 그 정보를 접근하지 못하게 하는 것이겠지요.


 


그러나 그렇게 하지 못한 상황에서 검색엔진 검색 결과로부터 어떤 컨텐츠를 제거해야 할 필요가 있다면, 그리고 robot.txt에 설정을 바꾸고 검색봇이 새로운 설정을 찾아갈 때까지 시간적 여유가 없다면, 다음과 같은 방법으로 원하는 컨텐츠의 제거를 요청할수 있습니다.


 


구글웹마스터툴의 사이트설정(Site Configuration)->크롤러 접근(Crawler access)->URL 제거.


 


이렇게 하면 그페이지가 다시 인덱싱 될때까지는 검색결과에서 그 페이지의 설명(description)과 캐쉬로 저장된 페이지 정보가 제거될 것입니다.


 

댓글 없음:

댓글 쓰기