ÆÄÀ̽ã À̾ Áú¹®ÀÌ ÇÑ°¡Áö ÀÖ½À´Ï´Ù..

   Á¶È¸ 3372   Ãßõ 0    

자료를 최종적으로 csv파일이나 엑셀형태로 내보내고싶은데요.

아래와같이 프로그래밍 했을때 엑셀형태로 내보내기위한 명령어 사용이 안됩니다...


최종 적으로 원하는 데이터 형태는 아래와 같습니다..

Date              Price

2018.3.20       25000

2018.3.22       26400




import requests 

import csv   

from bs4 import BeautifulSoup 

import pandas as pd

code="105560"

url = "http://hkconsensus.hankyung.com/apps.chart/chart.chartList?callback=jQuery112406638263512384042_1563692725032&report_type=CO&business_code=%s&_=1563692725033" %code

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36'} 

html = requests.get(url,headers = headers).text 

soup = BeautifulSoup(html, "html.parser")

data=str(soup)

first = "(["

last = "])"

getrid_firt = data.split(first, 1)[1]

strdata = getrid_firt.split(last, 1)[0]

print(strdata)



일단 위와같이 코딩을한 배경을 간단히 말씀드리자면



>>> soup

jQuery112406638263512384042_1563692725032([[Date.UTC(2008,9,11),47000],

[Date.UTC(2008,9,14),50700],

[Date.UTC(2008,9,15),53100],

[Date.UTC(2008,9,16),51000],

....

[Date.UTC(2019,6,26),44150],

[Date.UTC(2019,6,27),43800]])


위와같이 첫줄과 막줄에 불필요한 문자들이 포함되어있어 이를 제거하기 위해 

soup = BeautifulSoup(html, "html.parser")

data=str(soup)

스트링 처리를하고

first = "(["

last = "])"

getrid_firt = data.split(first, 1)[1]

strdata = getrid_firt.split(last, 1)[0]


([기호 앞부분과 ])기호 뒷부분을 제거하여 strdata에 저장하였습니다.

그 결과 이게 pandas를 이용해 to_csv를 이용하기가 어려워졌습니다....


엑셀이나 CSV에 

Date              Price

2018.3.20       25000

2018.3.22       26400

이런식으로 결과가 입력되기만 하면되는데....기본이 없으니 삥삥 돌고있습니다....

혹시 가능하시면 도움을 좀 부탁드립니다.

ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
chis 2019-07
µ¥ÀÌÅ͸¦ º¸´Ï±î ÁÖ½Ä µ¥ÀÌÅÍ°°Àºµ¥¿ä Á¦ »ý°¢¿¡´Â ÀÌÂü¿¡ ÇÁ·Î±×·¡¹ÖÀ» Á» °øºÎÇϽðí Â÷±ÙÂ÷±Ù ºÎµúÇô°¡¸é¼­ ±â´ÉÀ» ±¸ÇöÇغ¸½Ã´Â°Ô
ÁÁÀ»°Å°°½À´Ï´Ù. ÀÀ´äµÈ µ¥ÀÌÅ͸¦ º¸¸é ¿ùÀÚ¸®¶ó°í ¿¹ÃøµÇ´Â°÷¿¡ 0¿ùµµ ÀÖ°í ÀÏ ÀÚ¸®¶ó°í ¿¹ÃøµÇ´Â°÷¿¡ 32ÀÏÀ̶ó°í ÀûÈù°÷µµ ÀÖ¾î¿ä..
ÀÌ·±°Å±îÁö ÀüºÎ ±³Á¤ÇؾßÇÒÅÙµ¥ ÀÌ·±°É ÀÏÀÏÀÌ ´Ù ¾Ë·Áµå¸±¼ö´Â ¾øÁö ¾ÊÀ»±î¿ä?
ÀÏ´Ü ¿Ã¸®½Å ¼Ò½º¿¡¼­´Â ÀÀ´äµÈ µ¥ÀÌÅ͸¦ bs4·Î °¥ ÇÊ¿ä ¾øÀÌ  .text·Î ÆĽÌÇÑ°Å ±×´ë·Î ¾²½Ã¸é µÉ°Å°°°í¿ä.
ÀÀ´äµÈ µ¥ÀÌŸ°¡ Á» ÁöÀúºÐÇÑ ±¸Á¶¶ó¼­ Á¤±ÔÇ¥Çö½ÄÀ» Á» ÀÍÈ÷¼Å¾ßÇÒ°Å°°½À´Ï´Ù.
±×¸®°í csv·Î ÀúÀåÇÒ¶§´Â pandas±îÁö ¾²½Ç ÇÊ¿ä ¾ø°í ±×³É import csvÇؼ­ »ç¿ëÇϼŵµ ¹«¹æÇÒµíÇÏ°í¿ä.
     
´ä±Û °¨»çµå¸³´Ï´Ù^^
¸»¾¸Ã³·³Á¶±Ý¾¿ °øºÎÇϸ鼭 °¡°íÀÖ½À´Ï´Ù. Á¶±ÞÇÔ ¶§¹®ÀÌÁö¿ä ¤¾¤¾¤¾

¸»¾¸ÇØÁֽŰÍó·³ .textÆĽÌÇÑ°Í ±×´ë·Î °¡µµ ±¦Âú³×¿ä~!
Çåµ¥ Á¦°¡ Àß ¸ð¸£´Â°Í °°Àº°ÍÀÌ csv³ª ¿¢¼¿ÇüÅ·Π³»º¸³¾¶§ ÀÚ·áÇüÀÌ ¾î¶²°ÍÀ̾î¾ß Çϳª¿ä?
¾ÕµÚ¿¡ÀÖ´Â ºÒÇÊ¿äÇÑ ºÎºÐÀ̳ª. [,]()¿Í °°Àº ºÒÇÊ¿äÇÑ ±âÈ£¸¦ ¾ø¾Ö·Á°í strÀÚ·áÇüÀ¸·Î ¹Ù²Ù¾ú´õ´Ï
³ªÁß¿¡ csv·Î ³»º¸³»µµ ÇÑÀÚÇÑÀÚ ¼¿À» ¹Ù²ã ÀúÀåÀÌ µÇ³×¿ä ¤¾¤¾¤¾
´Ù½Ã ÀÚ·áÇüÀ» ¹Ù²Ù¸é µÉ±î¿ä??
          
chis 2019-07
import csvÇؼ­ csvÀúÀåÇϴ°Ŵ writerow·Î ÇÑÁÙ¾¿ ¸®½ºÆ®ÇüÅ·ΠÀÔ·ÂÇÏ¸é µé¾î°©´Ï´Ù.
¿¢¼¿·Î »ÌÀ»·Á¸é  pip·Î ¿ÜºÎ ¸ðµâÀ» ºÒ·¯´Ù°¡ ½á¾ßÇϴµ¥ ÀÌ°Ô ¸ðµâ¸¶´Ù »ç¿ë¹ýÀÌ ´Ù¸£´Ùº¸´Ï ±×³É csv·Î ÀúÀåÇÏ´Â°Ô ÆíÇҰŶó°í »ý°¢µË´Ï´Ù.
ÆÄÀ̽ãÀ¸·Î µ¥ÀÌŸ¸¸ ½ºÅ©·¡ÇÎÇؼ­ ¿¢¼¿¿¡ ºÒ·¯³õ°í ¸Õ°¡ ÀÛ¾÷À» ÇϽǷÁ´Â°Å°°Àºµ¥ ÆÄÀ̽ãÀ» Á» ´õ ÀÍÈ÷¼Å¼­ ¿¢¼¿À» ÀÌ¿ëÇÏÁö ¾Ê°í ó¸®Çϴ°Ô
¼Óµµ¸é¿¡¼­µµ ±â´É¸é¿¡¼­µµ ¿ùµîÇϸ®¶ó »ý°¢µË´Ï´Ù¸¸ database±îÁö °°ÀÌ ÀÍÈ÷¼Å¾ßÇÒ°Ì´Ï´Ù..


QnA
Á¦¸ñPage 1245/5688
2014-05   5005150   Á¤ÀºÁØ1
2015-12   1540899   ¹é¸Þ°¡
2019-07   3479   ±è°Ç¿ì
2019-07   2868   ¹é·æ
2019-07   2982   ¹Ýµµ
2019-07   3087   ȣȣ
2019-07   2651   ¹é·æ
2019-07   3210   twopaik
2019-07   2539   ³Ä¹Ì³Ä¹Ì
2019-07   2940   Mazenda
2019-07   3089   »ßµ¹À̽½ÇÄÀÌ
2019-07   2396   newretrowave
2019-07   8112   LINKINPARK
2019-07   6650   catstyle
2019-07   2770   ±èÁØÀ¯
2019-07   3373   ´ëÇѹα¹
2019-07   2871   motion
2019-07   2831   ±èÁØÀ¯
2019-07   2792   ±Ç¼ø±Ô
2019-07   4729   Å«°õÇϿ콺
2019-07   2667   ÇãÀα¸¸¶Æ¾
2019-07   2981   ¿øÁÖ´ÃÇ°