ÆÄÀ̽ã À̾ Áú¹®ÀÌ ÇÑ°¡Áö ÀÖ½À´Ï´Ù..

   Á¶È¸ 3789   Ãßõ 0    

자료를 최종적으로 csv파일이나 엑셀형태로 내보내고싶은데요.

아래와같이 프로그래밍 했을때 엑셀형태로 내보내기위한 명령어 사용이 안됩니다...


최종 적으로 원하는 데이터 형태는 아래와 같습니다..

Date              Price

2018.3.20       25000

2018.3.22       26400




import requests 

import csv   

from bs4 import BeautifulSoup 

import pandas as pd

code="105560"

url = "http://hkconsensus.hankyung.com/apps.chart/chart.chartList?callback=jQuery112406638263512384042_1563692725032&report_type=CO&business_code=%s&_=1563692725033" %code

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36'} 

html = requests.get(url,headers = headers).text 

soup = BeautifulSoup(html, "html.parser")

data=str(soup)

first = "(["

last = "])"

getrid_firt = data.split(first, 1)[1]

strdata = getrid_firt.split(last, 1)[0]

print(strdata)



일단 위와같이 코딩을한 배경을 간단히 말씀드리자면



>>> soup

jQuery112406638263512384042_1563692725032([[Date.UTC(2008,9,11),47000],

[Date.UTC(2008,9,14),50700],

[Date.UTC(2008,9,15),53100],

[Date.UTC(2008,9,16),51000],

....

[Date.UTC(2019,6,26),44150],

[Date.UTC(2019,6,27),43800]])


위와같이 첫줄과 막줄에 불필요한 문자들이 포함되어있어 이를 제거하기 위해 

soup = BeautifulSoup(html, "html.parser")

data=str(soup)

스트링 처리를하고

first = "(["

last = "])"

getrid_firt = data.split(first, 1)[1]

strdata = getrid_firt.split(last, 1)[0]


([기호 앞부분과 ])기호 뒷부분을 제거하여 strdata에 저장하였습니다.

그 결과 이게 pandas를 이용해 to_csv를 이용하기가 어려워졌습니다....


엑셀이나 CSV에 

Date              Price

2018.3.20       25000

2018.3.22       26400

이런식으로 결과가 입력되기만 하면되는데....기본이 없으니 삥삥 돌고있습니다....

혹시 가능하시면 도움을 좀 부탁드립니다.

ªÀº±Û Àϼö·Ï ½ÅÁßÇÏ°Ô.
chis 2019-07
µ¥ÀÌÅ͸¦ º¸´Ï±î ÁÖ½Ä µ¥ÀÌÅÍ°°Àºµ¥¿ä Á¦ »ý°¢¿¡´Â ÀÌÂü¿¡ ÇÁ·Î±×·¡¹ÖÀ» Á» °øºÎÇϽðí Â÷±ÙÂ÷±Ù ºÎµúÇô°¡¸é¼­ ±â´ÉÀ» ±¸ÇöÇغ¸½Ã´Â°Ô
ÁÁÀ»°Å°°½À´Ï´Ù. ÀÀ´äµÈ µ¥ÀÌÅ͸¦ º¸¸é ¿ùÀÚ¸®¶ó°í ¿¹ÃøµÇ´Â°÷¿¡ 0¿ùµµ ÀÖ°í ÀÏ ÀÚ¸®¶ó°í ¿¹ÃøµÇ´Â°÷¿¡ 32ÀÏÀ̶ó°í ÀûÈù°÷µµ ÀÖ¾î¿ä..
ÀÌ·±°Å±îÁö ÀüºÎ ±³Á¤ÇؾßÇÒÅÙµ¥ ÀÌ·±°É ÀÏÀÏÀÌ ´Ù ¾Ë·Áµå¸±¼ö´Â ¾øÁö ¾ÊÀ»±î¿ä?
ÀÏ´Ü ¿Ã¸®½Å ¼Ò½º¿¡¼­´Â ÀÀ´äµÈ µ¥ÀÌÅ͸¦ bs4·Î °¥ ÇÊ¿ä ¾øÀÌ  .text·Î ÆĽÌÇÑ°Å ±×´ë·Î ¾²½Ã¸é µÉ°Å°°°í¿ä.
ÀÀ´äµÈ µ¥ÀÌŸ°¡ Á» ÁöÀúºÐÇÑ ±¸Á¶¶ó¼­ Á¤±ÔÇ¥Çö½ÄÀ» Á» ÀÍÈ÷¼Å¾ßÇÒ°Å°°½À´Ï´Ù.
±×¸®°í csv·Î ÀúÀåÇÒ¶§´Â pandas±îÁö ¾²½Ç ÇÊ¿ä ¾ø°í ±×³É import csvÇؼ­ »ç¿ëÇϼŵµ ¹«¹æÇÒµíÇÏ°í¿ä.
     
´ä±Û °¨»çµå¸³´Ï´Ù^^
¸»¾¸Ã³·³Á¶±Ý¾¿ °øºÎÇϸ鼭 °¡°íÀÖ½À´Ï´Ù. Á¶±ÞÇÔ ¶§¹®ÀÌÁö¿ä ¤¾¤¾¤¾

¸»¾¸ÇØÁֽŰÍó·³ .textÆĽÌÇÑ°Í ±×´ë·Î °¡µµ ±¦Âú³×¿ä~!
Çåµ¥ Á¦°¡ Àß ¸ð¸£´Â°Í °°Àº°ÍÀÌ csv³ª ¿¢¼¿ÇüÅ·Π³»º¸³¾¶§ ÀÚ·áÇüÀÌ ¾î¶²°ÍÀ̾î¾ß Çϳª¿ä?
¾ÕµÚ¿¡ÀÖ´Â ºÒÇÊ¿äÇÑ ºÎºÐÀ̳ª. [,]()¿Í °°Àº ºÒÇÊ¿äÇÑ ±âÈ£¸¦ ¾ø¾Ö·Á°í strÀÚ·áÇüÀ¸·Î ¹Ù²Ù¾ú´õ´Ï
³ªÁß¿¡ csv·Î ³»º¸³»µµ ÇÑÀÚÇÑÀÚ ¼¿À» ¹Ù²ã ÀúÀåÀÌ µÇ³×¿ä ¤¾¤¾¤¾
´Ù½Ã ÀÚ·áÇüÀ» ¹Ù²Ù¸é µÉ±î¿ä??
          
chis 2019-07
import csvÇؼ­ csvÀúÀåÇϴ°Ŵ writerow·Î ÇÑÁÙ¾¿ ¸®½ºÆ®ÇüÅ·ΠÀÔ·ÂÇÏ¸é µé¾î°©´Ï´Ù.
¿¢¼¿·Î »ÌÀ»·Á¸é  pip·Î ¿ÜºÎ ¸ðµâÀ» ºÒ·¯´Ù°¡ ½á¾ßÇϴµ¥ ÀÌ°Ô ¸ðµâ¸¶´Ù »ç¿ë¹ýÀÌ ´Ù¸£´Ùº¸´Ï ±×³É csv·Î ÀúÀåÇÏ´Â°Ô ÆíÇҰŶó°í »ý°¢µË´Ï´Ù.
ÆÄÀ̽ãÀ¸·Î µ¥ÀÌŸ¸¸ ½ºÅ©·¡ÇÎÇؼ­ ¿¢¼¿¿¡ ºÒ·¯³õ°í ¸Õ°¡ ÀÛ¾÷À» ÇϽǷÁ´Â°Å°°Àºµ¥ ÆÄÀ̽ãÀ» Á» ´õ ÀÍÈ÷¼Å¼­ ¿¢¼¿À» ÀÌ¿ëÇÏÁö ¾Ê°í ó¸®Çϴ°Ô
¼Óµµ¸é¿¡¼­µµ ±â´É¸é¿¡¼­µµ ¿ùµîÇϸ®¶ó »ý°¢µË´Ï´Ù¸¸ database±îÁö °°ÀÌ ÀÍÈ÷¼Å¾ßÇÒ°Ì´Ï´Ù..


QnA
Á¦¸ñPage 1421/5709
2015-12   1679423   ¹é¸Þ°¡
2014-05   5145297   Á¤ÀºÁØ1
2018-08   3788   °ø¾ËÀÌ
2016-10   3788   °Å´Ï³×
2014-04   3788   ¿ì¾Ó»Ñ¾Ó
2017-03   3788   »ßµ¹À̽½ÇÄÀÌ
2018-10   3788   Sikieiki
2018-03   3788   ¹Ý¼º¸¸
2016-06   3788   ÆÄÀ̾Æ
2018-11   3788   ¾Æ¸¶µ¥¿ì¾²
2017-06   3788   ºÐ´ç±èµ¿¼ö
2018-09   3788   ±è°Ç¿ì
2019-09   3788   ³ªºñz
2017-06   3789   Àü¼³¼ÓÀǹ̡¦
2019-07   3789   ºÀºÀÀÌ
2017-01   3789   AplPEC
2017-09   3789   Sakura24
2018-06   3789   osthek83
2017-10   3789   ¹Ý¼º¸¸
2017-07   3789   Psychophysi¡¦
2014-05   3789   ³ª¿ì¸¶Å©
2019-10   3789   TLaJ3KtYGr